Comment des modèles IA peuvent collaborer sans partager leurs données (ni leurs paramètres)
Le Federated Learning (ou apprentissage fédéré) est une technique connue des spécialistes : elle permet d'entraîner une IA sur des données dispersées (comme sur des smartphones) sans jamais les centraliser. C'est un avantage majeur pour la vie privée. Mais une fois le modèle entraîné, comment faire collaborer plusieurs entreprises sans qu'elles aient à montrer leur "marchandise" (leurs paramètres de modèle) ? Une récente étude sur arXiv propose une réponse fascinante : la Federated Inference. L'idée ? Faire collaborer des modèles à l'exécution, tout en gardant tout le monde dans le noir.


















