Rapport intégré 2023

Témoignage de Philippe Limantour, Chief Technology and CyberSecurity Officer de Microsoft France

« Entrer dans la nouvelle ère de l’intelligence artificielle »

Philippe Limantour, Chief Technology and CyberSecurity Officer de Microsoft France

Depuis le lancement de ChatGPT(1) en novembre 2022, l’intelligence artificielle (IA) générative s’invite dans nos modes de travail. Elle marque le commencement d’une nouvelle ère du numérique, d’une ampleur probablement équivalente à celle de l’arrivée d’internet. On lit souvent qu’elle révolutionne la création de contenus. Surtout, ce qui lui confère un caractère inédit, c’est la possibilité de converser en langage naturel avec les systèmes informatiques. Avec l’IA générative, il suffit de poser une question pour obtenir instantanément une réponse. Comme il n’y a plus de langage technique à assimiler, elle casse la barrière numérique, ce qui favorise l’inclusion. Son deuxième atout majeur est sa capacité de raisonnement sur des expertises poussées, par exemple l’analyse et le traitement d’informations dans le domaine financier.

Alors que son adoption s’est accélérée à travers le monde, la question de son encadrement et d’un usage responsable s’est posée. Dans ce contexte, l’Union européenne a adopté le 2 février 2024 un règlement pour encadrer son développement. Aux États-Unis, le National Institute of Standards and Technology a proposé un cadre pour sécuriser son déploiement en vue d’une certification ISO/IEC 42001, et le G7 dispose de son Code de conduite.

15 700

milliards de dollars US, c’est la contribution de l’IA à l’économie mondiale attendue d’ici à 2030.

Source   : PwC, étude mondiale sur l’intelligence artificielle.

Chez Microsoft, nous avons lancé Copilot, un compagnon d’intelligence artificielle intégré à l’ensemble de nos applications et expériences. Son nom est évocateur : il assiste l’utilisateur, à qui revient le choix de s’appuyer sur ce que produit l’IA générative, tout en conservant le même esprit critique que d’ordinaire. Nous veillons aussi à informer et à former les utilisateurs pour encourager une utilisation éclairée. De manière concrète, nous devons apprendre à poser des questions - ce que l’on appelle communément un « prompt » - à cette IA générative, pour ne pas risquer de générer des réponses incomplètes voire hors de propos.

Beaucoup de garde-fous existent aujourd’hui pour maîtriser les risques éventuels, par exemple demander à Copilot d’expliquer ses réponses ou fournir au modèle d’IA générative des sources d’information vérifiées dans lesquelles puiser et qu’il puisse citer. Pour encadrer l’usage responsable de l’IA, nous avons mis en place une gouvernance stricte et un cadre contrôlé d’exécution. Dans le secteur bancaire, l’IA générative offre un très vaste champ des possibles. À ce titre, nous travaillons avec les équipes métiers, IT et Data de BNP Paribas sur la mise en place de solutions d’IA générative. Cette collaboration comprend un premier volet orienté métiers et processus, sur un environnement sécurisé dans la partie services cloud, et un second volet orienté utilisateurs, sur les solutions Copilot prêtes à l’emploi pour les équipes.

L’IA responsable de Microsoft

En 2017, Microsoft a créé un comité consultatif pour conseiller ses clients dans la mise en place d’une intelligence artificielle responsable. L’entreprise a aussi établi six principes clés pour une IA digne de confiance - responsabilité, inclusion, fiabilité et sûreté, impartialité, transparence, confidentialité et sécurité - assortis de dispositifs de contrôle sur les systèmes IA. Pour faciliter la mise en pratique de ces principes, Microsoft met à disposition des processus et outils intégrés à ses services, et publie régulièrement sur internet des notes de transparence afin de faciliter l’appréhension de sa technologie IA et d’aider les utilisateurs à faire les bons choix.

www.microsoft.com/fr-fr/ai/responsible-ai

(1) Un chatbot d’intelligence artificielle capable de générer du texte en langage naturel.