![La régulation des géants de l’IA en question à la Maison-Blanche](https://images.radio-canada.ca/q_auto,w_635/v1/ici-premiere/16x9/intelligence-artificielle-medecine.jpg)
La régulation des géants de l’IA en question à la Maison-Blanche
Radio-Canada
La Maison-Blanche a invité les dirigeants de Google, Microsoft, OpenAi et Anthropic à une réunion jeudi sur les risques liés à l'intelligence artificielle (IA), alors que la régulation de cette technologie majeure reste pour l'instant essentiellement du ressort des entreprises elles-mêmes.
Notre objectif est d'avoir une discussion franche sur les risques actuels et à court terme que nous percevons dans les développements de l'IA, indique l'invitation consultée par l'AFP mardi.
L'administration veut aussi envisager des mesures à prendre pour réduire ces risques et d'autres façons de travailler ensemble pour nous assurer que le peuple américain bénéficie des avancées dans l'IA tout en le protégeant des dangers.
Satya Nadella (Microsoft), Sundar Pichai (Google), Sam Altman (OpenAI) et Dario Amodei (Anthropic) ont confirmé leur participation, selon la Maison-Blanche. Ils s'entretiendront avec plusieurs membres du gouvernement, dont la vice-présidente des États-Unis, Kamala Harris.
L'intelligence artificielle est très présente dans le quotidien depuis des années, des algorithmes de recommandation sur les réseaux sociaux aux logiciels de recrutement et à de nombreux appareils ménagers haut de gamme.
Mais le succès fulgurant cet hiver de ChatGPT, l'interface d'IA générative d'OpenAI, une start-up largement financée par Microsoft, a lancé une course à des systèmes toujours plus performants, entraînés sur des montagnes de données, capables de générer du code, des textes et des images de plus en plus complexes. Leur déploiement suscite de l'enthousiasme et des inquiétudes d'une ampleur nouvelle.
Surtout quand Sam Altman, le patron d'OpenAI, évoque l'avènement prochain de l'IA dite générale, quand les programmes seront plus intelligents que les humains en général.
Les dangers vont de la discrimination par des algorithmes, à l'automatisation de tâches remplies par des humains, au vol de propriété intellectuelle ou encore à la désinformation sophistiquée à grande échelle, entre autres.
Les modèles de langage capables de générer des images, du son et de la vidéo constituent un rêve devenu réalité pour ceux qui veulent détruire les démocraties estime David Harris, professeur à l'université de Berkeley, spécialiste des politiques publiques et de l'IA.