Peut-on débarrasser l'intelligence artificielle de ses préjugés?
TVA Nouvelles
L'intelligence artificielle (IA), qui repose sur des montagnes d'informations bourrées de préjugés humains, transforme peu à peu notre quotidien, facilitant des tâches banales ou complexes, au risque d'automatiser des discriminations. Mais peut-on rendre l'IA neutre?
Pour l'instant, non, répondent les experts interviewés par l'AFP, expliquant, en somme, qu'on ne peut pas retirer la levure d'un gâteau après l'avoir cuit.
Surtout à l'heure de l'IA générative, où des modèles nourris sur internet (sites web, réseaux sociaux, vidéos, etc.) produisent, en retour, toutes sortes de contenus, à la demande.
Le résultat est bluffant, mais les interfaces comme ChatGPT restent des machines mathématiques qui prédisent les mots ou pixels les plus probables à la suite les uns des autres.
«Les modèles de langage ne savent pas ce qu'ils savent, ni pourquoi ils le savent», explique Jayden Ziegler, directeur produit de la start-up d'IA Alembic. «Ils ne peuvent pas discerner ce qui est partial ou pas, inclusif ou pas. Donc ils ne peuvent rien y faire».
En l'absence de réglages supplémentaires, si un utilisateur demande une image de responsable d'entreprise, il obtient donc plutôt des photos d'hommes blancs en costume, la quarantaine grisonnante.
«Ces modèles agissent comme des miroirs de notre histoire et de notre culture», commente Joshua Weaver, directeur d'une ONG texane sur les droits humains dans la justice. «Ils ne vont pas produire des résultats substantiellement différents des informations emmagasinées».
Le danger? «On risque de se retrouver dans un cycle infernal où nos préjugés se retrouvent dans l'IA, qui en retour renforce nos idées préconçues», note cet avocat.
Les solutions technologiques sont limitées. Réentraîner complètement les modèles de fondation avec des données non biaisées prendrait beaucoup de temps, coûterait très cher, et il n'existe pas de corpus d'informations «neutres» à grande échelle.