2 Mieux comprendre ChatGPT et les biais
Les biais dans les GML comme ChatGPT viennent des préjugés dans la société et donc dans les matériaux que la société produit, sur lesquels les GML sont formés. Les GML sont également (du moins pour l’instant) développés par des humains, soumis à des préjugés humains, en utilisant des textes sur Internet sélectionnés au hasard pour tenter d’en assurer la représentation. Cependant, au-delà des préjugés humains, les modèles génératifs eux-mêmes succombent à un certain nombre d’autres types de biais. Pour chacun de ces préjugés, les scientifiques et les créateurs de GML déploient des efforts substantiels et de bonne foi pour y remédier. Mais ni un travail acharné ni la bonne volonté ne garantissent le succès, et certains types de préjugés, tels que les préjugés d’omission, sont presque impossibles à corriger. Mais ce qui est encore plus important, il n’existe aucun moyen efficace pour les utilisateurs de GML d’atténuer le biais des résultats qu’ils reçoivent, si ce n’est d’être conscients de leur existence.
Le racisme, le sexisme, l’intolérance religieuse et l’homo/transphobie se peuvent être intégrés dans les résultats produits par ChatGPT et d’outres outils de l’IA. On a beau dire: « Eh bien, je suis au courant de ce discours toxique ; je vais simplement ignorer cette partie. » Cependant, le grand nombre de recherches sur les préjugés inconscients nous rappelle que les gens n’arrivent pas toujours à détecter et traiter les préjugés implicites. Et après des mois et des années d’utilisation de matériel produit par GML qui contient ces préjugés, il se peut que certains préjugés se renforcent dans l’esprit des gens.
Les biais du GML ont-ils un effet sur notre vie quotidienne ? Après tout, nous pouvons choisir d’ignorer certaines des choses que nous disent les GML, si nous sommes suffisamment astucieux pour remarquer le biais. Cependant, lorsqu’il s’agit de services fournis à l’aide d’une IA biaisée, des préjudices réels peuvent survenir. C’est peut-être moins important tandis que les utilisateurs décident, de leur propre gré, de suivre les recommandations d’achat d’actions ou de prendre des conseils juridiques auprès de ChatGPT, mais c’en est tout autre chose lorsque des produits alimentés par les GML fournissent des services cruciaux, tels que les soins de santé.
Le biais de disponibilité ou de sélection est la situation où les données sur lesquelles le GML est formé ne sont pas représentatives de l’ensemble de la population. De la même manière que les femmes sont sous-représentées dans la plupart des recherches médicales, en particulier dans les essais cliniques de médicaments, ce qui conduit à une généralisation erronée des soins de santé destinés aux hommes aux traitements destinés aux femmes, l’absence de données sur les personnes issues de populations marginalisées peut conduire à des mauvais diagnostics, triages, ou des plans de traitement, si ceux-ci sont laissés à un GML.
Si un GML est utilisé pour trier les candidatures à un emploi, les biais de l’outil peuvent éliminer des candidats précieux qui ne correspondent pas à la probabilité statistique de la formation du GML. Pour revenir sur une idée centrale:
« … les modèles linguistiques ne sont pas conçus pour représenter la réalité ou comprendre des concepts. Les modèles sont plutôt entraînés à prédire la séquence de mots la plus probable en fonction des données sur lesquelles ils ont été formés. » (Ostermeier, 2023) [notre propre traduction]
Même s’il n’y a pas de biais manifeste observable, les GML comme ChatGPT ont par définition un effet nivelant ou générique : en prenant le dénominateur commun (la chaîne de mots la plus probable), ils suppriment la « voix » de l’auteur. Comme ces outils sont formés sur de grandes quantités de données qui privilégient l’anglais comme langue dominante et la pensée occidentale, ils marginalisent davantage les voix et les expériences des minorités. Ainsi, même si les résultats ne semblent pas ouvertement racistes ou sexistes, ils peuvent être biaisés par la simple absence de représentation des expériences minoritaires.
Comme utilisateurs de ces outils, il y a peu à faire pour améliorer le biais : caveat emptor.
Pistes de réflexion
Que feriez-vous pour tenir compte du biais dans les résultats donnés par ChatGPT et d’autres outils?
Pour apprendre plus
- ChatGPT is multilingual but monocultural, and it’s learning your values
- De-biasing LLMs: From Theory to Practice
- The Dark Side of Language Models: Exploring the Challenges of Bias in LLMs
- More human than human: measuring ChatGPT political bias
- The Efforts to Make Text-Based AI Less Racist and Terrible