"

1 Mieux comprendre ChatGPT et les approches axées sur les données

Vous avez sans doute entendu parler des grands modèles de langage (GML), tels que ChatGPT. Peut-être vous vous demandez ce que vous devez savoir sur ces outils afin d’aider vos étudiants à les utiliser de manière critique et responsable? Ce guide vous sensibilisera aux GML et aux outils similaires (par exemple, les traducteurs automatiques tels que Google Traduction ou DeepL) en abordant quelques points clés. Êtes-vous prêt à en apprendre davantage sur ces « incontournables » afin de devenir un utilisateur plus averti?

Il n’est pas nécessaire d’être informaticien ou de comprendre tous les détails du fonctionnement d’un réseau neuronal pour être un utilisateur averti de ChatGPT ou des outils d’IA semblables. Cependant, il est très utile de savoir que ces outils utilisent une approche axée sur les données. Un outil axé sur les données est également très sensible aux données. En savoir plus sur le processus d’entraînement, et surtout sur la nature des données d’entrainement, peut vous aider à adopter une approche critique de ChatGPT ou de Google Traduction, etc.

Comment l’ordinateur apprend-il?

La plupart des outils d’intelligence artificielle (IA) emploient une technique qui s’appelle l’apprentissage automatique. En bref, si les scientifiques cherchent à apprendre à un ordinateur comment effectuer une certaine tâche, les scientifiques lui fournissent de nombreux exemples. Les exemples (c’est-à-dire, les données) constituent un corpus d’entraînement. Une fois que l’ordinateur a vu de nombreux exemples, cette machine peut essayer d’accomplir la tâche elle-même.

À noter : Bien qu’une personne puisse apprendre à faire quelque chose sur la base de quelques exemples, un ordinateur a besoin de voir un très grand nombre d’exemples (parfois des milliers ou des millions d’exemples) pour être en mesure d’effectuer la tâche.

Un exemple : classer les images

Image d'un husky couché dans l’herbePour mieux comprendre le concept d’entraînement et l’effet des données d’entraînement, prenons une tâche relativement simple : la classification d’images. Une équipe de scientifiques (Ribeiro et al. 2016) cherchent à entraîner un outil d’IA à regarder des images et à classer chaque image comme étant un loup ou un husky. Dans un premier temps, les scientifiques montrent à l’outil d’IA de nombreuses images de loups et, à chaque reprise, les scientifiques confirment à l’outil qu’il s’agit bien d’une image de loup. Ensuite, les scientifiques montrent à l’outil d’IA de nombreuses images de huskies et confirment à chaque reprise qu’il s’agit d’un husky. Ces images clairement identifiées de loups et de huskies constituent les données d’entraînement.

Ensuite, les scientifiques testent l’outil d’IA en lui montrant une toute nouvelle série d’images de loups et de huskies. Pour chaque nouvelle image, les scientifiques demandent à l’outil d’IA : Loup ou husky ? L’outil tente alors de classer chaque nouvelle image dans l’une ou l’autre catégorie, sur la base de ce qu’il a appris au cours de l’entraînement. Mais qu’a-t-il appris ?

Les ordinateurs ne peuvent jamais rien comprendre, mais ils ont des forces. Deux des plus grandes forces d’un ordinateur sont la reconnaissance de motifs (ou de patrons) et le comptage. Lorsqu’un ordinateur regarde des images de loups et de huskies, il essaie d’identifier des motifs. Lorsqu’il repère un motif potentiel, il compte le nombre de fois où ce motif apparaît pour déterminer la fiabilité du motif. Cela semble assez simple, n’est-ce pas ?

Image d'un loup sur un fond enneigéMalheureusement, parce qu’ils ne sont pas intelligents, les ordinateurs peuvent finir par aborder une tâche d’une manière inattendue. Par exemple, dans le cas de la classification d’images, l’ordinateur a mal classé certains loups comme des huskies et vice versa. Lorsque les scientifiques ont analysé les données pour comprendre pourquoi l’ordinateur s’était trompé, ils ont découvert que dans le corpus d’entraînement, la plupart des images de loups se trouvaient sur un fond enneigé, tandis que la plupart des images de huskies se trouvaient sur un fond sans neige. Le motif que l’outil d’IA a vu était donc « neige » ou « pas de neige » et c’est le critère qu’il a utilisé pour classer les images. Et voilà, l’outil a trouvé un motif, mais ce n’était un motif ni souhaitable ni logique. Au lieu d’être un détecteur de loups, l’outil d’IA s’est transformé en … détecteur de neige !

Un détecteur de neige – c’est drôle ! Mais lorsqu’une autre équipe de recherche (Narla et al. 2018) a construit un système d’IA pour classer des images de lésions cutanées comme étant cancéreuses ou non cancéreuses, un problème similaire s’est posé. L’outil a fini par classer les images en fonction de la présence ou non d’une règle sur l’image. Se tromper dans la classification d’un cancer, c’est beaucoup moins drôle.

Un exemple : dessiner les mains

Des mains sous l'angles différentsSi le classement d’images est relativement simple, que faire d’un ordinateur avec une tâche plus complexe? Avez-vous déjà vu des images dessinées par des outils d’IA tels que Midjourney ou DALL-E 2 ? L’IA est assez bonne pour dessiner des visages, mais moins bonne pour dessiner des mains. Pourquoi ? Pensez encore une fois aux données d’entraînement. Il est probable qu’une collection de photos de personnes se concentre sur les visages et non sur les mains. De plus, dans la plupart des photos, les personnes font face à l’appareil photo, mais leurs mains peuvent être dans différentes positions : saisir quelque chose, pointer du doigt, faire un signe de la main, serrer le poing. Un outil d’IA peut être entrainé à savoir que les mains ont des doigts, mais il est plus difficile de savoir qu’il devrait y en avoir cinq parce que les mains dans corpus d’entraînement figurent sous différents angles. Donc il ne suffit pas de disposer d’un grand nombre d’exemples. Il faut aussi que les exemples soient bons. Si le corpus d’entraînement contient beaucoup de bons exemples (comme dans le cas des images de visages), l’IA peut accomplir la tâche. Mais si les exemples du corpus d’entraînement ne sont pas d’une qualité suffisante (comme pour les images de mains), il est alors plus difficile pour l’IA d’accomplir la tâche.

Pour apprendre plus

Et le traitement des langues ?

Clavier avec des drapeauxTout d’abord, il faut se rappeler que les outils d’IA ne comprennent rien. Ils ne peuvent que rechercher des motifs et les imiter. Cela est vrai pour le texte comme pour les images. Dans le cas d’un outil tel que ChatGPT, Google Traduction ou DeepL, les données d’entraînement sont des textes… des milliards de textes ! Pour obtenir autant de textes, les scientifiques qui entraînent les outils les rassemblent de partout : des sites web, des médias sociaux, des archives numériques. Certains de ces textes sont bien rédigés, mais pas forcément tous. Certains textes peuvent contenir un langage inclusif, mais d’autres non. Certains textes peuvent même être offensants. C’est un véritable pot pourri ! Grâce à ce corpus d’entraînement, l’outil d’IA apprend à quoi ressemblent les textes et quels sont les mots qui se trouvent ensemble habituellement. Puis l’outil d’IA les imite ensuite. Mais il ne les comprend pas. C’est pourquoi un texte généré par ChatGPT peut sembler fluent mais être complètement faux. C’est également la raison pour laquelle un outil d’IA peut générer des résultats biaisés. Tout comme un enfant peut imiter un parent en répétant un gros mot, un outil d’IA peut reproduire n’importe quel préjugé qu’il trouve dans le corpus d’entraînement (pour de plus amples détails, voir la section sur les préjugés).

Les points qui concernent la taille et la qualité du corpus d’entraînement sont également très pertinents pour le traitement de langue. Il est plus facile de recueillir un grand corpus d’entraînement de qualité dans une langue répandue comme l’anglais ou le français, mais il est certainement plus difficile de trouver suffisamment de données dans des langues moins répandues, comme les langues autochtones du Canada. Cela signifie que la performance des outils sera meilleure pour l’anglais que pour le cri ou l’algonquin. Cela signifie également que de nombreux outils génèrent des résultats dans des variétés principales d’une langue, telles que l’anglais américain ou le français européen, mais qu’ils sont moins susceptibles d’offrir un texte en anglais canadien ou en français canadien. Enfin, le sujet et le type de texte peuvent influencer les résultats. Il est plus probable qu’un corpus d’entraînement comprend des textes qui portent sur des sujets communs et moins probable qu’il contienne des textes qui portent sur des sujets très spécialisés.

Par conséquent, un outil d’IA (p. ex. ChatGPT, Google Traduction ou DeepL) sera probablement plus efficace pour traduire des textes administratifs entre l’anglais américain et le français européen, car le corpus de formation contient de nombreux exemples. En revanche, le même outil (ChatGPT, Google Traduction ou DeepL) sera probablement moins performant pour traduire un manuel d’utilisation pour un réacteur nucléaire entre le gallois et le vietnamien, car il y aura moins d’exemples de ce type de texte dans ces langues à inclure dans le corpus d’entraînement.

Pour apprendre plus

Pistes de réflexion sur l’emploi des outils d’IA dans la salle de classe

  1. D’après vous, quels sont les points forts et les points faibles d’un outil d’IA qui est axée sur les données?
  2. Quels sont les risques potentiels liés à l’utilisation d’un outil d’IA axée sur les données pour
    • Traduire un texte très spécialisé du grecque vers le farsi?
    • Rédiger un texte destiné à un public au sein d’une compagnie (p. ex. un courriel à votre collègue)?
    • Résumer un rapport destiné à la diffusion au grand public?
  3. Si vous voulez entraîner un outil d’IA pour traduire pour un public canadien, quelles sources de données seront utiles pour constituer le corpus d’entraînement?