Au PC Bien Portant

Vous Aimerez aussi...

Quel est le mot de l’année 2023 défini par Cambridge ?

Le Mot de l’Année 2023 : « Halluciner » selon le Dictionnaire Cambridge

TL;DR

Mercredi dernier, le Cambridge Dictionary a annoncé que le mot de l’année 2023 est « halluciner », en raison de la popularité des grands modèles linguistiques (LLM*s) tels que ChatGPT, qui produisent parfois des informations erronées. Cette décision découle de la montée en puissance de l’intelligence artificielle, suscitant des discussions sur la manière dont nous interagissons avec ces technologies émergentes.

Définition

L’équipe du Cambridge Dictionary a choisi « halluciner » comme mot de l’année 2023 en reconnaissant que cette nouvelle signification touche au cœur des préoccupations entourant l’intelligence artificielle. Le mot met en lumière la puissance de l’IA générative, tout en soulignant la nécessité de comprendre à la fois ses forces potentielles et ses faiblesses actuelles.

L’Origine du Terme « Hallucination » dans le Contexte de l’IA :

Le terme « hallucination » en relation avec l’IA est initialement issu du domaine de l’apprentissage automatique. Avec l’entrée des LLMs dans une utilisation grand public via des applications telles que ChatGPT, le terme a débordé dans le langage courant, provoquant une confusion chez certains qui le percevaient comme une anthropomorphisation inutile.

Chercheurs et grand public, deux regards différents

Comme tous les mots, sa définition est fortement tributaire du contexte. Lorsque les chercheurs en apprentissage automatique utilisent le terme « halluciner » (ce qu’ils font encore fréquemment, à en juger par les articles de recherche), ils comprennent généralement les limites d’un LLM – par exemple, le fait que le modèle d’IA n’est pas vivant ou « conscient » selon les normes humaines – mais le grand public ne le comprend pas forcément. 

C’est pourquoi, dans un article consacré aux hallucinations au début de l’année, les auteurs ont proposé un autre terme, celui de « confabulation », qui décrit peut-être plus précisément le principe créatif des modèles d’IA au travail, sans le bagage de la perception. (Et devinez quoi, ce terme figure également dans le dictionnaire de Cambridge).

L’utilisation généralisée du terme « halluciner » pour désigner les erreurs commises par des systèmes tels que ChatGPT offre un aperçu fascinant de la manière dont nous pensons à l’IA et dont nous l’anthropomorphisons*, a déclaré Henry Shevlin, éthicien de l’IA à l’université de Cambridge. « Au cours de cette décennie, je m’attends à ce que notre vocabulaire psychologique s’élargisse encore pour englober les capacités étranges des nouvelles intelligences que nous sommes en train de créer« .

Question juridique ou éthique ?

Au cours de l’année écoulée, les « hallucinations » ont causé des ennuis juridiques à des particuliers et à des entreprises. En mai, un avocat qui avait cité de faux cas confabulés par ChatGPT a eu des ennuis avec un juge et a été condamné à une amende. En avril, Brian Hood a poursuivi OpenAI pour diffamation lorsque ChatGPT a prétendu à tort que Hood avait été condamné pour un scandale de corruption à l’étranger. L’affaire a été réglée à l’amiable.

Les résultats : comment / pourquoi ?

En réalité, les LLM « hallucinent » en permanence. Ils établissent des associations entre des concepts à partir de ce qu’ils ont appris au cours de leur formation (et de leur perfectionnement ultérieur), et ce n’est pas toujours une déduction exacte. En cas de lacunes dans les connaissances, ils génèrent la réponse la plus probable. Souvent, cette réponse peut être correcte, si l’on dispose de données d’entraînement de haute qualité et d’un réglage fin adéquat, mais d’autres fois, elle ne l’est pas.

Jusqu’à présent, il semble qu’OpenAI ait été la seule entreprise technologique à réduire de manière significative les hallucinations erronées avec le GPT-4, ce qui est l’une des raisons pour lesquelles ce modèle est toujours considéré comme étant en tête. La manière dont ils y sont parvenus fait partie de la sauce secrète d’OpenAI, mais le responsable scientifique d’OpenAI, Illya Sutstkever, a déjà indiqué qu’il pensait que la RLHF* pourrait permettre de réduire les hallucinations à l’avenir.

Prudence mère d’intelligence

Wendalyn Nichols, responsable de l’édition du Cambridge Dictionary, a déclaré dans un communiqué :
« Le fait que les IA puissent « halluciner » nous rappelle que les humains doivent encore faire preuve d’esprit critique lorsqu’ils utilisent ces outils.

Les IA sont fantastiques lorsqu’il s’agit de traiter d’énormes quantités de données pour en extraire des informations spécifiques et les consolider. Mais plus on leur demande d’être originales, plus elles risquent de s’égarer » .

Mais encore ?

Selon le dictionnaire, l’année a été faste pour les mots liés à l’IA. Cambridge indique avoir ajouté d’autres termes liés à l’IA à son dictionnaire en 2023, notamment « large language model« , « AGI« , « generative AI » et « GPT« .

Le mini dico

LLM : Large language modèle c’est à dire « Grand Modèle Linguistique »

*Anthropomorphisons :Tendance à attribuer aux animaux et aux choses des réactions humaines.

*RLHF : apprentissage par renforcement grâce au retour humain, est un processus par lequel des humains évaluent les réponses d’un modèle linguistique, et ces résultats sont utilisés pour affiner le modèle

Image de Yumiko
Yumiko