Quand ChatGPT se met à débloquer, l’IA montre ses limites

ChatGPT débloquer IA limites
 

Le désormais très populaire ChatGPT, algorithme d’intelligence artificielle générative, a connu plusieurs heures de bouffée délirante dans la nuit de mardi à mercredi, proposant des réponses interminables et absurdes aux questions posées par les utilisateurs. Ce comportement étrange s’est manifesté par l’utilisation inattendue d’un mélange de l’anglais et d’espagnol, des répétitions obsédantes, et même par la suggestion que l’IA se trouvait dans la chambre d’un l’internaute, qui avoue avoir « flippé ». Quand ChatGPT se met à débloquer, l’IA montre ses limites.

Mots associés au hasard et non mots restaient dans l’ensemble dans l’univers du galimatias. Des utilisateurs se sont amusés à créer des réponses beaucoup plus agressives, c’est de bonne guerre, affichant la « haine » de ChatGPT pour les êtres humains. On n’en est pas là, pas encore. Plus remarquable est le vent de panique, d’amusement, de consternation qui a traversé la communauté d’internautes qui font confiance à cet outil pour des tâches qui peuvent être importantes. Ils facilitent leur propre travail grâce à une machine sans âme et s’étonnent de ce que celle-ci puisse « se tromper », même si cela la rend sans doute, au fond, plus semblable à un être humain… Qui est le plus fou ?

Quoi qu’il en soit, le charabia « généré » par ChatGPT a semblé aux usagers plus inquiétant encore que ses réponses habituelles, dont il faut bien dire pourtant qu’elles sont invérifiables et invérifiées.

 

ChatGPT étonne ses propres fabricants quand il se met à débloquer

Dans un premier temps, OpenAI, créateur de la plateforme, a assuré ne rien avoir fait qui puisse expliquer le comportement bizarre de ChatGPT, ce qui en soi serait encore plus troublant : si ChatGPT peut se mettre à débloquer sans raison à n’importe quel moment, jusqu’à paraître totalement lunaire, cela incite à penser que la même chose est vraie pour n’importe quel système informatique opérant grâce à l’intelligence artificielle. Et quand on considère tout ce que l’on veut confier à celle-ci, on peut s’attendre à des situations intéressantes, voire cataclysmiques.

Pour finir, les responsables d’OpenAI ont précisé qu’une intervention logicielle avait introduit « un bug dans la manière dont le modèle traite le langage ». Seize heures après le début des ennuis, la cause étant identifiée, la société a réparé l’algorithme et confirmé la fin de l’incident.

Il valait mieux : la start-up aurait aujourd’hui une valeur de quelques 80 milliards de dollars, soit près de trois fois plus qu’il y a dix mois. Une plongée dans l’irrationnel comme celle qui s’est produite cette semaine ne peut qu’inquiéter les investisseurs – parmi lesquels Microsoft qui a contribué 13 milliards de dollars et utilise désormais la technologie ChatGPT dans son moteur de recherches et dans d’autres services.

 

Les limites de l’IA la rendent plus convaincante

La première fois que l’outil réagit étrangement aux questions de ces utilisateurs. En décembre dernier, ceux-ci lui reprochaient des réponses « paresseuses » et « impertinentes », quand il ne refusait pas carrément de leur répondre en leur disant qu’ils étaient parfaitement capables de le faire eux-mêmes…

OpenAI assurait alors n’avoir rien changé depuis le 11 novembre : « Cela n’a certainement rien d’intentionnel. Le comportement des modèles peut être imprévisible, et nous voyons à le rétablir. »

Imprévisible ? Ah, c’est bon à savoir…

Mais les ratages d’un système comme chatGPT augmentent paradoxalement la tentation de l’anthropomorphisme à son égard. Face à des réponses impeccables, l’utilisateur est déjà fortement tenté d’imaginer que son interlocuteur réagit en être humain. S’il se trompe, cela déclenche des émotions et des réactions de colère, d’impatience, de moquerie, de dépit, bref, toute une panoplie de noms d’oiseaux ordinairement réservés aux êtres vivants.

Et c’est ainsi qu’on en vient à prendre l’intelligence artificielle pour une intelligence tout court.

 

Anne Dolhein