Pourquoi le nom « David Mayer » fait planter ChatGPT ? Les demandes de confidentialité numérique peuvent être en cause

Crédits image : Getty Images

Les utilisateurs de la plateforme d’IA conversationnelle ChatGPT ont découvert un phénomène intéressant au cours du week-end : le célèbre chatbot refuse de répondre aux questions sur un certain « David Mayer ». Lorsqu’on lui demande de le faire, il se fige instantanément. Des théories du complot ont suivi, mais une raison plus ordinaire pourrait être à l’origine de ce comportement étrange.

Le week-end dernier, la nouvelle s’est rapidement répandue que le nom était un poison pour le chatbot, et de plus en plus de personnes ont essayé de tromper le service en lui faisant simplement reconnaître le nom. Pas de chance : chaque tentative de faire épeler ce nom spécifique par ChatGPT le fait échouer ou même le fait de le couper au milieu du nom.

« Je suis incapable de produire une réponse », dit-il, s’il dit quoi que ce soit.

Crédits photo : TechCrunch/OpenAI

Mais ce qui a commencé comme une curiosité ponctuelle a rapidement pris de l’ampleur lorsque les gens ont découvert que ce n’est pas seulement David Mayer que ChatGPT ne peut pas nommer.

Brian Hood, Jonathan Turley, Jonathan Zittrain, David Faber et Guido Scorza ont également été identifiés comme responsables du plantage du service. (Nul doute que d’autres noms ont été découverts depuis, cette liste n’est donc pas exhaustive.)

Qui sont ces hommes ? Et pourquoi ChatGPT les déteste-t-il autant ? OpenAI n’a pas répondu aux demandes répétées, nous devons donc rassembler les pièces du puzzle nous-mêmes du mieux que nous pouvons.

Certains de ces noms peuvent appartenir à n’importe quel nombre de personnes. Mais un lien potentiel identifié par les utilisateurs de ChatGPT est que ces personnes sont des personnalités publiques ou semi-publiques qui peuvent préférer que certaines informations soient « oubliées » par les moteurs de recherche ou les modèles d’IA.

Brian Hood, par exemple, se démarque car, en supposant qu’il s’agisse du même homme, j’ai écrit à son sujet l’année dernière . Hood, un maire australien, a accusé ChatGPT de l’avoir faussement décrit comme l’auteur d’un crime commis il y a plusieurs décennies, alors qu’il l’avait en fait signalé.

Bien que ses avocats aient pris contact avec OpenAI, aucune plainte n’a jamais été déposée. Comme il l’ a déclaré au Sydney Morning Herald plus tôt cette année, « le contenu incriminé a été supprimé et ils ont publié la version 4, remplaçant la version 3.5 ».

Crédits photo : TechCrunch/OpenAI

Parmi les propriétaires les plus connus des autres noms, David Faber est un journaliste de longue date de CNBC. Jonathan Turley est un avocat et commentateur de Fox News qui a été « swatté » (c’est-à-dire qu’un faux appel au 911 a envoyé des policiers armés à son domicile) fin 2023. Jonathan Zittrain est également un expert juridique, qui s’est beaucoup exprimé sur le « droit à l’oubli ». Et Guido Scorza est membre du conseil d’administration de l’Autorité italienne de protection des données.

Il ne s’agit pas exactement du même secteur d’activité, et il ne s’agit pas non plus d’une sélection aléatoire. Chacune de ces personnes est probablement quelqu’un qui, pour une raison ou une autre, a pu demander officiellement que les informations les concernant en ligne soient restreintes d’une manière ou d’une autre.

Ce qui nous ramène à David Mayer. Personne ne pourrait trouver d’avocat, de journaliste, de maire ou de personnalité notoire portant ce nom (avec toutes nos excuses aux nombreux David Mayer respectables).

Il y avait cependant un professeur, David Mayer, qui enseignait le théâtre et l’histoire, spécialisé dans les liens entre la fin de l’ère victorienne et les débuts du cinéma. Mayer est décédé à l’été 2023, à l’âge de 94 ans. Cependant, pendant des années avant cela, l’universitaire britanno-américain a dû faire face à un problème juridique et en ligne : son nom était associé à celui d’un criminel recherché qui l’utilisait comme pseudonyme, au point qu’il ne pouvait pas voyager.

Mayer s’est battu sans relâche pour que son nom soit dissocié de celui du terroriste manchot , même s’il a continué à enseigner jusqu’à ses dernières années .

Alors, que pouvons-nous conclure de tout cela ? En l’absence d’explication officielle de la part d’OpenAI, nous supposons que le modèle a ingéré ou fourni une liste de personnes dont les noms nécessitent un traitement spécial. Que ce soit pour des raisons juridiques, de sécurité, de confidentialité ou autres, ces noms sont probablement couverts par des règles spéciales, tout comme de nombreux autres noms et identités. Par exemple, ChatGPT peut modifier sa réponse s’il correspond au nom que vous avez écrit dans une liste de candidats politiques.

Il existe de nombreuses règles spéciales de ce type, et chaque question passe par différentes formes de traitement avant d’être traitée. Mais ces règles de traitement post-questionnaire sont rarement rendues publiques, sauf dans les annonces de politique telles que « le modèle ne prédira pas les résultats des élections pour aucun candidat à un poste ».

Il est probable que l’une de ces listes, qui sont presque certainement activement maintenues ou mises à jour automatiquement, ait été corrompue d’une manière ou d’une autre par un code ou des instructions erronées qui, lorsqu’elles étaient appelées, provoquaient immédiatement la panne de l’agent de chat. Pour être clair, il s’agit simplement de notre propre spéculation basée sur ce que nous avons appris, mais ce ne serait pas la première fois qu’une IA se comporte bizarrement en raison de conseils post-formation . (D’ailleurs, au moment où j’écrivais ceci, « David Mayer » a recommencé à fonctionner pour certains, tandis que les autres noms provoquaient toujours des plantages.)

Comme c’est généralement le cas avec ces choses-là, le rasoir de Hanlon s’applique : n’attribuez jamais à la malveillance (ou à une conspiration) ce qui est adéquatement expliqué par la stupidité (ou une erreur de syntaxe).

Tout ce drame nous rappelle que non seulement ces modèles d’IA ne sont pas magiques, mais qu’ils sont également très sophistiqués, qu’ils sont auto-complétés, surveillés activement et perturbés par les entreprises qui les fabriquent. La prochaine fois que vous envisagez d’obtenir des informations auprès d’un chatbot, demandez-vous s’il ne serait pas préférable d’aller directement à la source.

Keep Up to Date with the Most Important News

By pressing the Subscribe button, you confirm that you have read and are agreeing to our Privacy Policy and Terms of Use