ChatGPT devient temporairement « insensé » avec des sorties inattendues, effrayant les utilisateurs.

Le mardi, les utilisateurs de ChatGPT ont commencé à signaler des sorties inattendues de l’assistant AI d’OpenAI, inondant le sous-domaine r/ChatGPT de Reddit de signalements de l’assistant AI « subissant un accident vasculaire cérébral », « devenant fou », « divaguant » et « perdant pied ». OpenAI a reconnu le problème et l’a corrigé avant mercredi après-midi, mais l’expérience sert d’exemple hautement médiatisé de la façon dont certaines personnes perçoivent les modèles de langage volumineux en panne, conçus pour imiter des sorties semblables à celles des humains. ChatGPT n’est pas vivant et n’a pas d’esprit à perdre, mais l’utilisation de métaphores humaines (appelée « anthropomorphisation ») semble être le moyen le plus simple pour la plupart des gens de décrire les sorties inattendues qu’ils ont observées du modèle AI. Ils sont contraints d’utiliser ces termes car OpenAI ne partage pas exactement le fonctionnement de ChatGPT sous le capot ; les modèles de langage volumineux sous-jacents fonctionnent comme une boîte noire. « Cela m’a donné exactement le même sentiment – comme regarder quelqu’un perdre lentement l’esprit soit par psychose soit par démence », a écrit un utilisateur Reddit nommé z3ldafitzgerald en réponse à un post sur ChatGPT qui buguait. « C’est la première fois qu’une chose liée à l’IA me donne sincèrement la chair de poule. » Certains utilisateurs ont même commencé à remettre en question leur propre santé mentale. « Qu’est-ce qui s’est passé ici ? J’ai demandé si je pouvais donner des Cheerios à mon chien et ensuite ça a commencé à parler un non-sens total et a continué à le faire. Est-ce normal ? Aussi, qu’est-ce que c’est que ‘parler en profondeur’ à la fin ? » Lisez cette série de captures d’écran ci-dessous, et vous verrez les sorties de ChatGPT se dégrader de manière inattendue. « L’expérience commune au cours des dernières heures semble être que les réponses commencent de manière cohérente, comme d’habitude, puis dégénèrent en non-sens, puis parfois en non-sens shakespearien », a écrit un utilisateur Reddit, ce qui semble correspondre à l’expérience vue dans les captures d’écran ci-dessus.

Share the Post: