‘Pourquoi ChatGPT a répondu à des requêtes en charabia mardi’

‘ChatGPT devient colorée en folie. Nous savons tous que le ChatGPT d’OpenAI peut faire des erreurs. On les appelle des hallucinations, bien que je préfère les appeler des mensonges ou des bévues. Mais d’une manière insolite ce mardi, ChatGPT a commencé à vraiment dérailler. Les utilisateurs ont commencé à signaler des réponses bizarres et erratiques de l’assistant IA préféré de tous. Aussi : 8 façons de réduire les hallucinations de ChatGPT. Comme l’a dit une personne sur Twitter, « ChatGPT part complètement en vrille ! » Ou, comme une autre personne moins littéraire a tweeté, « ChatGPT semble partir en vrille. » Où allait ChatGPT ? Eh bien, pour citer un exemple de Reddit/ChatGPT, ‘

Share the Post: