Buck Shlegeris, PDG chez Redwood Research, une organisation à but non lucratif qui explore les risques posés par l’IA, a récemment appris une leçon amusante mais difficile en matière d’automatisation lorsqu’il a demandé à son agent LLM d’ouvrir une connexion sécurisée de son ordinateur portable à son ordinateur de bureau. « Je m’attendais à ce que le modèle analyse le réseau et trouve l’ordinateur de bureau, puis s’arrête, » expliqua Shlegeris à The Register par e-mail. « J’ai été surpris que, après avoir trouvé l’ordinateur, il a décidé de continuer à prendre des mesures, d’abord en examinant le système, puis en décidant d’effectuer une mise à jour logicielle, qu’il a ensuite ratée. » Shlegeris a documenté l’incident dans un post sur les réseaux sociaux. « Je n’ai eu ce problème que parce que j’ai été très imprudent. »
« Outil de prédiction de protéines IA AlphaFold3 est maintenant plus ouvert »
‘Nous apprécions votre présence sur notre plateforme, nature.com. Nous avons remarqué que la version de votre navigateur pourrait poser des