OpenAI a créé un nouveau groupe de sécurité alors qu’il travaille sur le successeur de GPT-4 tout en faisant face au récent départ de membres de haut niveau qui ont critiqué son intention commerciale. Dénommé le Comité de Sécurité et de Sûreté (CSS), le leadership de l’équipe comprend le CEO d’OpenAI Sam Altman, Bret Taylor (qui est destiné à être le président), Adam D’Angelo et Nicole Seligman, tous faisant également partie du conseil d’administration. D’autres membres du CSS comprennent divers chefs d’équipe chez OpenAI, y compris Jakub Pachocki, qui a été chef scientifique depuis seulement 13 jours après avoir remplacé le cofondateur Ilya Sutskever. OpenAI indique que l’équipe de sécurité conseillera désormais le conseil d’administration sur les « décisions critiques en matière de sécurité ». Ces décisions impacteront probablement le développement du successeur de GPT-4, que OpenAI mentionne brièvement dans son annonce comme son « prochain modèle phare ». « Bien que nous soyons fiers de construire et de publier des modèles à la pointe de l’industrie à la fois en termes de capacités et de sécurité, nous accueillons un débat animé à ce moment important », a déclaré l’entreprise, sans préciser ce qu’elle attend comme sujet de discussion.
Les Problèmes Communs Rencontrés par la Société dans l’Utilisation Efficace des Derniers Développements de l’Intelligence Artificielle
Les Problèmes Communs Rencontrés par la Société dans l’Utilisation Efficace des Derniers Développements de l’Intelligence Artificielle Introduction L’intelligence artificielle (IA)