Un après-midi à la fin novembre de l’année dernière, Timnit Gebru était assise sur le canapé de sa maison de la région de la baie de San Francisco, en pleurs. Gebru, une chercheuse chez Google, venait de sortir d’une réunion de dernière minute par vidéo avec une cadre nommée Megan Kacholia, qui avait donné un ordre abrupt. Gebru était la co-leader d’un groupe au sein de l’entreprise qui étudie les ramifications sociales et éthiques de l’intelligence artificielle. Kacholia avait ordonné à Gebru de retirer son dernier article de recherche, ou sinon de retirer son nom de la liste des auteurs, ainsi que ceux de plusieurs autres membres de son équipe. L’article en question était, dans l’esprit de Gebru, plutôt sans objection. Il passait en revue les failles connues des modèles de langage dits « large », un type de logiciel d’IA – le plus célèbre étant un système appelé GPT-3 – qui suscitait l’enthousiasme dans l’industrie technologique. La propre version de la technologie de Google alimentait maintenant le moteur de recherche de l’entreprise. Jeff Dean, le vénéré responsable de la recherche chez Google, avait encouragé Gebru à réfléchir aux possibles inconvénients de cette approche. L’article avait franchi le processus de révision interne de l’entreprise et avait été soumis à une conférence de premier plan. Mais Kacholia a déclaré que certains leaders produits et d’autres personnes à l’intérieur de l’entreprise avaient jugé le travail inacceptable, se souvient Gebru. Kacholia a été vague quant à leurs objections mais a donné à Gebru une semaine pour agir. Sa date limite ferme était le lendemain de Thanksgiving. La détresse de Gebru s’est transformée en colère à mesure que cette date approchait et que la situation devenait de plus en plus étrange. Kacholia a remis à l’encadrant de Gebru, Samy Bengio, un document listant les prétendus défauts de l’article, mais lui a dit de ne pas le transmettre à Gebru, seulement de le lui lire. Le jour de Thanksgiving, Gebru a renoncé à certaines festivités en famille pour écouter la récitation de Bengio. Selon les souvenirs de Gebru et les notes contemporaines, le document ne proposait pas d’éditions spécifiques mais critiquait le traitement « décontracté » des sujets dans l’article et le fait que l’article peignait un tableau trop sombre de la nouvelle technologie. Il affirmait également que toutes les utilisations des grands modèles de langage par Google étaient « conçues pour éviter » les pièges décrits dans l’article.
Les Problèmes Communs Rencontrés par la Société dans l’Utilisation Efficace des Derniers Développements de l’Intelligence Artificielle
Les Problèmes Communs Rencontrés par la Société dans l’Utilisation Efficace des Derniers Développements de l’Intelligence Artificielle Introduction L’intelligence artificielle (IA)