Pomme: Nos données en intelligence artificielle ont été collectées de manière responsable.

Apple a expliqué comment elle a formé et développé les modèles d’IA alimentant les outils d’Intelligence Apple prêts à arriver avec iOS 18, mettant l’accent sur le fait que le travail a été effectué de manière responsable malgré les plaintes concernant le vol de données pour former des modèles d’IA génératifs. Les développeurs d’IA de premier plan ont été accusés de pratiques douteuses lorsqu’il s’agit de collecter des données pour développer et former de grands modèles de langage (LLM), ce qui a entraîné une série de poursuites judiciaires de la part des journaux et des auteurs visant OpenAI et d’autres sociétés pour violation de copyright. Le mois dernier, Apple a annoncé qu’elle utiliserait ses propres modèles d’IA aux côtés de la technologie d’OpenAI pour alimenter les outils d’IA génératifs dans la prochaine version de son système d’exploitation mobile, iOS 18, prévue pour cet automne. Le premier aperçu de ce système a été dévoilé lors de la Conférence mondiale des développeurs (WWDC) 2024 dans une version bêta pour développeurs d’iOS 18.1, ce qui suggère que les outils d’IA pourraient ne pas être immédiatement disponibles sur iOS 18. Lors de la WWDC, Apple a également publié un rapport détaillant comment deux de ses modèles de langage fondamentaux pour le travail d’Intelligence Apple ont été élaborés — et au-delà, en exposant les raisons pour lesquelles son IA est responsable en ce qui concerne l’utilisation des données. Les deux modèles en question — le modèle de base d’Apple (AFM) en local, et AFM-serveur — font partie d’une suite plus large de modèles génératifs créés par Apple.

Share the Post: