Voici quelques-unes des façons dont Apple pourrait utiliser l’IA générative

Il semble que les modèles LLM soient beaucoup plus efficaces lorsqu’ils sont confinés à des domaines spécifiques, comme la manipulation d’images dans Photoshop ou les ressources de support technique dans Jamf Pro. Ainsi, en ignorant Siri, comment Apple pourrait-elle faire une différence importante avec cette technologie? Les développeurs génèrent d’énormes quantités de code, mais que pourraient-ils faire si Xcode était assez intelligent pour gérer les tâches de base de rédaction de code et surveiller les erreurs dans les instructions existantes? Le modèle pourrait être formé sur le code interne d’Apple et apprendre des conversations sur les forums de développeurs d’Apple. Ce serait un outil extrêmement puissant qui pourrait potentiellement faciliter la vie des développeurs en gérant les tâches fastidieuses afin qu’ils puissent effectuer les tâches plus difficiles. Adobe a annoncé d’énormes améliorations de Firefly lors du Adobe Max de cette semaine. Ces améliorations signifient que les créatifs utilisent déjà l’IA pour créer et optimiser des éléments de design grâce à l’IA générative. Apple pourrait suivre le même chemin. Pensez à l’équilibrage automatique du volume lors de la création de podcasts et de musique dans GarageBand ou Logic, aux outils permettant une cohérence des couleurs et à la suppression/ajout d’objets dans iMovie/Final Cut.

Share the Post: