Pourquoi Apple adopte une approche de petits modèles pour l’IA générative | TechCrunch

Generated with DALL·E 3

Parmi les plus grandes interrogations autour des modèles tels que ChatGPT, Gemini et Midjourney depuis leur lancement figurent le rôle qu’ils joueront (le cas échéant) dans notre quotidien. C’est une question à laquelle cherche à répondre Apple avec sa propre vision de la catégorie, Apple Intelligence, qui a été officiellement dévoilée cette semaine lors de la WWDC 2024. La société a démarré en fanfare lors de la présentation de lundi ; c’est ainsi que fonctionnent les keynotes. Lorsque le vice-président principal Craig Federighi ne faisait pas du parachutisme ou du parkour avec l’aide de la magie d’Hollywood (ou plutôt de Cupertino), Apple avait à cœur de démontrer que ses modèles internes étaient tout aussi performants que ceux de la concurrence.

La question est toujours en suspens, les versions bêta ne sortant que lundi, mais depuis, l’entreprise a révélé certains de ce qui rend son approche de l’IA générative différente. Premier point et non des moindres, son ampleur. De nombreuses entreprises parmi les plus éminentes du secteur adoptent une approche “plus c’est gros, mieux c’est” pour leurs modèles. C’est une sorte de guichet unique pour l’information du monde. L’approche d’Apple par contre, est basée sur une perspective plus pragmatique. Apple Intelligence est une approche plus personnalisée de l’IA générative, conçue spécifiquement avec les différents systèmes d’exploitation de l’entreprise à leur base.

Apple cherche à offrir un système d’IA qui se fond sans aucun problème dans l’expérience utilisateur, donnant parfois l’impression d’être pratiquement invisible.

C’est une approche très « Apple » en ce sens qu’elle privilégie une expérience utilisateur sans friction avant tout. Apple Intelligence est en un sens une opération de branding, mais d’un autre côté, l’entreprise préfère que les aspects d’IA générative se fondent parfaitement dans le système d’exploitation. C’est tout à fait correct – ou même préférable – si l’utilisateur n’a aucune idée des technologies sub-jacentes qui alimentent ces systèmes. C’est ainsi que fonctionnent toujours les produits Apple.

La clé de tout cela est la création de modèles plus petits : entraîner les systèmes sur un ensemble de données personnalisé conçu spécifiquement pour les types de fonctionnalités requises par les utilisateurs de ses systèmes d’exploitation. Il n’est pas immédiatement évident de savoir comment la taille de ces modèles affectera le problème de la “boîte noire”, mais Apple pense qu’au moins, avoir des modèles plus spécifiques au sujet augmentera la transparence autour des raisons pour lesquelles le système prend des décisions spécifiques. Du fait de la nature relativement limitée de ces modèles, Apple ne compte pas sur une énorme diversité lorsque le système est sollicité pour résumer un texte.

Apple a opté pour une approche très centrée sur l’IA générative, mais elle peut tout de même couvrir un large spectre de demandes grâce à l’inclusion de “adaptateurs”, qui sont spécialisés pour différentes tâches et styles. Apple a publié un livre blanc concernant l’IA responsable, dont l’objectif est de respecter les utilisateurs dans leurs choix et de fournir des outils intelligents, de représenter authentiquement les utilisateurs de tous horizons, de concevoir avec soin pour éviter les abus potentiels, et de protéger la vie privée des utilisateurs en traitant les requêtes soit localement soit via un serveur distant avec le Private Cloud Compute, tout en respectant les mêmes normes de confidentialité.

Partagez cet article
article précédent

Absence de titulaires du CSE : quelles conséquences ?

article suivant

Publication du rapport de la médiatrice de France compétences – Centre Inffo

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Lire plus d'articles