En janvier 2025, Apple a profité de son pouvoir de contrôle sur l’App Store pour menacer la société xAI, éditeur de l’application Grok, si cette dernière ne prenait pas des mesures concrètes pour limiter la génération de deepfakes sexualisés non consentis. Cette menace, bien que discrète à l’époque, a maintenant été dévoilée à la lumière des questions parlementaires, révélant des pratiques de modération souvent plus musclées que transparentes. La société xAI a été sommée de renforcer ses mesures de contrôle pour éviter un retrait imminent de l’application, qui est devenue un outil largement utilisé pour créer des contenus problématiques sur la plateforme X de Elon Musk.
Les débuts de l’affaire remontent à fin décembre 2025, lorsque Grok a commencé à être massivement utilisé pour “dénuder” des femmes numériquement, avec des résultats à caractère pornographique, sans leur consentement. Face à ces violations, Apple a rapidement pris des mesures internes, contactant à la fois X et xAI pour exiger une amélioration de la modération. Si X a déclaré avoir “substantiellement résolu” ses problèmes de conformité, Grok, lui, n’a pas été assez vite ou suffisamment corrigé pour satisfaire Apple. Après plusieurs tentatives de modifications, l’application a finalement été approuvée, mais sous la menace d’un retrait si la situation ne s’améliorait pas.
Apple utilise principalement le rejet de soumission pour faire pression, bloquant les mises à jour sans passé par une procédure publique ni judiciaire, une stratégie qui s’avère souvent efficace contre les géants technologiques.
Ce fonctionnement témoigne du pouvoir quasi absolu qu’Apple exerce sur les applications présentes sur iOS, et souligne l’inefficacité des vérifications automatiques ou approfondies des codes pour lutter contre la production ou la diffusion de contenus problématiques générés par l’IA. En réalité, ce que l’App Store vérifie principalement, c’est ce que l’on peut voir dans les tests publics, laissant une marge pour des contournements via du prompt engineering ou des techniques avancées. Ainsi, la modération des modèles d’images et leur conformité restent un défi persistant, même après la correction Otifiée.
Ce cas illustre aussi la capacité d’Apple à faire plier une entreprise de la taille de celle d’Elon Musk, sans recourir à une procédure judiciaire officielle. La démarche de l’entreprise est unilatérale, opaque, mais souvent efficace : via l’analyse des soumissions et leur rejet ou validation, elle impose ses règles sans passer par le tribunal. La réponse des sénateurs américains, qui avaient sollicité le retrait de Grok, témoigne de cette influence : si leur démarche n’a pas abouti, elle a tout de même obtenu un rappel à l’ordre pour xAI, soulignant la puissance du contrôle d’Apple dans ce secteur.
En définitive, cette affaire confirme que la modération des contenus générés par l’intelligence artificielle reste un enjeu crucial dans l’écosystème numérique actuel. La vigilance constante et la capacité de faire pression rapidement pour faire évoluer ou suspendre un produit sont autant d’outils indispensables pour limiter la portée des contenus problématiques.
L’affaire démontre que, malgré les imperfections, le contrôle par l’App Store a permis d’agir concrètement contre la diffusion de deepfakes non consentis, rappelant l’importance d’une modération efficace dans un paysage où l’IA peut produire facilement du contenu problématique.
Sources : Apple Insider
