Meta, la société mère de plateformes telles qu’Instagram et WhatsApp, pourrait bientôt confier à un système d’intelligence artificielle la responsabilité d’évaluer les risques potentiels pour la confidentialité et les dommages pouvant découler de jusqu’à 90 % des mises à jour de ses applications. Selon des documents internes rapportés par NPR, cette évolution fait suite à un accord de 2012 entre Facebook (devenu Meta) et la Federal Trade Commission (FTC), imposant à l’entreprise de réaliser des examens de la confidentialité de ses produits. Jusqu’à présent, ces évaluations ont principalement été effectuées par des évaluateurs humains.
Avec le nouveau système, il est prévu que les équipes de produits de Meta remplissent un questionnaire concernant leur travail, puis qu’elles reçoivent généralement une “décision instantanée” accompagnée des risques identifiés par l’IA, ainsi que des exigences qu’une mise à jour ou une fonctionnalité doit respecter avant d’être lancée. Cette approche axée sur l’intelligence artificielle permettrait à Meta de mettre à jour ses produits plus rapidement, une nécessité dans un secteur technologique en perpétuelle évolution.
Le recours accru à l’IA dans les évaluations de risques soulève des préoccupations quant à la capacité de l’entreprise à anticiper les conséquences négatives de ses mises à jour.
Cependant, un ancien cadre a exprimé des inquiétudes auprès de NPR, soulignant que cette automatisation engendre des “risques plus élevés”, car les externalités négatives des changements de produits sont moins susceptibles d’être prévenues avant de commencer à causer des problèmes dans le monde. Ce point de vue met en lumière un paradoxe : la rapidité d’exécution d’une évaluation automatisée pourrait se faire au détriment de la considération des impacts à long terme sur les utilisateurs.
Dans une déclaration, un porte-parole de Meta a souligné que la compagnie a investi plus de 8 milliards de dollars dans ses programmes de confidentialité et reste déterminée à “offrir des produits innovants aux utilisateurs tout en respectant ses obligations réglementaires”. Il a ajouté que “lorsque les risques évoluent et que notre programme mûrit, nous améliorons nos processus pour mieux identifier les risques, rationaliser la prise de décision et améliorer l’expérience des utilisateurs”.
Tandis que Meta cherche visiblement à évoluer et à s’adapter aux exigences du marché, les questions sur la fiabilité et la sécurité des évaluations automatisées demeurent une préoccupation cruciale tant pour les consommateurs que pour les régulateurs. L’avenir de l’évaluation des risques au sein de Meta pourrait ainsi façonner non seulement la stratégie interne de l’entreprise, mais aussi avoir des implications profondes sur la façon dont elle est perçue par le grand public et les instances gouvernementales.