Des défenseurs de la sécurité de l’IA demandent aux fondateurs de ralentir | TechCrunch

Generated with DALL·E 3

“Avancer prudemment et tester en amont” n’a malheureusement pas la même sonorité que “avancer rapidement et briser les choses”. Mais trois défenseurs de la sécurité de l’IA ont clairement indiqué aux fondateurs de startups que la précipitation peut entraîner des problèmes éthiques à long terme. “Nous sommes à un point d’inflexion où de nombreuses ressources sont investies dans ce domaine”, a déclaré Sarah Myers West, co-directrice exécutive de l’AI Now Institute, sur scène lors du TechCrunch Disrupt 2024. “Je suis vraiment inquiète car actuellement il y a une telle précipitation pour mettre les produits sur le marché, sans réfléchir à la question de l’héritage de ce que nous voulons réellement comme monde, et de quelle manière la technologie produite sert ce monde ou le nuit activement.”

Cette conversation intervient à un moment où la question de la sécurité de l’IA semble plus pressante que jamais. En octobre, la famille d’un enfant qui s’est suicidé a poursuivi l’entreprise de chatbot Character.AI pour son rôle présumé dans le décès de l’enfant. “Cette histoire illustre vraiment les enjeux profonds du déploiement très rapide que nous avons vu des technologies basées sur l’IA”, a déclaré Myers West. “Certaines de ces questions sont des problèmes presque insolubles de longue date en matière de modération de contenu et de harcèlement en ligne. Mais au-delà de ces questions de vie ou de mort, les enjeux de l’IA restent élevés, allant de la désinformation à la violation des droits d’auteur.”

“Nous construisons quelque chose qui a beaucoup de pouvoir et la capacité de vraiment impacter la vie des gens”, a déclaré Jingna Zhang, fondatrice de la plateforme sociale axée sur les artistes, Cara.

“Lorsque vous parlez de quelque chose comme Character.AI, qui engage vraiment émotionnellement avec quelqu’un, il est logique que je pense qu’il devrait y avoir des garde-fous concernant comment le produit est construit.” La plateforme de Zhang, Cara, a décollé après que Meta a clairement indiqué qu’elle pourrait utiliser les publications publiques de n’importe quel utilisateur pour former son IA. Pour des artistes comme Zhang elle-même, cette politique est une gifle. Les artistes doivent poster leur travail en ligne pour se faire connaître et trouver des clients potentiels, mais en faisant cela, leur travail pourrait être utilisé pour façonner les modèles d’IA qui pourraient un jour les mettre au chômage. “Le droit d’auteur est ce qui nous protège et nous permet de gagner notre vie”, a déclaré Zhang. Si une œuvre d’art est disponible en ligne, cela ne signifie pas qu’elle est gratuite, en soi – les publications numériques, par exemple, doivent acquérir une licence pour les images des photographes pour pouvoir les utiliser.

“Lorsque l’IA générative a commencé à devenir beaucoup plus courante, ce que nous voyons, c’est que cela ne fonctionne pas avec ce que nous sommes habitués à voir, ce qui a été établi par la loi. Et s’ils voulaient utiliser notre travail, ils devraient l’acquérir sous licence.” Les artistes pourraient également être impactés par des produits comme ElevenLabs, une entreprise de clonage vocal AI qui vaut plus d’un milliard de dollars. En tant que responsable de la sécurité chez ElevenLabs, c’est à Aleksandra Pedraszewska de veiller à ce que la technologie sophistiquée de l’entreprise ne soit pas détournée pour de faux profonds non consentis, entre autres choses. “Je pense que tester les modèles, comprendre les comportements indésirables, et les conséquences imprévues de tout nouveau lancement qu’une entreprise d’IA générative fait est de nouveau en train de devenir [une priorité]”, a-t-elle dit. “ElevenLabs compte aujourd’hui 33 millions d’utilisateurs. C’est une communauté massive qui est impactée par chaque changement que nous faisons dans notre produit.”

Pedraszewska a déclaré qu’une des façons pour les personnes dans son rôle d’être plus proactives pour maintenir la sécurité des plateformes est d’entretenir une relation plus étroite avec la communauté des utilisateurs. “Nous ne pouvons pas seulement opérer entre deux extrêmes, l’un étant totalement anti-IA et anti-GenAI, et l’autre essayant efficacement de ne réguler en aucune manière cet espace. Je pense que nous devons nous rencontrer à mi-chemin en ce qui concerne la régulation,” a-t-elle déclaré.

Partagez cet article
article précédent

Amazon introduit des récapitulatifs générés par IA sur Prime Video | TechCrunch

article suivant

France compétences fédère les secteurs autour des travaux des observatoires des métiers – Digiformag

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Lire plus d'articles