OpenAI demande à ses contractants de fournir des exemples de travaux réels réalisés dans le passé

Selon un rapport publié par Wired, OpenAI, en collaboration avec la société spécialisée dans les données d’entraînement Handshake AI, sollicite ses contractants tiers pour qu’ils téléchargent des exemples concrets de travaux effectués dans le cadre de leurs emplois antérieurs ou en cours. Cette démarche semble s’inscrire dans une stratégie plus large adoptée par plusieurs entreprises de l’intelligence artificielle, qui recrutent des contractants pour générer des données d’entraînement de haute qualité. L’objectif final serait de permettre à leurs modèles d’automatiser davantage les tâches de bureau, souvent considérées comme relevant du domaine du travail intellectuel.

Dans le cadre de cette démarche, une présentation de la société aurait demandé aux contractants de décrire les tâches qu’ils ont accomplies lors de leurs emplois précédents, tout en leur demandant de télécharger des exemples de « travaux réels, effectués sur le terrain », qu’ils ont « effectivement réalisés ». Ces exemples peuvent inclure différents types de fichiers tels que des documents Word, PDF, présentations PowerPoint, fichiers Excel, images ou dépôts de code. OpenAI insiste également sur le fait que les contractants doivent supprimer toute information confidentielle ou identifiable personnellement avant de soumettre leurs travaux, et fournit un outil nommé « ChatGPT Superstar Scrubbing » destiné à faciliter cette opération.

« Cependant, des experts juridiques ont exprimé leurs inquiétudes quant aux risques liés à cette démarche, soulignant que la confiance accordée aux contractants pour déterminer ce qui doit être considéré comme confidentiel constitue un enjeu majeur. »

Un avocat spécialisé en propriété intellectuelle, Evan Brown, a notamment indiqué à Wired que cette pratique expose OpenAI à un risque considérable, en raison du niveau de confiance requis envers ses partenaires contractuels pour juger quelles données doivent rester confidentielles. Si des informations sensibles ou propriétaires venaient à être divulguées accidentellement, cela pourrait entraîner des conséquences juridiques et réputationnelles importantes pour l’entreprise. Jusqu’à présent, aucun porte-parole d’OpenAI n’a souhaité commenter cette initiative.

La tendance à collecter des données réelles pour entraîner les modèles d’IA n’est pas nouvelle, mais cette démarche soulève des questions éthiques et juridiques cruciales. La crédibilité de cette méthode repose sur la capacité à garantir la confidentialité et la protection des données, un défi que de nombreux experts keep à souligner. Au-delà des enjeux de sécurité, cette pratique pourrait également influencer la perception publique de l’éthique dans le domaine de l’intelligence artificielle, en soulevant le débat sur l’exploitation des ressources humaines dans la course à la sophistication technologique.

Partagez cet article
article précédent

Comment j’ai roulé Gemini dans la farine et ses filtres d’images avec ! | Le site de Korben

article suivant

Elo – Quand une IA écrit un langage de programmation complet sans intervention humaine | Le site de Korben

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Lire plus d'articles