EyeEm, la communauté berlinoise de partage de photos qui avait fait faillite avant d’être rachetée l’année dernière par la société espagnole Freepik, utilise désormais les photos de ses utilisateurs pour entraîner ses modèles d’intelligence artificielle (IA). Plus tôt ce mois-ci, la société a informé ses utilisateurs par e-mail qu’elle ajoutait une nouvelle clause à ses conditions générales d’utilisation, qui lui donnerait le droit de télécharger le contenu des utilisateurs pour “former, développer et améliorer les logiciels, algorithmes et modèles d’apprentissage automatique”. Les utilisateurs ont eu 30 jours pour se désinscrire en supprimant tout leur contenu de la plateforme EyeEm, sinon, ils consentaient à cette utilisation de leur travail. Au moment de son acquisition en 2023, la bibliothèque d’images d’EyeEm comptait 160 millions d’images et près de 150 000 utilisateurs. La société a déclaré qu’elle fusionnerait sa communauté avec celle de Freepik au fil du temps.
Malgré son déclin, près de 30 000 personnes téléchargent encore EyeEm chaque mois, selon les données d’Appfigures. Autrefois perçue comme un potentiel challenger d’Instagram, ou du moins comme “l’Instagram de l’Europe”, EyeEm s’est réduite à une équipe de trois personnes avant d’être vendue à Freepik, comme l’a précédemment rapporté Ingrid Lunden de TechCrunch. Joaquin Cuenca Abela, PDG de Freepik, a laissé entrevoir les projets possibles pour EyeEm, indiquant qu’il envisagerait d’intégrer davantage l’IA pour les créateurs de la plateforme. Cela signifiant donc la vente de leur travail pour former des modèles d’IA.
“Ainsi, EyeEm est un exemple de la formation de modèles d’IA basées sur le contenu des utilisateurs, parfois sans leur consentement explicite.”
Actuellement, les nouvelles conditions d’EyeEm se lisent comme suit : 8.1… Le paragraphe 13 détaille un processus compliqué pour les suppressions qui commence par la suppression directe des photos – ce qui n’aurait pas d’impact sur le contenu qui aurait déjà été partagé sur le magazine EyeEm ou sur les réseaux sociaux, note la société.
La démarche de EyeEm est un exemple de la manière dont les modèles d’IA sont formés grâce au contenu des utilisateurs, parfois sans leur consentement explicite. Bien qu’EyeEm ait offert une sorte de procédure de désinscription, tout photographe qui aurait manqué l’annonce aurait perdu le droit de dicter comment ses photos devaient être utilisées à l’avenir. Étant donné que le statut d’EyeEm en tant qu’alternative populaire à Instagram a considérablement décliné au fil des années, de nombreux photographes ont peut-être oublié qu’ils l’avaient jamais utilisé. Ils ont certainement pu ignorer l’e-mail, s’il ne se trouvait pas déjà dans un dossier de spam quelque part.