Cette semaine, Google a supprimé de son site web l’engagement à ne pas développer d’intelligence artificielle (IA) pour des armes ou pour des fins de surveillance. Le changement a été repéré pour la première fois par Bloomberg. L’entreprise semble avoir mis à jour sa page publique sur les principes d’IA, effaçant une section intitulée « applications que nous ne poursuivrons pas », qui était encore inclus jusqu’à la semaine dernière.
Lorsqu’on lui a demandé un commentaire, l’entreprise a dirigé TechCrunch vers un nouveau post de blog sur « l’IA responsable ». Il note, en partie, « nous croyons que les entreprises, les gouvernements et les organisations partageant ces valeurs devraient travailler ensemble pour créer une IA qui protège les gens, favorise la croissance mondiale, et soutient la sécurité nationale. »
Récemment le chef de l’IA du Pentagone a déclaré à TechCrunch que certains modèles d’IA de certaines entreprises accéléraient la chaîne de tuerie de l’armée américaine.
Les principes d’IA nouvellement actualisés de Google précisent que l’entreprise travaillera pour “atténuer les conséquences involontaires ou nuisibles et éviter les biais injustes”, ainsi que pour aligner l’entreprise avec “les principes largement acceptés du droit international et des droits de l’homme”.
Au cours des dernières années, les contrats de Google pour fournir des services cloud aux armées américaine et israélienne ont suscité des protestations internes de la part des employés de l’entreprise. La société a maintenu que son IA n’est pas utilisée pour nuire aux humains; toutefois, récemment, le chef de l’IA du Pentagone a déclaré à TechCrunch que certains modèles d’IA de certaines entreprises accéléraient la chaîne de tuerie de l’armée américaine.