Jeudi soir tard, Oprah Winfrey a diffusé une émission spéciale sur l’IA, judicieusement intitulée “IA et l’avenir de l’humanité”. Parmi les invités figuraient Sam Altman, PDG de OpenAI, l’influenceur technologique Marques Brownlee et le directeur actuel du FBI, Christopher Wray. Le ton dominant était celui du scepticisme et de la méfiance. Oprah a fait remarquer dans ses remarques préparées que le génie de l’IA est sorti de la bouteille, pour le meilleur ou pour le pire, et que l’humanité devra apprendre à vivre avec les conséquences. “L’IA est encore au-delà de notre contrôle et dans une grande mesure… de notre compréhension”, a-t-elle dit. “Mais elle est là, et nous allons devoir vivre avec une technologie qui peut être notre alliée comme notre rivale… Nous sommes les créatures les plus adaptables de cette planète. Nous nous adapterons encore. Mais gardez les yeux sur ce qui est réel. Les enjeux n’ont jamais été aussi élevés”.
Sam Altman, le premier invité d’Oprah de la soirée, a avancé l’argument discutable selon lequel l’IA d’aujourd’hui apprend les concepts dans les données sur lesquelles elle est formée. “Nous montrons au système une séquence de mille mots et nous lui demandons de prévoir ce qui vient ensuite”, a-t-il expliqué à Oprah. “Le système apprend à prédire, et à partir de là, il apprend les concepts sous-jacents”. Beaucoup d’experts seraient en désaccord. Les systèmes d’IA comme ChatGPT et o1, que OpenAI a présenté jeudi dernier, prédisent effectivement les mots suivants les plus susceptibles dans une phrase. Mais ce ne sont que des machines statistiques, elles apprennent des modèles de données. Ils n’ont pas d’intentionnalité, ils ne font que des suppositions éclairées.
Tandis qu’Altman a peut-être surestimé les capacités des systèmes d’IA d’aujourd’hui, il a souligné l’importance de trouver comment tester ces mêmes systèmes en toute sécurité.
Altman a souligné l’importance de comprendre comment tester ces systèmes en toute sécurité. “La première chose que nous devons faire – et c’est maintenant en train de se produire – est de faire en sorte que le gouvernement commence à comprendre comment tester la sécurité de ces systèmes, comme nous le faisons pour les avions ou les nouveaux médicaments”, a-t-il déclaré. “Je discute personnellement probablement avec quelqu’un du gouvernement tous les deux jours”. Il est possible que la volonté d’Altman de réglementer soit guidée par son propre intérêt. OpenAI s’oppose à la loi californienne sur la sécurité de l’IA connue sous le nom de SB 1047, affirmant qu’elle “étoufferait l’innovation”. Cependant, d’anciens employés de OpenAI et des experts en IA ont soutenu cette loi, arguant qu’elle imposerait des garde-fous nécessaires au développement de l’IA.
Le sujet des deepfakes a naturellement été abordé lors de ce spécial sur l’IA. Pour montrer à quel point les médias synthétiques sont de plus en plus convaincants, Brownlee a comparé des séquences d’exemples de Sora, le générateur vidéo alimenté par l’IA d’OpenAI, à des images générées par un système d’IA qui a plusieurs mois. L’échantillon de Sora était bien supérieur, illustrant les progrès rapides du secteur. “Vous pouvez encore examiner certaines parties de ceci et dire que quelque chose ne va pas”, a déclaré Brownlee de la séquence de Sora. Oprah a déclaré qu’elle lui semblait réelle.
Pour Oprah, le fondateur de Microsoft, Bill Gates, apportait un élan de techno-optimisme. Il a exprimé l’espoir que l’IA stimulera le domaine de l’éducation et de la médecine. “L’IA est comme une tierce personne assise lors d’un rendez-vous médical, faisant une transcription, suggérant une prescription”, a déclaré Gates. “Au lieu que le médecin soit face à un écran d’ordinateur, il s’engage avec vous, et le logiciel s’assure qu’il y a une très bonne transcription”.