Les principales annonces d’IA de Google I/O | TechCrunch

Generated with DALL·E 3

Google met le paquet sur l’IA – et veut que vous le sachiez. Lors de la keynote de l’entreprise à sa conférence des développeurs I/O mardi dernier, Google a mentionné “IA” plus de 120 fois. C’est énorme ! Mais toutes les annonces d’IA de Google n’étaient pas forcément significatives. Certaines étaient incrémentales. D’autres étaient remaniées. Pour vous aider à faire le tri, nous avons sélectionné les principaux nouveaux produits et fonctionnalités d’IA dévoilés lors de Google I/O 2024.

L’IA générative dans la recherche Google prévoit d’utiliser l’IA générative pour organiser les pages entières des résultats de recherche Google. À quoi ressembleront les pages organisées par l’IA ? Eh bien, cela dépend de la requête de recherche. Mais elles pourraient montrer des résumés générés par l’IA des critiques, des discussions provenant de sites de réseaux sociaux tels que Reddit et des listes de suggestions générées par l’IA, a déclaré Google. Pour l’instant, Google prévoit de montrer des pages de résultats améliorées par l’IA lorsqu’il détecte qu’un utilisateur cherche de l’inspiration, par exemple lorsqu’il prépare un voyage. Bientôt, elle montrera également ces résultats lorsqu’un utilisateur cherche des options de restauration et de recettes, avec des résultats pour les films, les livres, les hôtels, le commerce électronique et plus encore.

“Le Projet Astra et Gemini Live sont deux innovations majeures dans l’utilisation de l’IA générative pour améliorer la compréhension du monde réel et faciliter la vie des utilisateurs.”

Image Credits: Google / Google Google améliore son chatbot Gemini alimenté par l’IA afin qu’il puisse mieux comprendre le monde qui l’entoure. L’entreprise a donné un aperçu d’une nouvelle expérience dans Gemini appelée Gemini Live, qui permet aux utilisateurs d’avoir des discussions vocales “en profondeur” avec Gemini sur leurs smartphones. Les utilisateurs peuvent interrompre Gemini pendant que le chatbot parle pour poser des questions clarifiantes, et il s’adaptera à leurs schémas de parole en temps réel. Et Gemini peut voir et répondre aux alentours de l’utilisateur, soit via des photos, soit via une vidéo capturée par les caméras de leur smartphone. Gemini Live, qui ne sera pas lancé avant la fin de l’année, peut répondre à des questions sur les choses qui se trouvent à la portée de vue (ou qui l’étaient récemment) de la caméra d’un smartphone, comme le quartier où un utilisateur pourrait se trouver ou le nom d’une pièce sur un vélo cassé.

Les innovations techniques qui animent Live découlent en partie de Project Astra, une nouvelle initiative au sein de DeepMind pour créer des applications et des “agents” alimentés par l’IA pour une compréhension multimodale en temps réel.

L’IA pour l’accessibilité Image Credits : Google Google améliore sa fonctionnalité d’accessibilité TalkBack pour Android avec un peu de magie d’IA générative. Bientôt, TalkBack utilisera Gemini Nano pour créer des descriptions sonores d’objets pour les utilisateurs malvoyants et aveugles. Google Photos va bénéficier d’un apport d’IA avec le lancement d’une fonctionnalité expérimentale appelée Ask Photos, alimentée par la famille de modèles génératifs Gemini de Google.

S’inscrire ici pour recevoir notre newsletter IA qui commencera à arriver dans vos boîtes de réception à partir du 5 juin.

Partagez cet article
article précédent

A Béziers, un parcours de formation pour rendre l’industrie attractive – Centre Inffo

article suivant

Revue Hygiène et sécurité du travail : numéro 273 – Actualité – INRS

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Lire plus d'articles