Google se tourne vers l’IA pour aider à sauver les récifs coralliens | TechCrunch

Generated with DALL·E 3

Google a développé un nouvel outil d’IA pour aider les biologistes marins à mieux comprendre les écosystèmes de récifs coralliens et leur santé, ce qui peut aider dans les efforts de conservation. L’outil, SurfPerch, créé avec Google Research et DeepMind, a été formé sur des milliers d’heures d’enregistrements audio de récifs qui permettent aux scientifiques qui étudient le récif de pouvoir “entendre la santé des récifs de l’intérieur”, suivre l’activité du récif la nuit, et suivre les récifs qui se trouvent dans des eaux profondes ou troubles.

Le projet a commencé en invitant le public à écouter les sons des récifs via le web. Au cours de l’année dernière, les visiteurs du site de Google Calling in our Corals ont écouté plus de 400 heures d’audio de récifs provenant de sites du monde entier et ont dû cliquer lorsqu’ils entendaient un son de poisson. Cela a abouti à un ensemble de données “bioacoustiques” centré sur la santé des récifs. En organisant cette activité par crowdsourcing, Google a pu créer une bibliothèque de nouveaux sons de poissons qui ont été utilisés pour affiner l’outil d’IA, SurfPerch.

“Cela nous permet de réussir à analyser de nouvelles bases de données avec une efficacité bien plus grande qu’avant, en supprimant le besoin de formation sur des processeurs GPU coûteux et en ouvrant de nouvelles opportunités pour comprendre les communautés de récifs et leur conservation,” note un article de blog de Google sur le projet.

Maintenant, SurfPerch peut être rapidement formé à détecter tout nouveau son de récif. L’article a été co-écrit par Steve Simpson, professeur de biologie marine à l’Université de Bristol au Royaume-Uni, et Ben Williams, biologiste marin à l’University College London, qui étudient tous deux les écosystèmes coralliens avec des focus sur des domaines comme le changement climatique et la restauration.

De plus, les chercheurs ont réalisé qu’ils étaient capables d’améliorer les performances du modèle SurfPerch en utilisant des enregistrements d’oiseaux. Bien que les sons d’oiseaux et les enregistrements de récifs soient très différents, il y avait des motifs communs entre les chants d’oiseaux et les sons de poissons que le modèle a réussi à apprendre, ont-ils découvert.

Après avoir combiné les données de Calling Our Corals avec SurfPerch lors des essais initiaux, les chercheurs ont pu identifier les différences entre les récifs protégés et non protégés aux Philippines, suivre les résultats de restauration en Indonésie, et mieux comprendre les relations avec la communauté de poissons sur la Grande Barrière de Corail. Le projet se poursuit aujourd’hui, de nouveaux audios sont ajoutés sur le site de Calling in Our Corals, ce qui va aider à entraîner davantage le modèle d’IA, dit Google.

Partagez cet article
article précédent

[Dossier documentaire] Qualité en formation : les nouveautés Qualiopi en 2024 – Edition avril 2024 – Centre Inffo

article suivant

Google étend son assistant de prise de notes NotebookLM propulsé par l’IA à l’Inde, au Royaume-Uni et à plus de 200 autres pays

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Lire plus d'articles