Google a développé un nouvel outil d’IA pour aider les biologistes marins à mieux comprendre les écosystèmes de récifs coralliens et leur santé, ce qui peut aider dans les efforts de conservation. L’outil, SurfPerch, créé avec Google Research et DeepMind, a été formé sur des milliers d’heures d’enregistrements audio de récifs qui permettent aux scientifiques qui étudient le récif de pouvoir “entendre la santé des récifs de l’intérieur”, suivre l’activité du récif la nuit, et suivre les récifs qui se trouvent dans des eaux profondes ou troubles.
Le projet a commencé en invitant le public à écouter les sons des récifs via le web. Au cours de l’année dernière, les visiteurs du site de Google Calling in our Corals ont écouté plus de 400 heures d’audio de récifs provenant de sites du monde entier et ont dû cliquer lorsqu’ils entendaient un son de poisson. Cela a abouti à un ensemble de données “bioacoustiques” centré sur la santé des récifs. En organisant cette activité par crowdsourcing, Google a pu créer une bibliothèque de nouveaux sons de poissons qui ont été utilisés pour affiner l’outil d’IA, SurfPerch.
“Cela nous permet de réussir à analyser de nouvelles bases de données avec une efficacité bien plus grande qu’avant, en supprimant le besoin de formation sur des processeurs GPU coûteux et en ouvrant de nouvelles opportunités pour comprendre les communautés de récifs et leur conservation,” note un article de blog de Google sur le projet.
Maintenant, SurfPerch peut être rapidement formé à détecter tout nouveau son de récif. L’article a été co-écrit par Steve Simpson, professeur de biologie marine à l’Université de Bristol au Royaume-Uni, et Ben Williams, biologiste marin à l’University College London, qui étudient tous deux les écosystèmes coralliens avec des focus sur des domaines comme le changement climatique et la restauration.
De plus, les chercheurs ont réalisé qu’ils étaient capables d’améliorer les performances du modèle SurfPerch en utilisant des enregistrements d’oiseaux. Bien que les sons d’oiseaux et les enregistrements de récifs soient très différents, il y avait des motifs communs entre les chants d’oiseaux et les sons de poissons que le modèle a réussi à apprendre, ont-ils découvert.
Après avoir combiné les données de Calling Our Corals avec SurfPerch lors des essais initiaux, les chercheurs ont pu identifier les différences entre les récifs protégés et non protégés aux Philippines, suivre les résultats de restauration en Indonésie, et mieux comprendre les relations avec la communauté de poissons sur la Grande Barrière de Corail. Le projet se poursuit aujourd’hui, de nouveaux audios sont ajoutés sur le site de Calling in Our Corals, ce qui va aider à entraîner davantage le modèle d’IA, dit Google.