La dernière innovation de Google en matière d'intelligence artificielle (IA) pourrait transformer la manière dont les maladies sont diagnostiquées par l'analyse des sons tels que les toux et la respiration. Développé par une équipe dirigée par des scientifiques de Google, cet outil d'apprentissage automatique, nommé Health Acoustic Representations (HeAR), montre un potentiel prometteur pour le diagnostic de pathologies telles que la COVID-19 et la tuberculose, ainsi que pour l'évaluation de la fonction pulmonaire.
Si l'utilisation du son comme biomarqueur de maladie n'est pas une idée nouvelle, l'outil d'intelligence artificielle de Google, Health Acoustic Representations (HeAR), représente une avancée significative dans le diagnostic médical utilisant les sons tels que la toux et la respiration. Formé sur plus de 300 millions de clips audio extraits de vidéos YouTube, HeAR utilise l'apprentissage auto-supervisé pour convertir ces sons en spectrogrammes. Cette méthode permet au modèle d'apprendre à prédire les portions manquantes de ces spectrogrammes, similaire à la formation de modèles de langage, un peu comme ChatGPT, pour la prédiction textuelle.
Le système a montré des résultats prometteurs dans la détection de la COVID-19 et de la tuberculose. Dans des tests préliminaires, HeAR a obtenu des scores de 0.645 et 0.710 pour la détection de la COVID-19, selon le jeu de données utilisé, et un score de 0.739 pour la tuberculose. Ces performances surpassent celles des modèles existants formés sur des données de parole ou des audios généraux, démontrant une amélioration notable dans l'efficacité du diagnostic.
Cependant, HeAR n'est pas encore approuvé pour une utilisation clinique et est actuellement accessible seulement pour la recherche. Cette phase de développement permettra d'affiner le modèle et de valider son utilité dans des conditions réelles offrant ainsi une alternative aux méthodes plus lourdes et coûteuses comme les biopsies ou les scans répétés.
"La science acoustique existe depuis des décennies. Ce qui est différent, c’est que désormais, grâce à l’IA et au machine learning, nous avons les moyens de collecter et d’analyser beaucoup de données en même temps." dit Yael Bensoussan, laryngologue à l'University of South Florida . Elle codirige un consortium de recherche axé sur l’exploration de la voix en tant que biomarqueur pour suivre la santé.