Dans le cadre d’une formation de 28 heures dédiée à l’utilisation de l’intelligence artificielle appliquée au son, des étudiants de Master ont exploré la transformation et l’analyse approfondie des données sonores. Le cours a couvert les bases de la manipulation des fichiers audio sous différents formats (.wav, .mp3, etc.) et leur analyse en Python, en vue de projets pratiques innovants.
Durant 18 heures consacrées aux travaux dirigés, les étudiants ont travaillé sur un projet de multiclassification sonore axé sur les caractéristiques respiratoires, telles que la toux et les crépitements, pour identifier des profils de santé spécifiques. L’objectif était de classifier les patients selon :
- Leur statut vis-à-vis du COVID-19 (symptomatique ou asymptomatique).
- La présence de maladies pulmonaires ou cardiovasculaires.
- Des variables additionnelles comme le genre, l’âge, le type de maladies, le statut vaccinal, et le type de vaccin reçu.
- En utilisant des algorithmes de deep learning, les étudiants ont développé des modèles capables d’analyser les caractéristiques acoustiques subtiles des enregistrements audio respiratoires.
Les résultats obtenus ont démontré une précision prometteuse de 89 % dans la classification, offrant des perspectives intéressantes pour des applications médicales.
Cette formation a permis aux étudiants de comprendre et de mettre en pratique des techniques avancées d’IA, tout en ouvrant la voie à de futures contributions dans le domaine de la santé numérique.