Connexion

Articles

Rechercher

Suite à mon article sur la veille et les IA génératives qui m’avait fait passer pour une vieille relou, voici une suite sur les potentialités de l’IA appliquées à l’orthophonie. Qu’on aille pas dire que je suis contre le progrès! Je sais que j’ai passé la quarantaine mais quand même!
Tagsgénéraliste
Titre originalTransforming Speech-Language Pathology with AI: Opportunities, Challenges, and Ethical Guidelines.
AuteursGeorgiou, G. P.
Date de publication2025
RevueHealthcare
Lien Sourcehttps://doi.org/10.3390/healthcare13192460

Les applications potentielles de l’IA en orthophonie

(je parle pas des Prompts à deux balles qu’on vends en webinaires Insta et des “reformule mon CRBO”)

  • Automatisation des évaluations et du screening:
  • Pour les TDL, des modèles d’apprentissage automatique peuvent prédire le risque à partir d’échantillons linguistiques d’enfants avec de bonnes performances si les données sont soigneusement sélectionnées.
    Pour les TSA des modèles langagiers appliqués aux transcriptions de parole peuvent distinguer enfants TSA des développement typique dans 75% des cas,avec des caractéristiques comme la longueur moyenne des phrases et le type de mots utilisés comme principaux indicateurs.

    MAIS tout ceci nécessite des données de qualité et une interprétation clinique prudente (TRES prudente!!)

  • Transcriptions et analyses langagières:
  • La reconnaissance automatique de la parole (ASR) s’est améliorée avec les modèles neuronaux modernes celle-ci permet de transcrire et analyser la longueur moyenne des énoncés par exemple.
    Mais la parole altérée (dyspraxie verbale, aphasie, TdSP toussa) reste difficile à reconnaître, car les données d’entraînement concernent surtout la parole typique. Une perspective serait d’entrainer les modèles à la parole conversationnelle des personnes avec troubles du langage.

  • Analyses de voix/acoustique
  • L’analyse acoustique automatisée complète l’évaluation clinique des troubles de la voix. Des outils d’IA automatisent des paramètres comme le jitter, le shimmer ou le ratio harmonique/bruit de la voix.
    Dans la maladie de Parkinson, par exemple, l’analyse acoustique offre des mesures standardisées et reproductibles pour le diagnostic et le suivi longitudinal.
    Mais, vous allez dire que je radote: cela nécessite une interprétation clinique prudente.

  • La CAA:
  • L’IA a le potentiel de transformer la communication alternative et améliorée en rendant la composition de messages plus rapide, le vocabulaire plus adapté au contexte et la synthèse vocale plus naturelle. Des systèmes multimodaux combinant langage, parole et gestes sont en développement.
    Mais leur efficacité dépend de l’intégration dans la vie réelle et du respect du contrôle par l’utilisateur et surtout il y a un risque réel de sur-automatisation ou prédictions erronées.

    En résumé, l’IA ouvre des perspectives dans les troubles du langage et l’orthophonie. Elle permettrait un dépistage potentiellement plus précoce et un meilleur accès aux soins, grâce à des outils automatisés ou des applications de rééducation pour les zones sous dotées par exemple. Elle soutient également la téléorthophonie et la prise en charge à distance, en fournissant des retours automatisés et des datas potentiellement plus fiables, ce qui facilite l’intensification et la personnalisation des interventions.

    L’IA pourrait contribuer aussi à nourrir la recherche en données qui permettrait peut être à identifier des biomarqueurs et sous-groupes, enrichissant ainsi la classification et la compréhension des troubles (bien qu'il ne s’agisse ici encore que de spéculations d’application). Pour finir, elle offre aux orthophonistes une réduction de la charge administrative, avec la transcription automatique, la synthèse des évolutions et la gestion de tâches administratives, permettant de se concentrer sur la prise en charge des patients.
    Qui dit progrès dit freins…

    Limites et défis de l’implémentation:


  • Qualité des données et représentativité:
  • Les modèles de langage nécessitent de larges jeux de données, genre enoooormément, mais ces données sont souvent limitées, de faible qualité et surtout peu diversifiées. Cela crée des biais : par exemple, les systèmes de reconnaissance vocale fonctionnent mieux pour les accents neutres ou l’anglais des personnes monolingue et moins bien pour les dialectes ou les locuteurs multilingues, entraînant des résultats inéquitables pour les utilisateurs. Plus largement, la surreprésentation de certaines régions comme les États-Unis et la Chine limite la généralisation des modèles et risque d’accentuer les disparités dans les services orthophoniques plutôt que de les réduire.

  • Difficultés d’interpretabilité, manque de confiance des cliniciens et interfaces:
  • L’hésitation des cliniciens à utiliser l’IA peut venir aussi du manque de transparence et d’explication des résultats. Ces systèmes fonctionnent souvent comme des « boîtes noires », sans expliquer comment les conclusions sont obtenues. L’IA explicative existe et produit des résultats interprétables avec des conclusions étayées, renforçant la confiance des praticiens. Cependant, les explications doivent être claires et adaptées au contexte clinique, car des explications mal conçues peuvent avoir l’effet inverse sur la confiance des cliniciens.
    Les outils d’IA développés en recherche sont souvent peu utilisés en clinique à cause d’interfaces mal conçues, d’une intégration limitée aux dossiers patients et de processus rigides, malgré de bonnes performances techniques.

  • Limites éthiques et légales:
  • Il n’existe pas encore de cadre réglementaire ou de standardisation dédié aux outils d’IA en orthophonie. Les lois encadrant l’IA restent larges et peu adaptés aux outils spécialisés, laissant des questions non résolues sur la validation clinique, la responsabilité en cas d’erreur et la gestion des modèles évolutifs. Cette zone grise réglementaire crée de l’incertitude et freine l’adoption, ce qui en soi n’est pas plus mal parce que j’imagine l’a montagne de conséquences.
    Les orthophonistes manquent souvent de formation sur l’IA, l’éthique des données et l’apprentissage automatique. Sans cette compétence, il existe un risque de mauvaise utilisation ou d’interprétation incorrecte des outils, compromettant la validité des évaluations et la qualité des soins. L’enseignement initial et continu doit intégrer ces notions pour permettre une utilisation critique et responsable. Je vois de plus en plus d’orthophonistes nourrir des IA généralistes…
    Les données vocales et linguistiques sont extrêmement sensibles et peuvent contenir des informations personnelles. L’IA amplifie les risques de violation d’anonymat ou de mésusage des données. Il est essentiel de mettre en place des mesures strictes de protection des données, des protocoles de gouvernance et de garantir le consentement éclairé, notamment pour les mineurs et personnes en situation de handicap.

    Au final, si les IA pourraient révolutionner l’orthophonie en améliorant le dépistage, la personnalisation du suivi et la vie des orthophonistes, leur adoption reste conditionnée à des données fiables, une interprétation clinique très prudente et des garde-fous éthiques et légaux robustes.Imaginez, un logiciel qui enregistre les échantillons langagiers de vos patients, les transcrit, calcule la longueur moyenne d’énoncés et tout cela sans erreurs… Le rêve! Mais les innovations ne se font pas sans casser des œufs.
    A l’heure actuelle, l’impact écologique, le non-respect de la confidentialité, les biais intrinsèques doivent rester dans nos esprits.
    Je rajouterai également que l’orthophonie et le soin en général n’étant pas les domaines les plus lucratifs, il ne faut pas s'attendre à ce que ce soient les domaines les plus investis dans la recherche et l'innovation des IA.

    Si le sujet des IA vous intéresse, lisez cet article sur l’impact environnemental des serveurs d’une grande entreprise d’IA dans un quartier à majorité afro‑américaine:
    https://www.politico.com/