L’inclusion d’abord : quand l’IA parle, la gouvernance doit écouter

Gouvernance de l’IA, inclusion numérique et littératie linguistique en santé mentale (2026)

Le choc de deux mondes : accélération technologique et changement épidémiologique et démographique

1.      Psy. MSc. Rebecca Oswago — Directrice de la santé mentale, Seniors International Consulting (SICs)

2.      PhD Adeline Allègre  ­­ Directrice One Health, Seniors International Consulting (SICs)

3.      Dan Cristal — Directeur de la gouvernance, Seniors International Consulting (SICs)

4.      MSc. Víctor Piriz Correa, MD — PDG et chef de projet organisationnel senior, Seniors International Consulting (SICs)

Ouverture (Davos 2026) : le dialogue avant le déploiement

Hier, au lancement de Davos 2026, un moment qui mérite d’être gardé comme avertissement stratégique : l’ouverture musicale — Mäller et son orchestre de chambre — a rappelé quelque chose d’élémentaire et, pour cette raison même, facile à oublier dans la fièvre technologique.

La musique a été, probablement, la première technologie inventée par l’humanité pour communiquer lorsque les mots ne suffisaient pas encore : une manière de coordonner sens, confiance et communauté sans manuels ni interfaces.

Cet « esprit du dialogue » n’est pas un ornement culturel. C’est une leçon de gouvernance : dans un orchestre, l’harmonie ne naît pas de la puissance de calcul ; elle naît de règles partagées, de l’écoute, de limites, de responsabilités et d’une architecture qui permet à chaque instrument de contribuer sans détruire l’ensemble. En santé mentale, l’IA — et en particulier l’IA linguistique — entre dans l’endroit le plus sensible du système : le langage par lequel une société nomme la souffrance, demande de l’aide et décide de faire confiance.

La thèse de cet article est simple et exigeante : la gouvernance de l’IA en santé mentale doit précéder le passage à l’échelle, sinon les risques humains, fiduciaires et réputationnels seront inévitables.

Introduction

L’accélération est la caractéristique la plus saillante du XXIe siècle. Des processus sociaux, économiques et démographiques qui prenaient autrefois des décennies pour se stabiliser s’enroulent désormais au rythme des algorithmes. En 2026, le monde fait face à un paradoxe structurel : tandis que la technologie numérique — et en particulier l’intelligence artificielle — redéfinit l’économie, l’action publique et la géopolitique, les réalités démographiques et épidémiologiques se transforment encore plus vite, mettant sous tension les systèmes de soins, la santé mentale et la protection sociale.

Dans ce contexte, l’essor de solutions d’IA — chatbots génératifs, applications de bien‑être, plateformes de soutien psychosocial — est présenté comme une promesse de mise à l’échelle face à des systèmes saturés. Pourtant, le véritable point de départ n’est pas technique. Il s’agit de gouvernance, de littératie numérique et sanitaire, et de conception institutionnelle, dans une humanité qui traverse simultanément des changements épidémiologiques, démographiques et technologiques sans précédent.

Cet article propose un cadre opérationnel pour les décideurs publics, les banques, les fonds et les agences : financer le déploiement sans financer la gouvernance, c’est financer le risque.

Le choc de deux mondes : révolution technologique vs réalité démographique

Le fait décisif n’est pas seulement que la planète grandit ; c’est qu’elle vieillit. Le vieillissement soutenu, la hausse des maladies non transmissibles (MNT) et la pression croissante sur les soins de longue durée reconfigurent la demande de services — y compris en santé mentale — à une vitesse que beaucoup de systèmes ne sont pas prêts à absorber.

Parallèlement, la transformation numérique progresse sur des hypothèses implicites : connectivité disponible, compétences homogènes, autonomie individuelle, interfaces « intuitives », et usagers capables de lire, écrire, comprendre et faire confiance aux environnements numériques. Ces hypothèses échouent sur deux fronts : dans la société et au sein de la main‑d’œuvre sanitaire.

Voici l’erreur stratégique la plus fréquente : confondre numérisation et inclusion.

Les preuves internationales en santé numérique et équité convergent : sans cadre explicite de gouvernance et d’inclusion, les interventions numériques tendent à amplifier les inégalités préexistantes. D’où l’importance des déterminants numériques de la santé : l’« application » ne suffit pas ; comptent aussi l’utilisabilité, la langue, le soutien humain, l’interopérabilité, la protection des données, l’atténuation des biais et les mécanismes de réparation lorsque le système échoue.

En 2026, les points de friction sont visibles :

·        Des plateformes conçues avec une « mentalité jeune », peu accessibles aux personnes âgées.

·        Des personnels de santé avec des écarts de compétences numériques, une surcharge et une fatigue morale.

·        Des programmes de littératie centrés sur l’« usage » (clics) plutôt que sur la compréhension critique.

·        Une gouvernance des données insuffisante, affectant directement la confiance publique et la légitimité.

Santé mentale et MNT : un enjeu de développement, pas seulement de santé

Traiter la santé mentale comme un sujet « sectoriel » n’est plus viable. Son interaction avec les MNT et les maladies chroniques agit comme un multiplicateur de risque : elle influence la prévention, l’adhésion, le pronostic, le handicap et les coûts de long terme. À l’échelle d’un pays, cela se traduit par une baisse de productivité, une dépendance accrue, une pression budgétaire durable et une érosion de la cohésion sociale.

Dans ce contexte, l’IA devient tentante : elle promet d’élargir l’accès, de réduire les délais, d’automatiser des tâches, d’assurer du triage et un soutien 24 heures sur 24. Mais la promesse est ambiguë. En santé mentale, une mauvaise réponse n’est pas un bug ; cela peut être un événement indésirable. La bonne question pour les financeurs n’est donc pas « est‑ce que cela passe à l’échelle ? », mais « est‑ce que cela peut passer à l’échelle sans nuire ? ».

Quand le numérique devient linguistique : gouverner le langage comme infrastructure du soin

En santé mentale, la numérisation prend une forme particulière : le langage. Les systèmes ne se contentent plus d’enregistrer des données ; ils parlent, interprètent, répondent et suggèrent. Trois technologies deviennent alors critiques :

Traitement automatique du langage naturel (TALN) : analyse, classe et interprète le langage humain.

Grands modèles de langage (LLM) : génèrent des réponses plausibles sans garantie de vérité clinique ni d’adéquation contextuelle.

Génération automatique de langage (NLG) : produit du texte avec une apparence d’empathie et d’accompagnement.

Ces technologies opèrent sur les significations, la culture et la vulnérabilité. En santé mentale, où le langage fait partie du traitement, le risque n’est pas marginal : il est structurel. Les débats européens récents et la littérature appliquée convergent sur des risques : gestion insuffisamment sûre des crises, biais culturels et linguistiques, « dérivation » implicite de la recherche d’aide vers un système non clinique, fausse perception de soin, dépendance émotionnelle, et opacité sur les limites, la responsabilité et la traçabilité.

Voici  le paradoxe central : le paradoxe de l’accessibilité. La disponibilité 24 heures sur 24 et le faible coût n’équivalent pas à un soin sûr, efficace ou éthiquement gouverné. Pour les banques, fonds et agences, cette distinction est décisive : l’adoption de masse n’est pas synonyme d’aptitude clinique, encore moins de durabilité institutionnelle.

Double inclusion sous pression : société vieillissante et main‑d’œuvre sanitaire

Inclusion sociale dans une société qui vieillit

Pour une part croissante des personnes âgées — en particulier celles qui vivent seules — l’inclusion numérique est devenue une condition de l’inclusion sociale : maintenir des liens, accéder aux services, s’informer, participer. Mais « inclure » ne signifie pas seulement connecter.

La littératie numérique, au sens fort, ressemble à la littératie traditionnelle : la capacité de réfléchir, d’analyser et de créer, et non pas seulement d’utiliser. C’est comprendre ce qui se trouve derrière un message, qui l’émet, quelles hypothèses il porte et quels risques il peut entraîner.

La sociologie du quotidien aide à préciser les enjeux. Des travaux comme Una sociología de la vida en común (Kessler et Piovani) montrent que la santé mentale est soutenue par des liens microsociaux — amitié, couple, entraide, gestion des conflits. Si la technologie médie ces liens, alors la conception et la gouvernance deviennent des déterminants du bien‑être ou de l’isolement.

Un bon design peut autonomiser. Un mauvais design — y compris des « boucles factices » qui capturent l’attention et renforcent la dépendance — peut éroder l’autonomie, surtout chez les personnes âgées.

Inclusion de la main‑d’œuvre : protéger le jugement humain

La seconde population exposée est la main‑d’œuvre sanitaire. En 2026, elle fait face au vieillissement, aux burnout, aux pénuries et à la pression de la demande. Ici, l’inclusion numérique est une inclusion professionnelle : la capacité réelle d’opérer les systèmes, de les comprendre, de les auditer et de maintenir le jugement clinique.

Sans gouvernance, l’IA peut déplacer la responsabilité clinique vers des systèmes automatisés, accroître la charge cognitive et administrative, éroder l’empathie et le jugement professionnel par une « protocolisation » algorithmique, et créer une dépendance opérationnelle vis‑à‑vis des fournisseurs technologiques.

La réponse n’est pas la technophobie. C’est la conception institutionnelle : l’IA comme soutien, non comme substitut ; avec des parcours d’orientation clairs, des standards, des rôles et une redevabilité.

Diligence raisonnable en matière de gouvernance

Beaucoup de projets échouent par succès apparent : un pilote « fonctionne », est bien communiqué, puis passe à l’échelle sans architecture. Pour les financeurs, c’est un échec de diligence raisonnable. Nous proposons que les banques, fonds et agences adoptent une liste minimale de diligence raisonnable en gouvernance avant de financer le passage à l’échelle :

1.      Définition du cas d’usage et des limites : ce qui est permis et ce qui est interdit.

2.      Sécurité clinique et circuits de crise : orientation, réponse et responsabilités.

3.      Preuves et évaluation continue : efficacité, dommages, équité et acceptabilité.

4.      Gouvernance des données : consentement, minimisation, accès, conservation et protection.

5.      Inclusion linguistique et culturelle : langues, dialectes, accessibilité et biais.

6.      Responsabilité partagée : obligations contractuelles et réglementaires.

7.      Préparation de la main‑d’œuvre : formation, refonte des tâches et soutien.

8.      Transparence pour les usagers : limites, explications et mécanismes de réparation.

9.      Interopérabilité et continuité des soins : intégration au système et orientations.

10.  Licence sociale et confiance : stratégie de légitimité, communication et réponse aux défaillances.

La gouvernance comme actif stratégique : gouverner avant de passer à l’échelle

Pour les gouvernements, les banques de développement et les agences, la gouvernance de l’IA linguistique en santé mentale n’est pas un détail technique : c’est un risque fiduciaire, réputationnel et humain. La gouvernance protège l’investissement, l’impact et la licence sociale d’innover.

D’après l’expérience de Seniors International Consulting (SICs), les piliers opérationnels sont :

·        Des modèles hybrides humain–IA, avec des limites explicites et des parcours de crise.

·        Une gouvernance du langage et une inclusion linguistique adaptées au contexte culturel et démographique.

·        Preuves et sécurité, avec suivi des événements indésirables et amélioration continue.

·        Responsabilité partagée, contractuelle et réglementaire.

·        Double littératie (numérique et santé) pour la population et la main‑d’œuvre.

Ce que fait SICs : une conception de gouvernance qui rend l’innovation gouvernable

SICs intervient à l’interface entre preuves, conception institutionnelle et risque. Notre contribution n’est pas de construire un outil, mais de rendre l’écosystème gouvernable afin que l’innovation ne produise pas de dommages évitables et que le financement ait une chance réelle d’impact durable.

Concrètement : diagnostic de gouvernance de l’IA en santé ; cartographie des parties prenantes et des incitations ; cartographie des écarts de littératie (numérique et santé) pour la société et la main‑d’œuvre ; conception de garde‑fous (cliniques, linguistiques, données, redevabilité) ; et trajectoires de mise en œuvre (du pilote à l’échelle) avec des métriques de sécurité, d’équité et de confiance.

Inclusion et gouvernance avant de financer la promesse

La numérisation est inévitable. Son impact distributif ne l’est pas. Conçue sans intention, la santé numérique bénéficie d’abord à celles et ceux qui disposent déjà d’avantages. Conçue avec gouvernance et inclusion, elle peut réduire les inégalités.

Dans un monde vieillissant, avec des systèmes de soins sous pression et des main‑d’œuvre épuisées, la gouvernance des technologies linguistiques est une infrastructure de développement. Ne pas décider, c’est décider : accepter des risques évitables pour les personnes, les institutions et les financeurs.

« Les sourds ne peuvent pas entendre ; les orgueilleux et les arrogants ne veulent pas. »

— Víctor Piriz

Bibliographie (Chicago)

·        Oswago, Rebecca, and Víctor Piriz Correa. Digital Frontiers in Mental Health: Governing Risk and AI Ethics Before Funding the Promise. Seniors International Consulting (SICs), 2025.

·        Organización Panamericana de la Salud (OPS/PAHO). Noncommunicable Diseases at a Glance: Mortality Surveillance in the Americas. 2025.

·        World Health Organization (WHO). Health Workforce Projections and Shortages. Publications, 2024–2025.

·        World Economic Forum (WEF). Shared Guiding Principles for Digital Health Inclusion. 2021.

·        World Economic Forum (WEF). Workforce Health Across the Value Chain. 2025.

·        Mental Health Europe (MHE). Study on AI in Mental Health Care. 2025.

·        FUTURE-AI Consortium. International Consensus Guideline for Trustworthy Artificial Intelligence in Healthcare. BMJ Global Health, 2025.

·        American Psychological Association (APA). Health Advisory on the Selection and Use of Generative AI Chatbots. 2025.

·        Attridge, Mark, and Derek Hughes. “Artificial Intelligence in Employee Assistance Programs (EAPs): Opportunities and Risks.” Journal of Workplace Behavioral Health, 2025.

·        Richardson, Shantanu, Kendra Lawrence, A. M. Schoenthaler, and Devin Mann. “A Framework for Digital Health Equity.” npj Digital Medicine, 2022.

·        Johns Hopkins Bloomberg School of Public Health. Digital Healthcare Equity Framework – Highlights. Issue 16 (October 2024).

·        International Labour Organization (ILO). AI, Digitalisation and Occupational Health. Selected publications.

·        United Nations. Ageing and Older Persons: Global Demographic Projections. Official sources and dashboards.

·        World Bank Group. Health Workforce Shortages and Demographic Change. Relevant sources.

·        Kessler, Gabriel, and Juan Ignacio Piovani. Una sociología de la vida en común: Cómo hacemos amigos, armamos pareja, nos ayudamos y manejamos nuestros conflictos en la Argentina. Siglo XXI Editores.

·        Seniors International Consulting (SICs). Gobernanza, inclusión y diseño responsable de sistemas de cuidado en la era de la IA. 2026.

Seniors International Consulting (SICs) — Gouvernance, inclusion et conception responsable des systèmes de soins à l’ère de l’IA.

Anterior
Anterior

Frontières numériques en santé mentale : gouverner le risque et l’éthique de l’IA avant de financer la promesse

Siguiente
Siguiente

Diriger avec Humanité à l’Ère de l’IA : Le Nouvel Impératif du Conseil en Santé