L’essor des assistants numériques d’aide aux décisions médicales suscite un intérêt grandissant. Toutefois, une nouvelle étude parue dans Nature Medicine le 23 février 2026 révèle des résultats alarmants sur l’efficacité de ChatGPT Santé pour le triage des urgences médicales.
L’article en bref
Découvrez pourquoi l’IA ne suffit pas toujours pour détecter une situation critique et comment encadrer son usage.
- Sous-évaluation fréquente : ChatGPT Santé manque une urgence sur deux
- Usage massif sans contrôle : 40 millions d’utilisateurs journaliers
- Risques accrus : retards de prise en charge et complications
- Encadrement nécessaire : protocoles pour un usage sécurisé
En intégrant ces données, vous serez mieux armé pour utiliser l’intelligence artificielle en toute confiance.
Failles de triage relevées par l’étude
La recherche de l’Icahn School of Medicine at Mount Sinai met en lumière des angles morts de ChatGPT Santé. Sur une soixantaine de scénarios simulant des urgences vitales, l’outil codé par OpenAI a sous-estimé la gravité dans la moitié des cas.
Le Dr Isaac S. Kohane rappelle que « les systèmes d’intelligence artificielle sont devenus le premier réflexe des patients, mais leur fiabilité reste limitée aux extrêmes cliniques ». Un bon diagnostic commence toujours par une bonne écoute.

Évaluation de l’urgence vitale
ChatGPT Santé a montré des difficultés à reconnaître certains signes critiques. Dans des épisodes de douleur thoracique, l’outil a parfois recommandé une simple surveillance, alors que les symptômes d’une crise cardiaque ou de tamponnade cardiaque nécessitent une prise en charge immédiate.
Ce décalage peut retarder l’arrivée en service d’assistance médicale et compromettre la sécurité des patients.
Conséquences pour la sécurité des patients
Le sous-diagnostic d’une urgence peut entraîner :
- Retard de diagnostic et prise en charge tardive
- Maintien au domicile malgré des signes alarmants
- Conflits entre conseils numériques et avis médical
- Complications évitables par une surveillance humaine
Ces enjeux illustrent que la technologie médicale ne remplace pas totalement l’expertise clinique.
Illustration par un cas clinique anonymisé
Mme Martin, patiente de 52 ans, a utilisé ChatGPT Santé pour des douleurs abdominales intenses. L’outil a préconisé une simple hydratation, alors qu’une intervention urgente pour appendicite était nécessaire. À son arrivée au service d’urgences de l’hôpital, l’appendice avait déjà perforé.
Chaque patient a sa propre histoire : la médecine ne peut être standardisée.
Vers une utilisation plus fiable de l’IA en assistance médicale
Face à ces résultats alarmants, les autorités recommandent :
- Validation systématique par un professionnel pour tout conseil d’urgence
- Formation des usagers sur les limites du diagnostic automatisé
- Intégration de protocoles clairs dans chaque application médicale
La prévention est souvent le meilleur des traitements. Vous avez le droit de poser des questions. Mieux : c’est essentiel pour garantir la sécurité des patients.
ChatGPT Santé peut-il remplacer une consultation médicale ?
Non. Cet outil sert de premier repère, mais seul un examen clinique permet de confirmer un diagnostic et d’orienter vers une prise en charge adaptée.
Comment savoir si l’IA a sous-estimé l’urgence ?
Si vos symptômes s’intensifient ou durent plus de quelques heures, il est impératif de contacter un professionnel ou de vous rendre aux urgences.
Quels types d’urgences échappent le plus à l’IA ?
Les douleurs thoraciques, les signes de tamponnade et certaines complications abdominales sont parmi les plus souvent sous-évaluées.
Quelles ressources fiables consulter ?
Privilégiez les sites institutionnels comme ceux de la HAS, de l’OMS ou des établissements hospitaliers reconnus.
