Un tiers des Français interroge l’intelligence artificielle sur sa santé, et il faudrait éviter
Allo, ChatGPT, bobo. Selon une étude de Flashs réalisée pour Galeon*, une entreprise d’e-santé, un Français sur trois a déjà interrogé l’intelligence artificielle sur son état de santé. Dans les cabinets, les médecins observent aussi ce phénomène, avec un regard un peu critique. Les répondants sont partagés sur la confiance qu’ils accordent à ces nouveaux outils : 43 % ont confiance, 45 % non. La part de « pas du tout confiance » est tout de même quatre fois plus importante que de « totalement » confiance. La tendance est plus marquée chez les jeunes : ils sont près des deux tiers à avoir déjà utilisé une IA pour poser une question de santé. « Bien sûr, on a des patients qui utilisent ChatGPT avant de venir nous voir », confirme Raphaël Dachicourt, médecin généraliste et président du syndicat ReAgjir. L’IA pose des diagnostics incomplets Evidemment, le professionnel appelle à se méfier des diagnostics posés par l’IA. « Elle utilise des informations brutes, données par le patient, qui ne prend pas en compte l’analyse des symptômes. Il faut pouvoir les définir, par exemple la différence entre un vertige et un malaise. Et ça, c’est une compétence médicale. » Même problème avec la santé mentale, où l’IA n’est pas équipée pour poser les bonnes questions et réaliser une vraie thérapie. Pourtant, plus surprenant, (ou inquiétant), 17 % de ceux qui ont déjà fait appel à l’IA ont suivi ses recommandations sans faire appel à un médecin. « Ça m’inquiète forcément, après tout dépend de quel degré de gravité on parle aussi », commente Raphaël Dachicourt. Dans le même temps, il observe un « effet Doctissimo » : les patients n’ont souvent pas été rassurés par l’IA du tout, et ont souvent retenu la pire option possible parmi les diagnostics posés par l’ordinateur. Des questions de sécurité On a fait le test en demandant à ChatGPT que faire après « une toux inquiétante de plusieurs semaines ». Après l’asthme ou les allergies, l’IA nous invite effectivement à « ne pas ignorer » l’hypothèse d’un Covid long ou d’un cancer des voies respiratoires. Et on remarque que, dans sa réponse, le logiciel ne nous enjoint pas clairement à consulter un réel professionnel de santé. Les médecins, de leur côté, commencent eux aussi à utiliser l’IA pour simplifier la prise de notes pendant leurs consultations. Si Raphaël Daulicourt imagine que cette technologie puisse un jour aider à orienter les patients dans leur parcours de soins ou estimer une durée de consultation en fonction de l’urgence des premiers symptômes, il la voit mal totalement révolutionner le secteur. Et surtout, pour les patients, la responsabilité du diagnostic et la sécurité posent encore un obstacle. « Les IA généralistes ne sont pas agréées pour gérer des données de santé, regrette le docteur. On ne sait pas où elles vont, et cela peut être dangereux pour le secret médical en cas de fuite de données par exemple. » Les médecins androïdes pour remplir les déserts médicaux, c’est pas pour tout de suite.