Les médecins pensent que l’IA a une place en santé — mais peut-être pas sous forme de chatbot

Le développement rapide des intelligences artificielles dans le domaine de la santé soulève à la fois enthousiasme et préoccupations. Récemment, le Dr. Sina Bari, chirurgien praticien et expert en IA pour le secteur médical chez iMerit, a partagé ses expériences concrètes avec ChatGPT, soulignant d’une part ses potentials mais aussi ses limites. Il a raconté qu’un de ses patients, après avoir consulté un chatbot, avait reçu une information erronée sur un traitement, mêlant un risque spécifique à une population très restreinte et non applicable à lui. Ce type d’erreur met en évidence les dangers des conseils automatisés mal contextualisés dans un domaine aussi sensible que la médecine.

Pendant que certains craignent encore les risques associés à ces outils, OpenAI a récemment annoncé le lancement de ChatGPT Health, un chatbot dédié à la santé, prévu pour être déployé dans les semaines à venir. Ce nouveau service permettrait aux utilisateurs d’aborder leurs questions médicales dans un cadre plus privé et sécurisé, où leurs échanges ne seraient pas utilisés pour entraîner l’IA. La possibilité d’importer ses dossiers médicaux ou de synchroniser des applications comme Apple Health ou MyFitnessPal pour une assistance plus personnalisée est aussi une avancée notable. Pour les professionnels, cela ouvre la voie à une utilisation plus ciblée, mais pas sans soulever des questions de sécurité et de conformité, notamment concernant la transmission de données sensibles en dehors du cadre réglementaire HIPAA.

“Alors que certains vétérans du secteur craignent la prolifération de biais et hallucinations dans l’IA, d’autres voient une opportunité d’améliorer rapidement l’accès aux soins en automatisant certaines tâches administratives et cliniques.”

En dépit des promesses, les modèles actuels comme GPT-5 montrent qu’ils restent sujets à des hallucinations, produisant parfois des informations erronées par manque de fiabilité. La question est de savoir si ces outils, aussi avancés soient-ils, peuvent être pleinement déployés dans la pratique médicale sans risque pour la sécurité des patients. Certains experts, comme le professeur Nigam Shah de Stanford, pensant qu’améliorer l’accès aux soins est une priorité plus urgente, soutiennent que la véritable révolution pourrait venir de la digitalisation et de l’automatisation des tâches administratives plutôt que du remplacement direct des médecins par des chatbots.

À cet égard, des projets comme ChatEHR, développé par Stanford, tentent de rendre le dossier médical électronique plus accessible et utilisable par les praticiens. En automatisant la recherche d’informations de manière plus intuitive, ces outils pourraient réduire le temps consacré à la gestion administrative, libérant ainsi du temps pour le face-à-face avec les patients. Parallèlement, des entreprises comme Anthropic travaillent également sur des solutions destinées aux professionnels, notamment pour réduire la charge administrative via des assistants alimentés par l’IA, notamment la gestion des demandes d’autorisation préalable avec des gains de temps potentiellement significatifs.

Au fur et à mesure que l’intelligence artificielle devient un acteur incontournable dans la médecine, un équilibre doit être trouvé entre innovation et sécurité. La tension entre la volonté de fournir des soins accessibles rapidement et la nécessité de protéger la qualité et la sécurité des patients demeure centrale. Comme le résume le Dr. Bari, « lorsque l’on voit l’insistance sur la sécurité et la prudence dans le secteur médical, il est évident que l’IA doit être intégrée avec précaution. La confiance et la responsabilité restent fondamentales dans cette évolution. »

Partagez cet article
article précédent

NVIDIA et Eli Lilly – 1 milliard pour réinventer la médecine avec l’IA | Le site de Korben

article suivant

Objectifs RH : trop tard en janvier ? Plan de rattrapage en 3 semaines

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Lire plus d'articles