fbpx Skip to content

> ChatGPT au service de notre santé ?

ChatGPT au service de notre santé ?

chatGPT santé
chatGPT santé

La médiatisation de ChatGPT, un programme d’intelligence artificielle (IA) accessible au grand public, soulève la question de l’utilisation de cet outil dans certains domaines de nos vies, comme la santé.

À la question : « Mon fils vient de se faire piquer par une abeille. Que dois-je faire ? », le bot (abréviation de robot, NDLR) ChatGPT propose des options justes pour soulager et éviter une infection. Il précise que « si la douleur ou l’enflure persiste, il est préférable de consulter un professionnel de santé pour obtenir des conseils médicaux appropriés ». Le côté interactif et empathique ferait oublier que nous ne sommes pas en contact avec un médecin.

Lui poser des questions

docteur chatGPT

L’intelligence artificielle fait le buzz depuis le 30 novembre 2022, avec l’accès de tous à ChatGPT, un programme développé par la firme californienne Open AI, spécialisée en IA. Au-delà de ses capacités de « chat », agent conversationnel en temps réel, ChatGPT (Generated Pre-trained Transformer ) est capable, via un algorithme, de générer du texte de manière autonome (mais pas ex nihilo) pour apporter des réponses aux questions des utilisateurs. Il est « entraîné » grâce à de grandes quantités de données qu’il collecte afin d’apprendre le langage. L’utilisateur humain pose une question, la machine repère des mots-clefs et va chercher dans ses données une réponse cohérente sous la forme d’un texte qui s’affiche à l’écran comme si quelqu’un était en train d’écrire. Ainsi, il est en théorie possible de soumettre à ce robot des questions de santé.

Synthétiser les informations

La capacité de ChatGPT à traiter en un temps très court des données écrites permet une avancée incontestable dans le domaine médical. « ChatGPT peut aider un médecin à analyser et synthétiser des informations qu’on lui fournit. Et abattre en l’espace de quelques secondes le travail fait en de longues heures par un humain », explique Maëliza Seymour, ingénieure et mathématicienne free-lance, basée en Guadeloupe, qui crée des outils d’IA pour les entreprises. « Si un médecin veut développer un nouveau dispositif médical, il a besoin d’étudier l’état de l’art des techniques médicales existantes. Il doit compiler des centaines de papiers de recherche et en faire un résumé, ce que peut faire l’outil en quelques secondes. » Ce gain de temps par le traitement des textes médicaux permet également une amélioration et une accélération des diagnostics parce que le médecin obtient très rapidement l’apport de la littérature au sujet d’une pathologie. 

données médicale chat GPT

En 2018, Maëliza a participé à un projet au Kenya dont le but était de lire automatiquement les dossiers médicaux des patients pour identifier quel médicament était à risque pour lui. « À l’époque, les performances des modèles pour comprendre automatiquement le langage n’étaient pas assez poussées, mais c’est aujourd’hui possible avec ChatGPT », émet la jeune femme. « ChatGPT et l’IA sont là pour nous « augmenter ». Ils ne remplacent pas le médecin, mais lui permettent d’aller plus vite. Ce n’est pas une intelligence autonome. Elle fonctionne grâce à nous », explique Sophie Lubin, responsable performance d’une DSI (Direction des Systèmes d’Information), à l’origine de l’association Maryse Project qui contribue à l’acculturation numérique des populations d’Outre-mer.

Discerner le vrai du faux

Si ChatGPT aide les médecins, en revanche, à la question de l’auto-diagnostic médical, Maëliza Seymour reprend fermement : « Je vous déconseille de poser des questions de santé à ChatGPT qui, comme toutes les IA génératives, est un excellent menteur. Leur objectif est de fournir une réponse qui a un sens grammatical, mais pas forcément la vérité. » Elle va même plus loin : « Chercher de la vraie information via ChatGPT peut être très dangereux. » Le risque est de s’y fier sans interroger ce qui est énoncé. L’intelligence humaine est faite de sensibilité, dont les soignants usent quand ils émettent des diagnostics. Les concepteurs de ChatGPT, pour qu’il soit utilisé massivement et qu’on y croit, l’ont presque doté d’humanité : « De rien ! Je suis heureux d’avoir pu vous aider. Prenez soin de votre fils et j’espère qu’il se rétablira bientôt. » D’ailleurs, une étude faite par des chercheurs de La Jolla, à San Diego, publiée le 28 avril 2023, dans le JAMA Internal Medicine, montre que ChatGPT répond aux questions des patients avec plus d’empathie que les médecins.

vraie faux chatGPT

Maëliza explique cela par la théorie japonaise de la « vallée de l’étrange », énoncée en 1970 par le roboticien Masahiro Mori. Il s’agit d’une zone à franchir dans laquelle chaque progrès vers l’imitation humaine amène au départ plus de rejet, mais, passé un certain seuil de réalisme, une acceptation plus grande. « L’utilisateur n’est pas trompé, mais son cerveau, oui. L’humain sait que c’est une machine, mais on donne l’impression qu’il y a un rythme humain de création (10 caractères/seconde) pour faire accepter l’IA par le cerveau. » La machine ne dépassera a priori pas l’homme, car elle a besoin de lui pour fonctionner. Mais notre capacité de continuer à discerner le réel, y compris d’un état de santé, est, elle, sérieusement questionnée.

Par Bérengère Merlot

Retrouvez nos magazines en ligne en cliquant sur le lien suivant ici
ou abonnez-vous pour les recevoir au format numérique en cliquant ici

Anform publicité magazine

Vous aimerez aussi

Nos derniers articles

Le dernier numéro
est arrivé !