je fais un don
« Dr. Chat-GPT » ou les risques de l’autodiagnostic !
L’arrivée d’Internet pour tout le monde, à la fin des années 1990-début des années 2000, et surtout l’accès aux moteurs de recherche gratuit comme Google, Bing, Yahoo !… ont rendu accessibles des quantités d’informations formidables, quelles qu’en soient la qualité, la fiabilité. La santé étant un sujet de préoccupation fréquent, les recherches concernant une maladie, des symptômes, un traitement sont monnaie courante. Forums de patients, sites plus ou moins spécialisés… Les sources d’information sont variées, de tout niveau, et ne mettent pas en relation avec un professionnel de santé : ce ne sont pas des téléconsultations. Après ces moteurs de recherche, voici ChatGPT, capable de proposer, quand on lui donne un mot, le mot suivant le plus probable selon les milliards de données textuelles qui lui ont été fournies. Il est également capable de « contexte », c’est-à-dire de se baser sur ce qui a été produit avant – jusqu’à un certain point. Et des humains sont intervenus dans son élaboration, afin de classer les propositions les plus vraisemblables générées par l’IA. Nous sommes donc face à un programme dont le but est de paraître crédible. Or, nous savons que nous avons tendance à davantage croire une information présentée de façon éloquente et avec aplomb, ou quand elle confirme ce que l’on souhaite entendre. En santé, les conséquences peuvent être dramatiques ! ChatGPT vous expliquera aussi qu’il ne saurait être totalement fiable parce qu’il n’a pas accès à toutes les informations nécessaires à l’établissement d’un diagnostic… mais il le fera quand même, de façon générale, car il veut vous plaire. En l’occurrence, il ne peut pas procéder à un examen physique, ni à des analyses de laboratoire, il n’a pas vos antécédents personnels (médicaux et familiaux) comme il l’indique lui-même quand on lui demande ses limites. Or, en l’état actuel de la médecine, une démarche humaine va toujours mobiliser ces différents éléments jusqu’à aboutir à un diagnostic. L’agent conversationnel, car c’est tout ce qu’est ChatGPT, ne fonctionne que par vraisemblance maximale, et peut inventer n’importe quoi si « le plus vraisemblable » retenu n’existe pas. Si on se résume, ChatGPT est à ce jour avant tout :
•Un séducteur : il veut vous donner une « bonne réponse » et est influencé par la façon dont vous posez la question ;
•Une girouette : il est capable de dire une chose et son contraire, voire d’inventer selon la façon dont vous l’orientez même involontairement. Vous pouvez donc « choisir » votre diagnostic ;
•Un hypocrite : il dit ne pas pouvoir produire de diagnostic pour votre sécurité, mais si vous lui proposez une liste de symptômes, il en fournira un ou plusieurs ;
•Subjectif : il est aveugle au conditionnement par l’intervention humaine. Ses précautions systématiques et très formatées quant à son utilisation comme assistant à l’auto-diagnostic sont probablement des garde-fous introduits par l’humain, plutôt qu’une production totalement libre de sa part. Pourtant, si vous lui demandez, il niera en bloc.
Observer et chercher les signes pertinents font partie de la formation du médecin. Faites lui confiance !
Lire l’article complet : https://theconversation.com/de-dr-google-a-dr-chatgpt-quels-sont-les-risques-de-lautodiagnostic-en-ligne-207231
Documents
15/11/2024