[SANTÉ] IA et santé mentale : quand l’humain est confié à une machine
Aux États-Unis, des parents ont décidé de porter plainte contre OpenAI - le créateur de ChatGPT, outil d'intelligence artificielle (IA) -, qu'ils accusent d'avoir poussé leur fils de 23 ans au suicide, en juillet dernier. La même entreprise, régulièrement accusée « d'exacerber les troubles de santé mentale des personnes fragiles », a, dans un communiqué en date du 27 octobre, annoncé « avoir renforcé la capacité de ChatGPT à reconnaître la détresse de ses utilisateurs, à faire preuve d'empathie et à proposer des ressources du monde réel ». Aujourd’hui, l’intelligence artificielle touche tous les domaines, ce qui ne va pas sans certaines inquiétudes. Car si, de l’imprimerie au nucléaire, toutes les découvertes finissent par apporter plus de bien que de mal, il faut être attentif à ce que le bien l’emporte. Elle serait pourtant, aux dires des spécialistes, au cœur de la médecine du futur, garante d'une promesse de grande amélioration de la qualité des soins.
Pour ce qui est de la santé mentale, la tâche semble difficile
En effet, en médecine somatique, l’IA alimentée de données objectives permet de révéler certaines maladies difficilement diagnosticables, de faire des pronostics ou de personnaliser les traitements. Mais pour ce qui est de la santé mentale - plus art que science, encore, que la médecine -, la tâche semble plus difficile. L’humour, les lapsus, les litotes, le mode allusif, le deuxième degré et la communication non verbale, si riches d’enseignements en présentiel pour le psychiatre, sont-ils perçus par une IA, même conversationnelle ?
De plus, cette dernière est conçue pour exprimer de l’empathie, plaire à l’interlocuteur et aller dans son sens. Si ce dernier manifeste une tendance suicidaire, est-on sûr que l’IA ne lui vantera pas l’admirable stoïcisme de Sénèque au moment de se donner la mort comme ce jeune homme californien ?
Mieux reconnaître et soutenir mais des risques
Même le Service de communication du gouvernement (SIG) reconnaît que l’utilisation de l’IA « comporte certains risques, notamment la possibilité de générer des "hallucinations", des réponses inappropriées ou dangereuses pouvant mettre en danger des utilisateurs vulnérables ». Que sera-ce, si la tendance hallucinatoire pré-existe ?
Le Covid-19 s’étant ajouté au manque de médecins, on est déjà passé de la consultation classique à la téléconsultation. La psychiatrie, champ le plus humain de la médecine et aussi, hélas, le plus déserté, va-t-elle maintenant être confiée à la machine ?
Certes, celle-ci se perfectionne. La dernière mise à jour du chatbot de ChatGPT permettrait de « mieux reconnaître et soutenir les gens dans des moments de détresse ». Enfin, l’IA pourra se révéler - seulement après un diagnostic validé par une intelligence humaine - très utile dans l'accompagnement et le suivi des maladies chroniques psychiatriques en apportant un soutien continu et adapté aux besoins spécifiques de chaque patient.
On le voit, tout n’est pas noir, mais il faut rester vigilant.
Pour ne rien rater
Les plus lus du jour
Popular Posts




































12 commentaires
Mdr avec l’Imbécilité Artificielle.. En 1975 un test de diagnostic par ordinateur (l’IA existait mais sans nom) avait reçu les signes de la grippe la plus banale et d’autres maladies…. Lorsqu’on rentrait les données d’un amalde juste grippé il concluait à la fièvre jaune…qui n’a rien a voir… Courage à ceux quis e feront soigner avec l’IA. Je suis devenu naturopathe et ouf j’ai évité des misères à beaucoup… ça s’appelle la rpévention la vraie.
Les IA sont des machines. Elles font ou disent ce que des hommes leur ont dit de faire ou dire, de la manière dont ça leur a été indiqué. Arrêtez de leur enseigner la démagogie et elles ne le feront plus. Et si certains robots de certains sites ou administrations sont nuls, c’est parce que leur programmation est nulle… Ce n’est pas l’IA qui est un problème, mais les hommes qui sont derrière.
l’inquiétude sur l’IA et les soins aux vieux : En Angleterre (et au UK en général), l’IA est de plus en plus utilisée dans les services sociaux pour les personnes âgées, surtout à cause des pénuries de personnel et des budgets serrés. Par exemple :
Un conseil local (cash-strapped) comme celui de [un comté anonyme dans la presse récente] teste l’IA pour évaluer les besoins en soins : Ça aide à décider si un senior va en EHPAD, reste à domicile avec de l’aide, ou autre. L’idée ? Économiser du fric (ils visent 4 millions de £ d’économies). Mais des assos comme Silver Voices crient au scandale : « On court avant de savoir marcher avec l’IA, et les vieux vulnérables servent de cobayes sans garde-fous ! » C’est vu comme une « abomination » par certains, car ça pourrait mener à des décisions biaisées ou impersonnelles (genre, l’IA dit « pas besoin d’aide » pour économiser, et hop, le vieux galère seul).
Parlons de ces chatbot incapables d’apporter une réponse simple et qui vous répondent qu’ils n’ont pas compris votre question et vous demande de la reformuler.
comme celui d’AMELI !!!!!!
Les industriels exploitent l’IA depuis une quarantaine d’années. Tout ce temps pour que le commun des mortels prenne conscience de ses potentialités à ce jour très limitées. Car les outils dits « informatiques » qui permettront son développement plein et entier ne sont pas encore vulgarisés. A terme, ce sera l’IA elle-même qui perfectionnera ses systèmes, indépendamment de l’intervention humaine. Un risque non évoqué à ce jour car il fait peur. Nous n’en cernons pas encore les conséquences, toutes les conséquences. D’où la nécessité d’une éthique préventive. Mais l’humain n’a pas encore pris conscience de cette nécessité, preuve qu’à ce jour l’IA n’est que primaire. Dans leurs cercles fermés les chercheurs en sont certainement conscients mais ne souhaitent pas alarmer.
Effarant
L’IA utilisée par tous et sur tous les sujets sans frein, c’est un peu comme donner un ordinateur à Abdeslam…l’enfer et la damnation.
Les troubles de l’appréciation atteignaient déjà le sommet de l’Etat avant l’IA, alors maintenant, je confirme que les appréciations sans limites et dégénératives en toute circonstance sont porteuses d’aliénation dans un monde d’hyper communication et d’hyper déformation.
Donner l’IA sans formation, c’est un peu comme donner les clefs du camion à un aveugle ou donner les finances du pays à Lemaire, ou donner la formation éducative à Macron, c’est incendiaire.
C’est peut être ce suicide collectif là qui sauvera les vraies valeurs?
Vous oubliez » et donner le quai d’Orsay à Barrot ! »
La question est également qui programme l’IA et implémente les critères de jugement de l’individualité humaine et sa pensée…
Oui, là est la question = « Qui programme l’IA », dans la mesure où il y a forcément un humain qui programme l’IA et programme la façon de l’IA d’ « apprendre » des données qu’un humain lui entre!