14 juillet 09:27
Une nouvelle étude de Stanford met en garde contre le fait que les chatbots thérapeutiques basés sur l'IA peuvent fournir des réponses stigmatisantes ou inappropriées, mettant ainsi les utilisateurs en danger.
Ana-Maria Tapescu

Science IT&C
Foto: INSTAR Images / Profimedia
L'étude, intitulée "Expressed stigma and inappropriate responses prevent LLMs from safely replacing mental health providers", a évalué cinq chatbots basés sur la modélisation du langage et conçus pour simuler des conversations thérapeutiques. L'auteur principal, Jared Moore, a souligné que "les modèles les plus récents et les plus grands présentent toujours le même niveau de stigmatisation que les plus anciens".