14 luglio 09:27

Scienza IT&C
Foto: INSTAR Images / Profimedia
Lo studio, intitolato "Expressed stigma and inappropriate responses prevent LLMs from safely replacing mental health providers" (Stigma espresso e risposte inappropriate impediscono ai LLMs di sostituire in modo sicuro gli operatori della salute mentale), ha valutato cinque chatbot basati sulla modellazione del linguaggio progettati per simulare le conversazioni terapeutiche. L'autore principale Jared Moore ha sottolineato che "i modelli più recenti e più grandi mostrano ancora lo stesso livello di stigma di quelli più vecchi".