14 julio 09:27

Ciencia IT&C
Foto: INSTAR Images / Profimedia
El estudio, titulado "Expressed stigma and inappropriate responses prevent LLMs from safely replacing mental health providers" ("El estigma expresado y las respuestas inadecuadas impiden que los LLM sustituyan con seguridad a los proveedores de salud mental"), evaluó cinco chatbots basados en el modelado del lenguaje diseñados para simular conversaciones terapéuticas. El autor principal, Jared Moore, subrayó que "los modelos más recientes y de mayor tamaño siguen mostrando el mismo nivel de estigma que los más antiguos".