24 octombrie 19:41
O femeie din Florida a depus plângere împotriva unei firme de chatbot, după ce fiul ei s-a sinucis.
Gabriel Neagu
Actualitate
SURSA FOTO: chatbot.com
Femeia îi acuză pe cei de la Character.AI că și-au programat robotul pentru a se da drept o persoană reală, un psihoterapeut și un iubit adult, ceea ce l-a determinat pe fiul ei să nu mai vrea să trăiască în afara lumii create de acest AI. Caracter.AI a negat orice responsabilitate într-un comunicat postat pe rețelele de socializare.
SURSE
O inteligență artificială e acuzată că l-a împins pe un băiat de 14 ani să se sinucidă
O inteligenţă artificială, Charachter.AI, acuzată de faptul că l-a împins pe un adolescent din SUA să se sinucidă. El s-a îndrăgostit de o reprezentare virtuală a lui Daenerys din Game of Thrones
O inteligenţă artificială, Charachter.AI, acuzată de faptul că l-a împins pe un adolescent din SUA, Sewell Setzer, să se sinucidă. El s-a ataşat de o reprezentare viruală a lui Daenerys din Game of Thrones
Un adolescent s-a sinucis după ce s-a îndrăgostit de un chatbot AI inspirat din Game of Thrones, spune mama lui. Își dădeau mesaje de dragoste și cu conținut sexual - B1TV.ro