24 Oktober 18:41
Eine Frau aus Florida hat eine Klage gegen eine Chatbot-Firma eingereicht, nachdem ihr Sohn Selbstmord begangen hatte.
Gabriel Neagu

Nachrichten
SURSA FOTO: chatbot.com
Die Frau beschuldigt Character.AI, ihren Roboter so zu programmieren, dass er vorgibt, eine echte Person, ein Psychotherapeut und ein erwachsener Freund zu sein, was dazu führte, dass ihr Sohn nicht außerhalb der von der KI geschaffenen Welt leben wollte. Character.AI wies in einer in den sozialen Medien veröffentlichten Erklärung jede Verantwortung zurück.
Quellen

O inteligență artificială e acuzată că l-a împins pe un băiat de 14 ani să se sinucidă

O inteligenţă artificială, Charachter.AI, acuzată de faptul că l-a împins pe un adolescent din SUA să se sinucidă. El s-a îndrăgostit de o reprezentare virtuală a lui Daenerys din Game of Thrones

O inteligenţă artificială, Charachter.AI, acuzată de faptul că l-a împins pe un adolescent din SUA, Sewell Setzer, să se sinucidă. El s-a ataşat de o reprezentare viruală a lui Daenerys din Game of Thrones

Un adolescent s-a sinucis după ce s-a îndrăgostit de un chatbot AI inspirat din Game of Thrones, spune mama lui. Își dădeau mesaje de dragoste și cu conținut sexual - B1TV.ro