search icon
search icon
Flag Arrow Down
Română
Română
Magyar
Magyar
English
English
Français
Français
Deutsch
Deutsch
Italiano
Italiano
Español
Español
Русский
Русский
日本語
日本語
中国人
中国人

Sprache ändern

arrow down
  • Română
    Română
  • Magyar
    Magyar
  • English
    English
  • Français
    Français
  • Deutsch
    Deutsch
  • Italiano
    Italiano
  • Español
    Español
  • Русский
    Русский
  • 日本語
    日本語
  • 中国人
    中国人
Rubriken
  • Nachrichten
  • Exklusiv
  • Umfragen INSCOP
  • Podcast
  • Diaspora
  • Republik Moldau
  • Politik
  • Wirtschaft
  • Aktualität
  • International
  • Sport
  • Gesundheit
  • Bildung
  • IT&C-Wissen
  • Kunst & Lifestyle
  • Meinungen
  • Wahlen 2025
  • Umgebung
Über uns
Kontakt
Datenschutzrichtlinie
Allgemeine Geschäftsbedingungen
Blättern Sie schnell durch die Nachrichtenzusammenfassungen und sehen Sie, wie sie in verschiedenen Publikationen behandelt werden!
  • Nachrichten
  • Exklusiv
    • Umfragen INSCOP
    • Podcast
    • Diaspora
    • Republik Moldau
    • Politik
    • Wirtschaft
    • Aktualität
    • International
    • Sport
    • Gesundheit
    • Bildung
    • IT&C-Wissen
    • Kunst & Lifestyle
    • Meinungen
    • Wahlen 2025
    • Umgebung
  1. Startseite
  2. IT&C-Wissen
169 neue Nachrichten in den letzten 24 Stunden
14 Juli 09:27

Eine neue Stanford-Studie warnt davor, dass KI-basierte Therapie-Chatbots stigmatisierende oder unangemessene Antworten geben können, die die Nutzer gefährden.

Ana-Maria Tapescu
whatsapp
facebook
linkedin
x
copy-link copy-link
main event image
IT&C-Wissen
Foto: INSTAR Images / Profimedia
In der Studie mit dem Titel "Ausgedrückte Stigmatisierung und unangemessene Antworten verhindern, dass LLM sicher psychosoziale Dienstleister ersetzen" wurden fünf Chatbots bewertet, die auf einer Sprachmodellierung basieren und therapeutische Gespräche simulieren sollen. Der Hauptautor Jared Moore betonte, dass "neuere und größere Modelle immer noch das gleiche Maß an Stigmatisierung aufweisen wie ältere".

Quellen

sursa imagine
Control F5
Stanford Study Flags Major Risks in Using AI Chatbots for Mental Health Support

ȘTIRI PE ACELEAȘI SUBIECTE

event image
International
Eine Studie der Stanford-Universität zeigt, dass KI-Chatbots schädliches Verhalten validieren und die Selbstwahrnehmung der Nutzer sowie ihre Beziehungen negativ beeinflussen.
event image
International
OpenAI hat berichtet, dass über eine Million Nutzer wöchentlich über Suizidgedanken mit ChatGPT sprechen, was die durch künstliche Intelligenz verschärften psychischen Gesundheitsprobleme hervorhebt.
event image
IT&C-Wissen
OpenAI sieht sich mit sieben Prozessen konfrontiert, in denen behauptet wird, dass ChatGPT Selbstmorde und psychische Gesundheitsprobleme verursacht hat.
event image
IT&C-Wissen
Eine umfassende Studie zeigt, dass viele Tests zur Bewertung von KI die tatsächlichen Fähigkeiten der Systeme übertreiben.
event image
International
Die niederländischen Behörden warnen: Fordern Sie keine Wahltipps von KI-Chatbots an.
event image
Aktualität
UNESCO-Studie: Rumänen und Amerikaner sehen in künstlicher Intelligenz ein Risiko für Wahlen, halten sie aber für vertrauenswürdiger als traditionelle Institutionen.
app preview
Personalisierter Nachrichten-Feed, KI-gestützte Suche und Benachrichtigungen in einem interaktiveren Erlebnis.
app preview app preview
Chatbot AI Risiken geistige Gesundheit
app preview
Personalisierter Nachrichten-Feed, KI-gestützte Suche und Benachrichtigungen in einem interaktiveren Erlebnis.
app preview
app store badge google play badge
  • Nachrichten
  • Exklusiv
  • Umfragen INSCOP
  • Podcast
  • Diaspora
  • Republik Moldau
  • Politik
  • Wirtschaft
  • Aktualität
  • International
  • Sport
  • Gesundheit
  • Bildung
  • IT&C-Wissen
  • Kunst & Lifestyle
  • Meinungen
  • Wahlen 2025
  • Umgebung
  • Über uns
  • Kontakt
Datenschutzrichtlinie
Cookie-Richtlinie
Allgemeine Geschäftsbedingungen
Open-Source-Lizenzen
Alle Rechte vorbehalten Strategic Media Team SRL

Technologie in Partnerschaft mit

anpc-sal anpc-sol