search icon
search icon
Flag Arrow Down
Română
Română
Magyar
Magyar
English
English
Français
Français
Deutsch
Deutsch
Italiano
Italiano
Español
Español
Русский
Русский
日本語
日本語
中国人
中国人

Sprache ändern

arrow down
  • Română
    Română
  • Magyar
    Magyar
  • English
    English
  • Français
    Français
  • Deutsch
    Deutsch
  • Italiano
    Italiano
  • Español
    Español
  • Русский
    Русский
  • 日本語
    日本語
  • 中国人
    中国人
Rubriken
  • Nachrichten
  • Exklusiv
  • Umfragen INSCOP
  • Podcast
  • Diaspora
  • Republik Moldau
  • Politik
  • Wirtschaft
  • Aktualität
  • International
  • Sport
  • Gesundheit
  • Bildung
  • IT&C-Wissen
  • Kunst & Lifestyle
  • Meinungen
  • Wahlen 2025
  • Umgebung
Über uns
Kontakt
Datenschutzrichtlinie
Allgemeine Geschäftsbedingungen
Blättern Sie schnell durch die Nachrichtenzusammenfassungen und sehen Sie, wie sie in verschiedenen Publikationen behandelt werden!
  • Nachrichten
  • Exklusiv
    • Umfragen INSCOP
    • Podcast
    • Diaspora
    • Republik Moldau
    • Politik
    • Wirtschaft
    • Aktualität
    • International
    • Sport
    • Gesundheit
    • Bildung
    • IT&C-Wissen
    • Kunst & Lifestyle
    • Meinungen
    • Wahlen 2025
    • Umgebung
  1. Startseite
  2. IT&C-Wissen
117 neue Nachrichten in den letzten 24 Stunden
11 Dezember 07:34

Eine neue Ausgabe des AI-Sicherheitsindex des Future of Life Institute zeigt, dass große KI-Entwickler wie OpenAI und Meta die globalen Sicherheitsstandards nicht einhalten.

Adrian Rusu
whatsapp
facebook
linkedin
x
copy-link copy-link
main event image
IT&C-Wissen
Foto: pixabay.com

Eine neue Ausgabe des AI Safety Index, veröffentlicht vom Future of Life Institute, kommt zu dem Schluss, dass große Entwickler von künstlicher Intelligenz, einschließlich OpenAI, Anthropic, xAI und Meta, die aufkommenden globalen Sicherheitsstandards nicht erfüllen. Ein unabhängiges Expertenteam hat die Praktiken dieser Unternehmen bewertet und festgestellt, dass keines von ihnen über eine ausreichend robuste Strategie zur Kontrolle der superintelligenten Systeme verfügt, die sie entwickeln. Die Bewertung hat eine klare Spaltung in den Ansätzen der Unternehmen in Bezug auf Sicherheit aufgezeigt, wobei Anthropic, OpenAI und Google DeepMind an der Spitze stehen, jedoch mit niedrigen Punktzahlen, wobei der beste Performer nur ein 'C+' erhielt. Der Index bewertete 35 Sicherheitsindikatoren, einschließlich Risikobewertungspraktiken und dem Schutz von Whistleblowern. Der Bericht empfiehlt den Unternehmen, Maßnahmen wie erhöhte Transparenz, die Nutzung unabhängiger Sicherheitsevaluator:innen und die Reduzierung von Lobbyarbeit gegen Regulierung zu ergreifen.

Quellen

sursa imagine
Control F5
New report finds AI companies’ safety practices lag behind global standards
app preview
Personalisierter Nachrichten-Feed, KI-gestützte Suche und Benachrichtigungen in einem interaktiveren Erlebnis.
app preview app preview
AI künstliche Intelligenz Standards Sicherheit

Empfehlungen der Redaktion

main event image
Gesundheit
vor 4 Stunden

Der Gesundheitsminister, Alexandru Rogobete, hat angekündigt, dass er die leistungsbasierte Bezahlung im Gesundheitssystem umsetzen möchte: „Ich bin gegen diejenigen, die den Eindruck haben, dass wir sie nur bezahlen müssen, weil sie existieren.“

Quellen
imagine sursa
imagine sursa
imagine sursa
imagine sursa
imagine sursa
app preview
Personalisierter Nachrichten-Feed, KI-gestützte Suche und Benachrichtigungen in einem interaktiveren Erlebnis.
app preview
app store badge google play badge
  • Nachrichten
  • Exklusiv
  • Umfragen INSCOP
  • Podcast
  • Diaspora
  • Republik Moldau
  • Politik
  • Wirtschaft
  • Aktualität
  • International
  • Sport
  • Gesundheit
  • Bildung
  • IT&C-Wissen
  • Kunst & Lifestyle
  • Meinungen
  • Wahlen 2025
  • Umgebung
  • Über uns
  • Kontakt
Datenschutzrichtlinie
Cookie-Richtlinie
Allgemeine Geschäftsbedingungen
Open-Source-Lizenzen
Alle Rechte vorbehalten Strategic Media Team SRL

Technologie in Partnerschaft mit

anpc-sal anpc-sol