Eine neue Ausgabe des AI Safety Index, veröffentlicht vom Future of Life Institute, kommt zu dem Schluss, dass große Entwickler von künstlicher Intelligenz, einschließlich OpenAI, Anthropic, xAI und Meta, die aufkommenden globalen Sicherheitsstandards nicht erfüllen. Ein unabhängiges Expertenteam hat die Praktiken dieser Unternehmen bewertet und festgestellt, dass keines von ihnen über eine ausreichend robuste Strategie zur Kontrolle der superintelligenten Systeme verfügt, die sie entwickeln. Die Bewertung hat eine klare Spaltung in den Ansätzen der Unternehmen in Bezug auf Sicherheit aufgezeigt, wobei Anthropic, OpenAI und Google DeepMind an der Spitze stehen, jedoch mit niedrigen Punktzahlen, wobei der beste Performer nur ein 'C+' erhielt. Der Index bewertete 35 Sicherheitsindikatoren, einschließlich Risikobewertungspraktiken und dem Schutz von Whistleblowern. Der Bericht empfiehlt den Unternehmen, Maßnahmen wie erhöhte Transparenz, die Nutzung unabhängiger Sicherheitsevaluator:innen und die Reduzierung von Lobbyarbeit gegen Regulierung zu ergreifen.
11 Dezember 07:34
IT&C-Wissen
Foto: pixabay.com