木曜日 15:34
IT&Cの知識
Foto: pixabay.com
AIの安全性インデックスの新しい版がFuture of Life Instituteによって発表され、OpenAI、Anthropic、xAI、Metaを含む主要な人工知能開発者が新興のグローバル安全基準を満たしていないことが結論づけられました。独立した専門家チームがこれらの企業の実践を評価し、どれも彼らが開発している超知能システムの制御に十分に堅牢な戦略を持っていないことが判明しました。 評価は、Anthropic、OpenAI、Google DeepMindが先頭に立つ一方で、スコアが低い企業のアプローチに明確な分裂があることを浮き彫りにしました。最高のパフォーマーはわずかに「C+」を受け取りました。インデックスは、リスク評価の実践や内部告発者の保護を含む35の安全性指標を評価しました。報告書は、企業に対して、透明性の向上、独立した安全性評価者の利用、規制に対するロビー活動の削減などの措置を採用することを推奨しています。