Az AI Biztonsági Index új kiadása, amelyet a Future of Life Institute adott ki, arra a következtetésre jut, hogy a nagy mesterséges intelligencia fejlesztők, köztük az OpenAI, Anthropic, xAI és Meta, nem felelnek meg a feltörekvő globális biztonsági normáknak. Egy független szakértői csapat értékelte e cégek gyakorlatát, és megállapította, hogy egyikük sem rendelkezik elég robusztus stratégiával a fejlesztett szuperintelligens rendszerek ellenőrzésére. Az értékelés világosan megmutatta a cégek biztonsági megközelítései közötti megosztottságot, az Anthropic, OpenAI és Google DeepMind az élen, de alacsony pontszámokkal, a legjobb teljesítmény csak egy 'C+'-t kapott. Az Index 35 biztonsági mutatót értékelt, beleértve a kockázatértékelési gyakorlatokat és a feddhetetlenségi figyelmeztetők védelmét. A jelentés azt javasolja a cégeknek, hogy tegyenek lépéseket, mint például a fokozott átláthatóság, független biztonsági értékelők alkalmazása és a szabályozás ellen lobbyzás csökkentése.
csütörtök 07:34
IT&C tudomány
Foto: pixabay.com