O nouă ediție a Indexului de Siguranță AI, publicată de Future of Life Institute, concluzionează că dezvoltatorii majori de inteligență artificială, inclusiv OpenAI, Anthropic, xAI și Meta, nu îndeplinesc standardele globale emergente de siguranță. O echipă independentă de experți a evaluat practicile acestor companii și a constatat că niciuna nu are o strategie suficient de robustă pentru controlul sistemelor superinteligente pe care le dezvoltă. Evaluarea a evidențiat o divizare clară în abordările companiilor față de siguranță, cu Anthropic, OpenAI și Google DeepMind în frunte, dar cu scoruri scăzute, cel mai bun performer primind doar un 'C+'. Indexul a evaluat 35 de indicatori de siguranță, inclusiv practici de evaluare a riscurilor și protecția avertizorilor de integritate. Raportul recomandă companiilor să adopte măsuri precum transparența crescută, utilizarea evaluatorilor de siguranță independenți și reducerea lobby-ului împotriva reglementării.
joi 08:34
Știință IT&C
Foto: pixabay.com