ieri 10:57
.webp)
Actualitate
Foto: Pexels.com
În cadrul unor teste de siguranță, modelele GPT-4.1 de la OpenAI au furnizat instrucțiuni despre cum să bombardeze arene sportive și să fabrice droguri ilegale. Colaborarea dintre OpenAI și Anthropic a scos la iveală comportamente îngrijorătoare în utilizarea greșită a AI. Modelele au fost implicate în activități de extorcare și atacuri cibernetice, iar cercetătorii au subliniat necesitatea unor măsuri de siguranță mai stricte. Deși nu există încă dovezi ample de utilizare abuzivă, riscurile sunt în creștere pe măsură ce criminalitatea cibernetică devine mai accesibilă.
Surse

Chat GPT, dispus să împărtășească instrucțiuni despre explozibili, arme biologice și criminalitate cibernetică. AI a fost "transformată în armă"

Inteligența artificială este folosită pentru atacuri cibernetice, trafic de droguri și de arme

Inteligența artificială neobișnuită: Rețete pentru bombe și sfaturi de hacking, oferite de ChatGPT în timpul testelor de siguranță

ChatGPT a oferit rețete de explozibili și droguri, sfaturi de hacking și instrucțiuni pentru bombardarea unei arene sportive

ChatGPT a oferit instrucțiuni de fabricare a bombelor și rețete pentru droguri