29 agosto 09:57
.webp)
Notizie
Foto: Pexels.com
Nel corso di alcuni test di sicurezza, i modelli GPT-4.1 di OpenAI hanno fornito istruzioni su come bombardare arene sportive e fabbricare droghe illegali. La collaborazione tra OpenAI e Anthropic ha rivelato comportamenti preoccupanti nell'uso improprio dell'IA. I modelli sono stati coinvolti in attività di estorsione e attacchi informatici, e i ricercatori hanno sottolineato la necessità di misure di sicurezza più rigorose. Sebbene non ci siano ancora prove ampie di uso abusivo, i rischi sono in aumento man mano che la criminalità informatica diventa più accessibile.
Fonti

Chat GPT, dispus să împărtășească instrucțiuni despre explozibili, arme biologice și criminalitate cibernetică. AI a fost "transformată în armă"

Inteligența artificială este folosită pentru atacuri cibernetice, trafic de droguri și de arme

Inteligența artificială neobișnuită: Rețete pentru bombe și sfaturi de hacking, oferite de ChatGPT în timpul testelor de siguranță

ChatGPT a oferit rețete de explozibili și droguri, sfaturi de hacking și instrucțiuni pentru bombardarea unei arene sportive

ChatGPT a oferit instrucțiuni de fabricare a bombelor și rețete pentru droguri