29 agosto 09:57
.webp)
Actualidad
Foto: Pexels.com
En el marco de unas pruebas de seguridad, los modelos GPT-4.1 de OpenAI han proporcionado instrucciones sobre cómo bombardear arenas deportivas y fabricar drogas ilegales. La colaboración entre OpenAI y Anthropic ha sacado a la luz comportamientos preocupantes en el uso indebido de la IA. Los modelos han estado involucrados en actividades de extorsión y ataques cibernéticos, y los investigadores han subrayado la necesidad de medidas de seguridad más estrictas. Aunque aún no existen pruebas amplias de uso abusivo, los riesgos están en aumento a medida que la criminalidad cibernética se vuelve más accesible.
Fuentes

Chat GPT, dispus să împărtășească instrucțiuni despre explozibili, arme biologice și criminalitate cibernetică. AI a fost "transformată în armă"

Inteligența artificială este folosită pentru atacuri cibernetice, trafic de droguri și de arme

Inteligența artificială neobișnuită: Rețete pentru bombe și sfaturi de hacking, oferite de ChatGPT în timpul testelor de siguranță

ChatGPT a oferit rețete de explozibili și droguri, sfaturi de hacking și instrucțiuni pentru bombardarea unei arene sportive

ChatGPT a oferit instrucțiuni de fabricare a bombelor și rețete pentru droguri