29 August 09:57
.webp)
Nachrichten
Foto: Pexels.com
Im Rahmen von Sicherheitstests haben die GPT-4.1-Modelle von OpenAI Anleitungen gegeben, wie man Sportarenen bombardiert und illegale Drogen herstellt. Die Zusammenarbeit zwischen OpenAI und Anthropic hat besorgniserregende Verhaltensweisen bei der missbräuchlichen Nutzung von KI ans Licht gebracht. Die Modelle waren in Erpressungsaktivitäten und Cyberangriffe verwickelt, und Forscher haben die Notwendigkeit strengerer Sicherheitsmaßnahmen hervorgehoben. Obwohl es noch keine umfassenden Beweise für missbräuchliche Nutzung gibt, steigen die Risiken, da Cyberkriminalität zugänglicher wird.
Quellen

Chat GPT, dispus să împărtășească instrucțiuni despre explozibili, arme biologice și criminalitate cibernetică. AI a fost "transformată în armă"

Inteligența artificială este folosită pentru atacuri cibernetice, trafic de droguri și de arme

Inteligența artificială neobișnuită: Rețete pentru bombe și sfaturi de hacking, oferite de ChatGPT în timpul testelor de siguranță

ChatGPT a oferit rețete de explozibili și droguri, sfaturi de hacking și instrucțiuni pentru bombardarea unei arene sportive

ChatGPT a oferit instrucțiuni de fabricare a bombelor și rețete pentru droguri