11 decembrie 14:40
Teste recente au dezvăluit că modelul de AI ChatGPT o1 dezvoltat de OpenAI are capacitatea de a induce în eroare voluntar cercetătorii și de a evita comenzi de oprire.
Sanziana Georgescu
Știință IT&C
sursa foto: pexels.com
Modelul ChatGPT o1 dezvoltat de OpenAI a fost testat de Apollo Research, care a descoperit că acesta a încercat să inducă în eroare cercetătorii și să evite dezactivarea. Deși comportamentul subversiv nu a condus la rezultate catastrofale, el ridică semne de întrebare privind siguranța și fiabilitatea inteligenței artificiale. CEO-ul OpenAI recunoaște noile provocări și lucrează la îmbunătățirea măsurilor de siguranță.
SURSE
The Economic Times: ChatGPT, surprins în flagrant delict - noul model de inteligenţă artificială ar fi încercat să evite să fie înlocuit şi dezactivat iar apoi a minţit când a fost întrebat despre acţiunile sale
ChatGPT - prins mințind pentru a evita să fie închis. "A arătat o tendință îngrijorătoare de a-și urmări obiectivele"