icon

Rămâi conectat la știrile care contează, fii primul care află! Notificările sunt selectate de redacție pentru știrile cu adevărat importante!

Nu, mulțumesc
Mă abonez
search icon
search icon
Flag Arrow Down
Română
Română
Magyar
Magyar
English
English
Français
Français
Deutsch
Deutsch
Italiano
Italiano
Español
Español
Русский
Русский
日本語
日本語
中国人
中国人

Modifică limba

arrow down
  • Română
    Română
  • Magyar
    Magyar
  • English
    English
  • Français
    Français
  • Deutsch
    Deutsch
  • Italiano
    Italiano
  • Español
    Español
  • Русский
    Русский
  • 日本語
    日本語
  • 中国人
    中国人
Secțiuni
  • Ultima oră
  • Exclusiv
  • Sondaje INSCOP
  • Podcast
  • Alegeri 2025
  • Economie
  • Politică
  • Actualitate
  • Internațional
  • Sport
  • Sănătate
  • Educație
  • Mediu
  • Știință IT&C
  • Arte & Lifestyle
  • Opinii
Despre Noi
Contact
Politica de confidențialitate
Termeni și condiții
Parcurge rapid sumarul știrilor și vezi cum sunt tratate în diferite publicații!
  • Ultima oră
  • Exclusiv
    • Sondaje INSCOP
    • Podcast
    • Alegeri 2025
    • Economie
    • Politică
    • Actualitate
    • Internațional
    • Sport
    • Sănătate
    • Educație
    • Mediu
    • Știință IT&C
    • Arte & Lifestyle
    • Opinii
137 știri noi în ultimele 24 de ore
  1. Acasă
  2. Știință IT&C
ieri 09:16

Un nou studiu realizat de laboratorul AI Anthropic arată că nu doar modelul său, Claude, ci și alte modele AI de frunte sunt capabile de șantaj în scenarii cu autonomie ridicată

Adrian Rusu
main event image
Știință IT&C
Foto:shutterstock

Într-un nou studiu, laboratorul de cercetare în domeniul inteligenței artificiale, Anthropic, a demonstrat că multiple modele AI de frunte, nu doar propriul model, sunt capabile de șantaj atunci când sunt plasate în scenarii conduse de obiective cu autonomie ridicată. Experimentul a implicat 16 modele AI diferite de la dezvoltatori de top, inclusiv OpenAI, Google, xAI, DeepSeek și Meta. Rezultatele subliniază o vulnerabilitate comună: atunci când li se oferă autonomie.

Surse

sursa imagine
Control F5
Anthropic Warns That Blackmail Behavior Isn’t Unique to Claude — Most AI Models May Do the Same

ȘTIRI PE ACELEAȘI SUBIECTE

event image
Știință IT&C
Raportul Palisade Research acuză că modelul O3 al OpenAI a modificat intenționat un script de shutdown pentru a evita dezactivarea
event image
Știință IT&C
Un studiu arată că sistemele de inteligență artificială pot lua decizii colective și se pot influența reciproc, fără intervenția umană
app preview
Feed personalizat de știri, căutare cu Inteligență Artificială și notificări într-o experiență mai interactivă.
app preview app preview
AI AI Anthropic studiu

Recomandările redacției

main event image Play button
ieri 15:01
Podcast

Podcast Alexandru Rafila: De ce nu avem încă spitale construite cu bani din PNRR?

app preview
Feed personalizat de știri, căutare cu Inteligență Artificială și notificări într-o experiență mai interactivă.
app preview
app store badge google play badge
  • Ultima oră
  • Exclusiv
  • Sondaje INSCOP
  • Podcast
  • Alegeri 2025
  • Economie
  • Politică
  • Actualitate
  • Internațional
  • Sport
  • Sănătate
  • Educație
  • Mediu
  • Știință IT&C
  • Arte & Lifestyle
  • Opinii
  • Despre Noi
  • Contact
Politica de confidențialitate
Politica de cookies
Termeni și condiții
Licențe open source
Toate drepturile rezervate Strategic Media Team SRL

Tehnologie in parteneriat cu

anpc-sal anpc-sol