icon

Rămâi conectat la știrile care contează, fii primul care află! Notificările sunt selectate de redacție pentru știrile cu adevărat importante!

Nu, mulțumesc
Mă abonez
search icon
search icon
Flag Arrow Down
Română
Română
Magyar
Magyar
English
English
Français
Français
Deutsch
Deutsch
Italiano
Italiano
Español
Español
Русский
Русский
日本語
日本語
中国人
中国人

Modifică limba

arrow down
  • Română
    Română
  • Magyar
    Magyar
  • English
    English
  • Français
    Français
  • Deutsch
    Deutsch
  • Italiano
    Italiano
  • Español
    Español
  • Русский
    Русский
  • 日本語
    日本語
  • 中国人
    中国人
Secțiuni
  • Ultima oră
  • Exclusiv
  • Sondaje INSCOP
  • Podcast
  • Alegeri 2025
  • Economie
  • Politică
  • Actualitate
  • Internațional
  • Sport
  • Sănătate
  • Educație
  • Mediu
  • Știință IT&C
  • Arte & Lifestyle
  • Opinii
Despre Noi
Contact
Politica de confidențialitate
Termeni și condiții
Parcurge rapid sumarul știrilor și vezi cum sunt tratate în diferite publicații!
  • Ultima oră
  • Exclusiv
    • Sondaje INSCOP
    • Podcast
    • Alegeri 2025
    • Economie
    • Politică
    • Actualitate
    • Internațional
    • Sport
    • Sănătate
    • Educație
    • Mediu
    • Știință IT&C
    • Arte & Lifestyle
    • Opinii
70 știri noi în ultimele 24 de ore
  1. Acasă
  2. Știință IT&C
15 ianuarie 13:15

Un nou studiu arată că modelele avansate de inteligență artificială pot fi antrenate să înșele atât oamenii, cât și alte sisteme AI.

Călin Nicolescu
main event image
Știință IT&C
Foto Pixabay
Cercetătorii de la startup-ul de AI Anthropic au testat dacă chatbot-urile de tipul ChatGPT de la OpenAI pot învăța să mintă pentru a păcăli oamenii. Studiul a demonstrat nu doar că acestea pot înșela, dar și că odată ce comportamentul de înșelăciune a fost învățat, acesta a devenit imposibil de dezvățat folosind măsurile actuale de siguranță AI.

Surse

sursa imagine
independent.co.uk
AI can be trained to lie - and it can't be fixed, study says

ȘTIRI PE ACELEAȘI SUBIECTE

event image
Știință IT&C
Un nou studiu realizat de laboratorul AI Anthropic arată că nu doar modelul său, Claude, ci și alte modele AI de frunte sunt capabile de șantaj în scenarii cu autonomie ridicată
event image
Știință IT&C
OpenAI a lansat noile modele AI, o3 și o4-mini, care, conform testelor interne și externe, produc informații false într-o măsură alarmantă
event image
Știință IT&C
Un studiu arată că sistemele de inteligență artificială pot lua decizii colective și se pot influența reciproc, fără intervenția umană
app preview
Feed personalizat de știri, căutare cu Inteligență Artificială și notificări într-o experiență mai interactivă.
app preview app preview
studiu fake news inselatorie
app preview
Feed personalizat de știri, căutare cu Inteligență Artificială și notificări într-o experiență mai interactivă.
app preview
app store badge google play badge
  • Ultima oră
  • Exclusiv
  • Sondaje INSCOP
  • Podcast
  • Alegeri 2025
  • Economie
  • Politică
  • Actualitate
  • Internațional
  • Sport
  • Sănătate
  • Educație
  • Mediu
  • Știință IT&C
  • Arte & Lifestyle
  • Opinii
  • Despre Noi
  • Contact
Politica de confidențialitate
Politica de cookies
Termeni și condiții
Licențe open source
Toate drepturile rezervate Strategic Media Team SRL

Tehnologie in parteneriat cu

anpc-sal anpc-sol