icon

Rămâi conectat la știrile care contează, fii primul care află! Notificările sunt selectate de redacție pentru știrile cu adevărat importante!

Nu, mulțumesc
Mă abonez
search icon
search icon
Flag Arrow Down
Română
Română
Magyar
Magyar
English
English
Français
Français
Deutsch
Deutsch
Italiano
Italiano
Español
Español
Русский
Русский
日本語
日本語
中国人
中国人

Modifică limba

arrow down
  • Română
    Română
  • Magyar
    Magyar
  • English
    English
  • Français
    Français
  • Deutsch
    Deutsch
  • Italiano
    Italiano
  • Español
    Español
  • Русский
    Русский
  • 日本語
    日本語
  • 中国人
    中国人
Secțiuni
  • Ultima oră
  • Exclusiv
  • Sondaje INSCOP
  • Podcast
  • Alegeri 2025
  • Economie
  • Politică
  • Actualitate
  • Internațional
  • Sport
  • Sănătate
  • Educație
  • Mediu
  • Știință IT&C
  • Arte & Lifestyle
  • Opinii
Despre Noi
Contact
Politica de confidențialitate
Termeni și condiții
Parcurge rapid sumarul știrilor și vezi cum sunt tratate în diferite publicații!
  • Ultima oră
  • Exclusiv
    • Sondaje INSCOP
    • Podcast
    • Alegeri 2025
    • Economie
    • Politică
    • Actualitate
    • Internațional
    • Sport
    • Sănătate
    • Educație
    • Mediu
    • Știință IT&C
    • Arte & Lifestyle
    • Opinii
152 știri noi în ultimele 24 de ore
  1. Acasă
  2. Știință IT&C
6 august 09:48

Raport: Testele actuale nu garantează siguranța în domeniul inteligenței artificiale (AI).

Adrian Rusu
main event image
Știință IT&C
Foto Pixabay
Generative AI, care poate analiza și produce text, imagini, muzică, videoclipuri și nu numai, este tot mai mult sub lupa atenției din cauza tendinței de a face greșeli și de a avea comportament imprevizibil. Ada Lovelace Institute, o organizație non-profit de cercetare AI din Marea Britanie, a efectuat un studiu care a inclus interviuri cu experți din laboratoarele academice, societatea civilă și furnizorii de modele AI, precum și o auditare a cercetărilor recente în evaluările de siguranță AI. Rezultatele studiului au arătat că, deși evaluările actuale pot fi utile, ele sunt adesea incomplete, ușor de manipulat și nu prezic întotdeauna modul în care modelele vor performa în situațiile din viața reală. Raportul a subliniat și discrepanțe semnificative în industria AI în ceea ce privește cele mai bune metode și taxonomii pentru evaluarea modelelor.

Surse

sursa imagine
Control F5
Many safety evaluations for AI models have significant limitations

ȘTIRI PE ACELEAȘI SUBIECTE

event image
Știință IT&C
Un nou studiu realizat de laboratorul AI Anthropic arată că nu doar modelul său, Claude, ci și alte modele AI de frunte sunt capabile de șantaj în scenarii cu autonomie ridicată
event image
Știință IT&C
OpenAI a lansat noile modele AI, o3 și o4-mini, care, conform testelor interne și externe, produc informații false într-o măsură alarmantă
event image
Știință IT&C
Banca Angliei a atras atenția asupra riscului ca sistemele de inteligență artificială autonomă folosite în finanțe să poată manipula piețele
app preview
Feed personalizat de știri, căutare cu Inteligență Artificială și notificări într-o experiență mai interactivă.
app preview app preview
securitate Generative AI siguranta studiu teste evacuare AI

Recomandările redacției

main event image Play button
ieri 15:01
Podcast

Podcast Alexandru Rafila: De ce nu avem încă spitale construite cu bani din PNRR?

app preview
Feed personalizat de știri, căutare cu Inteligență Artificială și notificări într-o experiență mai interactivă.
app preview
app store badge google play badge
  • Ultima oră
  • Exclusiv
  • Sondaje INSCOP
  • Podcast
  • Alegeri 2025
  • Economie
  • Politică
  • Actualitate
  • Internațional
  • Sport
  • Sănătate
  • Educație
  • Mediu
  • Știință IT&C
  • Arte & Lifestyle
  • Opinii
  • Despre Noi
  • Contact
Politica de confidențialitate
Politica de cookies
Termeni și condiții
Licențe open source
Toate drepturile rezervate Strategic Media Team SRL

Tehnologie in parteneriat cu

anpc-sal anpc-sol