icon

Rămâi conectat la știrile care contează, fii primul care află! Notificările sunt selectate de redacție pentru știrile cu adevărat importante!

Nu, mulțumesc
Mă abonez
search icon
search icon
Flag Arrow Down
Română
Română
Magyar
Magyar
English
English
Français
Français
Deutsch
Deutsch
Italiano
Italiano
Español
Español
Русский
Русский
日本語
日本語
中国人
中国人

Modifică limba

arrow down
  • Română
    Română
  • Magyar
    Magyar
  • English
    English
  • Français
    Français
  • Deutsch
    Deutsch
  • Italiano
    Italiano
  • Español
    Español
  • Русский
    Русский
  • 日本語
    日本語
  • 中国人
    中国人
Secțiuni
  • Ultima oră
  • Exclusiv
  • Sondaje INSCOP
  • Podcast
  • Diaspora
  • Republica Moldova
  • Politică
  • Economie
  • Actualitate
  • Internațional
  • Sport
  • Sănătate
  • Educație
  • Știință IT&C
  • Arte & Lifestyle
  • Opinii
  • Alegeri 2025
  • Mediu
Despre Noi
Contact
Politică de confidențialitate
Termeni și condiții
Parcurge rapid sumarul știrilor și vezi cum sunt tratate în diferite publicații!
  • Ultima oră
  • Exclusiv
    • Sondaje INSCOP
    • Podcast
    • Diaspora
    • Republica Moldova
    • Politică
    • Economie
    • Actualitate
    • Internațional
    • Sport
    • Sănătate
    • Educație
    • Știință IT&C
    • Arte & Lifestyle
    • Opinii
    • Alegeri 2025
    • Mediu
53 știri noi în ultimele 24 de ore
  1. Acasă
  2. Știință IT&C
6 august 09:48

Raport: Testele actuale nu garantează siguranța în domeniul inteligenței artificiale (AI).

Adrian Rusu
whatsapp
facebook
linkedin
x
copy-link copy-link
main event image
Știință IT&C
Foto Pixabay
Generative AI, care poate analiza și produce text, imagini, muzică, videoclipuri și nu numai, este tot mai mult sub lupa atenției din cauza tendinței de a face greșeli și de a avea comportament imprevizibil. Ada Lovelace Institute, o organizație non-profit de cercetare AI din Marea Britanie, a efectuat un studiu care a inclus interviuri cu experți din laboratoarele academice, societatea civilă și furnizorii de modele AI, precum și o auditare a cercetărilor recente în evaluările de siguranță AI. Rezultatele studiului au arătat că, deși evaluările actuale pot fi utile, ele sunt adesea incomplete, ușor de manipulat și nu prezic întotdeauna modul în care modelele vor performa în situațiile din viața reală. Raportul a subliniat și discrepanțe semnificative în industria AI în ceea ce privește cele mai bune metode și taxonomii pentru evaluarea modelelor.

Surse

sursa imagine
Control F5
Many safety evaluations for AI models have significant limitations
app preview
Feed personalizat de știri, căutare cu Inteligență Artificială și notificări într-o experiență mai interactivă.
app preview app preview
securitate Generative AI siguranta studiu teste evacuare AI
app preview
Feed personalizat de știri, căutare cu Inteligență Artificială și notificări într-o experiență mai interactivă.
app preview
app store badge google play badge
  • Ultima oră
  • Exclusiv
  • Sondaje INSCOP
  • Podcast
  • Diaspora
  • Republica Moldova
  • Politică
  • Economie
  • Actualitate
  • Internațional
  • Sport
  • Sănătate
  • Educație
  • Știință IT&C
  • Arte & Lifestyle
  • Opinii
  • Alegeri 2025
  • Mediu
  • Despre Noi
  • Contact
Politică de confidențialitate
Politica de cookies
Termeni și condiții
Licențe open source
Toate drepturile rezervate Strategic Media Team SRL

Tehnologie in parteneriat cu

anpc-sal anpc-sol