icon

Rămâi conectat la știrile care contează, fii primul care află! Notificările sunt selectate de redacție pentru știrile cu adevărat importante!

Nu, mulțumesc
Mă abonez
Secțiuni
  • Ultima oră
  • Exclusiv
  • Sondaje de Opinie
  • Podcast
  • Alegeri 2025
  • Economie
  • Politică
  • Actualitate
  • Internațional
  • Sport
  • Sănătate
  • Educație
  • Mediu
  • Știință IT&C
  • Arte & Lifestyle
  • Opinii
Despre Noi
Contact
Politica de confidențialitate
Termeni și condiții
Parcurge rapid sumarul știrilor și vezi cum sunt tratate în diferite publicații!
  • Ultima oră
  • Exclusiv
    • Sondaje de Opinie
    • Podcast
    • Alegeri 2025
    • Economie
    • Politică
    • Actualitate
    • Internațional
    • Sport
    • Sănătate
    • Educație
    • Mediu
    • Știință IT&C
    • Arte & Lifestyle
    • Opinii
100 știri noi în ultimele 24 de ore
  1. Acasă
  2. Știință IT&C
6 august 09:48

Raport: Testele actuale nu garantează siguranța în domeniul inteligenței artificiale (AI).

Adrian Rusu
main event image
Știință IT&C
Foto Pixabay
Generative AI, care poate analiza și produce text, imagini, muzică, videoclipuri și nu numai, este tot mai mult sub lupa atenției din cauza tendinței de a face greșeli și de a avea comportament imprevizibil. Ada Lovelace Institute, o organizație non-profit de cercetare AI din Marea Britanie, a efectuat un studiu care a inclus interviuri cu experți din laboratoarele academice, societatea civilă și furnizorii de modele AI, precum și o auditare a cercetărilor recente în evaluările de siguranță AI. Rezultatele studiului au arătat că, deși evaluările actuale pot fi utile, ele sunt adesea incomplete, ușor de manipulat și nu prezic întotdeauna modul în care modelele vor performa în situațiile din viața reală. Raportul a subliniat și discrepanțe semnificative în industria AI în ceea ce privește cele mai bune metode și taxonomii pentru evaluarea modelelor.

SURSE

sursa imagine
Control F5
Many safety evaluations for AI models have significant limitations

ȘTIRI PE ACELEAȘI SUBIECTE

event image
Știință IT&C
OpenAI a lansat noile modele AI, o3 și o4-mini, care, conform testelor interne și externe, produc informații false într-o măsură alarmantă
event image
Știință IT&C
Utilizarea sistemelor de inteligență artificială generativă, precum DeepSeek sau Microsoft Copilot, pentru crearea de coduri maligne reprezintă o amenințare crescândă în peisajul cibernetic.
event image
Știință IT&C
Banca Angliei a atras atenția asupra riscului ca sistemele de inteligență artificială autonomă folosite în finanțe să poată manipula piețele
event image
Știință IT&C
Raportul Palisade Research acuză că modelul O3 al OpenAI a modificat intenționat un script de shutdown pentru a evita dezactivarea
app preview
Feed personalizat de știri, căutare cu Inteligență Artificială și notificări într-o experiență mai interactivă.
app preview app preview
AI securitate Generative AI siguranta studiu evaluare teste
app preview
Feed personalizat de știri, căutare cu Inteligență Artificială și notificări într-o experiență mai interactivă.
app preview
app store badge google play badge
  • Ultima oră
  • Exclusiv
  • Sondaje de Opinie
  • Podcast
  • Alegeri 2025
  • Economie
  • Politică
  • Actualitate
  • Internațional
  • Sport
  • Sănătate
  • Educație
  • Mediu
  • Știință IT&C
  • Arte & Lifestyle
  • Opinii
  • Despre Noi
  • Contact
Politica de confidențialitate
Politica de cookies
Termeni și condiții
Licențe open source
Toate drepturile rezervate Strategic Media Team SRL

Tehnologie in parteneriat cu

anpc-sal anpc-sol