search icon
search icon
Flag Arrow Down
Română
Română
Magyar
Magyar
English
English
Français
Français
Deutsch
Deutsch
Italiano
Italiano
Español
Español
Русский
Русский
日本語
日本語
中国人
中国人

Cambia lingua

arrow down
  • Română
    Română
  • Magyar
    Magyar
  • English
    English
  • Français
    Français
  • Deutsch
    Deutsch
  • Italiano
    Italiano
  • Español
    Español
  • Русский
    Русский
  • 日本語
    日本語
  • 中国人
    中国人
Sezioni
  • Ultim’ora
  • Esclusivo
  • Sondaggi INSCOP
  • Podcast
  • Diaspora
  • Repubblica di Moldavia
  • Politica
  • Economia
  • Attualità
  • Internazionale
  • Sport
  • Salute
  • <translate>Istruzione</translate>
  • Scienza IT&C
  • Arte & Lifestyle
  • Opinioni
  • Elezioni 2025
  • Ambiente
Chi siamo
Contatto
Informativa sulla privacy
Termini e condizioni
Scorri rapidamente i notiziari e scopri come vengono trattati nelle diverse pubblicazioni!
  • Ultim’ora
  • Esclusivo
    • Sondaggi INSCOP
    • Podcast
    • Diaspora
    • Repubblica di Moldavia
    • Politica
    • Economia
    • Attualità
    • Internazionale
    • Sport
    • Salute
    • <translate>Istruzione</translate>
    • Scienza IT&C
    • Arte & Lifestyle
    • Opinioni
    • Elezioni 2025
    • Ambiente
  1. Home
  2. Scienza IT&C
149 nuove notizie nelle ultime 24 ore
9 settembre 07:31

OpenAI sta indagando le cause per cui i modelli linguistici avanzati, come GPT-5, provocano allucinazioni

Gabriel Dumitrache
whatsapp
facebook
linkedin
x
copy-link copy-link
main event image
Scienza IT&C
Foto: Shutterstock
Un nuovo studio di OpenAI esplora il fenomeno delle allucinazioni nei modelli linguistici di grandi dimensioni (LLM), come GPT-5. Le allucinazioni sono definite come affermazioni plausibili ma false generate da questi modelli. I ricercatori sottolineano che il problema deriva dal modo in cui gli LLM sono pre-addestrati, ottimizzati per prevedere la parola successiva senza distinguere tra vero e falso. Le valutazioni attuali, che si concentrano sull'accuratezza, incoraggiano i modelli a indovinare invece di riconoscere l'incertezza. Lo studio suggerisce che i metodi di valutazione dovrebbero evolversi per penalizzare le risposte errate e premiare l'espressione del dubbio, per ridurre le allucinazioni.

Fonti

sursa imagine
Control F5
Are Incentives Driving AI Hallucinations?

ȘTIRI PE ACELEAȘI SUBIECTE

event image
Scienza IT&C
OpenAI si prepara a lanciare il suo nuovo modello di intelligenza artificiale, il GPT-5, all'inizio di agosto.
event image
Internazionale
OpenAI lancia una nuova modalità di studio per ChatGPT, pensata per incoraggiare l'uso responsabile dell'intelligenza artificiale nell'istruzione.
event image
Scienza IT&C
OpenAI lancerà il GPT-5 in agosto, con versioni mini e nano disponibili tramite API.
app preview
Feed di notizie personalizzato, ricerca con AI e notifiche in un’esperienza più interattiva.
app preview app preview
OpenAi allucinazioni intelligenza artificiale

Raccomandazioni dell’editore

main event image
Attualità
5 ore prima

Un quarto dei partiti registrati e attivi in Romania è stato fondato negli ultimi 4 anni, la maggior parte sovranisti o conservatori. INSCOP: l'intenzione di voto per PSD-PNL è diminuita, in 4 anni, dal 70% al 35%

Fonti
app preview
Feed di notizie personalizzato, ricerca con AI e notifiche in un’esperienza più interattiva.
app preview
app store badge google play badge
  • Ultim’ora
  • Esclusivo
  • Sondaggi INSCOP
  • Podcast
  • Diaspora
  • Repubblica di Moldavia
  • Politica
  • Economia
  • Attualità
  • Internazionale
  • Sport
  • Salute
  • <translate>Istruzione</translate>
  • Scienza IT&C
  • Arte & Lifestyle
  • Opinioni
  • Elezioni 2025
  • Ambiente
  • Chi siamo
  • Contatto
Informativa sulla privacy
Politica sui cookie
Termini e condizioni
Licenze Open Source
Tutti i diritti riservati Strategic Media Team SRL

Tecnologia in collaborazione con

anpc-sal anpc-sol