search icon
search icon
Flag Arrow Down
Română
Română
Magyar
Magyar
English
English
Français
Français
Deutsch
Deutsch
Italiano
Italiano
Español
Español
Русский
Русский
日本語
日本語
中国人
中国人

Nyelv módosítása

arrow down
  • Română
    Română
  • Magyar
    Magyar
  • English
    English
  • Français
    Français
  • Deutsch
    Deutsch
  • Italiano
    Italiano
  • Español
    Español
  • Русский
    Русский
  • 日本語
    日本語
  • 中国人
    中国人
Rovatok
  • Utolsó óra
  • Exkluzív
  • INSCOP felmérések
  • Podcast
  • Diaszpóra
  • Moldova Köztársaság
  • Politika
  • Gazdaság
  • Aktuális
  • Internacionális
  • Sport
  • Egészség
  • Oktatás
  • IT&C tudomány
  • Művészet & Életstílus
  • Vélemények
  • Választások 2025
  • Környezet
Rólunk
Kapcsolat
Adatvédelmi irányelvek
Felhasználási feltételek
Görgessen gyorsan a hírösszefoglalók között, és nézze meg, hogyan foglalkoznak velük a különböző kiadványok!
  • Utolsó óra
  • Exkluzív
    • INSCOP felmérések
    • Podcast
    • Diaszpóra
    • Moldova Köztársaság
    • Politika
    • Gazdaság
    • Aktuális
    • Internacionális
    • Sport
    • Egészség
    • Oktatás
    • IT&C tudomány
    • Művészet & Életstílus
    • Vélemények
    • Választások 2025
    • Környezet
  1. Kezdőlap
  2. IT&C tudomány
105 új hír az elmúlt 24 órában
9 szeptember 07:31

Az OpenAI vizsgálja azokat az okokat, amelyek miatt a fejlett nyelvi modellek, mint például a GPT-5, hallucinációkat okoznak.

Gabriel Dumitrache
whatsapp
facebook
linkedin
x
copy-link copy-link
main event image
IT&C tudomány
Foto: Shutterstock
Az OpenAI új tanulmánya a nagy nyelvi modellek (LLM), mint például a GPT-5, hallucinációs jelenségét vizsgálja. A hallucinációk olyan plauzibilis, de hamis állítások, amelyeket ezek a modellek generálnak. A kutatók hangsúlyozzák, hogy a probléma abból adódik, ahogyan az LLM-eket előképzik, optimalizálva a következő szó előrejelzésére anélkül, hogy megkülönböztetnék az igazságot a hamisságtól. A jelenlegi értékelések, amelyek a pontosságra összpontosítanak, arra ösztönzik a modelleket, hogy találgassanak ahelyett, hogy felismernék a bizonytalanságot. A tanulmány azt javasolja, hogy az értékelési módszereknek fejlődniük kellene, hogy büntessék a helytelen válaszokat és jutalmazzák a kételkedés kifejezését, hogy csökkentsék a hallucinációkat.

Források

sursa imagine
Control F5
Are Incentives Driving AI Hallucinations?
app preview
Személyre szabott hírfolyam, mesterséges intelligencia alapú keresés és értesítések interaktívabb élményben.
app preview app preview
OpenAi hallucinációk mesterséges intelligencia

A szerkesztőség ajánlása

main event image
Egészség
8 órája

Az egészségügyi miniszter, Alexandru Rogobete bejelentette, hogy szeretné bevezetni a teljesítményalapú kifizetést az egészségügyi rendszerben: „Ellene vagyok azoknak, akik azt hiszik, hogy csak azért kell kifizetnünk őket, mert léteznek.”

Források
imagine sursa
imagine sursa
imagine sursa
imagine sursa
imagine sursa
app preview
Személyre szabott hírfolyam, mesterséges intelligencia alapú keresés és értesítések interaktívabb élményben.
app preview
app store badge google play badge
  • Utolsó óra
  • Exkluzív
  • INSCOP felmérések
  • Podcast
  • Diaszpóra
  • Moldova Köztársaság
  • Politika
  • Gazdaság
  • Aktuális
  • Internacionális
  • Sport
  • Egészség
  • Oktatás
  • IT&C tudomány
  • Művészet & Életstílus
  • Vélemények
  • Választások 2025
  • Környezet
  • Rólunk
  • Kapcsolat
Adatvédelmi irányelvek
Sütiszabályzat
Felhasználási feltételek
Nyílt forráskódú licencek
Minden jog fenntartva - Strategic Media Team SRL

Partnerségi technológia

anpc-sal anpc-sol