luni 10:27
EleutherAI a lansat Common Pile v0.1, un set de date de 8 terabytes, creat pentru antrenarea modelelor de AI folosind doar conținut licențiat și de domeniu public
Adrian Rusu
.webp)
Știință IT&C
Foto: pixabay.com/ro
Common Pile v0.1 reprezintă un efort colaborativ desfășurat pe parcursul a aproape doi ani, având printre principalii contribuitori start-up-uri de AI precum Poolside și Hugging Face, alături de diverse instituții academice, cum ar fi University of Toronto. Acest set de date a fost folosit pentru antrenarea a două noi modele, Comma v0.1-1T și Comma v0.1-2T, fiecare cu 7 miliarde de parametri. EleutherAI susține că aceste modele performează la fel de bine ca și alte modele de frunte antrenate pe material protejat de drepturi de autor.