OpenAI presenta gpt-oss: models de llenguatge obert, potents i optimitzats per a GPU amb codi lliure i ús local eficient
OpenAI ha publicat els seus primers models de llenguatge de codi obert amb pesos accessibles des de GPT-2 l’any 2019. S’anomenen “gpt-oss” i es presenten en dues mides: un model gran de 117.000 milions de paràmetres (gpt-oss-120b) i un de més petit de 21.000 milions (gpt-oss-20b). Tots dos són del tipus mixture-of-experts (MoEs), fet que permet una raonament potent amb un ús eficient dels recursos, gràcies a una quantització a 4 bits que facilita una inferència ràpida i consumeix poca memòria.
El model gran es pot executar en una sola GPU H100 i el petit és apte per ordinadors convencionals amb 16GB de memòria, pensat per a aplicacions locals o de consumidor. Aquests models es poden descarregar, executar i modificar lliurement, i es distribueixen sota llicència Apache 2.0, amb una política d’ús que busca garantir la seguretat, la responsabilitat i l’accessibilitat democràtica.
Els gpt-oss tenen un rendiment similar als models comercials de la pròpia OpenAI (o3-mini i o4-mini) en diversos tests de referència. A més, es poden ajustar (fine-tune) fàcilment per raonar en diversos idiomes, mitjançant tècniques eficients com LoRA, i són útils per projectes multilingües o d’ús privat en entorns on la privacitat és clau. Aquesta aposta reforça el compromís d’OpenAI amb l’ecosistema de codi obert i busca democratitzar l’accés a la intel·ligència artificial avançada.
Font original: Veure article original