- OpenAI publikigas gpt-oss-120b kaj gpt-oss-20b kiel malfermajn pezajn lingvomodelojn licencitajn sub la licenco Apache 2.0.
- Ili permesas lokan ekzekuton, adaptadon, komercan uzon kaj ofertas rendimenton proksiman al proprietaj modeloj kiel ekzemple la o3 kaj o4-mini.
- Fokusiĝis al progresinta rezonado, ĉenpensado, kaj subteno por aŭtonomaj iloj.
- Sekureco estis prioritato, kun sendependaj recenzoj kaj protokoloj kontraŭ malica uzo.
OpenAI ŝanĝis sian strategion kaj enkondukis gpt-oss-120b kune kun gpt-oss-20b, la unuajn lingvomodelojn de malfermaj pezoj ke ĝi publikigis dum pli ol kvin jaroj. Ĉi tiu lanĉo markas rompon kun la politiko de la kompanio pri fermitaj evoluigoj, kaj malfermas la pordon al programistoj, kompanioj kaj individuoj povas uzi progresintan artefaritan inteligentecon sen dependi de proprietaj servoj aŭ altiri grandajn kostojn.
Ambaŭ modeloj nun haveblas en senpage sur la platformo Hugging Face kaj estas distribuitaj sub la permesilo Apache 2.0. Ĉi tio permesas al iu ajn uzanto funkciigi ilin loke, adaptu ilin al specifaj taskoj, integru ilin en vian propran programaron, kaj eĉ uzu ilin por komercaj celoj, sen ia ajn aldona pago aŭ limigoj. Malferma AI emfazas, ke per ĉi tiu movado Ĝi celas igi artefaritan inteligentecon pli alirebla tutmonde kaj kreskigi novigadon ene de kadro de travidebleco kaj respondigebleco..
Ŝlosilaj teknikaj trajtoj de gpt-oss-120b

La modelo gpt-oss-120b elstaras pro sia arkitekturo bazita sur "miksaĵo de fakuloj" (MoE), permesante al vi administri 117.000 millones de parámetros Kun rimarkinda efikeco: nur 5.100 miliardoj da ĵetonoj estas aktivigitaj por ĉiu prilaborita ĵetono. Ĉi tio ebligas, malgraŭ ĝia grandeco, funkcii per ununura 80 GB GPU, pagebla postulo por esplorcentroj kaj kompanioj kun modere progresintaj rimedoj. La variaĵo gpt-oss-20b, dume, celas aparatojn kun malpli da memoro, kaj povas funkcii per konsumanta aparataro kaj eĉ tekokomputiloj kun 16 GB da RAM.
En ambos casos, progresinta rezonado estis elektita uzante la teknikon de pensĉeno, permesante dividi ĉiun respondon en klarigajn interajn paŝojn. La modeloj estas trejnitaj per STEM-fokusitaj datumoj, programado kaj ĝenerala scio, kiu provizas ilin solida fundamento por kompleksaj taskoj kaj uzado de specifaj iloj, kiel ekzemple retserĉado aŭ rulado de Python-kodo.
Efikeco kaj praktikaj aplikoj
Komparaj testoj montras, ke gpt-oss-120b alproksimiĝas al la nivelo de o4-mini kaj superas la o3-mini de OpenAI pri plej multaj programaj, konkurencaj matematikaj kaj sanservaj taskoj. La modelo gpt-oss-20b, estante pli malpeza, sukcesas konkuri kun triapartaj solvoj kiel DeepSeek R1 kaj superas kelkajn komparnormojn pri specifaj taskoj, precipe sur randaj aparatoj.
Alia el ĝiaj fortoj estas ĝia capacidad de personalizaciónLa uzanto povas agordi la gradon de rezonado (malalta, meza aŭ alta) depende de la tasko, tiel ekvilibrigante latentecon kaj precizeconĈi tiu agordo, kune kun la eblo funkciigi modelojn senkonekte kaj malantaŭ fajromuro, estas aparte utila en entreprenaj medioj kun privatecaj limigoj aŭ bezonoj pri revizio.
Sekureco, revizio kaj komunumo
OpenAI atentis aparte al la sekureco kaj riskoredukto en ĉi tiuj modeloj, prokrastante ilian publikigon por submeti ilin al rigoraj internaj kaj eksteraj taksadoj. Ili havas Enkonstruitaj filtriloj kaj vicigprotokoloj por malhelpi misuzon, kiel ekzemple la generado de sentemaj informoj aŭ identecŝtelo en areoj kiel cibersekureco aŭ bioteknologio.
Cetere, La kompanio invitis la komunumon partopreni en ruĝaj teamaj defioj., ekipita per Fonduso de 500.000 XNUMX usonaj dolaroj por instigi la detekton de novaj vundeblecoj kaj emerĝantaj minacoj.
En cuanto a limitaciones, OpenAI agnoskas, ke, malgraŭ ĝia progresinta arkitekturo, Malfermaj modeloj povas havi iomete pli altajn "halucino-" oftecojn ol siaj proprietaj ekvivalentoj., kaj ĝia trejnado estis farita ĉefe per anglalingvaj datumoj. Tamen, la dokumentado kaj kontroloj en loko faciligas revizion kaj kontinua alĝustigo de ĉi tiuj modeloj, antaŭenigante respondecan kaj sekuran uzon ene de la tutmonda AI-ekosistemo.
Integriĝo, licencado kaj adoptoperspektivoj
La pezoj por ambaŭ modeloj estas ofertitaj en MXFP4-formato, kaj referencaj efektivigoj jam ekzistas por PyTorch, Apple Metal, kaj plibonigita subteno por platformoj kiel Azure, AWS, vLLM, llama.cpp, LM Studio, Baseten, kaj Cloudflare. La licenco Apache 2.0 permesas ekstreme fleksebla uzo, inkluzive de la ebleco monetigi, redistribui kaj integri ilin en triapartajn ilojn.
Por la hispana kaj eŭropa komerca komunumo, la alveno de gpt-oss-120b kaj gpt-oss-20b malfermas novajn vojojn por aŭtomatigi analizon, evoluigi inteligentajn asistantojn y konservi kontrolon super datumoj ene de siaj propraj infrastrukturoj, samtempe reduktante kostojn kaj akcelante novigajn ciklojn. Konsiderante la eblan gravecon de artefarita inteligenteco en diversaj sektoroj, Ĉi tiuj iloj permesas al vi eksperimenti kaj esplori pri artefarita inteligenteco sen dependi de eksteraj API-oj aŭ restriktaj licencoj., antaŭenigante sian propran teknologian disvolviĝon.
Ĉi tiu antaŭeniro permesas al agantoj de la teknologia sektoro aliri pli malfermajn, travideblajn kaj adapteblajn ilojn, tiel antaŭenigante pli kunlaboran kaj respondecan novigan ekosistemon.
Mi estas teknologientuziasmulo, kiu transformis siajn "geek" interesojn en profesion. Mi pasigis pli ol 10 jarojn de mia vivo uzante avangardan teknologion kaj tuŝante ĉiajn programojn pro pura scivolemo. Nun mi specialiĝis pri komputila teknologio kaj videoludoj. Ĉi tio estas ĉar de pli ol 5 jaroj mi verkas por diversaj retejoj pri teknologio kaj videoludoj, kreante artikolojn, kiuj celas doni al vi la informojn, kiujn vi bezonas en lingvo komprenebla por ĉiuj.
Se vi havas demandojn, mia scio varias de ĉio rilata al la Vindoza operaciumo same kiel Android por poŝtelefonoj. Kaj mia devontigo estas al vi, mi ĉiam pretas pasigi kelkajn minutojn kaj helpi vin solvi ajnajn demandojn, kiujn vi povas havi en ĉi tiu interreta mondo.
