OpenAI heeft zijn nieuwe o1-redeneermodel in zijn API geïntroduceerd, het uitrollen voor geselecteerde ontwikkelaars vanaf 17 december 2024. De lancering komt als onderdeel van een bredere update die ook nieuwe functies bevat die de functionaliteit en het maatwerk voor ontwikkelaars verbeteren. Om voor gebruik in aanmerking te komen, moeten ontwikkelaars minimaal $ 1.000 uitgeven en accounts onderhouden die ouder zijn dan 30 dagen.
“Vandaag introduceren we capabelere modellen, nieuwe tools voor maatwerk en upgrades die de prestaties, flexibiliteit en kostenefficiëntie verbeteren voor ontwikkelaars die met AI bouwen.”
-Open AI
OpenAI lanceert o1 API voor geselecteerde ontwikkelaars
Het o1-model vervangt de vorige o1-preview en beschikt over mogelijkheden waarmee het zijn eigen reacties op feiten kan controleren, een voordeel dat niet vaak wordt aangetroffen in AI-modellen. Als wisselwerking heeft het redeneermodel de neiging er langer over te doen om antwoorden te genereren. De kosten voor verwerking met o1 zijn aanzienlijk; het brengt ontwikkelaars $15 in rekening voor elke 750.000 geanalyseerde woorden en $60 voor gegenereerde inhoud, wat een zesvoudige stijging betekent vergeleken met het nieuwste niet-redenerende model, GPT-4o.
De nieuwe o1 is ontworpen om eerdere beperkingen te verbeteren, waarbij OpenAI beweert dat het “meer uitgebreide en nauwkeurige antwoorden” biedt, vooral voor technische vragen met betrekking tot programmeren en zakendoen. Het bevat verbeteringen zoals een redeneerinspanningsparameter waarmee ontwikkelaars de verwerkingstijd voor query’s kunnen controleren. Bovendien is het model flexibeler dan zijn voorganger en ondersteunt het functies zoals ontwikkelaarsberichten om het gedrag van chatbots aan te passen en gestructureerde uitvoer mogelijk te maken met behulp van een JSON-schema.
Om meer dynamische interacties mogelijk te maken, heeft OpenAI de mogelijkheden voor het aanroepen van functies verbeterd, waardoor het model vooraf geschreven externe functies kan gebruiken bij het genereren van antwoorden. Deze API-iteratie vereist naar verluidt 60% minder tokens voor verwerking vergeleken met o1-voorbeeldterwijl ook een hoger nauwkeurigheidspercentage wordt bereikt: tussen 25 en 35 procentpunten meer op benchmarks zoals LiveBench en AIME.
OpenAI breidde ook zijn mogelijkheden met betrekking tot realtime interacties uit via de Realtime API, die nu WebRTC ondersteunt voor vloeiendere audiocommunicatie. Deze toevoeging heeft tot doel de integratie voor ontwikkelaars te vereenvoudigen, waardoor de complexiteit van de code aanzienlijk wordt teruggebracht van ongeveer 250 regels naar ongeveer een dozijn. Bovendien heeft OpenAI de kosten van o1-audiotokens met 60% en minitokens met 90% verlaagd om het gebruik onder ontwikkelaars aan te moedigen.
“Onze WebRTC-integratie is ontworpen om soepele en responsieve interacties in reële omstandigheden mogelijk te maken, zelfs met variabele netwerkkwaliteit”, schreef OpenAI in de blog. “Het zorgt voor audiocodering, streaming, ruisonderdrukking en congestiecontrole.”
Een andere belangrijke update omvat een nieuwe methode voor het verfijnen van AI-modellen, genaamd directe voorkeursoptimalisatie. Hierdoor kunnen modeltrainers twee outputs leveren en een voorkeur opgeven zonder dat ze voor elk scenario exacte input/output-voorbeelden hoeven te geven. OpenAI beweert dat deze methode het vermogen van het model vergroot om zich aan te passen aan verschillende eigenaardigheden op het gebied van reactiestijl, opmaak en behulpzaamheid.
Ontwikkelaars in programmeertalen zoals Go en Java hebben nu toegang tot nieuwe software development kits (SDK’s) die zijn ontworpen voor eenvoudigere API-integratie. Naarmate deze updates vorderen, is OpenAI van plan de toegang uit te breiden en de snelheidslimieten te verhogen voor meer ontwikkelaars buiten de initiële tier 5-categorie.
Uitgelichte afbeeldingscredits: Open AI