OpenAI Logo

OpenAI on ilmoittanut merkittävästä parannuksesta kahden suosituimman mallinsa, GPT-5.2:n ja GPT-5.2-Codexin, suorituskykyyn. Yhtiön kehittäjätili vahvisti X-alustalla, että mallien inference-prosessia on optimoitu niin, että vasteajat ovat lyhentyneet noin 40 prosenttia. Muutos koskee kaikkia API-asiakkaita ja on jo käytössä laajasti.

Päivityksen yhteydessä OpenAI korosti erityisesti sitä, että mallien perustoimintaan, eli niiden painoihin tai kyvykkyyksiin, ei tehty mitään muutoksia. Sen sijaan optimointi kohdistui palvelininfrastruktuuriin ja inference-prosessiin, joka vastaa mallin suorittamisesta ja vastausten tuottamisesta.

Käyttäjän näkökulmasta tämä tarkoittaa ennen kaikkea nopeampia vasteaikoja, jotka näkyvät sekä chat- ja assistenttityyppisessä käytössä että koodaukseen suunnatussa Codex-mallissa. Käyttäjäkokemuksen parantuminen on erityisen merkittävä silloin, kun malleja käytetään interaktiivisesti, esimerkiksi työkalukutsuissa tai monimutkaisissa ketjutetuissa pyynnöissä.

Kehittäjille nopeuden merkitys on konkreettinen

Nopeuspäivitys voi käytännössä tarkoittaa esimerkiksi sitä, että palvelut pystyvät käsittelemään suurempia kyselymääriä lyhyemmässä ajassa, jolloin palvelun kustannustehokkuus paranee. Samoin timeout-rajoja voidaan mahdollisesti säätää aggressiivisemmiksi tai jättää enemmän pelivaraa monimutkaisissa tehtävissä.