Anthropic on julkaissut vakavia uutisia, joiden mukaan kiinalaiset tekoälylaboratoriot DeepSeek, Moonshot AI ja MiniMax ovat järjestelmällisesti pyrkineet ”tislaamaan” Claude-tekoälymallin osaamista luvattomasti omien malliensa kehittämiseen. Yhtiön mukaan kyse on ollut mittakaavaltaan teollisesta hyökkäyskampanjasta, johon liittyy noin 24 000 vilpillistä käyttäjätiliä ja yli 16 miljoonaa automatisoitua kyselyä Claude-malliin.
”Tislaus eli Distillaatio” tarkoittaa tekoälykehityksessä yleisesti käytettyä tekniikkaa, jossa yksinkertaisempi tekoälymalli (”oppilas”) opetetaan vahvemman mallin (”opettaja”) tuottamilla vastauksilla. Menetelmä itsessään ei ole ongelmallinen, mutta Anthropicin mukaan sitä käytettiin tässä tapauksessa luvattomasti kilpailijoiden mallien kehittämiseen.
Anthropic kuvailee toimintaa vihamieliseksi, ammattimaiseksi ja teollisen mittakaavan operaatioksi. Se on havainnut, että kampanjoissa hyödynnettiin laajoja huijaustiliverkostoja sekä kaupallisia proxy-palveluita, joilla kierretään Yhdysvaltain asettamia alueellisia rajoituksia ja vientisääntöjä.
Kolme yksityiskohtaista kampanjaa
Anthropic on tunnistanut kolme erillistä kampanjaa ja eritellyt niiden tavoitteet. DeepSeekin kampanja keskittyi Claude-mallin päättelykykyyn ja pyrki hyödyntämään sen vastauksia muun muassa palkitsemismallien kehityksessä sekä sensuurin ohittavien vastaustapojen löytämisessä. Kampanja tuotti yli 150 000 vuorovaikutusta.
Moonshot AI:n operaatio kohdistui erityisesti agenttimaiseen toimintaan, kuten työkalujen käyttöön, koodaamiseen ja konenäköön, ja sen kautta tehtiin yli 3,4 miljoonaa kyselyä Claude-mallille.
MiniMax oli aktiivisin toimija yli 13 miljoonalla vuorovaikutuksellaan, ja sen erityinen kiinnostus kohdistui agenttien koodaustaitoihin sekä työkalujen käyttöönottoon ja hallintaan. MiniMax reagoi erittäin nopeasti Claude-mallin päivityksiin ja pyrki nopeasti hyödyntämään uusia ominaisuuksia.
Koska Anthropic ei tarjoa kaupallista pääsyä Claude-malliin Kiinasta, yritykset kiersivät rajoitukset käyttämällä kaupallisia proxy-palveluita ja laajoja, hydra-tyyppisiä feikkitiliverkkoja. Yksi proxy-verkko hallinnoi jopa yli 20 000 tiliä yhtä aikaa, mikä teki toiminnan tunnistamisesta haastavaa.
Pelissä myös kansallinen turvallisuus
Anthropic näkee toiminnan myös kansallisen turvallisuuden riskinä, sillä luvattomasti tislatuista tekoälymalleista puuttuvat usein keskeiset turvallisuussuojaimet. Tämä voi johtaa tilanteeseen, jossa haitallisiin tarkoituksiin soveltuvia kyvykkyyksiä leviää nopeasti ilman asianmukaista valvontaa.
Anthropic huomauttaa lisäksi, että tällainen toiminta heikentää Yhdysvaltain vientirajoitusten tehokkuutta ja voi vääristää kuvaa siitä, kuinka nopeasti eri toimijat edistyvät tekoälykehityksessä.
Anthropic on ilmoittanut useista toimista, joilla se pyrkii estämään vastaavanlaiset kampanjat tulevaisuudessa. Näihin kuuluvat muun muassa paremmat automaattiset tunnistusmenetelmät epäilyttävälle liikenteelle, tiedustelutiedon jakaminen muiden AI-toimijoiden ja viranomaisten kanssa sekä pääsyn tiukentaminen ja uudet suojaustoimenpiteet Anthropicin tekoälytyökaluille.
DeepSeek AI ja MiniMax eivät ole toistaiseksi kommenteet julkisesti Anthropicin uutista.

