💬 Keskustele aiheesta foorumilla
Euroopan unionin tekoälyasetus (AI Act, virallisesti Regulation (EU) 2024/1689) on maailman ensimmäinen laaja-alainen säännöstö, joka koskee toimijoita, jotka saattavat AI‑järjestelmän EU‑markkinoille, ottavat sen käyttöön EU:ssa tai joiden järjestelmien tuotoksia käytetään EU:ssa. Tämä kattaa myös EU:n ulkopuoliset toimijat, jos he tarjoavat palveluja EU:n käyttäjille. Asetus julkaistiin EU:n virallisessa lehdessä 12. heinäkuuta 2024 ja astui voimaan 1. elokuuta 2024. Se vaikuttaa niin eurooppalaisiin kuin yhdysvaltalaisiin ja aasialaisiin yrityksiin, mikäli ne tarjoavat tekoälypalveluja EU-markkinoille. Ensimmäiset velvoitteet – kiellettyjen käytäntöjen täyskielto ja AI-lukutaito – tulivat voimaan 2. helmikuuta 2025, ja keskeiset velvoitteet korkean riskin järjestelmille astuvat voimaan 2. elokuuta 2026.
Asetuksen pääkohdat
- Kielletyt sovellukset: näitä pidetään ”hyväksymättömän riskin” järjestelminä. Ne liittyvät esimerkiksi sosiaaliseen pisteytykseen, manipuloiviin tekniikoihin tai reaaliaikaiseen biometriseen tunnistukseen julkisissa tiloissa. Tällaiset järjestelmät kielletään kokonaan 2. helmikuuta 2025 alkaen. Asetus kuitenkin sallii rajattuja poikkeuksia lainvalvontaviranomaisille, jos käytölle on ennalta oikeuslaitoksen tai riippumattoman hallintoviranomaisen lupa ja tarkkarajainen tarkoitus (esim. terrorismin torjunta).
- Korkean riskin järjestelmät: asetuksen tiukimmin valvoma luokka. Näihin kuuluvat mm. rekrytointi-, koulutus- ja terveydenhuollon järjestelmät, kriittinen infrastruktuuri sekä lainvalvonta ja oikeusjärjestelmä. Tarjoajien on toteutettava riskienhallintajärjestelmä, huolehdittava datalaatuvaatimuksista, tehtävä vaatimustenmukaisuuden arviointi ja rekisteröitävä järjestelmä EU:n tietokantaan. Jos AI toimii turvallisuusosana jo erikseen EU‑säädellyssä tuotteessa (esim. lääkinnällinen laite), velvoitteet siirtyvät 36 kuukauteen (2.8.2027).
- Rajoitetun riskin järjestelmät: kuten chatbotit ja deepfake-teknologiat, joiden on oltava läpinäkyviä – käyttäjille on kerrottava, että he ovat vuorovaikutuksessa tekoälyn kanssa.
- Vähäisen riskin järjestelmät: peli- ja roskapostifiltterit sekä muut sovellukset, joille asetuksella ei aseteta erityisiä velvoitteita.
Yleiskäyttöiset mallit (GPAI)
Asetus sisältää omat sääntönsä yleiskäyttöisille tekoälymalleille (general‑purpose AI, GPAI). Näihin kuuluvat esimerkiksi suuret kielimallit ja multimodaaliset sovellukset. GPAI-malleja koskevat sekä sitovat velvoitteet että vapaaehtoinen Code of Practice. Suuret teknologiayritykset, kuten Google ja OpenAI, ovat ilmoittaneet liittyvänsä käytännesäännöstöön, kun taas Meta on vielä jättäytynyt sen ulkopuolelle. Tavoitteena on lisätä näiden mallien läpinäkyvyyttä ja riskienhallintaa.
Hallintorakenne ja valvonta
Asetuksen toimeenpano järjestyy kahden EU-tason organisaation kautta: European AI Office toimii Euroopan komission alaisuudessa, ja sen tehtävänä on koordinoida sääntelyn käytännön soveltamista ja kehittää ohjeistuksia. Jäsenvaltioita koordinoi European Artificial Intelligence Board, joka koostuu kansallisten viranomaisten edustajista. Jäsenvaltioiden on nimettävä kansalliset markkinavalvonta‑ ja muut toimivaltaiset viranomaiset viimeistään 2.8.2025 valvomaan sääntelyn noudattamista.
Sakot ja sanktiot
Vakavimmista rikkomuksista seuraavat sakot voivat nousta jopa seitsemään prosenttiin yrityksen maailmanlaajuisesta liikevaihdosta tai 35 miljoonaan euroon. Tämä korostaa velvoitteiden noudattamisen tärkeyttä: organisaatioiden on varattava riittävästi resursseja riskienhallintaan, datan laatuun ja dokumentointiin ja varmistettava, että niiden tekoälyjärjestelmät kestävät tarkastelun.
Asiantuntijoiden näkemykset ja globaali vaikutus
Asiantuntijoiden mielipiteet jakautuvat: monet pitävät asetusta tervetulleena, koska se edistää vastuullista tekoälyn käyttöä ja turvaa perusoikeuksia. Toiset varoittavat, että tiukat velvoitteet saattavat hidastaa eurooppalaista innovaatiota ja heikentää kilpailukykyä suhteessa Yhdysvaltoihin ja Aasiaan. Kuitenkin globaalisti EU:n tekoälyasetus voi muodostua standardiksi samalla tavoin kuin GDPR on ohjannut tietosuojaa, joten yritysten on syytä seurata kehitystä tarkasti.
Miten valmistautua?
- Kartoitus ja riskiluokitus: Selvitä, millä riskitasolla organisaatiosi tekoälyjärjestelmät sijaitsevat.
- Dokumentaatio ja läpinäkyvyys: Kehitä sisäiset prosessit, jotka dokumentoivat tekoälyn kehityksen, datalähteet ja päätöksentekoprosessit.
- Koulutus: Investoi henkilöstön ja johdon AI-lukutaitoon.
- Käytä ulkopuolista asiantuntija-apua: Hyödynnä lakipalveluita ja vaatimustenmukaisuuskonsultteja.
Sääntely antaa kaivatut raamit tekoälyn käytölle EU:ssa
EU:n tekoälyasetus on ensimmäinen kattava lainsäädäntökehys tekoälylle. Se luokittelee tekoälyjärjestelmät riskitason mukaan, kieltää perusoikeuksia loukkaavat sovellukset ja asettaa tiukat velvoitteet korkean riskin järjestelmille. Sääntely ulottuu myös yleiskäyttöisiin malleihin ja määrittelee valvontarakenteet sekä sakot vakavista rikkomuksista. Yritysten kannattaa ottaa sääntelyn vaatimukset huomioon ajoissa ja rakentaa vastuulliset tekoälyn käyttöprosessit.

