Etusivu > Statement

Etsi

Emergency banner

Koronainfo yrittäjälle: yrittajat.fi/korona

Lausunto

Euroopan komission ehdotus tekoälyasetukseksi

1. Yleiset huomiot asetusehdotuksesta

Tekoälyä koskeva asetusehdotus on näkemyksemme mukaan tavoitteiltaan oikeansuuntainen mutta sisällöltään paikoin ongelmallinen.

Vaikka esitys sisältää sinänsä oikeita elementtejä, vaikuttaa se kokonaisuudessaan kohtuuttoman raskaalta erityisesti korkeariskisiksi luokiteltuja tekoälyjärjestelmiä tarjoaville ja hyödyntäville pienemmille eurooppalaisyrityksille. Koska tekoälyratkaisujen kehitys ja käyttöönotto on vielä alkutekijöissään, on lisäksi syytä kysyä, onko yksityiskohtainen sääntely tässä vaiheessa mielekästä. Ilmeisenä vaarana on, että raskas sääntely haittaa pk-yrityskentän kilpailukykyä ja hidastaa eurooppalaisen digitaalisen talouden kasvua.

Kannustammekin jatkovalmistelussa lainsäätäjiä huomioimaan sääntelyn vaikutukset innovaatioihin sekä erityisesti tekoälyä kehittäviin ja käyttöönottaviin pk-yrityksiin.

Esityksen tavoite tekoälyn markkinoille asettamisen ja käyttämisen sääntelyn harmonisoinnista sisämarkkinoilla on sinänsä kannatettava. Epäyhtenäinen sääntely-ympäristö vaikeuttaa erityisesti pienempien tekoälyn kehittäjä- ja käyttäjäyritysten toimintaa. Sääntely-ympäristöä pitäisi kuitenkin tarkastella EU:ta laajemmin, erityisesti suhteessa Pohjois-Amerikkaan ja muihin demokraattisiin maihin ja alueisiin. EU ei saa säännellä itseään nurkkaan tekoälyn globaaleja sääntöpuitteita ja markkinoita rakennettaessa.

Tasapuolisen kilpailuasetelman takaamiseksi pidämme hyvänä, että esitetty sääntely koskee tekoälyjärjestelmiä sisämarkkinoilla tarjoavia toimijoita riippumatta siitä, ovatko nämä sijoittuneet EU:hun tai kolmansiin maihin. On tärkeätä varmistua siitä, että kolmansiin maihin sijoittuneet tarjoajat myös tosiasiallisesti saatetaan sääntelyn ja sen valvonnan piiriin.   

2. Tekoälyjärjestelmän määrittely

On asetuksen toimivuuden ja toimeenpantavuuden kannalta erittäin tärkeätä, että tekoälyjärjestelmän määritelmä on riittävän tarkkarajainen ja ymmärrettävä. Asetusehdotuksen artiklassa 3 esitetty yleiskuvaus ja sitä täydentävät, liitteessä I kuvatut tekoälytekniikat ja -lähestymistavat eivät mielestämme täytä näitä ehtoja. Koska esitetty määrittely liikkuu hyvin yleisellä tasolla, vaarana on, että asetuksen soveltamisala laajenee epätarkoituksenmukaisesti kattamaan myös vähemmän kehittyneitä ohjelmistoja ja muodostuu näin kokonaisuutena hallitsemattomaksi. Määritelmää on välttämätöntä tarkentaa.

Lisäksi jatkovalmistelussa on varmistettava, ettei komissiolle siirretty toimivalta päivittää delegoiduin säädöksin liitteen I sisältöä johda sääntelyn heikkoon ennakoitavuuteen ja matalaan oikeusvarmuuteen. Päivitysten on tapahduttava läpinäkyvällä prosessilla, jossa mukana on puolueettomia tekoälyasiantuntijoita sekä elinkeinoelämän edustajia, mukaan lukien pk-yrityksiä.

3. Korkean riskin tekoälyjärjestelmien määrittely

Pidämme asetusehdotuksen riskiperusteista lähestymistapaa perusteltuna ja kannatettavana. On sääntelyn oikeasuhtaisuuden kannalta tärkeätä, että sääntely kohdistuu ensisijaisesti tekoälyjärjestelmiin, joiden on arvioitu sisältävän vakavuudeltaan ja todennäköisyydeltään tavanomaista selvästi korkeampia riskejä terveydelle, turvallisuudelle ja perusoikeuksille.

Korkeariskiksi tekoälyjärjestelmiksi katsottaisiin liitteessä II listattujen EU:n tuoteturvasäädösten käsittämien tuotteiden turvallisuuskomponentteina käytettävät tekoälyjärjestelmät sekä liitteessä III kuvatut tekoälyn käyttötarkoitukset.

Pidämme pk-yritysten hallinnollisen taakan näkökulmasta ongelmallisena sitä, että voimassa olevan tuotesääntelyn rinnalle tuotaisiin erillinen tekoälyjärjestelmien sääntelykehikko. Tarkoituksenmukaisempaa olisi, että liite II tiputettaisiin pois ja tekoälyjärjestelmistä säädettäisiin erikseen ja tarpeen mukaan kussakin tuotesäädöksessä. Tämä mahdollistaisi alakohtaisten erojen huomioon ottamisen sekä sääntelyn noudattamisesta koituvien kustannusten hillitsemisen. Tekoälyasetus kattaisi näin artiklan 5 kieltämät käyttötarkoitukset sekä liitteessä III kuvatut korkeariskiset käyttötarkoitukset.  

Suhtaudumme epäileväisesti siihen, täyttävätkö liitteen III kohtaan 4 sisällytetyt työelämää koskevat tekoälyjärjestelmät korkean riskin määritelmää. Järjestelmien kuvausta olisi vähintäänkin tarkennettava. On myös vältettävä päällekkäisyyttä olemassa olevan työelämäsääntelyn kanssa. Työnantajan työlainsäädäntöön perustuva vastuu on teknologianeutraalia ja ulottuu siten myös työnantajan käyttämiin digitaalisiin sovelluksiin. Siten tällaisiin järjestelmiin liittyy ilman erillistä korkean riskin statustakin jo työnantajan vastuu varmistaa, ettei järjestelmä johda esimerkiksi syrjiviin ratkaisuihin. Lisäksi koska työelämäkysymyksissä EU:n toimivalta on muuta sisämarkkinasääntelyä rajatumpi, olisi syytä selvittää, onko asetusehdotuksen oikeusperusta tältä osin riittävä.

Merkittävä osa tekoälyjärjestelmistä (esim. teollisuuden ja logistiikan prosessien optimointiin hyödynnettävä tekoäly) ei lukeutuisi korkeariskisten järjestelmätyyppien piiriin ja olisi vain vapaaehtoisuuteen perustuvan itsesääntelyn piirissä. Tätä voidaan pitää hyvänä asiana. Pk-yritysten yleisimmät tekoälyn käyttötarkoitukset ovat oletettavasti vähäriskisiä.

Jatkovalmistelussa olisi kuitenkin kiinnitettävä huomiota siihen, että erityisesti tekoälyjärjestelmien pienemmillä tarjoajilla on riittävä varmuus ja ymmärrys siitä, lukeutuuko heidän järjestelmänsä kuvattujen korkeariskisten kategorioiden piiriin vai ei. Tämä on olennaista myös näitä järjestelmiä käyttävien toimijoiden, erityisesti pk-yritysten, kannalta.

Korostamme, että tekoälyn kehittämisen ja käyttöönoton investointien kasvattaminen edellyttää Euroopalta vakaata ja ennalta-arvattavaa sääntely-ympäristöä. Siksi olemme huolissamme siitä, että komissiolle siirretty toimivalta antaa delegoituja säädöksiä, jolla se lisäisi uusia korkean riskin omaaviksi katsottuja tekoälyjärjestelmätyyppejä sääntelyn piiriin, ei menettelynä vaikuta tarjoavan hyvältä sääntelyltä edellytettyä riittävää ennakoitavuutta ja oikeusvarmuutta. Säädöstä olisikin tältä osin jatkokehitettävä. Kynnys korkean riskin luokitukseen on oltava riittävän korkea ja siihen johtava menettely avoin ja kehittäjäyrityksiä aidosti osallistava.

4. Korkean riskin tekoälyjärjestelmiä koskevat vaatimukset sekä pienten tarjoajien ja käyttäjien asema

Korkean riskin tekoälyjärjestelmille esitetyt vaatimukset synnyttävät järjestelmän tarjoajalle huomattavan määrän hallinnollista ja muuta velvoittavaa työtä läpi järjestelmän elinkaaren aina järjestelmän kehitysvaiheesta markkinoille asettamiseen, käytön seurantaan ja ongelmista raportointiin.

Onkin perusteltua epäillä, että varsinkin pienemmille järjestelmätarjoajille velvoitetaakka voi muodostua kohtuuttoman suureksi, mikä tarjoaa epäreilun kilpailuedun yhtäältä isommille tarjoajille ja toisaalta Euroopan ulkopuolella operoiville tekoälyn kehittäjille. Tätä ei tule hyväksyä. Myös tekoälyasetuksen valmistelussa olisi noudatettava EU:n yleistä Pienet ensin -periaatetta.

Pidämme sinänsä hyvänä, että ehdotus tunnistaa pienen mittakaavan tarjoajan (small-scale provider), jolla viitataan tekoälyjärjestelmän tarjoajaan, joka on pieni tai mikroyritys (vähemmän kuin 50 työntekijää ja vuosiliikevaihto tai taseen loppusumma enintään 10 miljoonaa euroa). Esitys ei kuitenkaan riittävällä tavalla huomioi pienten tarjoajien mahdollisuuksia ja resursseja täyttää korkean riskin tekoälyjärjestelmiä koskevia velvoitteita. Jatkovalmistelussa olisikin selvitettävä, voitaisiinko korkeariskisten tekoälyjärjestelmien tarjoajille asetettuja velvoitteita keventää, kun kyseessä on pieni tarjoaja.

Mitä tiukempia ovat korkeariskisten tekoälyjärjestelmien vaatimukset, sitä painavampia ovat oletettavasti myös niiden käyttöön ja käyttäjille kohdistuvat vaateet. Olisikin syytä harkita, voitaisiinko tarjoajien tapaan myös käyttäjistä erottaa pienen mittakaavan yrityskäyttäjät (small-scale user). Pienet käyttäjät voitaisiin esimerkiksi oikeuttaa normaalia vahvempaan käyttäjätukeen sekä ohjeistukseen tarjoajien ja jakelijoiden taholta. Tämä edistäisi myös raskaammin säädeltyjen tekoälyjärjestelmien käyttöönottoa pienissä yrityksissä.

Pidämme hyvänä, että korkean riskin tekoälyjärjestelmien käyttäjille on ehdotuksen mukaan tarjottava riittävä läpinäkyvyys ja informaatio järjestelmän toiminnasta esimerkiksi koskien sen tarkkuutta, toimintavarmuutta ja kyberturvallisuutta. Erityisesti pk-yrityskäyttäjille on tärkeätä, että informaatio on ymmärrettävässä muodossa ja että käyttöön on tarjolla riittävä järjestelmätarjoajan tuki ja seuranta. Samalla on kuitenkin huolehdittava siitä, etteivät informointi- ja läpinäkyvyysvelvoitteet poista kannustimia kehittää uusia tekoälyinnovaatioita. Tämän varmistamiseksi on huolehdittava, etteivät läpinäkyvyysvelvoitteet vaaranna liikesalaisuuksien suojaa.

Kannatamme ehdotusta, jonka mukaan jäsenmaiden olisi kasvatettava pienen mittakaavan tarjoajien ja käyttäjien tietoisuutta tekoälyasetuksen toimeenpanosta sekä tarjottava näille erillinen viestintäkanava asetusta koskevaan ohjeistukseen ja tiedusteluihin. Katsomme kuitenkin, että nämä eivät ole toimina yksinään riittäviä pienten toimijoiden aseman huomioon ottamiseksi ja näiden sääntelytaakan keventämiseksi.   

5. Kielletyt tekoälykäytänteet ja muut tekoälyjärjestelmiä koskevat velvoitteet

Kannatamme lähtökohtaisesti tiettyjen ehdotuksessa vahingollisiksi katsottujen tekoälykäytänteiden kieltämistä (esim. henkilöiden käyttäytymisen vahingollinen manipulointi ja kansalaisten pisteytys sosiaalisten tekijöiden perusteella). Toteamme kuitenkin, että kielletyt käytänteet olisi määriteltävä tarkkarajaisemmin, jotta voidaan välttyä lain tulkinnan ja soveltamisen haasteilta. Epäselvät kiellot ja velvoitteet voivat tarkoituksettomasti estää uusien innovatiivisten tekoälyratkaisujen kehittymisen.

Tietyille tekoälyjärjestelmille (esim. ihmisten kanssa vuorovaikuttava tekoäly tai kuvaa ja ääntä manipuloiva deep fake -tekoäly), joiden ei välttämättä tarvitse olla korkean riskin järjestelmiä, asetetut läpinäkyvyysvelvoitteet ovat perusteltuja sekä oikein kohdennettuja ja mitoitettuja.

Julkisilla paikoilla tapahtuvan reaaliaikaisen biometrisen tunnistamisen mahdollistavan tekoälyn rajaaminen vain lainvalvojien perustellusta syystä tapahtuvaan sekä riittävän oikeussuojan takaavaan käyttöön on kannatettavaa.

Kolmannen osapuolen suorittaman vaatimuksenmukaisuusarviointia koskeva korkean riskin tekoälyjärjestelmille kuuluvan velvoitteen osalta on varmistettava, ettei palveluntarjoajille aiheuteta tarpeetonta hallinnollista taakkaa. On perusteltua, että arviointivelvoitteen osalta painotetaan velvoitteen oikeasuhtaisuutta ja huomioon otetaan velvoitteen kohteena olevan yrityksen koko, toimiala, rakenne ja kyseessä olevan tekoälyjärjestelmän monimutkaisuus.

6. Sääntelyhiekkalaatikot

Kannatamme ehdotusta yhden tai useamman jäsenmaan tai Euroopan tietosuojavaltuutetun perustamista tekoälyn sääntelyhiekkalaatikoista (AI regulatory sandboxes), jotka mahdollistaisivat kontrolloidun ympäristön innovatiivisten tekoälyjärjestelmien kehityksen, testauksen ja validoinnin ennen markkinoille asettamista. Pidämme erityisen hyvänä, että jäsenmaiden olisi annettava pienen mittakaavan tarjoajille ja startup-yrityksille etusija osallistua hiekkalaatikoihin.

Säädöksen jatkovalmistelussa on kuitenkin varmistettava, että hiekkalaatikkojärjestelmä kytketään esitettyä vahvemmin tukemaan tekoälyasetuksen päivittämistä. Hiekkalaatikkoja olisi hyödynnettävä erityisesti uusien korkean riskin tekoälyjärjestelmien sekä järjestelmien yhteisten teknisten ehtojen määrittelyssä. Näin taataan osaltaan, että sääntely perustuu todellisiin ja havaittuihin tarpeisiin sekä välttää innovaatioita ja kilpailukykyä heikentävät ylilyönnit.

Lisäksi olisi tärkeätä varmistaa, että mahdollisimman monella jäsenmaalla on myös resurssit hiekkalaatikkojen toteuttamiseen. Syytä onkin tarkistella Digitaalinen Eurooppa -ohjelmassa valmisteilla olevien eurooppalaisten digitaalisten innovaatiokeskittymien (European Digital Innovation Hubs) sekä testaus- ja kokeiluympäristöjen (Testing and Experimentation Facilities) hyödyntämistä ainakin alkuvaiheessa hiekkalaatikkojen käynnistämiseen.

Hiekkalaatikkojen piirissä järjestelmiään kokeilevien pk-yritysten vastuita olisi myös syytä keventää. Näin kasvatettaisiin osaltaan pk-yritysten kannustimia osallistua hiekkalaatikoihin. 

7. Käytännesäännöt ja vaatimusten vapaaehtoinen noudattaminen

Suhtaudumme myönteisesti siihen, että komissio ja jäsenmaat edistäisivät vähäriskisille tekoälyjärjestelmille tarkoitettujen käytännesääntöjen (codes of conduct) laatimista. Käytännesäännöt mahdollistaisivat korkeariskisille järjestelmille asetettujen vaatimusten sekä muiden hyödyllisiksi katsottujen vaatimusten vapaaehtoisen noudattamisen myös matalariskisten tekoälyjärjestelmien kohdalla.

Pidämme tärkeänä, että komissio ja Euroopan tekoälyneuvosto huomioivat esitetyn mukaisesti pienten tarjoajien näkemykset ja tarpeet käytännesääntöjen laatimista edistäessään. Käytännesäännöt eivät saa muodostaa pienille toimijoille markkinoille tulon kynnystä tai kilpailuhaittaa.

8. Asetuksen toimeenpano

Ottaen huomioon, kuinka seikkaperäinen ehdotus on erityisesti korkean riskin tekoälyjärjestelmien osalta sekä kuinka syvällistä teknologista osaamista asetuksen soveltaminen edellyttää, olemme huolissamme jäsenmaiden resursseista ja kyvystä toimeenpanna säädöstä tasalaatuisesti ja tasapuolisesti. Erityisen huolissamme olemme pienemmistä tekoälyn tarjoajista ja käyttäjistä, jotka ovat suurempiin toimijoihin verrattuna riippuvaisempia viranomaisten ohjeistuksesta ja neuvonnasta ja jotka kärsivät suhteellisesti enemmän sisämarkkinoiden epäyhtenäisyydestä ja kilpailun vääristymistä.  

Jäsenmaiden ja komission viranomaisyhteistyötä tukemaan tarkoitettu Euroopan tekoälyneuvosto (European Artificial Intelligence Board) on yleisesti ottaen kannatettava, muttei poista jäsenmaiden resurssi- ja kyvykkyyshaasteita. Neuvoston pysyvässä kokoonpanossa olisi tärkeätä olla mukana myös tekoälykehittäjien edustus, jotta neuvostolla on riittävää teknistä ja liiketoiminnallista ymmärrystä.

Esitetyt sanktiot vaikuttavat rankoilta pienempien toimijoiden näkökulmasta. Erityisen huolissamme olemme hallinnollisista sakoista, joita voitaisiin myöntää muiden muassa epätäydellisen informaation toimittamisesta viranomaisille. Koska raportointivelvoitteiden täyttäminen on luultavasti varsinkin pienemmille tarjoajille monimutkainen ja haastava prosessi, on vaarana se, että sakot kohdistuvat kohtuuttomasti juuri näihin toimijoihin.   

Jatkovalmistelussa olisikin kiinnitettävä enemmän huomiota siihen, miten säädöksen laadukas ja tehokas toimeenpano tosiasiassa varmistetaan. Mikäli toimeenpanoon liittyvät haasteet osoittautuvat säädösvalmistelun aikana ylitsepääsemättömiksi, on syytä vakavasti harkita kevyempää lähestymistapaa tekoälyn eurooppalaiseen sääntelyyn.

 

 

Suomen Yrittäjät

 

Joonas Mikkilä                                                             Karoliina Katila          
digi- ja koulutusasioiden päällikkö                          asiantuntija