Yrityskulttuuri
AI Act on täällä – mitä jokaisen HR-johtajan on syytä tietää nyt?
EU:n asettama AI Act eli tekoälyasetus tuli voimaan 1.8.2024. Monet eivät ehkä ole vielä rekisteröineet tätä, sillä asetuksella ei ollut tuolloin vielä välittömiä vaikutuksia.
Tilanne kuitenkin muuttui helmikuussa 2025, kun useat tärkeät säännökset astuivat voimaan:
- Kiellettyjen tekoälyjärjestelmien sääntely
- Velvoite työntekijöiden tekoälylukutaidosta
- Tekoälyjärjestelmien riskiluokittelu
Vaikka AI Act voi ensi silmäyksellä tuntua rajoittavalta, sen taustalla on vahva pyrkimys lisätä läpinäkyvyyttä ja turvata ihmisten oikeuksia tekoälyn hyödyntämisessä. Kyse ei siis ole pelkästään riskienhallinnasta, vaan myös siitä, miten olla vastuullinen ja eettinen toimija – niin työnantajana kuin työntekijänä.
Olisi tärkeää nähdä tekoälyasetus myös mahdollisuuksien valossa.
Olisi tärkeää nähdä tekoälyasetus myös mahdollisuuksien valossa: miten se voi edistää turvallista ja eettistä työelämää sekä varmistaa, että tekoälyä käytetään oikeudenmukaisesti ja vastuullisesti.

AI Actin neljä riskiluokkaa – HR suuririskisten joukossa
EU:n tekoälyasetus jaottelee tekoälyjärjestelmät neljään eri riskiluokkaan käyttäjille aiheutuvan riskin perusteella:
1. Kielletty riski (Unacceptable Risk) – Täysin kielletyt järjestelmät (esim. tunteiden tunnistus työpaikoilla).
2. Korkea riski (High Risk) – Tiukat vaatimukset, kuten HR-järjestelmät.
3. Rajoitettu riski (Limited Risk) – Vähäisempiä vaatimuksia, kuten chatbotit.
4. Vähäinen riski (Minimal Risk) – Ei erityisiä vaatimuksia (esim. roskapostisuodattimet).
Tekoälypohjaiset HR-järjestelmät kuuluvat korkean riskin luokkaan, koska ne voivat vaikuttaa suoraan työntekijöiden oikeuksiin ja kohteluun. Näitä järjestelmiä käytetään esimerkiksi rekrytoinnissa ja valintaprosesseissa, kuten hakemusten seulonnassa ja ehdokkaan arvioinnissa. Myös työsuhteen päättämiseen tai ylentämiseen liittyvät päätöksentekoprosessit sekä työntekijöiden suoriutumisen ja käyttäytymisen arviointi kuuluvat tähän luokkaan.
EU:n tekoälyasetus jaottelee tekoälyjärjestelmät neljään eri riskiluokkaan.
HR:n juridinen ja eettinen vastuu
AI Act asettaa HR-johtajille ja yrityksen johdolle merkittävän vastuun tekoälyjärjestelmien käytöstä. On varmistettava, että tekoälyn käyttö on turvallista, eettistä ja läpinäkyvää. Käytännössä tämä tarkoittaa seuraavaa:
1. Läpinäkyvyys
HR on velvollinen raportoimaan ja viestimään avoimesti tekoälyn käytöstä, kuten työhakemusten seulonnassa ja analysoinnissa sekä työntekijöiden suoritusten monitoroinnissa. Työntekijöillä on oikeus tietää, jos heidän suorituksiaan on analysoitu tekoälyn avulla. Lopulliset päätökset tekee aina ihminen – tekoäly ei voi yksinään päättää esimerkiksi palkkaamisesta tai työsuhteen päättämisestä.
2. Datan hallinta
Työnantajien tulee varmistaa, että tekoälyjärjestelmien koulutuksessa käytetty data on asianmukaista, eettistä, monimuotoista ja puolueetonta. Tämä on kriittistä syrjinnän välttämiseksi ja oikeudenmukaisten päätösten takaamiseksi.
3. Ihmisen rooli tekoälyavusteisessa HR- prosessissa
Loppukädessä vastuu jokaisesta tekoälyä hyödyntävästä HR-prosessista on ihmisellä. Tekoäly voi toimia apuvälineenä, mutta päätöksistä vastaa aina ihminen.
4. Tekoälylukutaito
Tekoälypohjaiset HR-järjestelmät kuuluvat korkean riskin luokkaan.
Helmikuusta 2025 alkaen työnantajilla on ollut velvollisuus huolehtia, että työntekijöillä on riittävä tekoälyosaaminen suhteutettuna heidän rooliinsa ja työtehtäviinsä. Ajantasainen koulutus tekoälyn vastuulliseen käyttöön on välttämätöntä. Tämä vaatimus koskee kaikkia työntekijöitä, jotka ovat tekemisissä tekoälyjärjestelmien kanssa, riippumatta järjestelmän riskiluokituksesta.

Sanktioiden vakavuus – taustalla pyrkimys oikeudenmukaiseen ja vastuulliseen työelämään
AI Actin laiminlyönti voi johtaa merkittäviin taloudellisiin seuraamuksiin. Sakko voi olla jopa 7 % yrityksen vuotuisesta globaalista liikevaihdosta ja nousta enimmillään 35 miljoonaan euroon.
Tekoälyasetuksen tavoitteena on suojella työntekijöiden oikeuksia.
Tekoälyasetuksen tavoitteena on suojella työntekijöiden oikeuksia ja varmistaa, että tekoälyä hyödynnetään turvallisesti, eettisesti ja läpinäkyvästi. On tärkeää ymmärtää, että kyse ei ole vain rajoituksista, vaan myös mahdollisuudesta rakentaa oikeudenmukaisempaa ja vastuullisempaa työelämää.
Teksti: Eeva Malm, perustaja Ja HR-konsultti / Arva Consulting
Kuvat: Pixabay
Julkaistu: 04/2025