Tekoälyn eettinen pelikirja 1.0
”Miten ehkäisemme tekoälyn käyttöönoton haasteita?”
Tietoturva, riskienhallinta ja parhaat käytännöt organisaatioissa
KIRA-alan datan ja tiedon kasvava määrä tuo mahdollisuuksia mutta myös riskejä ja haasteita. Datan ja tiedon määrä kasvaa yhteiskunnassamme kiihtyvällä tahdilla, myös KIRA-alalla. Dataa kerätään entistä enemmän rakennetusta ympäristöstä, rakennushankkeista, sekä näiden parissa toimivista ihmisistä: esimerkiksi reaaliaikainen datankeruu rakennustyömaiden edistymisestä yleistyy jatkuvasti. Samalla kerättyä dataa hyödynnetään kasvavissa määrin erilaisiin tarkoituksiin, kuten jatkuvasti kehittyvien tekoälysovellusten kouluttamiseen ja hyödyntämiseen. Tähän sisältyy positiivisten mahdollisuuksien lisäksi myös riskejä ja haasteita, joita organisaatioiden on pystyttävä enenevissä määrin huomioimaan.
Tässä osiossa pyrimme kuvaamaan, millaisia asioita KIRA-alan organisaation tulisi huomioida ehkäistäkseen tekoälyn käyttöönottoon ja hyödyntämiseen liittyviä haasteita. Keskitymme erityisesti tietoturvaan, olennaisten riskien tunnistamiseen sekä organisaatioiden parhaiden käytäntöihin tilanteessa, jossa tekoälyä pyritään hyödyntämään eettisesti. Kyvykäs organisaatio pitääkin itsensä jatkuvasti tietoisena tekoälyn (sekä myös säännösten) kehityksen uusimmista tuulista, mahdollistaen myös sen sisältämien haasteiden ja riskien kohtaamisen.
Tietoturvallinen tekoälyn hyödyntäminen on osa kokonaisvaltaista tietoturvallista toimintaa
Tietoturvalla tarkoitetaan tiedon suojaamista luvattomalta pääsyltä, tarkastelulta, käytöltä, muuttamiselta tai vahingoittamiselta. Tietoturvallisessa käytössä tieto on siis siihen oikeutettujen tahojen saatavilla sitä tarvittaessa. Tietoturva liittyy vahvasti myös yksityisyyteen ja yksilön oikeuteen päättää miten häneen liittyvää tietoa kerätään, säilytetään, jaetaan ja hyödynnetään. Kuten Liang ym. (2024) toteavat, KIRA-alan kasvava digitalisaatio ja tekoälyn hyödyntäminen asettaa jatkuvasti uusia vaatimuksia myös tietoturvalle, käsittäen mm. tietojärjestelmiin, fyysisiin koneisiin ja laitteisiin, ihmisiin, rakennuksiin sekä infrastruktuuriin liittyvän tiedon suojaamisen. Projektiliiketoiminnassa nämä taidot korostuvat entisestään, jos ja kun hankkeiden muutkin sidosryhmät ovat halukkaita hyödyntämään uusimpia työkaluja.
Tekoälyn käyttöön liittyvässä tietoturvassa tulisi ottaa huomioon ainakin seuraavia periaatteita. Varmistu että nämä periaatteet toteutuvat omassa toiminnassasi, mutta myös että käyttämäsi tekoälyratkaisuiden tarjoajat huomioivat nämä periaatteet omassa toiminnassaan.
- Kerää ja säilö tietoa vain sen verran kuin sitä käyttötarkoitukseen tarvitaan. Tämä vähentää tiedon väärinkäytön mahdollisuuksia. Lisäksi anomymisoimalla ja pseudonymisoimalla tietoa, voidaan vähentää yksilöön liitettävien tunnisteiden turhaa säilömistä.
- Jaa yksilöille tietoa miten heihin liittyvää tietoa hyödynnetään, ja pyydä suostumus tiedon käyttöön. Tuo yksilöille läpinäkyvästi esille, miten aiot heihin kohdistuvaa tietoa hyödyntää. Varmista että yksilöt ymmärtävät omat oikeutensa, sekä että he ymmärtävät tiedon keräämiseen, käyttöön, säilömiseen, ja käyttöoikeuksiin liittyvät käytänteet. Pyydä lisäksi kirjallinen suostumus hänestä kerättävien tietojen käyttöön, ja anna yksilöille myös mahdollisuus vetäytyä tästä suostumuksesta. Varmista myös itse tekoälysovelluksia käyttäessäsi, että olet itse tietoinen miten tietojasi hyödynnetään – suosi siis ratkaisuja jotka ovat toiminnassaan läpinäkyviä.
- Varmista tiedon suojattu säilöminen ja siirto, sekä valvo käyttöoikeuksia. Hyödynnä tarpeenmukaisia tiedon salaamiseen ja suojaukseen liittyviä työkaluja ja menetelmiä. Varmista, että käyttöoikeus tietoon on vain niillä henkilöillä, jotka tarvitsevat sitä kyseisellä hetkellä määrättyyn tarkoitukseen.
- Hyödynnä vain tietoturvallisiksi todettuja työkaluja, äläkä oleta automaattisesti, että tekoälylle antamasi tieto pysyy turvassa. Jos asiasta ei ole parempaa tietoa eikä tietoturvaan liittyviä käytänteitä olla erikseen varmistettu, on varmempi olettaa, ettei tietyn tekoälyjärjestelmän käyttö ole tietoturvallista. Tekoälylle annettujen sensitiivisten tietojen lisäksi myös näennäisesti vaarattomien tietojen antaminen voivat muodostaa tietoturvariskin. Esimerkiksi kielimallisovellukselle esitetyt kysymykset tai sen kanssa käydyt keskustelut voivat kokonaisuutena paljastaa yksilöstä ja esimerkiksi hänen työtehtävistään paljon. KIRA-alalla käsitellään paljon eri tasoilla kriittistä tietoa, joka voi vuotaa myös epäsuorasti vaikkapa yllä esitetyn esimerkin tavoin.
- Pidä huolta tekoälyjärjestelmän käytön dokumentaatiosta. Kattava dokumentaatio lisää läpinäkyvyyttä ja luotettavuutta, sekä mahdollistaa tekoälyjärjestelmän käytön jälkiarvioinnin. Varmistu myös itse dokumentaation tietoturvallisesta toteutumisesta.
- Varmista, että noudatat ajantasaisia eettistä regulaatiota ja säädöksiä. Esimerkkejä näistä ovat mm. EU-maissa sovellettava GDPR (General Data Protection Regulation). Huomioi myös se, miten eri alueilla toimivat kumppanit ja toimittajat soveltavat regulaatiovaatimuksia toiminnassaan.
- Varmista eettisten käytänteiden jatkuva toteutuminen esimerkiksi auditointien kautta, sekä sitoudu toiminnan jatkuvaan seurantaan ja parantamiseen. Tekoälyn nopean kehityksen myötä tietoturvan sekä eettisen toiminnan mahdollistaminen vaatii jatkuvaa toiminnan tarkastelua ja parantamista. Tämä voi käsittää esimerkiksi hyödynnettävien tekoälyratkaisuiden säännöllistä tarkastelua niiden tuottavien tulosten tarkkuuden, niiden käytön tarkoituksenmukaisuuden, riskien, sekä regulaation toteutumisen näkökulmasta.
- Huomioi tietoturva myös tekoälyjärjestelmän käytön lopettamisen jälkeen. Sen lisäksi että tietoturvasta huolehditaan tekoälyn käyttöönoton ja käytön aikana, tulisi käytänteistä varmistua ennakoivasti myös sen jälkeen, kun tekoälyratkaisun käyttö lopetetaan. On varmistettava esimerkiksi, miten ja kuka kerättyä tietoa käytön lopettamisen jälkeen säilöö ja hallinnoi, ja sovittava tiedon tuhoamiseen liittyvistä käytänteistä.
- Varmista kumppani- ja toimittajasuhteet ja tekoälyjärjestelmän kokonaisuuden tietoturvallisuus. Varmista, että myös yhteistyökumppanisi ja palvelutoimittajasi noudattavat yhtä lailla tietoturvallisia toimintatapoja – toimitusketjun tietoturva on yhtä vahva kuin sen heikoin lenkki. Sovi myös pelisäännöt ja vastuujako tietoturvallisen toiminnan toteuttamiseen. Kuka esimerkiksi on vastuussa tiedon keräämisestä ja säilömisestä? Näiden asioiden jatkuva varmistaminen on erityisen tärkeää projektiliiketoiminnassa, jossa yhteistyötahot voivat vaihtua usein ja nopeasti.
- Loppukädessä, ihmisen on aina vastuussa tekoälyn päätöksistä. Weberin (2021) mukaan vaikka tekoäly voi olla mukana tuotosten rakentamisessa, on vastuu toiminnasta, päätöksenteosta ja lopputuotoksista (sekä niiden seurauksista) ihmisellä.
Riskienhallinta tarkastelee eettisiä kysymyksiä monipuolisesti
Tekoälyn käyttöön sisältyy myös riskejä, joiden huomioimisen merkitys korostuu sen nopean kehityksen myötä. Kuten Futurice (2024) muistuttaa oppaassaan, tekoälyä hyödyntävien on pystyttävä tasapainoilemaan nopean ja ketterän tekoälyn hyödyntämisen sekä perinpohjaisen riskienhallinnan välillä. Toisaalta, jotta eettisten periaatteiden toteutuminen olisi kestävästi mahdollista, tulisi organisaatioilla olla heti tekoälyn hyödyntämisen aloittamisesta lähtien kyky tunnistaa, arvioida, ja minimoida potentiaalisia riskejä. Pitkässä juoksussa kokonaisvaltainen riskien hallinta ei kuitenkaan ole este nopealle etenemiselle, vaan oikeataan sen perusedellytys: jo yksikin merkittävän riskin realisoituminen ilman keinoja hallita sitä voi hidastaa tekoälyn käyttöönottoa merkittävästi tai jopa pysäyttää sen kokonaan.
KTI:n ja Kiinkon raportti (2024) sekä Bolpagni ym. (2021) nostavat potentiaalisiksi KIRA-alan tekoälyn käyttöön ja potentiaalin ulosmittaamiseen liittyviksi riskeiksi mm.
- Tietovuodot ja kyberhyökkäykset, sensitiivisten tietojen väärinkäyttö, sekä tekijänoikeusloukkaukset.
- Inhimilliset virheet ja huolimattomuus tiedonkäsittelyssä.
- Tekoälyn tuotos on epätarkkaa, virheellistä, vinoutunutta, tai syrjivää. Puutteellinen läpinäkyvyys, jotta tuotoksia voisi arvioida kriittisesti. Liian suuri luottaminen tekoälyn tuottamiin ratkaisuihin ilman niiden kriittistä arviointia.
- Huonolaatuinen, virheellinen tai jopa haittaohjelmia sisältävän data, jonka vinoumia, puutteita tai riskejä ei osata ottaa huomioon.
- Tekoälyn puutteellinen kyky tuottaa ratkaisuita, jotka ovat liiketoiminnalle merkittäviä sekä organisaatioiden (johdon) puutteellinen kyky hyödyntää tekoälyä parhaalla mahdollisella tavalla.
- Tekoälyn hyötyjen epätasainen jakautuminen organisaatioiden ja yksilöiden välillä.
- Organisaatioiden ja koko alan liian matala osaaminen tekoälyn eettiseen hyödyntämiseen, työtehtävien nopea muutos ja mahdollinen osaamisvaje.
Huom! Nämä riskit ovat esimerkinomaisia – ne eivät ole kaikenkattavia, vaan niiden tarkoitus on ennemmin herättää lukijassa ajatuskulkuja sen suhteen minkä tyylisiä riskejä tekoälyä hyödynnettäessä olisi tärkeä löytää ja ottaa huomion. Tekoälyn nopeasta kehityksestä johtuen riskejä ja niiden vaikutuksia onkin arvioitava jatkuvasti, eikä kaikenkattavien riskikuvausten luominen tai sellaisiin luottaminen olekaan mielekästä.
Esimerkkejä, miten tekoälyn riskit voivat realisoitua alan projekteissa
Projektinjohtaja: Rakennushankkeen projektijohtaja on kuullut uudesta, työmaan toimintaa tehostavasta tekoälyjärjestelmästä, joka kerää ja analysoi reaaliaikaista tietoa työmaan toiminnasta. Hän päättää hyödyntää tekoälytoimittajan kokeilujakson ja kehottaa tuotanto-organisaatiota ottamaan järjestelmän välittömästi käyttöön työmaalla.
Riski: Projektinjohtaja ei ole varmistunut tekoälyjärjestelmän tietoturvallisuudesta, varmistanut että tietoa kerätään, hyödynnetään ja säilötään eettisesti, eikä pyytänyt tiedonkeräyksen kohteilta suostumusta (esimerkkiriskit 1 ja 2). Tämä voi pahimmillaan johtaa hankkeen tietojen vuotamiseen sekä hankeosapuolten sensitiivisen tiedon väärinkäyttöön. Nämä riskit huomioimalla tekoälyjärjestelmän käyttöönotto on hieman työläämpää ja hitaampaa, mutta auttaa varmistamaan tietoturvallisen järjestelmän käytön.
Suunnittelija: Rakennesuunnittelija hyödyntää detaljisuunnittelussa tekoälypohjaista mitoitustyökalua, joka nopeuttaa suunnittelua huomattavasti. Koska hän on käyttänyt työkalua onnistuneesti jo useammassa hankkeessa ilman havaittuja virheitä, hän kiinnittää puolihuomaamattaan entistä vähemmän aikaa lopputuotoksen manuaaliseen tarkistamiseen.
Riski: Suunnittelija luottaa tekoälyn tuottamiin ratkaisuihin liiaksi (esimerkkiriski 3). Tämä voi johtaa pahimmillaan merkittäviin puutteisiin lopputuotoksessa, joilla voi olla merkittäviä negatiivisia vaikutuksia esimerkiksi työmaan ja käytön aikaiseen turvallisuuteen. Tämän riskin huomioimalla suunnittelutyö voi hidastua hieman, mutta se auttaa välttämään sietämättömiä turvallisuuteen liittyviä vaikutuksia.
Kuten tietoturvassakin, myös riskienhallinnassa tekoälyä ei tulisi tarkastella irtonaisena osana vaan yhtenäisenä osana organisaation muuta riskienhallintaa. Koska tekoälyn riskienhallintaan pätevät lähtökohtaisesti yleiset riskienhallinnan menetelmät ja prosessit, emme tässä pelikirjassa käy läpi tarkemmin niitä vaan rohkaisemme lukijaa tutustumaan asiaan esimerkiksi organisaation omien riskienhallintaprosessien ja -ohjeiden kautta. Riskienhallintaprosessissa olisi kuitenkin hyvä huomioida ainakin riskin luonne ja siitä aiheutuva potentiaalinen haitta, riskin realisoitumisen todennäköisyys ja haitan vakavuus, sekä toimenpiteet riskin hallitsemiseksi ja näiden vastuutus.
Tekoälyn käyttöönotto organisaatioissa
Tekoälyn käyttöönotto organisaatioissa on sekä tekninen että sosiaalinen prosessi. Edellä esitettyjen tietoturvaan ja riskienhallintaan liittyvien näkökulmien lisäksi, organisaatioiden tulisi pyrkiä tekoälyä käyttöön ottaessa huomioimaan erityisesti koulutukseen ja muutoksen tukemiseen liittyviä asioita.
Tietoturvakäytänteiden tulisi olla organisaatioon sisäänrakennettuja, ei päälle liimattuja ominaisuuksia
Tekoälyyn liittyvää tietoturvaa ei pitäisi tarkastella pelkästään omana itsenäisenä kokonaisuutenaan, vaan kiinteänä osana muuta organisaation tietoturvan kokonaisuutta. Samalla tietoturvallista toimintaa tulisi pitää lähtöoletuksena, jota ilman tekoälyä ei voida hyödyntää eettisesti. Koska tietoturva on yhtä vahva kuin sen heikoin lenkki, tulisi organisaation myös varmistua työntekijöidensä tarvittavasta ymmärryksestä tietoturvan ja tekoälyn riskien suhteen. Sekä tietoturvalliset järjestelmät että niiden tietoturvallinen käyttö ovat siis molemmat välttämättömiä.
Jatkuva koulutus ja ymmärryksen kasvattaminen tekoälyn mahdollisuuksista sekä riskeistä
Kaikilla työntekijöillä tulisi olla tarvittavat perustaidot ja tiedot tekoälyn hyödyntämiseen, sekä siihen liittyviin eettisiin ja erityisesti tietoturvaan vaikuttaviin asioihin. Tätä ymmärrystä perustaidoista ja yhteisistä pelisäännöistä tulisi ylläpitää jatkuvasti. Ytimekkäästi, jokaisen joka työssään koskee tekoälyratkaisuihin – mikä nykypäivänä ja tulevaisuudessa koskee käytännössä jokaista organisaation työntekijää roolista riippumatta – tulisi ymmärtää organisaation tekoälyn käytön pelisäännöt.
Yhteistä ymmärryspohjaa voi koulutusten ja lisäksi kasvattaa yhteisen tekoälypohjan kodifioinnilla esimerkiksi yhteiseksi tekoälypolitiikaksi. Tämä voi pitää sisällään esimerkiksi perustiedot tekoälyn tietoturvallisesta käytöstä, linjaus siitä minkä tekoälypalveluiden käyttö on organisaatiossa sallittua, vastuiden määrittäminen, sekä toimintaohjeet epätoivottujen tilanteiden tapahtuessa.
Yhteisen perusymmärryksen kasvattamisen lisäksi, eri tekijöille tulisi pyrkiä tarjoamaan valmiudet käsitellä tekoälyä eettisesti juuri heidän kyseisissä työrooleissaan. Sen lisäksi että tekoälyä aktiivisesti projekteissa hyödyntävät sekä tekoälyratkaisuita kehittävät ihmiset ymmärtävät tekoälyn mahdollisuudet ja riskit, tulisi myös esimerkiksi johdon, sekä henkilöstö- ja taloushallinnossa että lakitoiminnoissa työskentelevien ymmärtää oman roolinsa kannalta keskeiset tekoälyn osatekijät. Siinä missä johtajilta vaaditaan esimerkiksi ymmärrystä tekoälyn käyttöönoton vaikutuksista organisaatiotason muutoksiin, tulee henkilöstöhallinnon ymmärtää tekoälyn vaikutukset työnkuvien muutokseen ja koulutustarpeisiin, ja lakitoimintojen ymmärtää tekoälyn käytön tekijänoikeuksiin vaikuttavat muutokset.
Laaja osallistaminen auttaa myös organisaatiota kokonaisuutena ymmärtämään ja kehittämään tekoälyn eettisiä toimintatapoja monipuolisemmin; auttaa rikastamaan asiasta läpi organisaation käytävää keskustelua; sekä edelleen edistää eettisen toiminnan kulttuuria. Myös työntekijöiden kannustaminen ja palkitseminen eettisestä toiminnasta ohjaa kohti oikeita käytösmalleja. Tämä voi tarkoittaa esimerkiksi resurssien varaamista eettisen toiminnan mahdollistamiseksi, riskien ja epäeettisen toiminnan esilletuomisen palkitsemista, tai sen varmistamista ettei eettinen toiminta ja kannustinmallit ole ristiriidassa keskenään.
Tarjoa tukea jatkuvaan muutokseen ja huomioi tekoälyn tuoma stressi yksilöille
Pysyminen kartalla nopeasti muuttuvassa tekoälyn kentässä vaatii paljon perehtyneemmiltäkin tekijöiltä. Tämä voi olla innostavaa, mutta voi aiheuttaa samalla myös stressiä sekä riittämättömyyden ja epävarmuuden tunnetta.
Kenen työ muuttuu ja miten? Kuka uusimpia tekoälytyökaluja saa käyttää ja miten? Muodostaako tekoälyn yleistyminen riskin eriarvoisesta kohtelusta tai epätasapainoisesta kuormituksesta henkilöstölle? Nämä ovat normaaleita ja todennäköisesti vastaan tulevia kysymyksiä, joiden läpinäkyvä tarkastelu auttaa vähentämään tekoälyn käyttöön liittyvää epävarmuutta ja kuormitusta.
Tekoälyn käytön lisääntyessä haasteeksi muodostuu myös työn kasvava kuormitus, jos tietotyön rutiininomaisia töitä automatisoidessa säästetty aika käytetään suoraan korkean kognitiivisen kuorman tehtävien lisäämiseen. Luoma (2024) muistuttaa kirjoituksessaan, että vaikka tekoälyn voisi ajatella helpottavan työtä, voi se kuitenkin pitkällä aikavälillä lisätä kuormitusta, kun paine täyttää työviikko entistä kognitiivista kuormittavimmilla tehtävillä kasvaa.
Myös se, että tekoälyä ylipäätänsä käytetään organisaatiossa tai hankkeissa, voi aiheuttaa lisäkuormaa. Jos esimerkiksi tekoälyjärjestelmät keräävät ja analysoivat enenevissä määrin dataa yksilön työsuorituksesta eikä pelisääntöjä tälle ole luotu tarpeeksi selkeiksi, voidaan tilanne kokea hyvinkin stressaavaksi ja epävarmuutta aiheuttavaksi tekijäksi.
Tekoäly voi aiheuttaa myös pelkoa liian nopeasta oman työnkuvan muutoksesta tai jopa työn menetyksestä. Tämän vuoksi tuen tarjoaminen yksilön valmiuksien kehittämiseen, mutta myös ymmärryksen kasvattaminen siitä mikä on lähitulevaisuudessa realistista työnkuvien muutoksen kannalta, on olennaista.
Organisaatioiden tulisikin tukea työntekijöitä antamalla heille valmiuksia ja resursseja toimia jatkuvan muutoksen keskellä, esimerkiksi antaen riittävästi aikaa ja tukea uuden opettelulle ja omaksumiselle. On myös tärkeä hyväksyä se, että yksilöillä on erilaiset valmiudet ja motivaatio jatkuvaan uuden omaksumiseen. Samalla on myös hyväksyttävä, että uusien eettisten käytänteiden omaksuminen vaatii aikaa ja sopeutumista. Sen sijasta, että tekoälyn tuoma tuottavuushyöty käytetään suoraan korkean kognitiivisen työn lisäämiseen, voisiko asiantuntija käyttää säästetyn ajan esimerkiksi palautumiseen, tai muutosvalmiutta tukevien asioiden omaksumiseen kuten uuden opetteluun? Myös linjakkuus tekoälyn käytön johtamisessa tuo selkeyttä ja vähentää epävarmuutta tekoälyn hyödyntämisessä. Myös tekoälyn käytöstä käytävä jatkuva dialogi on erinomainen keino hälventää siihen liittyviä huolia ja uhkakuvia organisaatiossa.
Tulevaisuuskuva
Tekoälyn nopea kehitysvauhti vaatii jatkuvaa käytänteiden kehitystä
Siinä missä kerättävän datan ja tiedon määrä jatkaa kasvuaan, myös tekoälyn ja sitä hyödyntävien sovellusten nopea kehitystahti vaatii jatkuvaa käytänteiden kehitystä organisaatioilta. Vaikka uusimmat ratkaisut voivat toisaalta tuoda liiketoiminnallisia etuja, tulee niiden hyödyntämisessä kuitenkin ottaa samalla vauhdilla varmistua käytön tietoturvallisesta hyödyntämisestä sekä erilaisten riskien huomioimisesta. Nostamme esiin kaksi kehityskulkua, joista tietoturvan, riskienhallinnan sekä organisaation käyttöönoton näkökulmasta olisi hyvä olla tietoinen.
Ensimmäinen kehityskulku – joka on jo osittain arkipäivää – on erilaisten rikollisten toimenpiteiden kehittyminen entistä hienovaraisemmiksi tekoälykehityksen tukemana. Myös rikolliset siis hyödyntävät tekoälyn mahdollisuuksia omassa toiminnassaan kasvavissa määrin. Tämä vaatii entistä tarkempaa suhtautumista esimerkiksi kalasteluviesteihin, sekä organisaatio- että yksilötasolla. Hyvin aidoinkin oloiset multimodaaliset (tekstiä, videota, kuvaa, ja ääntä erikseen tai yhdessä käyttävät) huijausviestit yleistyvät jatkossa entisestään. Esimerkiksi yrityksen johtajasta voidaan luoda hyvinkin aidon oloista ääni- ja videomateriaalia, jossa työntekijöitä pyydetään jakamaan arkaluontoista tietoa. Samalla tekoälytyökalut mahdollistavat tietoturvaan liittyvien rikosten automatisointia ja nopeampaa toimintaa, jolloin myös reagointi tietoturvarikkomuksiin tulisi olla entistä nopeampaa.
Toinen potentiaalinen tulevaisuuden kehityskulku liittyy tekoälyn sekä tekoälyohjattujen robottien yleistymiseen osana organisaation ja tiimien toimintaa. Vaikka puhe robotiikasta on lähivuosina osittain jäänyt kielimallipohjaisista tekoälysovelluksista käydyn keskustelun alle, ovat semiautonomisesti toimivat robotit kuitenkin kehittyneet nopeasti viime vuosina esimerkiksi työmaan tukitoimintojen, kuten mittausten tai merkintöjen, suorittamisessa. Samalla tekoälyn kehittyminen tukee myös robotiikan kehittymistä, ja tulevaisuudessa ne voivat olla entistä kiinteämpi osa esimerkiksi rakennustyömaiden tai kiinteistön ylläpidon toimintaa.
Tekoälyn ja robotiikan liittyminen entistä vahvemmin osaksi organisaation ja tiimien toimintaa tuo samalla täysin uusia haasteita. Miten esimerkiksi tekoälyagentin (katso myös osa 5,) perehdyttäminen organisaation toimintatapoihin suoritetaan, ja miten sen ymmärrys organisaation eettisistä toimintatavoista varmistetaan? Entä miten robotiikan hyödyntämisen kasvaminen vaikuttaa esimerkiksi työmaaturvallisuuden varmistamiseen? Kuten Poikola ym. (2024) mainitsevat, tekoälyn ja ihmisen vuorovaikutus tulee todennäköisesti jatkossa syvenemään entisestään. Vaikka tämä tuo samalla uusia mahdollisuuksia esimerkiksi teknologian intuitiivisemman ja helposti lähestyttävämmän käyttökokemuksen muodossa, aiheuttaa se samalla myös haasteita esimerkiksi entistä immersiivisemmin ja multimodaalisemmin jaettavan, tietoturvallista tarkastelua vaativan tiedon hallintaan.
Ota huomioon ainakin nämä!
Tekoälyn käyttöönotto organisaatioissa on sekä tekninen että sosiaalinen prosessi. Kouluta henkilöstä, kasvata organisaatiosi ymmärrystä jatkuvasti tekoälyn uhista ja mahdollisuuksista, sekä pidä silmällä tekoälyn käyttöönoton vaikutuksia henkilöstön kuormitukseen. Koska tekoäly kehittyy nopealla vauhdilla, tulee myös osaamista pitää ajan tasalla jatkuvasti. Varmista realistinen ymmärrys potentiaalisista positiivisista ja negatiivisista kehityskuluista läpi organisaation. Tulevaisuudessa tekoäly sekä robotit voivat olla entistä tiiviimpi osa KIRA-alan organisaatioiden ja tiimien toimintaa, millä voi olla vaikutuksia esimerkiksi teknologian ja ihmisten vuorovaikutuksen syvenemiseen.
Tekoälyn käyttöön liittyvässä tietoturvassa tulisi ottaa huomioon ainakin seuraavia periaatteita. Varmistu että nämä periaatteet toteutuvat omassa toiminnassasi, mutta myös että käyttämäsi tekoälyratkaisuiden huomioivat nämä periaatteet omassa toiminnassaan.
- Kerää ja säilö tietoa vain sen verran kuin sitä käyttötarkoitukseen tarvitaan.
- Jaa yksilöille tietoa miten heihin liittyvää tietoa hyödynnetään, ja pyydä suostumus tiedon käyttöön.
- Varmista tiedon suojattu säilöminen ja siirto, sekä valvo käyttöoikeuksia.
- Hyödynnä vain tietoturvallisiksi todettuja työkaluja, äläkä oleta automaattisesti, että tekoälylle antamasi tieto pysyy turvassa.
- Pidä huolta tekoälyjärjestelmän käytön dokumentaatiosta.
- Varmista, että noudatat ajantasaisia eettistä regulaatiota ja säädöksiä.
- Varmista eettisten käytänteiden jatkuva toteutuminen esimerkiksi auditointien kautta, sekä sitoudu toiminnan jatkuvaan seurantaan ja parantamiseen.
- Huomioi tietoturva myös tekoälyjärjestelmän käytön lopettamisen jälkeen.
- Varmista kumppani- ja toimittajasuhteet ja tekoälyjärjestelmän kokonaisuuden tietoturvallisuus.
- Muista, että loppukädessä ihmisen on aina vastuussa tekoälyn päätöksistä.
Riskienhallinta tarkastelee eettisiä kysymyksiä monipuolisesti omaa, mutta myös muiden sidosryhmien toiminta huomioiden. Potentiaalisia tekoälyn hyödyntämiseen liittyviä riskejä ovat mm.
- Tietovuodot ja kyberhyökkäykset, sensitiivisten tietojen väärinkäyttö, tekijänoikeusloukkaukset.
- Inhimilliset virheet ja huolimattomuus tiedonkäsittelyssä.
- Tekoälyn tuotos on epätarkkaa, virheellistä, vinoutunutta, syrjivää, tai läpinäkymätöntä. Liian suuri luottaminen tekoälyn tuottamiin ratkaisuihin ilman niiden kriittistä arviointia.
- Huonolaatuinen, virheellinen tai jopa haittaohjelmia sisältävän data, jonka vinoumia, puutteita tai riskejä ei osata ottaa huomioon.
- Tekoälyn puutteellinen kyky tuottaa ratkaisuita, jotka ovat liiketoiminnalle merkittäviä sekä organisaatioiden (johdon) puutteellinen kyky hyödyntää tekoälyä parhaalla mahdollisella tavalla.
- Tekoälyn hyötyjen epätasainen jakautuminen organisaatioiden ja yksilöiden välillä.
- Organisaatioiden ja koko alan liian matala osaaminen tekoälyn eettiseen hyödyntämiseen, työtehtävien nopea muutos ja mahdollinen osaamisvaje.
Lue lisää
Futurice, Generative AI: From use cases to enterprise-wide scaling and transformational change, 2024, käytetty 10/2024.
Kiinko, KTI, Mistä KIRA-ala puhuu 2024: Tekoälyn vaikutukset kiinteistö- ja rakennusalaan, 2024.
Liang, C. J., Le, T. H., Ham, Y., Mantha, B. R., Cheng, M. H., & Lin, J. J., Ethics of artificial intelligence and robotics in the architecture, engineering, and construction industry, 2024, Automation in Construction, 162, 105369.
Luoma, J., Viisi asiaa, jotka jokaisen tulisi ymmärtää tekoälystä työelämässä, Uutinen, Aalto-yliopisto, 2024.
Weber-lewerenz, Bianca, Corporate Digital Responsibility in Construction Engineering – Construction 4.0, (2021).