Näkökulmia tekoälyyn, osa 5 – Petri Ylikoski: Tekoäly ja asiantuntijatyön muutos

Tekoälyn käyttöönotto työpaikoilla on vasta alussa. Tähän asti tekoäly on ollut asiantuntijoille pikemminkin uusi resurssi kuin uhka, mutta tulevaisuudessa myös asiantuntijatehtävissä toimivat joutuvat miettimään kuinka ihmisen ja koneen yhteistyö olisi parasta toteuttaa.

22.3.2024

Tekoäly ja teknologinen muutos

Tekoälyn kehitys on sekä kiehtovaa että hämmentävää. Asiaa ei auta, että jostakin syystä tekoälystä uutisoidaan eri tavoin kuin muista teknologioista. Tekoälystä kirjoitetaan tekijänä ja toimijana, kun muita teknologioita yleensä tarkastellaan selvästi välineinä. Fantasia tekoälystä toimijana haittaa nykyisen tekoälyn ymmärtämistä ja kätkee taakseen sovelluksien takana olevan ihmistyön. Tekoälyyn kannattaa suhtautua samalle tavoin kuin muihinkin uusin teknologioihin ja olla varovainen yksityiskohtaisten tulevaisuuden ennustusten kanssa. Esimerkiksi käy autonomisten ajoneuvojen kehittäminen. Teknologiayhtiöiden johtajat ovat vuosia ennustaneet, että täysin autonomiset ajoneuvot olisivat todellisuutta aivan lähitulevaisuudessa. Mutta vuodet ovat kuluneet ja ennusteet ovat osoittautuneet toiveajatteluksi. Kadut eivät ole täynnä robottitakseja, ja sellaiset saattavat pysyä kokeiluasteella hyvin pitkään, ellei niitä sitten lopeteta kokonaan kalliiden kustannusten vuoksi. (Brooks 2024.)

Tekoälyn kehitystä ei tule ajatella yhteiskunnallisessa tyhjiössä. Tekoälyn sovellutukset ovat sosio-teknisiä järjestelmiä. Ne pitävät sisällään tietojärjestelmien lisäksi ihmiset ja organisaatiot, jotka niitä kehittävät, käyttävät ja mahdollisesti ovat niiden käytön kohteina. Kyse on yhteiskunnallisesta ilmiöstä, jonka tuleva kehitys tulee riippumaan huomattavasti markkinakilpailusta, oikeudellisesta säätelystä ja viime kädessä siitä, kuinka käyttäjät ottavat järjestelmät haltuun. Tämä on erityisen tärkeää pitää mielessä pohdittaessa tekoälyn vaikutuksia työelämään ja asiantuntijatyöhön. Vielä ei tiedetä, mitkä ovat parhaita tapoja käyttää uusia välineitä ja millaisia käyttöjä tulisi ehdottomasti välttää. Emme myöskään tiedä, miten parhaiten toteuttaa ihmisen ja tekoälyn yhteistoiminta. Samoin kuin aikaisempien teknologioiden – kuten sähkön ja internetin – käyttöönoton kohdalla, odotettavissa on varsin pitkä kokeilu- ja oppimisjakso ennen kuin yksilöt ja organisaatiot ovat löytäneet parhaat tavat hyödyntää ja elää yhdessä uusien teknologioiden kanssa.

Kokeilujen myötä myös organisaatiot ja työtehtävät tulevat muuttumaan, eikä välttämättä parempaan suuntaan. Teknologinen muutos hävittää yllättävän harvoin kokonaisia ammatteja. Useimmiten muutos tapahtuu työtehtävien tasolla ja siinä, kuinka paljon työntekijöitä tarvitaan tehtävien suorittamiseen. Seuraavassa keskityn tarkastelemaan asioita työtehtävien muutoksen tasolla. Lähden liikkeelle tekoälyteknologioiden ominaisuuksista ja etenen sitten niiden käytön seurauksiin pitäen silmällä erityisestä asiantuntijatehtäviä.

Kaikki perustuu dataan

Sana-assosiaation perusteella tekoälyn salaisuus olisi sen älykkyydessä tai kyvyssä järkeillä. Mutta tosiallisesti kaiken perusta on data. Koneoppiminen ja muut tekoälymenetelmät perustuvat pohjimmiltaan datan säännönmukaisuuksien tunnistamiseen. Jos aiheesta ei ole dataa, ei tekoälystä ole siihen apua. Puutteellinen, epäedustava, systemaattisia virheitä sisältävä tai epätarkoituksenmukainen data vaarantaa tekoälyn soveltamisen, sillä se johtaa virhediagnooseihin, epäluotettaviin ennusteisiin ja syrjiviin päätöksiin (Hand 2020). Viime vuosikymmenten tekoälyn kehitys perustuukin pitkälti tietokoneiden laskentatehon ja saatavilla olevan datan määrän nopeaan kasvuun. Mitä tästä datan keskeisyydestä seuraa?

Yksi seuraus on, että datan tuottaminen ja hallinta ovat yhä keskeisempiä organisaatioiden toimintoja. Tämä tuottaa monia uusia dataan liittyviä työtehtäviä. Datan keräämisen ja käytön yhä laajemman oikeudellisen säätelyn myötä datan turvallisuudesta huolehtiminen tulee yhä tärkeämmäksi, erityisesti siten, että datan kohteiden yksityisyys tulee turvatuksi. Jotta eri lähteistä olevaa dataa voidaan käyttää, täytyy myös tietojärjestelmien ja niiden sisältämän datan olla yhteensopivaa. Tämä merkitsee suurta määrää työtä, joka liittyy yhtenäisten standardien luomiseen. Datan keräämisen ja käytön prosesseilta vaaditaan yhä suurempaa vastuullisuutta ja läpinäkyvyyttä, mikä merkitsee, että erilaiset datan, mallien ja prosessien auditointitehtävät ovat suuri tulevaisuuden kasvuala. Mitkään näistä uusista tehtävistä eivät ole puhtaasti tietoteknisiä asiantuntijatehtäviä, vaan ne vaativat usein oikeudellista ja sisällöllistä osaamista.

Vaikka datasta puhutaan uutena öljynä, sitä ajatellaan usein abstraktina informaationa. Moni tekoälyhanke on lähtenyt liikkeelle ajatuksesta, että tekoäly auttaa nopeasti säästämään kustannuksia tai tehostamaan toimintaa, mutta niissä on opittu kantapään kautta, että käyttökelpoinen data edellyttää usein paljon työtä ja resursseja. Datan tuottaminen ja sen turvallinen hallinnointi edellyttävät soveltuvan infrastruktuurin ja sen jatkuvan ylläpidon. Toiseksi, suuri määrä dataa ei riitä, sen tulee olla myös laadukasta ja relevanttia. Vaikka data syntyisi muun toiminnan sivutuotteena, sen laadun parantaminen saattaa edellyttää muutoksia työtehtäviin ja niiden sisältöön. Dataa täytyy kerätä, käsitellä ja kuratoida. Datan käyttökelpoisuuden arvioiminen edellyttää asianmukaista metadataa, tietoa datan alkuperästä ja käsittelytavoista. Tällainen datatyö jää usein näkymättömäksi, sillä se kasvaa pikkuhiljaa monien uudistusten myötä eikä sitä varten palkata erityistä henkilökuntaa. Asiantuntijatehtävissä työskentelevät saavat kuin vaivihkaa osansa näistä tehtävistä.

Esimerkkinä voi miettiä kuinka paljon esimerkiksi lääkäreiden ja sairaanhoitajien työstä nykyään liittyy datan syöttämiseen erilaisiin järjestelmiin (Bossen ym. 2019). Tulevaisuudessa automaatio ja erilaiset sensorit saattavat auttaa asioiden kirjaamisessa ja dokumentoinnissa, mutta ne tuovat mukanaan uusia tehtäviä, kuten sensorien ja järjestelmien ylläpito ja oikean toiminnan varmistaminen. Nämä datatyötehtävät tulevat tyypillisesti aikaisempien tehtävien lisäksi ilman, että tätä otetaan täysin huomioon töiden mitoituksessa. Usein tämä tarkoittaa, että työntekijällä on vähemmän aikaan varsinaisten tehtäviensä tekemiseen. Esimerkiksi hoitajilla ja lääkäreillä on yhä vähemmän aikaa potilaiden kanssa vuorovaikuttamiseen, kun he kasvavassa määrin tekevät datan keräämiseen ja ylläpitoon liittyviä tehtäviä. Tällaiset datatyön tuottamat vaihtoehtoiskustannukset olisikin syytä ottaa huomioon tietojärjestelmiä rakennettaessa.

Läpinäkyvyyden haaste

Monet tekoälyjärjestelmien tuottamat haasteet ovat tuttuja jo vanhemmista tietojärjestelmistä, jollaisia kaikki nykyaikaiset organisaatiot soveltavat. Tällaiset järjestelmät ovat usein vuosien kehitystyön seurauksena hyvin monimutkaisia, ja siksi on monesti vaikeaa arvioida niiden luotettavuutta ja ymmärtää niiden toimintaa. Tämä tuottaa ongelmia myös hallittavuudelle ja yhteensopivuudelle. Tekoälyn lisääminen järjestelmiin ei ole yksinkertaista ja voi tehdä järjestelmistä vielä vaikeampia ymmärtää. Uudet teknologiat rakentuvat yleensä vanhempien päälle, eivätkä tekoälyjärjestelmät ole poikkeus. Tekoälyn lisääminen saattaa parantaa käytettävyyttä, mutta se ei väistämättä ratkaise järjestelmien monimutkaisuutta ja sen tuottamia ongelmia.

Tekoälyjärjestelmät tuovat mukanaan myös uusia läpinäkyvyyden ja ymmärrettävyyden haasteita. Nämä tulevat esiin, kun tarkastellaan tekoälyn käyttöä päätöksenteossa (Levy ym. 2021). Automaattisessa päätöksenteossa voidaan erotella sääntöpohjaiset ja koneoppimiseen perustuvat ratkaisut. Sääntöpohjaisissa järjestelmissä tietokoneelle annetaan selkeät säännöt, joiden perusteella käsitellä tapauksia. Tällaiset järjestelmät eivät edellytä varsinaista tekoälyä, ja niiden keskeisiä riskejä ovat virheellisestä datasta tai ohjelmointivirheistä aiheutuvat virheelliset päätökset. Sen sijaan koneoppimiseen perustuvissa järjestelmissä on kaksi lisähaastetta. Ensinnäkin tällaiset järjestelmät tekevät päätöksiä perustuen sääntöihin, jotka ne ovat yleistäneet opetusaineistona käytetystä datasta. Tästä seuraa, että mikäli järjestelmän opettamisessa käytetty data on vinoutunutta esimerkiksi syrjivien käytäntöjen vuoksi, saattaa järjestelmä oppia nämä samat vinoumat ja ryhtyä toistamaan vastaavaa syrjivää käyttäytymistä. Samoin vinoumat voivat olla tulosta huonolaatuisesta tai epäedustavasta datasta. Joissakin tilanteissa järjestelmä tuottaa selkeästi vinoutuneita päätöksiä, joten voidaan päätellä, että jossakin on vikaa. Ongelman lähteen paikallistaminen onkin sitten vaikeampaa.

Järjestelmä voi olla myös vinoutunut ilman että se tuottaa helposti havaittavia räikeitä virhepäätöksiä. Tämä mahdollisuuden selvittäminen on vaikeaa, sillä tässä vaiheessa astuu kuvaan toinen tärkeä koneoppimismallien ominaisuus, niiden läpinäkymättömyys (Rosenfeld & Richardson 2019). Periaatteet, jotka malli on itselleen omaksunut, ovat käyttäjälle vaikeita tai mahdottomia ymmärtää. Tämä on haaste mallin kehittäneelle ohjelmoijalle, mutta vielä suurempi haaste järjestelmän käyttäjälle, joka ei ole tekoälyn asiantuntija. Haaste on merkittävä useasta syystä. Ensinnäkin järjestelmän käyttäjän tulisi pystyä arvioimaan milloin järjestelmä toimii tarkoitetulla tavalla ja milloin sen toiminnassa on jokin virhe. Tekoälymallia ei voi pitää oraakkelina, joka on aina oikeassa. Toiseksi kehittyneissä demokratioissa on totuttu ajattelemaan, että ihmistä koskevat päätökset tulee pystyä oikeuttamaan viittaamalla päätöksenteossa käytettyihin periaatteisiin. Tämä ei ole mahdollista koneoppimismallien tapauksessa. Emme tiedä tarkalleen, mihin perustuen tekoälymalli teki päätöksen, joten emme myöskään tiedä, ovatko ne hyväksyttäviä perusteita. Tämä muodostaa merkittävän haasteen tekoälyn käytölle automaattisessa päätöksenteossa, erityisesti julkisella sektorilla.

Päätöksenteossa käytettävien tekoälymallien läpinäkyvyys ja selitettävyys on elintärkeää oikeusvaltiossa. Mallien toimivuutta voidaan arvioida esimerkiksi tarkkailemalla niiden seurauksia eli sitä, kuinka ne käsittelevät erityyppisiä esimerkkitapauksia. Myös mallien vertailuun ja testaamiseen voidaan kehittää erilaisia tekoälyä hyödyntäviä välineitä. Huomattavaa on, että tällainen työ edellyttää varsin paljon sisällöllistä asiantuntemusta, joka ylittää puhtaan data-analyytikon perustaidot. Tarvitaan asiantuntijoita, jotka ymmärtävät, kuinka järjestelmän tulisi toimia ja ymmärtävät tekoälyjärjestelmän toimintaperiaatteet. Organisaatioilla tulisikin olla asiantuntijoita, jotka kykenevät osallistumaan uusien järjestelmien hankintaan ja rakentamiseen. Yhtä lailla on tärkeää, että organisaatiot kykenevät säilyttämään tällaiset asiantuntijat, sillä käyttäjien puutteellinen ymmärrys järjestelmästä on tärkeä läpinäkymättömyyden lähde.

Tekoälyjärjestelmien huono läpinäkyvyys tuleekin olemaan tulevaisuudessa merkittävä haaste ja rajoite niiden käyttöönotolle. Tekoälymallinen periaatteellisen läpinäkymättömyyden lisäksi hankaluuksia tuottavat liikesalaisuudet. Useimmat tekoälyjärjestelmät ovat yksityisten yritysten kehittämiä, joten niiden toiminnan yksityiskohdat ja koulutusdata ovat liikesalaisuuksia. Tämä tekee mallien arvioinnin vaikeaksi, ja kokemus osoittaa, että pelkkien myyntipuheiden perusteella ei tulisi tehdä tärkeitä päätöksiä. Tässä suuri syy sille, miksi erilaisten auditointikäytäntöjen ja standardien kehittyminen on aivan ensiarvoisen tärkeää.

Omanlaisensa läpinäkyvyyden haasteen muodostaa myös tekoälyvälineiden suuri määrä. Tästä on kokemuksia esimerkiksi laskennallisessa yhteiskuntatieteessä, jossa jatkuva virta uusia menetelmiä tekee todella vaikeaksi muodostaa käsitystä yksittäisten menetelmien luotettavuudesta. Kun yksittäistä menetelmää käytetään vain kourallisessa tutkimuksia, on lähes mahdotonta muodostaa käsitystä käytetyn menetelmän vahvuuksista ja heikkouksista. Menetelmien käyttäjät, tai tuloksien uskottavuuden arvioijat, eivät yleensä tunne menetelmien yksityiskohtia, joten monien tutkimusprosessissa tehtyjen oletusten merkitys tuloksille jää hämärän peittoon. Tämä merkitsee, että tutkimustulosten luotettavuus epävarma. Vastaavassa tilanteessa on moni uusien tekoälyvälineiden käyttäjä. Kuinka valita omaan tarkoitukseen sopiva väline? Miten arvioida kilpailevia välineitä? Kuinka paljon voin luottaa välineeni tuloksiin?

Tekoäly osana organisaatiota

Tekoälyä on useimmiten luontevinta ajatella tukiälynä, jossa ohjelmisto toimii ihmisen apuna. Tällöin tekoäly on väline, jonka hyödyllisyyden määrittää käyttäjän kyky käyttää sitä. Kaikissa tilanteissa tämä ei aina kovin hyvin kuvaa tekoälyn ja käyttäjän suhdetta. Joissakin sovelluksissa on pikemminkin kyse ihmisavusteisesta tekoälystä. Tällöin ohjelmisto suorittaa sellaisia tehtäviä, joita käyttäjä ei kykene tai halua toteuttaa. Ohjelmisto tarvitsee tällöin ihmistä joidenkin avustavien tehtävien suorittamiseen ja viime kädessä valvomaan prosessin ja tuotosten tarkoituksenmukaisuutta. Tämä asetelma ei toki ole uusi vaan tuttu tehtaista, joissa tuotantoprosessi on rakennettu koneiden ympärille.

Erikoistapaus ihmisavusteisesta tekoälystä on tekoälyohjelmistojen käyttö organisaation ja työntekijöiden johtamiseen. Tällöin ohjelmisto korvaa perinteisesti esimiesten tekemän työntekijöiden valvonnan, työnohjauksen ja arvioinnin. Esimerkiksi käyvät Amazonin jakelukeskukset, joissa ihmisiä tarvitaan pakettien siirtelyyn ja keräilyyn, sillä tällaiset tehtävät ovat liian vaikeita roboteille. Sen sijaan töiden johtaminen on pitkälti delegoitu tekoälyjärjestelmälle. Järjestelmä jakaa työntekijöille työtehtävät, seuraa heidän työskentelynsä tehokkuutta ja jopa tarvittaessa irtisanoo työntekijän (Crawford 2021). Vastaavan esimerkin tarjoavat puhelinpalvelukeskukset, joissa tietokonejärjestelmä seuraa työntekijöiden työtahdin lisäksi näiden käyttämää sanastoa ja puheäänen tunneilmaisua. Järjestelmä antaa tarvittaessa ohjaavaa palautetta kertoen, millaisia ilmauksia tulisi lisätä tai välttää asiakkaiden kanssa keskusteltaessa ja millä tavalla työntekijän tunneilmaisua tulisi korjata.

Tekoälyohjelmisto kohtelee työntekijöitä oletettavasti tasapuolisemmin, koska sillä ei ole henkilökohtaisia suhteita alaisiin. Mutta toisaalta järjestelmä saattaa olla työntekijöiden manipuloitavissa, millä saattaa olla merkittäviä vaikutuksia työmoraaliin. Toinen ongelma on, että esimerkiksi ohjelmistoihin saattaa olla sisäänrakennettuna kyseenalaisia oletuksia ihmisten käyttäytymisestä. Esimerkiksi yllä mainittu tunneilmaisun tunnistaminen saattaa perustua mallille, joka on tieteelliseltä kannalta kyseenalainen ja vinoutunut (Crawford 2021). Tällä saattaa olla merkittäviä sosiaalisista vuorovaikutusta vääristäviä vaikutuksia. On toki odotettavissa, että ajan myötä tällaiset ongelmat havaitaan ja korjataan, mutta siihen voi mennä pitkä aika, varsinkin jos ohjelmistojen toimintaperiaatteet ovat tarkoin varjeltuja liikesalaisuuksia.

Tekoälyjohtaminen on uusi asia, ja on vaikea ennustaa, millä tavoin se tulee kehittymään. Edellä kuvattuja varsin dystooppisia johtamisjärjestelmiä tuskin ulotetaan kovin pian asiantuntijatyöhön. Työnantajat ovat tähän asti välttäneet asiantuntijoiden työn mikromanagerointia, mutta jollakin tavoin tekoälyavusteinen johtaminen tulee ulottumaan myös asiantuntijatyötä tekeviin. Ja sikäli, kun asiantuntijalle kuuluu keskijohdon tehtäviä, voi hän jatkossa olla yhä enemmän johtamisjärjestelmää avustava tai täydentävä työntekijä kuin varsinainen esimies.

Asiantuntijuuden tulevaisuus

Aivan viime vuosiin asti tekoälyn ja yleisemmin tietotekniikan kehitys on suosinut asiantuntijoita. Uudet välineet ovat korvanneet ihmistyön rutiininomaisissa toistuvissa tehtävissä jättäen jäljelle tehtäviä, jotka edellyttävät luovuutta, ongelmanratkaisua ja asiantuntemusta. Vastaavasti välineiden kehittäminen ja käyttö ovat luoneet aivan uusia asiantuntijatehtäviä. Tähän asti tekoälyn kehitys onkin ollut pikemminkin uusi resurssi asiantuntijatyöhön kuin uhka. Parin viime vuoden aikana generatiivinen tekoäly on kuitenkin noussut haastamaan tätä tilannetta.

Generatiivisella tekoälyllä tarkoitetaan tekoälymalleja, jotka on suunniteltu tuottamaan uutta sisältöä, oli kyseessä siten teksti, ääni, kuva tai videomateriaali. Tunnettuja esimerkkejä generatiivisesta tekoälystä ovat kielimalli ChatGPT ja kuvia tuottava Midjourney. Generatiivisen tekoälyn taustalla on todella suuren aineistoon perustuva perustamalli, jota käyttäjän kanssa vuorovaikuttava botti – kuten ChatGPT – käyttää hyväkseen. Vaikka ChatGPT on periaatteessa malli, joka ennustaa tekstin seuraavia sanoja, on se osoittautunut hyödylliseksi hyvin erilaisten tekstien tuottamisessa, kääntämisessä ja sisällön jäsentämisessä. Generatiiviseen tekoälyyn liittyy monia periaatteellisia luotettavuuteen, tietoturvaan ja tekijänoikeuksiin liittyviä ongelmia ja on avoin kysymys, kuinka ne ratkaistaan. Näistä ratkaisuista tulee riippumaan, mihin suuntaan generatiivinen tekoäly kehittyy. En lähde arvailemaan tulevaisuutta tässäkään, vaan kuvailen millaisia tutkimustuloksia generatiivisen tekoälyn käytöstä on saatu.

Yksi alue, jolla generatiiviselle tekoälylle perustuvat työvälineet ovat jo laajassa käytössä, on ohjelmointityö. Microsoftin Copilot on ollut käytössä runsaan vuoden, ja se on selvitysten mukaan lisännyt merkittävässä määrin koodauksen nopeutta avustamalla usein toistuvien rutiinitehtävien hoitamista. Myös ohjelmoijien työtyytyväisyyden kerrotaan kasvaneen, kun rutiinitehtävistä irtautuminen mahdollistaa paremman keskittymisen olennaiseen. Tuottavuuden parantuminen onkin varsin odotettu vaikutus. Mutta mitä pidemmälle meneviä seurauksia uusilla generatiivisilla työvälineillä voisi olla?

Kiinnostava kysymys on, kenelle uusista välineistä on eniten hyötyä. Tähän asti välineet ovat suosineet osaavampia työntekijöitä, sillä heillä on paremmat mahdollisuudet hyödyntää uusia välineitä. Näyttää siltä, että ainakin joissakin tehtävissä generatiivinen tekoäly vähentää työntekijöiden välisiä eroja. Tutkittaessa generatiiviselle tekoälylle perustuvan avustajan vaikutusta asiakaspalvelijoiden työhön, havaittiin että suurimman hyödyn uudesta välineestä saivat uudet ja vähemmän taitavat työntekijät, kun taas kokeneet ja taitavat työntekijät eivät juuri hyötyneet välineestä (Brynjolfsson 2023). Tekoälyassistentin avustamana heikommat työntekijät selvisivät tehtävistään nopeammin, joutuivat pyytämään apua vähemmän ja asiakastyytyväisyys kasvoi. Tutkijoiden mukaan tämä perustui siihen, että assistentti antoi näiden työntekijöiden käyttöön kokeneempien työntekijöiden hiljaista tietoa, joka kavensi työntekijöiden välisiä tuottavuuseroja. On avoin kysymys, kuinka yleistettävissä tämä tulos on, mutta voi olettaa, että hyvin suunnitellut tekoälyvälineet nopeuttavat uusien tehtävien oppimista. Kiinnostava kysymys on, johtaako tämä siihen, että kokeneet työntekijät eivät enää ole työnantajalle yhtä arvokas resurssi.

Toinen kiinnostava kysymys on, mitä tapahtuu asiantuntijan taidoille ja tiedoille, kun ohjelmisto hoitaa yhä suuremman osan tehtävistä? Yksi mahdollisuus on, että työntekijälle jää enemmän aikaa keskittyä vaativiin tehtäviin ja pitää huoli tuotosten laadusta. Tämä vaikutus saattaa olla kuitenkin vain hetkellinen, sillä tuottavuuden kasvaessa myös odotukset kasvavat. Tällöin uuden teknologian seuraus on aikaisempaa tiukempi työtahti, joka merkitsee, että on vähemmän mahdollisuuksia perehtyä asioihin perusteellisesti.

Toinen kysymys liittyy siihen, mitä tapahtuu, kun kone hoitaa tehtävät ja työntekijän tehtäväksi jää valvoa mahdollisten virheiden varalta. Ihmiset eivät ole kovin hyviä tällaisissa tehtävissä. Esimerkit lentokoneista ja itseohjautuvista autoista osoittavat, että jos ihmisen tehtävä on vain valvoa itsenäisesti toimivaa järjestelmää, hänen huomiokykynsä herpaantuu, eikä hän pysty tai osaa reagoida tilanteissa, jossa sitä tarvittaisiin. Tässä onkin yksi tekoälyn ja ihmisen vuorovaikutuksen keskeisistä haasteista: kuinka suunnitella vuorovaikutus siten, että yhteistoiminta toimii mahdollisimman hyvin. Tältä kannalta tekoälyjärjestelmä, joka tekee tunnistettavia virheitä voisi olla parempi kuin sellainen, joka on suunniteltu tekemään mahdollisimman vähän virheitä (Dell’Acqua ym. 2023). Tällöin työntekijä ei voi tuudittautua ajatukseen, että kone hallitsee asian. Joka tapauksessa ihmisen ja koneen toimiva yhteistyö on tekoälyn kehittämisen suurimpia haasteita.

Automaatiolla voi olla vaikutuksia myös pidemmällä aikavälillä. Jos esimerkiksi tekoälyjärjestelmä korvaa ihmisen ongelmien tunnistamisessa tai vaikkapa lääketieteellisten kuvien tunnistamisessa, merkitsee tämä sitä, että ihmisasiantuntija ei enää saa harjoitusta tällaisissa tunnistamistehtävissä. Hänen kykynsä rapautuvat (Rinta-Kahila ym. 2023), tai myöhempien työntekijäsukupolvien kohdalla, eivät kehity lainkaan. Tällöin hänellä ei ole kykyä toimia myöskään niissä hankalissa tapauksissa, joissa tekoälyjärjestelmää ei voida luotettavasti käyttää. Kykyjen rapautumisen vuoksi ajattelumalli, jossa kone hoitaa rutiinitehtävät ja asiantuntija hoitaa vaikeat tapaukset, voi olla vaarallinen. Organisaatioiden tasolla käyttämättömien kykyjen rapautuminen voi tarkoittaa, että ne pikkuhiljaa menettävät inhimillistä pääomaansa. Tämä voi tulla esiin, kun esimerkiksi järjestelmiä vaihdetaan tai niissä on toimintahäiriöitä: työntekijät eivät enää pystykään niihin tehtäviin, jotka heidän oletetaan hallitsevan. Automaation toimiessa ja kannustimien puuttuessa osaamisen ylläpito ja päivittäminen on jäänyt tekemättä. Tässä jälleen hankala haaste tekoälyjärjestelmien kehittäjille: kuinka kehittää järjestelmiä, jotka eivät tuhoa inhimillistä asiantuntemusta, jota saatetaan vielä tarvita järjestelmien toiminnan arviointiin, uudelleen suunnitteluun tai sijaistamiseen.

Datalukutaito

Asiantuntijatyö tulee tekoälyn myötä muuttumaan. Yhä tärkeämmäksi tulee tietää, mihin erilaisia tekoälyvälineitä voi käyttää ja mitkä ovat niiden rajoitukset. Välineiden käytettävyys tulee paranemaan, mikä entisestään korostaa näiden välineiden ymmärtämisen tärkeyttä. Tästä syystä perinteisten analyyttisten ja kriittisten ajattelun taitojen merkitys tulee entisestään kasvamaan. On kyettävä näkemään kielimallin tuottaman hyvin jäsennetyn ja kauniisti kirjoitetun tekstin läpi ja arvioida sen argumentaation vahvuutta. Yleisemmin tarvitaan kykyä kriittisesti arvioida ja käsitellä tietoväittämiä.

Erityisen tärkeäksi tulee nousemaan datalukutaito. Sen perustana on ymmärrys siitä, kuinka dataa kerätään, prosessoidaan, analysoidaan, tulkitaan ja esitetään. Tämän päälle rakentuu tieto, kuinka data voi toimia näyttönä ja kuinka tekoäly käyttää hyväkseen datasta löydettäviä tilastollisia säännönmukaisuuksia. On tärkeää oivaltaa, että datalukutaito ei rajoitu datan käytön teknisiin ja tiedollisiin ulottuvuuksiin. Yhtä lailla tärkeää on ymmärrys datan käyttöä ohjaavista lainsäädännöllisistä ja eettisistä periaatteista. Datan – ja tekoälyn – kestävä käyttö edellyttää näiden eri ulottuvuuksien kokonaisvaltaista jäsentämistä.

Datalukutaitoa voidaan ajatella sekä kaikkien jakamana kansalaistaitona että tiettyjen tehtävien edellyttäminä taitoina. Jälkimmäisessä merkityksessä voimme pohtia, millaista datalukutaitoa tietyssä asiantuntijatehtävässä edellytetään, olisi sitten kyseessä rekisteriä ylläpitävä viranomainen, yhteiskuntatieteilijä, valmisteleva virkamies tai poliittinen päättäjä. Datalukutaitoa tarvitsevat myös yritysjohtajat, terveydenhuollon ammattilaiset ja kunnalliset päättäjät. Datalukutaito on edellytys realistisille odotuksille tekoälyn mahdollisuuksista ja vaaroista.

Yhteiskunnallisesti kestävä tekoäly ei perustu vain tekoälykehittäjien asiantuntemukselle. Tarvitaan laaja-alaista ihmisen psykologiaa, organisaatioiden ja markkinoiden toimintaa, lainsäädäntöä ja politiikkaa koskevaa asiantuntemusta. Edessä on suuria yhteiskunnallisia muutoksia ja kokeiluja, joista monet perustuvat epärealistisiin odotuksiin tekoälyn kyvyistä. Onkin syytä varautua siihen, että monet lähitulevaisuudessa käyttöön otettavat tekoälyä hyödyntävät järjestelmät eivät toimi tarkoitetulla tavalla. Onkin tärkeää pitää silmällä mitkä ovat todellisia uhkia. Jotkut uskovat, että tekoälyn suurin uhka on, että ihmistä huomattavasti älykkäämmät koneet tulevat hallitsemaan elämäämme. Läheisempi uhkakuva on sellainen, jossa yhteiskuntamme on riippuvainen tekoälyjärjestelmistä, jotka käyttävät epämääräistä dataa, joiden kehittäjät eivät ymmärrä niiden käyttötarkoitusta ja joiden käyttäjät eivät ymmärrä niiden toimintaa. Eläisimme huonosti toimivien mutta vaikeasti korvattavien järjestelmien armoilla ilman aitoa demokraattista kontrollia. Tällaisen dystopian välttäminen olisi hieno asia.

Lähteet

Brooks, Rodney 2024 blog: PREDICTIONS SCORECARD, 2024 JANUARY 01 https://rodneybrooks.com/predictions-scorecard-2024-january-01/

Bossen, C., Pine, K. H., Cabitza, F., Ellingsen, G., & Piras, E. M. (2019). Data work in healthcare: An Introduction. Health Informatics Journal, 25(3), 465–474. https://doi.org/10.1177/1460458219864730

Brynjolfsson, E., Li, D., & Raymond, L. 2023.

Generative AI at Work (arXiv:2304.11771). arXiv. http://arxiv.org/abs/2304.11771

Crawford, Kate 2021: Atlas of AI: Power, Politics, and the Planetary Costs of Artificial Intelligence. Yale University Press.

Dell’Acqua, F., McFowland, E., Mollick, E. R., Lifshitz-Assaf, H., Kellogg, K., Rajendran, S., Krayer, L., Candelon, F., & Lakhani, K. R. 2023: Navigating the Jagged Technological Frontier: Field Experimental Evidence of the Effects of AI on Knowledge Worker Productivity and Quality. SSRN Electronic Journal. https://doi.org/10.2139/ssrn.4573321

Hand, David J. 2020: Dark Data. Why You Don’t Know Matters. Princeton University Press.

Levy, K., Chasalow, K. E., & Riley, S. (2021). Algorithms and Decision-Making in the Public Sector. Annual Review of Law and Social Science. https://doi.org/10.1146/annurev-lawsocsci-041221-023808

Rinta-Kahila, T., Penttinen, E., Salovaara, A., Soliman, W., & Ruissalo, J. (2023). The Vicious Circles of Skill Erosion: A Case Study of Cognitive Automation. Journal of the Association for Information Systems, 24(5), 1378–1412. https://doi.org/10.17705/1jais.00829

Rosenfeld, A., & Richardson, A. (2019). Explainability in human–agent systems. Autonomous Agents and Multi-Agent Systems, 33(6), 673–705. https://doi.org/10.1007/s10458-019-09408.

 

Artikkelin on kirjoittanut tieteen- ja teknologiantutkimuksen professori Helsingin yliopistossa Petri Ylikoski.

Artikkeli on viides osa Akava Worksin ”Näkökulmia tekoälyyn” -artikkelisarjassa.

Kuva: DALL-E -tekoälysovelluksen tuottama kuva artikkelin teemoista.

Lue lisää aiheesta