Tekoäly ja asiantuntijatyön tulevaisuus

Tietoa artikkelista

Kirjoittajat: Eija Kärnä ja Anna Lahtinen

Avainsanat: tekoäly, asiantuntijatyö, yhdenvertaisuus, vastuullisuus
Päivämäärä: 30.1.2026

Artikkeli käsittelee tekoälyn vaikutuksia asiantuntijatyöhön ja työelämän tulevaisuuteen sekä pohtii, miten tekoälyä voidaan hyödyntää reilulla, eettisellä ja yhdenvertaisella tavalla. Se kuvaa, miten tekoäly muuttaa asiantuntijoiden työn sisältöä, osaamisvaatimuksia ja urapolkuja, nostaa esiin käyttöönoton esteitä ja onnistumisen edellytyksiä sekä tarkastelee tekoälyn vaikutuksia tuottavuuteen, työhyvinvointiin ja yhdenvertaisuuteen. Keskeinen viesti on, että tekoäly ei korvaa asiantuntijuutta, vaan parhaimmillaan täydentää sitä, kun ihmiset osallistuvat aktiivisesti työn ja tekoälyn kehittämiseen ja kun muutos perustuu luottamukseen, yhteistyöhön ja vastuulliseen johtamiseen.

Tekoälyn kuumin hypetys alkaa ehkä olla ohi, samalla kun tekoälyn vaikutukset asiantuntijatyöhön ja sen tulevaisuuteen ovat vasta alkamassa. Tekoälytyökaluja ja koulutuksia on ollut hyvin tarjolla varsinkin isommissa organisaatioissa, ja monet ovat siirtäneet oppeja arjen käytännöiksi. Osalle tekoälytyökalut ovat jääneet etäisiksi ja koulutukset irrallisiksi arjen työstä. Ihmisten toiminta muuttuu hitaasti ja palaa sitäkin nopeammin takaisin vanhoihin tuttuihin toimintatapoihin.

Tekoälyn hyödyntämistä asiantuntijatyössä hidastavat monet sekä yksilölliset että yhteisölliset tekijät. Työntekijätasolla voi esiintyä luottamuspulaa johdon ja henkilöstön välillä sekä pelkoa työn menettämisestä ja oman osaamisen riittävyydestä. Työyhteisöissä esteitä luovat strategian ja ohjeistusten puute sekä investointikustannukset. Erityisesti julkisella sektorilla ja terveydenhoidossa on tunnistettu kehitystä hidastavia haasteita koko Euroopan tasolla liittyen organisatorisiin tekijöihin, kuten osaamisen ja resurssien puutteeseen sekä johtamisen ja henkilöstön osallistamisen haasteisiin, mutta myös ympäristötekijöihin, kuten tietoturvaan tai epävarmuuteen lainsäädännöstä (Neumann ym. 2024; Pulkkinen ym. 2025). 

Asenteisiin ja odotuksiin liittyvät tekijät voivat myös hidastaa tekoälyn käyttöönottoa. Digiviraston ja Kelan tutkimuksen mukaan asiantuntijoista osa suhtautuu tekoälyyn rohkeasti ja aktiivisesti, osa kuitenkin vielä varautuneesti tai pelolla (Ojajärvi ym. 2025). Asiantuntijat saattavat myös väheksyä tekoälyn hyötyjä, vaikka työn kehittämisessä kaivattaisiin uutta näkemystä. Omaa asiantuntijuutta saatetaan pitää ylivertaisena ja suhtautua negatiivisesti tekoälyn mahdollisuuksiin (Agarwal ym 2023). Vaarana voi olla kehityksen kelkasta tippuminen.

Tekoäly pystyy suorittamaan jo ihmistä nopeammin ja tehokkaammin asiantuntijatehtäviä, joiden ajateltiin aiemmin olevan turvassa automatisoinnilta. Esimerkkeinä tällaisista ovat juristien sopimusanalyysit, talousasiantuntijoiden ennusteet, insinöörien ja ohjelmistokehittäjien suunnittelutehtävät sekä johdon työn organisoinnin prosessit.

Yllättäen korkeakoulutettujen työttömyys on kasvanut teknologisten muutosten rinnalla ja huolet lisääntyvät töiden lopullisesta katoamisesta. Varsinkin nuorten korkeakoulutettujen työttömyys ja pitkäaikaistyöttömyys ovat huolestuttavia ilmiöitä, sillä osaamisen ylläpitäminen on erityisen tärkeää nopeasti teknologisoituvassa työelämässä. (Akava Works 4.11.2025; 2.12.2025; Koev 2024; 2025). Tekoälyn on arveltu vaikeuttavan myös nuorten työntekijöiden urien liikkeellelähtöä, jos aloittelijoille sopivat yksinkertaisemmat toimistotyöt voidaan hoitaa tekoälyn avulla (Bloomberg News 2025; Frick 2025).

Miksi tekoälykokeilut eivät vielä lunasta lupaustaan?

Tekoälykokeilut eivät ole isossa mittakaavassa edenneet tehokkuudeksi ja tuottavuudeksi. Useiden tutkimusten mukaan tekoälyinvestoinnit epäonnistuvat, koska ihmisiä ja heidän osaamistaan tai näkemyksiään ei oteta huomioon toteutuksessa (Bornet ym. 2025). MIT:in tutkimuksen mukaan (Challapally ym. 2025) vain noin viisi prosenttia tekoälypiloteista etenee tuotantoon ja tuottaa mitattavaa arvoa. Syynä on usein, että tekoälystrategiat jäävät PowerPoint-esityksiin, eivätkä etene osaksi organisaatioiden kulttuuria.

Onnistuneitakin kokemuksia löytyy. Brynjolfssonin ym. (2023) tutkimuksen mukaan tekoälyllä onnistuttiin kasvattamaan asiantuntijuutta, työn tuottavuutta ja asiakastyytyväisyyttä hyvällä sitoutumisella kehittämiseen sekä kokeneempien ja nuorten asiantuntijoiden yhteistyöllä. Bornet ym. (2025) kehittämisprojekteissa huomattiin, että kun ihmiset otetaan aidosti mukaan kehittämiseen, he sitoutuvat paremmin, saavuttavat hyviä tuloksia ja voivat kääntyä jopa skeptikoista innostuneiksi tekoälyn puolestapuhujiksi. Autorin (2024) mukaan hyvä tekoälyn haltuunotto mahdollistaa työn laadun, mutta myös merkityksellisyyden edistämisen.

Suomalaisessakin tekoälytutkimuksessa ihmislähtöisten ja eettisten tekijöiden merkitys on tunnistettu. Yhteisölliset toimintatavat, osallistava johtaminen ja läpinäkyvä päätöksenteko tekoälyn hyödyntämisessä edistävät tietotyöntekijöiden reiluuden ja luottamuksen kokemuksia ja lisäävät siten innostusta ja sitoutumista työn kehittämiseen tekoälyn avulla.  Työn kehittämiseen osallistuminen taas edistää ammatillisen toimijuuden kokemuksia. (Rauhala ym. 2025).

Isossa kuvassa asiantuntijat ovat luottavaisia

World Economic Forumin (2025) mukaan pelko töiden katoamisesta on turhaa, sillä vaikka työtehtäviä voidaankin toteuttaa nopeasti ja tehokkaasti tekoälyllä, myös uusia tehtäviä syntyy hallitsemaan työprosessien kokonaisuuksia avaten siten uusia mahdollisuuksia entistä mielekkäämmille asiantuntijatehtäville.

Asiantuntijuudelle nähdään jatkossakin olevan tarvetta tekoälyn rinnalla. Asiantuntijoiden itsetunto ja usko omaan osaamiseen on Haaga-Helian tutkimuksen mukaan kohdillaan (Drake ym. 2025). Erityisesti isojen organisaatioiden asiantuntijatehtävissä työskentelevät hyödyntävät tekoälyä jo monin tavoin ja kokeilevat uteliaina erilaisia tapoja kehittää työtään.  Tekoälyä pidetään omana assistenttina tai kollegana, jonka kanssa voi keskustella ja sparrailla haasteissa.

Moni on esittänyt huolensa ikääntyvien työntekijöiden pärjäämisestä työmarkkinoilla. Ehkä yllättäen ikääntyneemmät tietotyöntekijät ovat kuitenkin olleet myös innostuneita tekoälyn käytöstä kokien sen täydentävän asiantuntijuuttaan (Drake ym. 2025). Nuoremmat työntekijät tarttuvat usein nopeasti uusiin teknologioihin, mutta heidän asiantuntijuutensa ei ole ehkä vielä kasvanut sellaiselle tasolle, että voisivat aina arvioida tekoälyn vastausten relevanttiutta ja oikeellisuutta. Yhteistyö eri ikäisten työntekijöiden kesken on siten entistäkin arvokkaampaa.

Asiantuntijuutta pitää vaalia

Tekoäly muuttaa työn lisäksi myös asiantuntijuutta. Siksi tekoälyn hyödyntämistä on tarkasteltava myös asiantuntijan osaamisen, työroolin ja ammatti-identiteetin muutosten kautta. Asiantuntijan parhaita osaamisia pitää tunnistaa ja vaalia samalla kun teknologista osaamista kehitetään.

Asiantuntijuudelle ja sen muutokselle pitää antaa aikaa ja tilaa, sillä vastuu tiedon oikeellisuudesta, eettisyydestä ja syrjimättömyydestä on ihmisellä (Koev 2024; Qvick 2025). Vaikka tekoälyn kontekstitietoisuus on kehittynyt ja tekoälyagentit kykenevät hallitsemaan itsenäisesti entistä laajempia työkokonaisuuksia, niiden osaaminen ei vastaa ihmisen osaamista ja ymmärrystä. Tekoäly ei tunnista asioiden kaikkia ulottuvuuksia, taustoja tai vaikutuksia eikä niiden tuotoksiin ja ratkaisuihin voi siten täysin luottaa. (Bornet ym. 2025).

Asiantuntijan työroolin kehittäminen ei voi jäädä toissijaiseksi tekoälyn rinnalla ja supistua vain tekoälyn toiminnan valvomiseksi, sillä asiantuntijuus voi taantua ja organisaatioiden inhimillinen pääoma rapautua (Ylikoski 2024).  Työtä pitää suunnitella ihmisen ja koneen välisenä mielekkäänä yhteistyönä niin, että tekoäly voi mahdollistaa enemmän aikaa kohdata asiakas, kumppani tai kollega ja keskittyä ihmisiin. 

Asiantuntijuutta pitää tarkastella uusin silmin, tunnistaen ja ottaen työn kehittämisessä huomioon sekä ihmisen että koneen parhaat osaamiset. Asiantuntijan rooli on tärkeä entistä laajempien strategisten kokonaisuuksien hallinnassa. Työn tehostamisen lisäksi asiantuntijan osaamista voidaan täydentää ja tukea tekoälyn avulla. Tekoäly tukee tiedonhakua ja -hallintaa ja siten myös työn laatua voidaan kehittää. Samalla on hyvä huomioida, että tekoälyn tarjoamat laajenevat mahdollisuudet voivat myös aiheuttaa tuottavuuspaineita.

Myös tekoälyn osaamista pitää tarkastella pintaa syvemmältä. Tekoäly ei ole ylivertainen, vaikka se on ihmistä tehokkaampi ja nopeampi, sillä se on päätöksenteossaan arvaamaton. On tärkeä tunnistaa tekoälyn mahdollisuudet, mutta myös heikkoudet, vinoumat ja tietoturvahaasteet, joissa asiantuntijan osaaminen on kullan arvoista.

Tekoäly haastaa asiantuntijan uudistamaan työtään ja osaamistaan

Asiantuntijatyö on perinteisesti ollut enemmän tai vähemmän erikoistunutta ja siten eriytynyttä, mutta tekoälyn aikakaudella tarvitaan kokonaisnäkemystä ja moninäkökulmaisuutta tunnistaa uutta luovia ratkaisuja työn kehittämiseksi. Asiantuntijoilta edellytetään jatkuvaa itsensä kehittämistä, mutta sosiaalisesti kestävän työelämän kehittäminen edellyttää monikerroksista yhteistyötä, eikä sitä siten voi jättää vain aktiivisten yksilöiden varaan (Vuorenmaa ym. 2023).

On tärkeää, että asiantuntijat ja johto yhdessä käyvät työprosesseja läpi tunnistaen paikat, joissa sekä tekoäly että asiantuntija voivat tuottaa arvoa asiakkaille, sidosryhmille, työntekijöille ja koko organisaatiolle. Yhdessä voidaan tunnistaa tekoälyn ja työn kehittämisen mahdollisuudet ja haasteet, ja siten rakentaa polkua kohti inhimillistä, tasavertaista ja hyvinvoivaa työelämää tekoälyn rinnalla.

Muutoksen johtaminen vai johtamisen muutos?

Perinteinen strateginen muutoksen johtaminen on jäämässä jälkeen nopeasti teknologisoituvassa työelämässä. Johdolta odotetaan visiota ja suuntaa tekoälyn hyödyntämiseen, mutta samalla avointa ketterää otetta ja yhteiskehittämistä hyväksyen tietynlainen “johtamattomuus” ja keskeneräisyys tekemisessä.

Asiantuntijatyön uudenlaista arvoa tuottavassa kehittämisessä tarvitaan työntekijöistä ja tiimeistä lähtevää uudistumista, mutta samalla myös johtolähtöistä, organisaatiotasoista kehittämistä ja tukea. Tekoäly antaa mahdollisuuden suunnitella työtä uudestaan niin, että samanaikaisesti voidaan edistää sekä työn tehokkuutta ja tuottavuutta että ihmisen osaamista ja toimijuutta. (Mayer ym. 2025).

Johdon rooli on mahdollistaa tekoälyn hyödyntäminen ja työn kehittäminen organisaation kaikilla tasoilla yksilöistä ja tiimeistä aina koko organisaation ja verkostojen tasolle asti. Auttamisen kulttuuri ja reiluuden kokemus siitä, että kaikki voivat osallistua yhdenvertaisesti kehittämiseen on keskeistä organisaatioiden onnistumisessa.

Tekoäly voi edistää tai estää ihmisten yhdenvertaisuutta työelämässä

Generatiivinen tekoäly on matalalla kynnyksellä hyödynnettävissä, mutta parhaimpien sovellusten käyttöoikeudet ovat vain osalla. Tekoälyn käytöstä kaivattaisiin avoimempaa keskustelua, sillä kehittäminen nähdään monissa yrityksissä teknologisena ja siten käytännössä usein miesvaltaisena. Kaikilla ei ole mahdollisuutta osallistua tai vaikuttaa, vaikka heillä olisi kiinnostusta tai osaamista. (Drake ym. 2025).

OECD:n (2024) mukaan tekoäly voi edistää demokraattista viestintää ja päätöksen teon läpinäkyvyyttä niin työyhteisöissä kuin yhteiskunnissa laajemminkin. Se voimaannuttaa naisia, maahanmuuttajia ja marginaalisissa ryhmissä olevia henkilöitä tarjoamalla parempia mahdollisuuksia työmarkkinoille pääsyyn, urakehitykseen ja taitojen kehittämiseen. Nämä mahdollisuudet eivät kuitenkaan aina näy arjessa.

Tekoäly voi yhtä aikaa innostaa ja uuvuttaa. Uuden oppiminen voi lisätä toimijuuden ja työn merkityksellisyyden kokemusta, mutta myös epävarmuutta ja jaksamisen haasteita. Asiantuntijakin on uuden edessä oppimassa, kokeilemassa ja harjoittelemassa. Tekoäly ja työn tehostuminen eivät automaattisesti lisää työhyvinvointia, jos pelisäännöt puuttuvat ja eikä aiheesta keskustella työyhteisössä.

ReiluAI tukee asiantuntijoiden mielekästä tekoälykehitystä

Akava on mukana Haaga-Helian toteuttamassa ReiluAI-hankkeessa, jonka tavoitteena on edistää tekoälyn reilua, ihmiskeskeistä ja yhdenvertaista käyttöä asiantuntija- ja tietotyössä. Työtä tukee Työsuojelurahasto.

Hankkeessa on mukana laaja joukko kumppaneita yrityksistä, liitoista ja järjestöistä, jotka rakentavat yhdessä yhdenvertaisempaa työelämää, jossa tekoäly palvelee ihmistä.  ReiluAI-hankkeen ytimessä on tahto varmistaa, että tekoäly vahvistaa osaamista, edistää yhteisöllisyyttä ja tukee organisaatioiden vastuullisuutta. Työ tapahtuu yhdessä oppien, kokeillen, jakaen, tutkien ja kehittäen ratkaisuja, jotka palvelevat aidosti työelämän tarpeita.

ReiluAI työstää sisältöjä ja käytännön työkaluja työyhteisöjen käyttöön, kuten esimerkiksi:

  • itsearviointityökalu, jonka avulla työntekijät ja organisaatiot voivat tarkastella tekoälyn käyttöä eettisyyden ja yhdenvertaisuuden näkökulmasta,
  • interaktiivinen käsikirja, artikkeleita ja blogeja hyödyntää tekoälyä reilusti,
  • podcast- ja videosarjat, joissa asiantuntijat pohtivat tekoälyn vaikutuksia työelämään
  • sekä paneelikeskusteluvuoden 2026 SuomiAreenaan.

Tekoäly muuttaa työn tekemisen tapoja, mutta asiantuntijat voivat olla mukana kehittämässä työtä ja tulevaisuuden työelämää viisaasti yhdessä. Osallistu keskusteluun ja vaikuta hyvinvoivan työelämän puolesta!

Lähteet

Agarwal, N., Moehring, A., Rajpurkar, P. & Salz, T. 2023. Combining Human Expertise with Artificial Intelligence: Experimental Evidence from Radiology, NBER Working Paper 31422, https://doi.org/10.3386/w31422.

Akava Works. 4.11.2025. Työttömyys- ja lomautuskatsaus 9/2025: Pitkäaikaistyöttömyys kasvaa, alkavia työttömyyksiä on vähemmän. https://akavaworks.fi/julkaisut/tyottomyyskatsaukset/tyottomyys-ja-lomautuskatsaus-9-2025-pitkaaikaistyottomyys-kasvaa-alkavia-tyottomyyksia-on-vahemman/

Akava Works. 2.12.2025. Työttömyys- ja lomautuskatsaus 10/2025: Työttömyyden nousu ei suostu helpottamaan. Työttömyys- ja lomautuskatsaus 10/2025: Työttömyyden nousu ei suostu helpottamaan – AkavaWorks

Autor, D. 12.2.2024. AI Could Actually Help Rebuild The Middle Class. Essay. Technology & the Human. Noema Magazine. Berggruen Institute.  https://www.noemamag.com/how-ai-could-help-rebuild-the-middle-class/

Bloomberg News 2025. AI’s Takeover of Entry-Level Tasks Is Making College Grads’ Job Hunt Harder. Bloomberg, 30 July. https://bloomberg.com/news/articles/2025-07-30/ai-s-takeover-of-entry-level-tasks-is-making-college-grads-job-hunt-harder . [bloomberg.com]

Bornet, P., Wirtz, J., Davenport, T.H., De Cremer, D., Evergreen, B., Fersht, P., Gohel, R., Khiyara, S., Sund, P. & Mullakara, N., 2025. Agentic Artificial Intelligence: Harnessing AI Agents to Reinvent Business, Work and Life. Irreplaceable Publishing. 

Brynjolfsson, E., Li, D. & Raymond, L.R. 2023. Generative AI at Work, NBER Working Paper 31161, https://doi.org/10.3386/w31161.

Challapally, A., Pease, C., Raskar, R. & Chari, P. 2025. The GenAI Divide: State of AI in Business 2025. MIT NANDA. [PDF] https://www.artificialintelligence-news.com/wp-content/uploads/2025/08/ai_report_2025.pdf

Drake, M., Kärnä, E., Lahtinen, A. & Rauhala, M. 2025. Yhdenvertaista tekoälyn käyttöä rakentamassa: AIE – tekoäly yhdenvertaisuuden edistäjänä työssä -hankkeen loppuraportti. [pdf] Haaga-Helia ammattikorkeakoulu. https://julkaisut.haaga-helia.fi/wp-content/uploads/sites/4/2025/08/yhdenvertaista_tekoalyn_kayttoa_rakentamassa.pdf

Frick, W. 2025. AI Won’t End Entry-Level Work. Bloomberg, 21 September. https://www.bloomberg.com/news/newsletters/2025-09-21/ai-won-t-end-entry-level-work

Koev, E. 4.11.2025. Korkeasti koulutettujen työttömyys kasvaa – entä työllisyys? Korkeasti-koulutettujen-tyottomyys-kasvaa-enta-tyollisyys_Eugen-Koev.pdf

Mayer, H., Yee, L., Chui, M., & Roberts, R. 2025. Superagency in the workplace: Empowering people to unlock AI’s full potential. McKinsey & Company. Neumann, O., Guirguis, K. and Steiner, R. 2024. Exploring artificial intelligence adoption in public organizations: a comparative case study, Public Management Review, Vol. 26 No. 1, pp. 114-141, doi: 10.1080/14719037.2022.2048685

Neumann, O., Guirguis, K. and Steiner, R. 2024. Exploring artificial intelligence adoption in public organizations: a comparative case study, Public Management Review, Vol. 26 No. 1, pp. 114-141, doi: 10.1080/14719037.2022.2048685.

Ojajärvi, A., Hyytiä, V., Aitonurmi, J., Jokela, E. ja Latvanen, M. 2025.  Asiantuntijatyön muutos tekoälyn aikana. Digi- ja väestötietovirasto & Kela. https://dvv.fi/asiantuntijatyon-muutos-tekoalyn-aikana

Pulkkinen, J., Huttu, K. & Suhonen, M. 2025. Systemic challenges in AI adoption in public social and health organizations in Finland: a technology-organisation environment perspective. Journal of Health Organization and Management Vol. 39 No. 9, 2025 pp. 435-456 Emerald Publishing Limited e-ISSN: 1758-7247 p-ISSN: 1477-7266 DOI 10.1108/JHOM-06-2025-0309

Rauhala, M., Drake, M. & Saaranen, P. 2025. Ethical AI in the workplace: ensuring fairness and transparency, AI and Ethics. https://doi.org/10.1007/s43681-025-00903-5

Quick, K. 16.6.2025. Asiantuntijatyö tekoälyn aikakaudella. ESignalsPro. Haaga-Helia ammattikorkeakoulu. URN http://urn.fi/URN:NBN:fi-fe2025061668762

Ylikoski, P. 22.3.2024. Näkökulmia tekoälyyn, osa 5 Tekoäly ja asiantuntijatyön muutos. https://akavaworks.fi/nakokulmia-tekoalyyn-osa-5-petri-ylikoski-tekoaly-ja-asiantuntijatyon-muutos/

Vuorenmaa, H., Mäkelä, E., & Sumelius, J. 2023. Tietotyö myllerryksessä, kyvyt kateissa. In T. Koivunen, M. Sippola, & H. Melin (Toim.), Työ elää: murroksia, trendejä ja muutoksen suuntia Suomessa (pp. 256-272). Gaudeamus. 

World Economic Forum. 2025. Is AI closing the door on entry-level job opportunities?

Näkökulmia tekoälyyn, osa 8 – Markus Penttinen: EU ja tekoäly – mitä on tulossa?

Kun tekoäly tuli kaikkien huulille lähinnä ChatGTP:n läpimurron ansiosta, Euroopan unioni muun muassa loi maailman ensimmäisen tekoälyasetuksen, algoritmejä säätelevän alustatyödirektiivin ja panosti miljardeja alan tutkimukseen. Jo vuonna 2018 EU sai aikaiseksi ensimmäisen tekoälystrategian.

Mutta mitä on näköpiirissä tekoälyalalla nyt, kun Euroopan parlamentin vaalit on käyty ja uutta komissiota ollaan valitsemassa.

Ensimmäisenä on nostettava esiin jo päätettyjen säätelyhankkeiden toimeenpano. Tekoälyasetuksesta on tulossa tarkempia toimintaohjeita ja perusteilla on EU:n tekoälykeskus. Alustatyödirektiivi lähtee toteutettavaksi jokaiseen jäsenmaahan ja tämä työ alkanee Suomessa tulevana syksynä.

Asetuksen toimeenpanon merkitystä ei pidä vähätellä, päinvastoin. Tekoälyn kohdalla puhutaan voimakkaasti kehittyvästä alasta, jolla tehdään pioneerityötä. Miten kutakin lakia sovelletaan tekoälyn käytön eri tilanteissa ja eri aloilla vaikuttaa paljon kansalaisten, työpaikkojen ja yritysten arkeen. Esimerkiksi tekoälyasetuksen synnyttäminen oli iso monivuotinen urakka, mutta yhtä laaja tulee EU:n tekoälyä sivuuttavien säädöksen soveltamisesta käytännössä eri jäsenmaissa.

Hankkeissa näkyy työelämä, tietosuoja ja tekijänoikeudet

Yksi uusista mahdollisista EU:n tekoälyä koskevista hankkeista on työelämän tekoälydirektiivi. Se käsittelisi tekoälyn käyttöä työelämässä syrjimättömyyden, työturvallisuuden ja tietosuojan näkökulmasta. Esimerkkinä tästä on työntekijöiden valvonta tekoälyn avulla, algoritmien asetuksien syrjimättömyys ja tekoälyn sovellusten aiheuttamat työsuojelukysymykset. Parhaillaan Euroopan komissio tarkastelee kyseistä direktiiviä, jonka jälkeen se tulee mahdollisesti työmarkkinajärjestöjen lausuttavaksi. Tätä seuraisi työmarkkinajärjestöjen neuvottelut tai komission direktiiviesitys. Hankkeen liikkeellelähdöstä ei kuitenkaan ole vielä täyttä varmuutta.

Myös tekijänoikeudet ovat myllerryksessä tekoälyn vuoksi. Generatiivisen eli luovan tekoälyn esikoulutuksessa imuroidaan valtavia tietomääriä verkosta ja usein kysymättä tekijän lupaa. Yksi keskeinen kysymys on, onko tekoälyn avulla luodun teoksen oikeuksien omistaja tekoäly vai sitä käyttänyt ihminen. Tekijänoikeuksista sisämarkkinoilla on olemassa EU:n direktiivi ja aihetta sivutaan myös EU:n tekoälyasetuksessa. Tilanne on vaikuttaa silti sekavahkolta ja lait eivät pysy teknologian ja todellisuuden perässä.

On kovin mahdollista, että EU laittaa liikkeelle jonkun hankkeen tekijänoikeuksista, mutta muoto, sisältö ja aikataulu ovat vielä epäselviä. Tässä yhteydessä on syytä myös seurata Yhdysvaltojen kehitystä, jossa on meneillään merkittäviä ennakkotapauksia kuten New York Times vastaan Microsoftin tekoälytoiminta -oikeustapaus. Aika näyttää, miten tekijänoikeudet määritellään lainsäädännössä.

Tekoälyn käyttö koulutuksessa ja tutkimuksessa

Tekoälyn käyttö koulutuksessa ja oppimisessa on ollut viime aikojen kuumia puheenaiheita. Jo vuonna 2020 hyväksyttiin EU:n digitaalisen koulutuksen ohjelma, joka jatkuu vuoteen 2027 asti ja Erasmus+-ohjelmasta on rahoitettu vuosia tekoälyhankkeita. EU:n tekoälyasetus linjaa opetuksen olevan niin sanottu korkeariskinen ala, jossa tekoälyn väärinkäyttö johtaisi helposti merkittäviin haittoihin. Miten tämä otetaan huomioon tekoälyasetuksen soveltamisessa ja saadaanko myös siitä lisäohjeistusta?

EU:n tutkimuksen Horizon-ohjelmassa tekoäly kuuluu pääpainopisteisiin. Horizonin tukena on Digital Europe -ohjelma, joka tukee enemmän operationaalisia hankkeita. Erasmus+-ohjelman tavoin Digital Europe -tutkimusohjelma ja sen rahoitus on uusittavien listalla vuodesta 2025. Lisäksi tekoälyasetuksessa on luotu niin sanotut hiekkalaatikot (sandboxes) tutkimus- ja innovaatiotoimintaa varten. Ne tarjoavat mahdollisuuden kokeilevampaan ja kehittävämpään otteeseen kuin asetus antaisi muuten myöten. Miten ne saadaan toimimaan, avautuu tulevina vuosina.

Tekoälystä käytävässä kilpailussa vaaditaan osaamista

EU-alue on jäänyt altavastaajaksi, alihankkijaksi ja asiakkaaksi, mitä tulee tekoälytyöpaikkojen luontiin. Yhdysvallat ja jossain määrin Kiina hallitsevat työmarkkinoita tekoälyn saralla. Euroopan unionissa tilanne halutaan kääntää ja monenlaista ajatusta tuleviksi hankkeiksi on ilmassa.

Tekeillä on muun muassa Euroopan alueen niin sanottujen supertietokoneiden valjastaminen maanosan tekoäly-startupien sekä innovaattoreiden avustajiksi ja tukijoiksi. Tämä on yhdessä pääroolissa komission alkuvuonna 2024 julkaisemassa toimintaohjelmassa. Tekeillä on myös eurooppalaiset tietoalueet (data spaces), joissa tieto ja data pääsisi kulkemaan nykyistä helpommin esimerkiksi rajojen yli. Niin tiede kuin yritykset pääsisivät tapauskohtaisesti käyttämään tekoälyn tuottamaa tietovirtaa helpommin. Näiden tietoalueiden luomisessa menee oma aikansa, mutta esimerkiksi terveysalalla sellaisen luomisen pohjapäätökset on saatu aikaiseksi.

Toiseksi EU:lle on pitkälti jäänyt tekoälyn seriffin rooli kilpailuasioissa markkinoilla. Se käynee vastaisuudessakin terhakasti kiinni tekoälyjättien monopolipyrkimyksiin ja yrittää pitää kilpakenttää auki kaikille toimijoille. Kolmas EU:n lähivuosien rooli tekoäly ja työpaikat -areenalla on tutkimus ja innovaatiot, jossa edellä mainitut tutkimus- ja koulutusohjelmat ovat avainroolissa. EU-Euroopan helmasyntinä on pidetty sitä, että tutkimuksessa luodaan ja keksitään, mutta ei saada tuotteita kaupallistettua ja markkinoille. Kuinka tämä saadaan käännettyä, ei ole aivan helppo kysymys. Millään EU-direktiivillä tätä ei voi ukaasin lailla muuttaa.

Säätelyn keskiössä yksityisyydensuoja, innovaatiot ja kasvu

Kun unionin tuottamaa säätelyä on syntynyt, sitä arvioidaan ja kehitetään myös talouden kasvun näkökulmasta. Ruotsin entinen valtionvarainministeri, nykyisin teknoyhtiöiden johtotehtävissä toimiva Anders Borg totesi keväällä, että EU-säätely lepää tekoälyalan päällä kuin märkä viltti estäen sen kehittämisen. On kuitenkin muistettava, että yhdysvaltalaiset tekoälyjätit ottivat globaalin johtoasemansa jo vuosia sitten ja esimerkiksi EU:n tekoälyasetus astuu voimaan vasta parin vuoden päästä.

Silti koko digitalisaatioalan säätely käytäneen tulevina vuosina läpi. Kuluttajan- ja yksityisyydensuojat ovat säätelyn jatkokehityshankkeissa edelleen korkealla sijalla, mutta innovaatio ja kasvunäkökulma tulee vahvennetusti rinnalle.

Oma erityiskysymyksensä on tekoälyn vaatima energia. Esimerkiksi hakukoneeseen verrattuna tekoäly vaatii 5–10 kertaa enemmän sähköä. Yhdysvalloissa jo ihmetellään, mistä tämä määrä tasaista virrantuottoa saadaan ja miten sähköverkot kestävät kulutuksen nousua. Sama kysymys voi olla edessä Euroopassakin.

 

Artikkelin on kirjoittanut Akavan kansainvälisten asioiden päällikkö Markus Penttinen. 

Artikkeli on kahdeksas osa Akava Worksin ”Näkökulmia tekoälyyn” -artikkelisarjassa.

Kuva: DALL-E -tekoälysovelluksen tuottama kuva artikkelin teemoista.

Näkökulmia tekoälyyn, osa 7 – Tero Ojanperä: Tekoälyn käyttö tuo monia mahdollisuuksia yrittäjälle

Luovan eli generatiivisen tekoälyn läpimurto muuttaa liiketoimintaa ja luo mahdollisuuksia yrittäjille ja yrityksille. Tämän hyödyntäminen edellyttää panostusta osaamiseen. Korkeakoulutetut yrittäjät luovat korkeamman tuottavuuden työpaikkoja ja tekoäly tarjoaa keinon nopeuttaa tätä kehitystä. Suomen on keskityttävä systemaattisesti tekoälyn ja siihen liittyvään osaamisen kehittämiseen, jotta tekoälyn tarjoamat mahdollisuudet saadaan hyödynnettyä ja saavutetaan tulevaisuuden kilpailukykyinen talous.

Tässä artikkelissa tarkastellaan tekoälyn ja tekoälyyn perustuvien sovellusten vaikutuksia yrittäjyyteen ja yritystoimintaan. Tekoäly on mullistamassa liiketoimintaympäristöä parantamalla tehokkuutta, mahdollistamalla innovaatioita ja muokkaamalla markkinoita. Mutta tekoälyn käyttöönotto luo myös uhkia, kuten teknojättien kasvava valta, lisääntyvä säätely, työmarkkinoiden murros eli disruptio, eettiset haasteet ja yksityisyydensuojan riskit.

Tekoäly mullistaa työmarkkinat ja luo uutta liiketoimintaa

Tekoäly muokkaa yrityksiä ja yritystoimintaa muuttaen tietotyön luonnetta, korvaten ammatteja ja automatisoiden yhä korkeamman abstraktiotason tehtäviä. Tämä vapauttaa asiantuntijoiden aikaa luovempaan työhön. Luova eli generatiivinen tekoäly kykenee suorittamaan tehtäviä, jotka ovat perinteisesti vaatineet inhimillistä älykkyyttä ja luovuutta, kuten luonnollisen kielen ymmärtämistä ja tuottamista, kuvantunnistusta ja päätöksentekoa.

Tekoälyn tuoma muutos ei ole tulevaisuutta, vaan se on jo alkanut, erityisesti generatiivinen tekoäly on kiihdyttänyt tätä kehitystä. Jokainen ChatGPT:tä käyttänyt voi itse todeta, miten paljon se helpottaa jokapäiväistä työtä. Mutta tekoälyn tarjoamat mahdollisuudet liiketoiminnan kasvulle ylittävät jatkossa moninkertaisesti aikaisen vaiheen sovellukset, kuten nopeamman sähköpostin kirjoittamisen, markkinointitekstien luomisen tai yhteenvetojen nopeamman tuottamisen.

Tekoäly tuhoaa ja muuttaa ammatteja, luo uusia ja vaikuttaa siihen, miten työtä tehdään. Esimerkiksi ohjelmistokehityksessä tekoälyn vastuulle siirtyy merkittävä osa toteutuksesta ja testauksesta, mikä kasvattaa ohjelmistoarkkitehtien merkitystä kokonaisuuden hallinnassa. Aiemmin juristin työtä opittiin tekemällä rutiinityötä, vaikkapa luonnostelemalla sovintoehdotuksia vanhemman juristin ohjauksessa. Tekoälyn hoitaessa tällaisen rutiinityön vapautuu aikaa, mutta samalla nousee esiin kysymys, miten hoidetaan nuorempien ammatinharjoittajien koulutus.

Generatiivinen tekoälyn avulla voidaan kloonata ihmisen ääni. Kun tekoäly lukee äänikirjan, voidaan erikieliset versiot tehdä huomattavasti helpommin ja nopeammin kuin jos ihmiset lukisivat kirjat. Näin äänikirjojen kattavuus laajenee nopeammin uusille kielialueille. Tekoälypohjaiset chatbotit voivat tehostaa asiakaspalvelua. Arkkitehdit voivat nopeuttaa luomisprosessiaan ja saada uudentyyppisiä oivalluksia sisällyttämällä kuvantamispalvelut, kuten Midjourneyn, osaksi työnkulkuaan. Valokuvaus ja kuvien tuottaminen muuttuu, kun tekoälyn luomat kuvat näyttävät todellisemmilta kuin nykykameroiden tuottamat kuvat.

Tekoälyn taloudellinen arvo konkretisoituu sovellusten ja tuotteiden kautta, ei teknologian itsensä kautta. Generatiivinen tekoäly otetaan osaksi ohjelmistotuotteita. Aluksi tämä johtaa uusien ominaisuuksien tuomiseen olemassa oleviin ohjelmistoihin, kuten Microsoftin Copilot, Google Duet -tekoälyassistentti, Adoben Creative Fill -ominaisuudet ja Autodeskin tekoälyavustaja. Mutta kuten internet aikoinaan tekoäly luo täysin uusia innovatiivisia tuotteita ja palveluita. Jo nyt on syntynyt lukemattomia startup -yrityksiä, jotka hyödyntävät generatiivisen tekoälyn mahdollisuuksia. Esimerkiksi, tekoäly-yritys Leo AI on kouluttanut suunnittelukuvien avulla tuotesuunnittelun tekoälyavustajan (text-to-design). Sen avulla käyttäjä kuvailee haluamansa tuotteen tekstimuodossa tai hahmotelmana, jonka jälkeen ohjelmisto tekee tuotesuunnittelun sekä määrittää, mistä osista tuote tehdään. Suunnitelmaa voidaan kehittää vuorovaikutteisesti.

Uudet teknologiat luovat myös hassuilta tai oudoilta tuntuvia ilmiöitä. Sosiaalinen media ja sen tuoma käyttäytymisen muutos oli edellisen murroksen hedelmiä. Somepäivityksiä ja selfieitä pidettiin aluksi nuorten ilmiönä, mutta niistä tuli koko yhteiskunnan yhteinen käytäntö ja vaikuttamismekanismi. Nyt nuoret shokeeraavat jakamalla yksityiset WhatsApp-keskustelut ChatGPT-palveluun, joka antaa analyysin ihmissuhteista, huolista ja ongelmista keskusteluihin perustuen. Kyseessä on käytännössä tekoälyn kanssa käytävä terapiasessio. Vaikuttaa oudolta, mutta kun pääsemme eroon ennakkoluuloistamme, huomaamme, että kyseessä on uusi liiketoimintamahdollisuus ja jopa yhteiskunnallinen missio. Mielenterveyspalveluiden kysyntä kasvaa jatkuvasti ja emme pysty vastaamaan siihen ihmisvoimin. Tekoäly voi auttaa ja on selvää, että näin käy joka tapauksessa. Joku tarttuu tähän mahdollisuuteen, miksi ei siis suomalainen yrittäjä.

Generatiivinen tekoäly mahdollistaa kokonaan uusien kokemusten ja palveluiden luomisen. Vertaus internetin vallankumoukseen on osuva. Se mullisti tapamme kommunikoida ja loi aivan uudentyyppisiä palveluita. Tekoäly luo perustan uudenlaiselle liiketoiminnalle ja palveluille, joiden olemassaolosta meillä ei vielä ole käsitystä. On todennäköistä, että muutamista seuraavien vuosien aikana perustetuista yrityksistä tulee yhtä suuria tai ne jopa ohittavat edellisen aikakauden voittajat, kuten Googlen ja Facebookin.

Tekoälyn käyttö säästää aikaa ja laskee kustannuksia monella tavalla. Tekoäly voi esimerkiksi avustaa työntekijää markkinointitekstien laadinnassa. Näin työntekijältä vaaditaan vähemmän taitoja samaan työhön kuin aiemmin ja siten tarjolla on enemmän työvoimaa alemmalla kustannustasolla. Tekoäly voi korvata äänikirjan lukijat ja alentaa kustannuksia jopa 95 prosenttia verrattuna ihmislukijaan. Ohjelmistotyö nopeutuu, kun tekoäly koodaa käyttöliittymän kuvan perusteella.  Aiemmin vastaavaan työhön olisi vaadittu ohjelmoija tai kokonainen ohjelmoijatiimi. Nyt työ sujuu muutamassa sekunnissa aiemman viikon tai kahden sijaan.

Toisaalta yrityksille tekoälyn kehitys ei vielä tunnu suurelta vallankumoukselta. Jos tekoäly säästää tunnin päivittäistä työaikaa, työntekijä ei välttämättä käytä vapautuvaa aikaa tuottavasti. Tarvitaan suurempi muutos työnkuluissa ja toimintamalleissa, jotta hyötyä kertyy. Tämä vie aikaa, mutta muutos on vääjäämätön.

Kuten aiemmatkin teknologiamurrokset, tekoäly on synnyttänyt pöhinää eli hypeä ja siihen liittyvän kuplan. Korkojen noustessa kasvuyritysten rahoitus on laskenut, mutta tekoäly-yritysten rahoitus on kasvanut. Vuonna 2023 tekoäly-yritykset saivat rahoitusta yli 50 miljardia dollaria.  Tyypillisesti kuplan kasvaessa myös investoinnit nopeutuvat ja kasvavat, samoin innovaatiotoiminta, minkä seurauksena syntyy uusia yrityksiä, puhutaan ”tuottavasta kuplasta”.

Laajat kielimallit toimivat kasvun moottorina

Tekoälymurroksen taustalla ovat neuroverkkoihin perustuvat laajat kielimallit, jotka koulutetaan valtavalla määrällä tekstiaineistoa ymmärtämään kielen rakenteita ja merkityksiä. Sittemmin tekoälymalleja on koulutettu myös kuvilla, videoilla ja muilla aineistoilla. Nämä niin sanotut perustamallit (foundation models) tuottavat tekstiä, kuvia, musiikkia, liikkuvaa kuvaa ja jopa 3D-malleja tavalla, jonka ei aiemmin uskottu olevan mahdollista koneille. Kehitystä ovat vieneet eteenpäin pitkälti amerikkalaiset yritykset, mutta eurooppalaisetkin yritykset ovat aloittaneet omien tekoälymallien kehityksen, kuten suomalainen Silo AI Poro kielimallillaan samoin kuin saksalainen Aleph Alpha.

Tekoälymallit tarjoavat monipuolisia hyödyntämismahdollisuuksia. Sovellukset, kuten ChatGPT ja Bard, pystyvät vastaamaan kysymyksiin ja avustamaan erilaisissa tehtävissä, esimerkiksi sähköpostien, esseiden ja koodin kirjoittamisessa. Yrittäjille erityisen kiinnostavaa on kuitenkin se, miten he voivat rakentaa omia sovelluksiaan hyödyntäen laajoja kielimalleja. Tämä on mahdollista antamalla kehotteita mallille eli promptaamisen kautta sähköisen rajapinnan välityksellä tai ulkoisia tietovarastoja käyttäen. Lisäksi on mahdollista hienosäätää olemassa olevaa mallia tai kehittää omia erikoistuneita malleja. Loppujen lopuksi käyttötarkoitus ja investointikyky määrittävät, mikä menetelmä on paras.

Kehotteet eli promptit ovat ohjeita, joita hyödynnetään tekoälyohjelmiston suuntaamiseen siten, että se tuottaa käyttäjän toivomaa informaatiota tai lopputuloksia. Kehotteilla ohjaaminen eli promptien laatiminen on kehittynyt erityisosaamiseksi, ja yritykset rekrytoivat ”prompt-insinöörejä” luomaan näitä ohjeita. Kehotteille on myös muodostunut omia markkinapaikkoja, esimerkiksi PromptBase. Yhtenä esimerkkinä prompt engineering -menetelmällä tuotetusta sovelluksesta on Traverse AI, joka on oikeudellisiin kysymyksiin erikoistunut tekoälypalvelu. Sen pohjana oleva laajaa kielimallia on ohjattu noin 80 erilaisen lakialaan liittyvän kehotteen avulla sähköisen rajapinnan kautta. Sovelluksen kehittäminen kesti noin kaksi kuukautta.

Helpottaakseen tekoälysovellusten kehitystä Open AI on julkaissut oman alustansa, jonka avulla käyttäjät voivat luoda erilaisia versioita ChatGPT:stä omiin käyttötarpeisiinsa. Sovelluksen voi tehdä selittäen, mitä haluaa luoda. Koodaustaitoja ei tarvita. Kehitetyn tekoälybotin voi julkaista ChatGPT-sovelluskaupassa, (GPTStore). Näin yrittäjälle syntyy jakelukanava ja myöhemmin mahdollisuus ansaita tekoälysovelluksellaan. Esimerkiksi, Consensus-tekoälytutkimusavustaja hakee vastauksia ja voi laatia uutta sisältöä perustuen 200 miljoonaan tieteelliseen artikkeliin.

Generatiiviset tekoälymalleissa on myös ongelmia, kuten hallusinointi eli epätarkan tai väärän tiedon tuottaminen sekä ajantasaisen tiedon puute. Näitä ongelmia voidaan ratkaista *RAG (Retrieval-Augmented Generation) -lähestymistavalla, joka hyödyntää ulkoisia tietokantoja. Yhdistämällä käyttäjän prompti ja tietokannasta haettu informaatio tuotetaan laajan kielimallin avulla haluttu tulos. Tämä integraatio parantaa mallien tarkkuutta ja luotettavuutta erityisesti laajaa tietämystä vaativissa tehtävissä.

Hienosäätö on menetelmä, jossa perustamalli koulutetaan pienemmällä, tehtäväkohtaisella datajoukolla. Ajatuksena on hyödyntää mallin alkuperäisen koulutusprosessin aikana hankkimaa tietoa ja räätälöidä se tarkempaan tehtävään. Koulutus vaatii enemmän laskentaresursseja kuin kehotteilla ohjaus ja on siten kalliimpaa, mutta tuloksena on paremmin tehtävään sopiva malli.

Jos käytettävissä on omaa dataa, on myös mahdollista kouluttaa omia, erikoistuneita malleja, jotka ovat halvempia käyttää, energiatehokkaampia ja tarkempia kuin yleiset laajat kielimallit kuten GPT-4. Kääntöpuolena erikoistuneiden mallien kehittämisessä on usein suuremmat investoinnit, sillä ne vaativat merkittävän kokoluokan laskentatehoa.

Yritysten ja yrittäjien kannalta tilanne on erinomainen. Tekoälyä voi käyttää hyvin pienellä alkuinvestoinnilla ja tekoälysovellukset ovat kenen tahansa käytettävissä. Alkuun pääsee promptauksella, joka on yksinkertaisin ja edullisin tapa hyödyntää perustamalleja tiettyyn sovellukseen. Ja jos tarvitsee tarkempia tai monipuolisempia tuloksia, voi hyödyntää monimutkaisempia menetelmiä kuten ulkoista tietokantaa hyödyntävää RAGia, hienosäätöä tai erikoistuneita malleja.

Tekoälyagentit – korkeamman abstraktiotason automaatio

Generatiivisen tekoälyn mallit ja niiden saatavuus on demokratisoinut tekoälyä ja tuonut tekoälyn erityisesti yksilöiden ja Pk-yritysten saataville. **Mutta parempaa on luvassa, kun tekoäly kykenee suoriutumaan yhä monimutkaisemmista tehtävistä. Seuraava lupaava vaihe tekoälyn kehityksessä ovat tekoälyagentit. Ne ovat autonomisia tekoälytoimijoita, joille voidaan antaa itsenäisesti hoidettavia tehtäviä. Autonomiset tekoälyagentit voivat esimerkiksi tuottaa ja julkaista markkinointisisältöä eri alustoille ja määritellylle kohdeyleisölle mukautuen ulkoisen ympäristön muutoksiin säästäen aikaa ja vaivaa. Tai autonominen koodausagentti nopeuttaa sovelluskehitystä kirjoittamalla, testaamalla ja korjaamalla koodia.

Alla olevassa kuvassa kuvataan autonomisen tekoälyagentin toimintaa. Agentille asetetaan tavoite, jonka se jakaa pienempiin alatehtäviin käyttäen laajaa kielimallia eli agentti hyödyntää tekoälyä ymmärtääkseen tehtävän ja miten se jaetaan osatehtäviin. Tämä jakamisprosessi jatkuu itseään toistaen eli rekursiivisesti, kunnes alitehtävä on tarpeeksi pieni suoritettavaksi suoraan. Tehtävän suorittamisessa agentti hyödyntää kielimalleja, internettiä ja muita ulkoisia resursseja. Suorittamisen jälkeen agentti arvioi, onko tehtävä suoritettu. Jos se ei ole valmis, prosessi jatkuu. Agentti kykenee myös mukauttamaan toimintaansa tehtävän kuluessa ja saadessaan uutta informaatiota.

 

Ojanperä kuvio 1

 

Agentteja varten on kehitetty useita ohjelmistoalustoja, joiden avulla käyttäjät voivat määrittää ja ottaa käyttöön autonomisia tekoälyagentteja, esimerkiksi AutoGPT ja BabyAGI. Agenttien kehityksessä on vielä useita pulmia, esimerkiksi ohjelman sivuraiteille eksyminen, prosessien toistuminen, tehtävien keskeneräisyys ja kestävyyden puute.

Autonomiset agentit tuovat siis aivan uusia mahdollisuuksia liiketoimintaan. Yritykset voivat siirtää yhä monimutkaisempia tehtäviä tekoälyn suoritettavaksi tehostaen toimintaansa. Uusille yrityksille autonomiset agentit tuovat yhä uusia kyvykkyyksiä käyttöön entistä halvemmalla. Tulevaisuudessa näemme varmaan ihan uudentyyppisiä yrityksiä ja liiketoimintamalleja, jotka perustuvat autonomisiin agentteihin.

Kielimallit ja robotit luovat uusia liiketoimintamahdollisuuksia

 Kun yhdistämme laajat kielimallit ja robotiikan, syntyy oppivia robotteja. Älykkään robotiikan ydin on kyky oppia ja soveltaa oppimaansa uusiin, ennenkokemattomiin tilanteisiin. Näin robotit kykenevät suoriutumaan tehtävistä, joita ne eivät ole aiemmin kohdanneet. Kielimallit antavat myös roboteille uudenlaisia kognitiivisia kykyjä, jotka parantavat niiden toimintaa ja vuorovaikutusta ihmisten kanssa.

Robotiikan kehitys on viime aikoina ollut lupaavaa. Tutkijat kehittivät videodatasta oppivan järjestelmän. Se oppii videodatasta, joka esittää ihmisen tekemiä tehtäviä, jotka vaativat kahden käden ja koko kehon hallintaa. Robotti oppi muun muassa itsenäisesti valmistamaan ruokaa ja tarjoilemaan sitä. Norjalainen 1X Technologies on integroinut laajan Open AI -kielimallin kehittämäänsä humanoidirobottiin, joka toimii vartiointitehtävissä teollisuudessa. 1X:n lisäksi Tesla ja useat muut yritykset ovat kehittäneet yleiskäyttöisiä humanoidirobotteja, joiden ensimmäisten käyttökohteiden oletetaan olevan logistiikassa ja varastotöissä.

Robotit tarjoavat myös muunlaisia mahdollisuuksia kuin humanoidirobotit. Sveitsiläisen yliopiston EPFL:n tutkijat ovat kehittäneet neliömäisiä robottimoduuleja (roombots), jotka voivat liikkua ja tarttua toisiinsa sekä yhteistyössä muodostaa esineitä kuten tuoleja ja pöytiä. Rolls Royce on kokeillut hyönteis- ja käärmemäisen robotin soveltamista moottorin korjaukseen.

Robotiikan yleistyminen luo myös muita mahdollisuuksia yrittäjille, sillä robotteja pitää hallita. Karelics Cloud on kehittänyt robottilaivueiden hallintajärjestelmän rakennusroboteille, jonka tavoitteena on lisätä tehokkuutta, vähentää kustannuksia ja parantaa turvallisuutta rakennustyömaalla.

Tekoälyn soveltamiseen liittyvät uhkakuvat yrittäjyyden näkökulmasta 

Tekoälyn käyttöönottoon liittyy uhkakuvia, jotka voivat vaikuttaa sen mahdollistamiin liiketoimintamahdollisuuksiin ja yrittäjyyteen. Tekoälyteknologia ja valta voi keskittyä teknojätteille, jolloin ne määrittävät, mitä mahdollisuuksia jää muille. Niiden tekoälyalustojen nopea kehitystahti voi tehdä yrittäjien ponnistuksista turhia. Esimerkiksi liiketoiminnan perustaminen vanhan teknologian päälle voi olla riskialtista, kuten GPT-3:n tapauksessa. Useat yritykset rakensivat liiketoimintaa sen varaan mutta GPT-4:n tulo markkinoille toi mukanaan monia aiemmin erillisinä sovelluksina tarjottuja kyvykkyyksiä perusalustan osana.

***Euroopan tekoälyasetus pyrkii luomaan yhteiset pelisäännöt tekoälyn käytölle. Haasteena on teknologian jatkuva kehitys ja tekoälyn monimuotoisuus. Sääntelyn valvonta saattaa myös olla vaikeaa. Pahimmassa tapauksessa lisääntyvä sääntely johtaa byrokratiaan, liiketoimintamahdollisuuksien menetykseen ja tekoäly-yrittäjyysinnostuksen laimenemiseen Euroopassa.

Tekoälyn koulutusdataan ja tuotoksiin liittyvät tekijänoikeudet ovat kiistanalainen aihe, josta käydään oikeutta ja neuvotteluja. EU:n tekoälyasetuksella pyritään myös ottamaan kantaa tekoälyyn liittyviin oikeuksiin. Paljon kysymyksiä herättää esimerkiksi se, mitä dataa voi käyttää tekoälyn koulutukseen ja mitä ei. Tekoälyn tuottamat tekstit, kuvat ja muu sisältö voivat loukata tekijänoikeuksia. Viime kädessä käyttäjä on vastuussa tekoälyn tuotoksista ja siten yrittäjien pitää olla tietoisia tekijänoikeuksiin, yksityisyyden suojaan ja muihin juridisiin sekä eettisiin kysymyksiin liittyvistä kysymyksistä. Koulutuksella on tässä tärkeä merkitys.

Mutta suurempi uhkakuva suomalaisen yrittäjyyden kannalta on, että jäätäisiin vain odottamaan. Tekoälyn murros muuttaa yhteiskuntaa ja erityisesti liiketoimintaa, ja voittajia ovat sen aktiiviset soveltajat. Tekoälyn kehittäminen ja soveltaminen on kuitenkin tehtävä kestävien eettisten periaatteiden mukaan.

Tekoälyn vallankumous on korkeakoulutettujen yrittäjien kultakausi

Generatiivinen tekoäly on ”demokratisoinut” tekoälyn. Tämän vuoksi juuri nyt on korkeakoulutettujen yrittäjien kultakausi. Tuottavuus kasvaa, suunnittelutyön hinta laskee ja tekoälysovelluksia on helpompi rakentaa kuin aikaisemmin. Tekoälyteknologiat ovat nyt helpommin hyödynnettävissä ja saavutettavissa, mikä mahdollistaa innovaatioiden ja liiketoimintamallien kehittämisen ennennäkemättömällä nopeudella. Tämä aikakausi tarjoaa ainutlaatuisen tilaisuuden yrittäjille, jotka ymmärtävät ja osaavat hyödyntää tekoälyn tarjoamia työkaluja ja mahdollisuuksia luoden uudenlaisia palveluita ja ratkaisuja markkinoille.

Suomen Slush-sukupolvi tarttui ennakkoluulottomasti yrittäjyyden haasteeseen, ja syntyi monia yrityksiä, muun muassa Aiven, Supercell, Wolt, Iceye, IQM Quantum Computers, Smartly ja Supermetrics. Ne ovat luoneet talouskasvua ja työpaikkoja. Monet näistä yrityksistä rakensivat liiketoimintansa edellisten teknologiamurroksien tuomien alustojen päälle, kuten sovelluskauppojen, pilvipalveluiden ja sosiaalisen median päälle. Nyt alustana toimii generatiivinen tekoäly.

Jotta tämä mahdollisuus hyödynnettäisiin täysimääräisesti, tarvitaan ymmärrystä tekoälyaallon murroksen tuomista kyvykkyyksistä, muutoksen voimakkuudesta, uhkakuvista ja mahdollisuuksista. Korkeakoulujen pitää ymmärtää asemansa muutoksen mahdollistajana ja tuoda sekä tekoälyn opetus että tekoäly osaksi opetusta nopeammin. Suomen on keskityttävä järjestelmällisesi tekoälyn ja siihen liittyvään osaamisen kehittämiseen.

 

Artikkelin on kirjoittanut teknologia-alan asiantuntija ja Aalto yliopiston työelämäprofessori Tero Ojanperä.

Artikkeli on seitsemäs osa Akava Worksin ”Näkökulmia tekoälyyn” -artikkelisarjassa.

Kuva: DALL-E -tekoälysovelluksen tuottama kuva artikkelin teemoista.

 

* https://arxiv.org/pdf/2312.10997.pdf

** https://arxiv.org/pdf/2401.03428.pdf

*** https://www.consilium.europa.eu/fi/press/press-releases/2023/12/09/artificial-intelligence-act-council-and-parliament-strike-a-deal-on-the-first-worldwide-rules-for-ai/

Näkökulmia tekoälyyn, osa 6 – Nikolaj Tatti: Tekoälyn rajoitukset ja väärinkäyttö

Tekoälyä on tutkittu yli 60 vuotta, ja monia tekoälysovelluksia on ollut jo kauan käytössä. Kasvojen-, äänen- ja tekstintunnistusohjelmat ovat vakiintuneita sovelluksia, jotka ainakin osittain perustuvat koneoppimismenetelmiin. Kuitenkin viime vuonna tekoäly nousi uudella tavalla pinnalle luovien eli generatiivisten mallien myötä. Erityisesti laajat kielimallit, kuten ChatGPT, Google Bard ja kuvamallit, esimerkiksi Midjourney ja Stable Diffusion, ovat siivittäneet keskustelua. Kyseiset sovellukset ovat olleet erittäin näyttäviä ja ne ovat herättäneet paljon pöhinää. Kuitenkin keskustelussa on tärkeää pitää mielessä, että näissä malleissa niin kuin kaikissa tekoälysovelluksissa, on omat rajoituksensa. Näitä malleja voi väärinkäyttää siinä missä muutakin uutta teknologiaa.

Mitä tekoäly on?

Jotta voisimme tarkastella koneoppimisen heikkoja puolia, olisi hyvä aluksi kerrata, miltä tyypillinen tekoälymalli näyttää. Tarkastellaan yksinkertaista, mutta usein käytettyä, tekoälymallia, jolla suodatetaan roskasähköpostia. Tämä malli sisältää joukon sanoja ja siinä jokaisella sanalla on paino eli jokin luku: positiivinen numero tarkoittaa, että sana esiintyy usein normaaleissa sähköposteissa, ja negatiivinen numero tarkoittaa, että sana esiintyy usein roskasähköposteissa. Tuntemattomat sanat saavat painoksi nollan. Luokitin arvioi sähköpostia tarkastelemalla viestin sanoja. Tämä tehdään laskemalla yhteen viestin sanojen painot. Jos summa on positiivinen, viesti arvioidaan normaaliksi. Jos summa on negatiivinen, viesti arvioidaan roskasähköpostiksi.

Kyseisen mallin työläin prosessi on sanojen painojen määrittely. Tämä voidaan tehdä käsin, mutta parempia tuloksia saadaan nopeammin, jos painot valitaan tietokoneen avulla. Tämä tehdään valitsemalla tarkoitukseen sopiva koulutusaineisto, sopiva optimointikriteeri ja sopiva algoritmi, joka optimoi valittua kriteeriä.

Tietokoneen osuus mallintamisesta on siis optimoida painot eli mallien muuttujat eli parametrit, ja mallintajan osuus on mallin, aineiston, optimointikriteerin ja -algoritmin valinta. Mallintajan eli ihmisen merkitys usein unohtuu, kun puhutaan tekoälysovelluksista, vaikka hänen päätöksillään on huomattava vaikutus sovelluksen suorituskykyyn. Mallintajia tarvitaan, koska ei ole olemassa yleistä tekoälymallia, eli sellaista mallia, joka soveltuisi jokaiseen ongelmaan. Esimerkiksi kielimalli ei sovellu kuvien luomiseen, vaan siihen tarvitaan oma malli.

Vaikka edellä mainittu esimerkki on yksinkertainen, kaikki tekoälysovellukset noudattavat samaa periaatetta. Ongelma muotoillaan optimointiongelmaksi määrittelemällä mallin ja sen parametrien lisäksi, miten mallin toimivuutta mitataan ja millä tavalla parametreja optimoidaan.

Jos ongelma on monimutkainen, kuten esimerkiksi tekstin mallinnus, mallin pitää olla joustava. Joustavissa malleissa on hyvin monta parametria: esimerkiksi ChatGPT 4.0:n malliparametrien yhteismäärän on arvioitu olevan 1,76 triljoonaa. Isojen mallien käytössä kuitenkin esiintyy aina useita ongelmia. Ensinnäkin mallien kouluttaminen, tallentaminen ja käyttö kuluttaa paljon resursseja. Toiseksi joustavat mallit ovat herkkiä ylioppimiselle, jossa opetusaineistossa esiintyvä kohina vaikuttaa voimakkaasti mallin päätöksentekoon. Kolmanneksi isoja malleja on käytännössä mahdotonta tutkia käsin. Ne ovat ikään kuin mustia laatikkoja, joiden tehokkuutta voi ainoastaan arvioida tilastollisella analyysilla, mutta joiden päätöskriteerien loogisuutta on mahdotonta analysoida. Tämä myös tarkoittaa sitä, että jos huomataan, että malli käyttäytyy väärällä tavalla, mallin korjaaminen ei onnistu kovin helposti.

Tekoälyn rajoitukset

Tarkastellaan seuraavaksi tekoälyn rajoituksia.

Koneoppimisen asiantuntijoiden keskuudessa liikkuu seuraava urbaani legenda: Yhdysvaltain armeija päätti rakentaa luokittimen, joka pystyisi erottelemaan Yhdysvaltain ja Neuvostoliiton tankit satelliittikuvista. Luokitin saatiin tehtyä ja se toimikin testiaineistolla erittäin hyvin. Mutta lisätestien jälkeen sen huomattiin olevan täysin kelvoton. Koulutusaineistossa kaikki Yhdysvaltain tankit oli valokuvattu päivällä ja Neuvostoliiton tankit oli valokuvattu yöllä. Luokitin olikin oppinut tunnistamaan päiväsajan eikä tankkeja kuvista.

Kuten urbaaneilla legendoilla on tapana olla, kyseistä tapausta ei todennäköisesti tapahtunut tai ainakaan siitä ei ole uskottavaa dokumentaatiota. Kuitenkin tällä koulutusaineistolla ja melkein millä tahansa mallilla näin kävisi. Koneoppimisalgoritmi nimittäin ei tiedä, haluaako käyttäjä mallintaa päiväsaikaa vai tankkeja. Kun päiväsaika on helpompi ongelma, algoritmi keskittyy ratkaisemaan sen. Mallintajan pitää siis ottaa tämä huomioon ja joko korjata koulutusaineisto tai muokata mallia.

Tiedeyhteisössä on paljon esimerkkejä siitä, että rakennettu malli on tehnyt jotain muuta kuin on alun perin haluttu. Koronapandemian takia ajankohtainen luokitteluongelma on taudin diagnosointi keuhkoröntgenkuvista. Tätä varten eräs suosittu aineisto koostuu toisaalta keuhkokuumetta ja toisaalta koronapotilaiden keuhkokuvista. Kuitenkin tässä koulutusaineistossa keuhkokuumepotilaat olivat lapsia ja koronapotilaat aikuisia, jolloin tällä aineistolla koulutettu luokitin saattoikin ennustaa potilaan iän taudin sijasta [21]. Tämän lisäksi Maguolo ja Nanni [16] näyttivät, että vaikka yleisesti käytetyistä röntgenkuva-aineistoista olisi sensuroitu olennainen tieto, eli itse keuhkokuvat, kuvista rakennettu koronaluokitin silti pääsee hyviin tuloksiin.

Pedreshi et al. [20] tutkivat luottoluokitusaineistoa ja näyttivät, että aineistossa esiintyvää syrjintää esiintyy myös aineiston päälle rakennetussa luokittimessa. Malli oli siis oppinut syrjimään aineiston pohjalta. Tämän lisäksi tutkijat näyttivät, että ei riitä, että poistaa aineistosta piirteet, joita voi käyttää syrjimiseen, kuten esimerkiksi iän tai sukupuolen: malli nimittäin pystyi päättelemään poistettujen piirteiden arvot muista piirteistä tietyllä tarkkuudella. Tällainen epäsuora syrjintä edeltää tekoälyä. Kuuluisa esimerkki tästä on yhdysvaltalaisen asuntolainayhdistyksen (HOLC) 1930-luvulla laatima asuinalueiden luokittelu: tietyt alueet olivat yhdistyksen mukaan verrattain riskittömiä asuntolainakohteita, ja jotkin alueet enemmän riskikkäitä. Tämä luokittelu johti siihen, että asuntolainan saaminen oli vaikeampaa joillain alueilla. Näillä alueilla asui pääsääntöisesti vähemmistöjen edustajia. Toisin sanoen käyttämällä pelkästään osoitetietoja pystyttiin syrjimään vähemmistöjä. Muun muassa tämän ilmiön takia tekoälytutkimuksessa on viime aikoina kehitetty järjestelmiä, jotka ottavat syrjinnän huomioon [1].

Laajoja kielimalleja on koulutettu valtavalla määrällä aineistoa tavoitteena matkia ihmisen tuottamaa tekstiä. Toisaalta näitä malleja on markkinoitu uudenlaisina hakukoneina, ja niitä käytetään etsimään tietoa. Nimenomaan tämä koulutuksen ja todellisen käytön ero voi olla ongelmallinen, koska kielimallit voivat tuottaa virheellistä tietoa.

Kielimallien virheet juontavat juurensa kahdesta lähteestä.

Ensinnäkin itse koulutusaineistossa voi olla vinoumia. Esimerkiksi, kielimallit ovat tuottaneet väärää terveystietoa, joka on perustunut rasistisiin käsityksiin [19]. Varhainen versio ChatGPT:sta on myös, pyydettäessä, tuonut esiin maita, joiden asukkaita voi kiduttaa [4]. Tämä tulos on erittäin ongelmallinen, erityisesti koska kielimalleilla voivat olla laajaa vaikutusta. Moni pitää vaikkapa Microsoftin tai Googlen hakupalvelun tarjoamaa vastausta paljon uskottavampana kuin yksittäisten käyttäjien viestejä sosiaalisessa mediassa. Lähdekritiikki on mahdotonta, jos alkuperäinen lähde ei ole tiedossa.

Toiseksi kielimallit saattavat johtaa harhaan antamalla täysin vääriä vastauksia. Esimerkiksi kielimallit eivät pärjää kovin hyvin matematiikkatehtävissä [7]. Mallit voivat myös tuottaa väärää tietoa. Yhdysvalloissa ainakin kahdessa tapauksessa lakimiehet ovat jääneet kiinni kielimallien käytöstä, osittain sen takia, että kielimallit olivat tuottaneet tekaistuja ennakkotapauksia [27].

Tekoälyn huijaaminen

Valtaosa koneoppimismenetelmistä olettaa, että aineiston lähde ei ole tietoinen luokittimesta eikä yritä huijata sitä. Luokittimia on kuitenkin usein mahdollista kiertää.

Tarkastellaan aluksi aikaisemmin esitettyä roskasähköpostiluokittelijaa. Helpoin tapa kiertää kyseinen luokittelija on käyttää vaihtoehtoisia kirjaimia, esimerkiksi Unicode-merkistöistä löytyy merkkejä, jotka näyttävät samanlaisilta, mutta joilla on eri koodi. Toinen suoraviivainen tapa on lähettää teksti kuvana. Tässä ei hyökätä varsinaisesti mallia vastaan, vaan esikäsittelyprosessia vastaan. On kuitenkin tärkeää pitää mielessä, että järjestelmä on yhtä heikko kuin sen heikoin lenkki.

Hienostuneempi hyökkäys käyttää mallin painoja hyväksi. Jos hyökkääjä tuntee sanojen painotukset, hän voi vältellä negatiivisia sanoja ja sirotella positiivisia sanoja viestin sekaan. Tällöin luokitin päättelee, että viesti ei olekaan roskapostia.

Samanlaisia hyökkäyksiä voidaan tehdä monimutkaisempia luokittimia vastaan. Hyökkäyksiä, jossa hyökätään kuvien luokittelua vastaan, on tutkittu erityisen paljon. Ne saattavat perustua siihen, että luokittimen suunnittelussa ei ole otettu kaikkia tilanteita huomioon. Esimerkiksi sotkemalla liikennemerkki saadaan luokitin luulemaan, että merkissä lukeekin jotain muuta. Ihminen kuitenkin huomaa heti, että kyltissä on jotain vikaa, koska ihminen tietää, miltä oikea liikennemerkki näyttää. Luokitin ei voi päätellä samalla tavalla, ellei sitä ole erikseen koulutettu siihen.

Monimutkaiset luokittimet, erityisesti kuvaluokittimet, toimivat eri tavalla kuin ihmiset. Nämä luokittimet päättelevät yksittäisistä pikseliarvoista, mitä kuvassa näkyy. Muuttamalla pikseliarvoja voidaan huijata luokitinta tavalla, joka ei olisi mahdollista, jos tulkinnan olisi tekemässä ihminen. Esimerkiksi Sharif et al. [23] saivat laittamalla erityiset lasit päähänsä luokittimen luulemaan, että kuvassa onkin tietty julkisuuden henkilö. Toisena absurdina esimerkkinä Athalye et al. [3] tulostivat 3D-tulostimella kilpikonnan, jonka Googlen kehittämä kuvaluokitin luokitteli kivääriksi.

On hyvää pitää mielessä, että näissä tapauksissa varsinaisen hyökkäyksen, esimerkiksi silmälasien suunnittelun, tekee varta vasten tähän tarkoitukseen suunniteltu algoritmi. Toisin kuin roskapostiesimerkissä hyökkäys ei onnistu ilman koneen apua. Tämän lisäksi nämä hyökkäykset ovat aina räätälöityjä tiettyä luokitinta vastaan. Sama kuvamanipulaatio ei siis toimi useaa luokitinta vastaan. Jotta hyökkääjä voi toteuttaa hyökkäyksen, hänellä pitää olla pääsy luokittimeen. Ihannetapauksessa hyökkääjä tietää mallin rakenteen ja muuttujat, esimerkiksi siinä tapauksessa, että malli on julkinen. Toisessa tapauksessa hyökkääjä ei tiedä mallin muuttujia, mutta hän pystyy käyttämään mallia esimerkiksi rajapinnan kautta, jolloin hän voi päätellä muuttujat kyselyiden avulla. Tässäkin tapauksessa hyökkäys onnistuu, mutta hyökkäysalgoritmi on monimutkaisempi ja kuluttaa enemmän resursseja.

Edellä mainituissa esimerkeissä hyökkäys tehtiin luokitteluvaiheessa. Jos hyökkääjällä on pääsy opetusaineistoon, muuttamalla sitä hän pystyy vaikuttamaan luokittimen päättelyyn. Tällainen aineiston myrkytys voi tulla erityisen ajankohtaiseksi, jos kielimalleja aletaan käyttää tietolähteinä, koska mallit on koulutettu julkisella aineistolla.

Varhainen esimerkki opetusaineiston manipuloinnista on hakukoneen tulosten manipuloiminen. Suosituin hakukone ennen Googlea oli Altavista, joka tuli käyttöön vuonna 1995 ja poistui käytöstä vuonna 2013. Sen hakukone perustui puhtaasti sivujen sisältöön: jos sivun HTML-koodista löytyi termejä, jotka vastasivat hakua, niin kyseinen sivu sijoitettiin korkealle. Tämä menetelmä johti nopeasti siihen, että sivustojen kehittäjät piilottivat HTML-koodiin paljon yleisiä, mutta sisällön kannalta epäolennaisia termejä, jotta hakukone näyttäisi sivun mahdollisimman usein. Tämä huononsi hakutuloksia huomattavasti, minkä vuoksi syntyi uusi markkinarako, jonka Google täytti. Google-hakukoneen toiminta perustui linkkeihin: tärkeille sivuille oli paljon linkkejä tärkeiltä sivuilta. Tämä paransi huomattavasti hakukoneen tuloksia ja oli yksi tärkeimmistä syistä siihen, että Google vei voiton selainten välisessä kilpailussa.

Vaikka Googlen tulosten manipulointi on huomattavasti vaikeampaa kuin Altavistan, se on kuitenkin mahdollista.  Perusajatus tällaisissa hyökkäyksissä, joita on yleensä kutsuttu Google-pommeiksi, on luoda sivusto, johon on paljon linkkejä. Hyökkäysten motiivit ovat tavallisimmin olleet poliittisia tai taloudellisia. Tämän lisäksi manipulaatioita on tehty huumorimielessä tai kilpailun yhteydessä [8].

Mielenkiintoinen esimerkki aineiston myrkytyksestä on Nightshade-sovellus, jonka tarkoitus on vaikeuttaa kuvien luvatonta käyttöä luovien eli generatiivisten mallien koulutuksessa [13]. Sovellus toimii muokkaamalla kuvia siten, että kuva näyttää täysin samalta, mutta näillä kuvilla koulutettu luova eli generatiivinen malli toimii huonosti.

Onnistunut aineiston myrkytys edellyttää, että on tiedossa, miten malli toimii. Altavistan tapauksessa tiedettiin, että HTML-koodissa esiintyneet termit olivat tärkeitä, kun taas Googlen tapauksessa tiedettiin, että linkit olivat tärkeitä. Tällä hetkellä ei ole selvää miten kielimalleihin voi vaikuttaa. Tämän lisäksi, kielimalleja ei päivitetä uusimmalla aineistolla, toisin kuin hakukoneita. Joten manipulaatiomahdollisuudet ovat tällä hetkellä ainoastaan teoreettiset, mutta tilanne saattaa muuttua tulevaisuudessa.

Tekoälyn väärinkäyttö

Kun tekoälysovelluksia on tarkasteltu etiikan näkökulmasta, yleensä on tuotu esiin ongelmia yksityisyyden suojan kanssa, kuten konenäön käyttämistä kasvojentunnistuksessa joko valtion [10] tai yritysten toimesta [14]. Tekoälyä on myös käyty profilointiin: Cambridge Analytica käytti Facebookin kautta kerättyä aineistoa Donald Trumpin vuoden 2016 kampanjassa ja brexit-kampanjassa [6]. Yhdysvaltainen kappaketju Target käytti 2000-luvun alussa myyntiaineistoa ennustaakseen, oliko asiakas raskaana [9].

Luovat eli generatiiviset mallit ovat luoneet uusia väärinkäyttömahdollisuuksia. Perimmäinen ongelma on, että usein oletetaan ihmisen tuottaneen sisällön esimerkiksi tekstin, kuvan tai äänen ja että on suhteellisen helppoa ja mahdollista erottaa ihmisen tuottama sisältö koneen tuottamasta sisällöstä. Tämä oletus on murenemassa.

Kielimallia käyttäen on suhteellisen helppoa tuottaa uskottavaa tekstiä, jonka sisältö kuitenkin saattaa olla virheellistä. Tästä syystä suosittu kyselypalsta Stack Overflow on kieltänyt kielimallien käytön [24]. Kielto on luonteva myös, koska mallin tuottamat vastaukset eivät tuo alustalle mitään lisäarvoa. Palstalle kirjoittava kysyjä olisi voinut yhtä hyvin kysyä saman asian suoraan kielimallista, joten on aiheellista kysyä, miksi hän vaivautuisi käyttämään mitään muuta palvelua. On myös hyvä huomata, että kielimallit on koulutettu muun muassa tekstillä, joka on saatu tällaisilta kyselypalstoilta. Tästä syystä kielimallien kehittäjien intressissä on, että kielimallien vastauksia ei esiinny palstoilla, koska muuten voi syntyä noidankehä, jossa uusia kielimalleja koulutetaan vanhan kielimallin vastauksilla.

Kielimallien käyttö sisällön tuottamisessa on ollut myös ongelmallista. Scifi-lehti Clarkesworld joutui sulkemaan vuoden 2023 alussa uusien tarinoiden vastaanoton sen jälkeen, kun lehteen oli lähetetty satoja tekoälyllä tuotettuja novelleja [2]. Useat julkaisijat alkoivat tuottaa tekoälyllä tekstejä joko myöntäen sen avoimesti tai väittäen, että kirjoittaja oli ihminen [18].

Vuonna 2023 on julkaistu useita tiedeartikkeleita, joissa tekijäksi oli listattu kielimalli. Tästä seurasi se, että isot tiedelehtien julkaisijat päivittivät ohjeistustaan ja kielsivät kielimallien laittamisen tekijöiksi. Tämä kielto on luonteva, koska kirjoittaja on vastuussa tekstistään, mutta kielimalli ei voi kantaa vastuuta. Kielimallien dokumentoitu käyttö on kuitenkin edelleen sallittu.

Kielimallien käytöstä opetustilanteissa on tullut erittäin iso ongelma sekä yliopistotasolla [22] että alemmilla koulutusasteilla [25]. Kielimallien avulla on mahdollista tuottaa esseevastauksia ja väittää tekstiä omakseen. Tämä on plagiointia. Sen tunnistaminen on hyvin vaikeaa, ellei suorastaan mahdotonta. Kielimallit huonontavat esseetehtävien käytettävyyttä opiskelijoiden sisäistämiskyvyn testaamisessa ja arvioimisessa, ja sen vuoksi opettajat ovat joutuneet suunnittelemaan kurssitehtävät uudelleen tai muuttamaan arviointikriteerejä. Ongelmana on myös, että usein rajattu kielimallin käyttö, esimerkiksi apuna oikoluvussa tai ladonnassa, voi olla sallittua, mutta sisällön luomiseen se ei ole toivottua. Kielimallien käytön rajoitusten selittäminen opiskelijoille voi olla haastavaa. Tällä hetkellä näihin ongelmiin ei ole hyvää ratkaisua.

Ongelmia on myös ilmennyt kuvan ja äänen tuottamisessa. Tekoälyllä luodut kuvat voivat näyttää aidoilta, erityisesti jos kuvat on poistettu asiayhteydestään eli kontekstistaan [28]. Tekoälysovellusten tuottamia kuvia ja ääntä on valjastettu muun muassa romanssihuijauksiin [26] ja disinformaation levittämiseen [11]. Nämä uudet työkalut eivät varsinaisesti luo uusia väärinkäytöstapoja, vaan sen sijaan ne madaltavat olemassa olevien huijaus- tai väärinkäytöskampanjoiden kustannuksia.

Kuvissa ja äänissä on huomattavan paljon enemmän dataa kuin tekstissä. Tämän takia tekoälyllä luodun kuvan tai äänen erottaminen aidosta on helpompi tehtävä kuin tekoälyllä tuotetun tekstin erottaminen ihmisten kirjoittamasta. Tämän lisäksi kuva- tai äänitiedostoon voi lisätä digitaalisen vesileiman, mikä huomattavasti helpottaa tunnistamista. On kuitenkin tärkeää huomata, että tällainen vesileima on poistettavissa tai piilotettavissa, mutta toisaalta vesileiman käyttö nostaa kiinnijäämisen todennäköisyyttä ja sitä kautta huijauskampanjan kustannuksia.

Keskustelu tekijänoikeuksista tekoälysovelluksissa on ollut vilkasta. Mallit on usein koulutettu aineistolla, joka on suojattu tekijänoikeuksilla. Esimerkiksi kuvanluontisovellus Midjourney on muun muassa koulutettu Tove Janssonin teoksilla [15]. On epäselvää, onko tällainen aineiston käyttö laillista, ja tekijänoikeusasiasta on meneillään monia oikeudenkäyntejä [1712]. Vaikka käyttö todettaisiin lailliseksi, on hyvin todennäköistä, että suuri osa taiteilijoista ei hyväksy, että heidän teoksiaan käytetään koulutusaineistona sovelluksessa siten, että he eivät saa palkkiota. Lisäksi sovellus saattaa tehdä heidän työnsä tarpeettomaksi tulevaisuudessa. Toisaalta Yhdysvalloissa on tullut useita oikeuden päätöksiä, joiden mukaan tekoälyllä tuotettua materiaalia ei voida suojata tekijänoikeuslailla, koska itse teoksen tuottamiseen tarvittava ihmistyö on ollut liian vähäpätöistä [5].

Tekoälysovellukset ovat erittäin hyödyllisiä työkaluja, mutta niitä voi myös väärinkäyttää tai käyttää väärin. Sen takia on tärkeää, että ymmärrämme, miten nämä mallit toimivat, miten niitä voi käyttää ja millaisia seurauksia niiden käytöllä on.

 

Lähteet

[1]    ACM Conference on Fairness, Accountability, and Transparency. URL https://facctconference.org/.

[2]    Vincent Acovino, Mary Louise Kelly, and Halimah Abdullah. A sci-fi magazine has cut off submissions after a flood of AI-generated stories. NPR, 2023. URL https://www.npr.org/2023/02/24/1159286436/ai-chatbot-chatgpt-magazine-clarkesworld-artificial-intelligence.

[3]    Anish Athalye, Logan Engstrom, Andrew Ilyas, and Kevin Kwok. Synthesizing robust adversarial examples. In International conference on machine learning, pages 284–293. PMLR, 2018.

[4]    Sam Biddle. The internet’s new favorite AI proposes torturing Iranians and surveilling mosques. The Intercept, 2021. URL https://theintercept.com/2022/12/08/openai-chatgpt-ai-bias-ethics/.

[5]    Blake Brittain. AI-generated art cannot receive copyrights, US court says. Reuters, 2023. URL https://www.reuters.com/legal/ai-generated-art-cannot-receive-copyrights-us-court-says-2023-08-21/.

[6]    Philip Bump. Everything you need to know about the Cambridge Analytica-Facebook debacle. The Washington Post, 2018. URL https://www.washingtonpost.com/news/politics/wp/2018/03/19/everything-you-need-to-know-about-the-cambridge-analytica-facebook-debacle/.

[7]    Lingjiao Chen, Matei Zaharia, and James Zou. How is ChatGPT’s behavior changing over time?, 2023. URL https://arxiv.org/pdf/2307.09009.pdf.

[8]    Isabel Drost and Tobias Scheffer. Thwarting the nigritude ultramarine: Learning to identify link spam. In European Conference on Machine Learning, pages 96–107. Springer, 2005. URL https://doi.org/10.1007/11564096_14.

[9]    Charles Duhigg. How companies learn your secrets. The New York Times, 2012. URL https://www.nytimes.com/2012/02/19/magazine/shopping-habits.html.

[10]    Steven Feldstein. China’s high-tech surveillance drives oppression of uyghurs. Bulletin of the atomic scientists, 2022. URL https://thebulletin.org/2022/10/chinas-high-tech-surveillance-drives-oppression-of-uyghurs/.

[11]    Allie Funk, Adrian Shahbaz, and Kian Vesteinsson. The repressive power of artificial intelligence. Freedom House, 2023. URL https://freedomhouse.org/report/freedom-net/2023/repressive-power-artificial-intelligence.

[12]    Michael M. Grynbaum and Ryan Mac. The Times sues OpenAI and Microsoft over A.I. use of copyrighted work. The New York Times, 2023. URL https://www.nytimes.com/2023/12/27/business/media/new-york-times-open-ai-microsoft-lawsuit.html.

[13]    Karen K. Ho. New data ‘poisoning’ tool enables artists to fight back against image generating AI. ARTNews, 2023. URL https://www.artnews.com/art-news/news/new-data-poisoning-tool-enables-artists-to-fight-back-against-image-generating-ai-companies-1234684663/.

[14]    Fred Katz. James Dolan doubles down on use of facial recognition at msg in latest interview. The Athletic, 2023. URL https://theathletic.com/4132393/2023/01/27/james-dolan-msg-facial-recognition-wfan/.

[15]    Anna-Maija Lippu. Tove Janssonin nimi on taidepiirejä huolestuttavalla listalla: näin kommentoi muumeja vimmatusti suojeleva yritys. Helsingin Sanomat, 2024. URL https://www.hs.fi/kulttuuri/art-2000010110672.html.

[16]    Gianluca Maguolo and Loris Nanni. A critic evaluation of methods for covid-19 automatic detection from x-ray images. Information Fusion, 76:1–7, 2021. URL https://doi.org/10.1016/j.inffus.2021.04.008.

[17]    Shanti Escalante-De Mattei. Artists file class action lawsuit against AI image generator giants. ARTNews, 2023. URL https://www.artnews.com/art-news/news/artists-class-action-lawsuit-against-ai-image-generator-midjourney-stability-deviantart-1234653892/.

[18]    Brian Merchant. The depressing fall of Sports Illustrated reveals the real tragedy of AI. The Los Angeles Times, 2023. URL https://www.latimes.com/business/technology/story/2023-12-01/column-the-depressing-fall-of-sports-illustrated-reveals-the-real-tragedy-of-ai.

[19]    Jesutofunmi A Omiye, Jenna C Lester, Simon Spichak, Veronica Rotemberg, and Roxana Daneshjou. Large language models propagate race-based medicine. NPJ Digital Medicine, 6(1): 195, 2023. URL https://doi.org/10.1038/s41746-023-00939-z.

[20]    Dino Pedreshi, Salvatore Ruggieri, and Franco Turini. Discrimination-aware data mining. In Proceedings of the 14th ACM SIGKDD international conference on Knowledge discovery and data mining, pages 560–568, 2008. URL https://doi.org/10.1145/1401890.1401959.

[21]    Michael Roberts, Derek Driggs, Matthew Thorpe, Julian Gilbey, Michael Yeung, Stephan Ursprung, Angelica I Aviles-Rivero, Christian Etmann, Cathal McCague, Lucian Beer, et al. Common pitfalls and recommendations for using machine learning to detect and prognosticate for covid-19 using chest radiographs and ct scans. Nature Machine Intelligence, 3(3):199–217, 2021. URL https://doi.org/10.1038/s42256-021-00307-0.

[22]    Molly Roberts. AI is forcing teachers to confront an existential question. The Washington Post, 2023. URL https://www.washingtonpost.com/opinions/2023/12/12/ai-chatgpt-universities-learning/.

[23]    Mahmood Sharif, Sruti Bhagavatula, Lujo Bauer, and Michael K Reiter. A general framework for adversarial examples with objectives. ACM Transactions on Privacy and Security (TOPS), 22(3):1–30, 2019. URL https://doi.org/10.1145/3317611.

[24]    StackOverflow. Temporary policy: Generative AI (e.g., ChatGPT) is banned, 2022. URL https://meta.stackoverflow.com/questions/421831/temporary-policy-generative-ai-e-g-chatgpt-is-banned.

[25]    Noora Takamäki. Lukio-opettaja keksi keinon, miten hän voi paljastaa Chat GPT:llä huijanneet oppilaat. YLE, 2023. URL https://yle.fi/a/74-20055878.

[26]    Olli-Pekka Toivanen. Romanssihuijarit ovat jo valjastaneet tekoälyn käyttöönsä —videopuhelussa näkemääsi ihastusta ei ehkä ole olemassakaan. YLE, 2023. URL https://yle.fi/a/74-20060751.

[27]    Pranshu Verma. Michael Cohen used fake cases created by AI in bid to end his probation. The Washington Post, 2023. URL https://www.washingtonpost.com/technology/2023/12/29/michael-cohen-ai-google-bard-fake-citations/.

[28]    James Vincent. The swagged-out pope is an AI fake—and an early glimpse of a new reality. The Verge, 2023. URL https://www.theverge.com/2023/3/27/23657927/ai-pope-image-fake-midjourney-computer-generated-aesthetic.

 

Artikkelin on kirjoittanut Helsingin yliopiston tietojenkäsittelyntieteen professori Nikolaj Tatti.

Artikkeli on kuudes osa Akava Worksin ”Näkökulmia tekoälyyn” -artikkelisarjassa.

Kuva: DALL-E -tekoälysovelluksen tuottama kuva artikkelin teemoista.

Näkökulmia tekoälyyn, osa 5 – Petri Ylikoski: Tekoäly ja asiantuntijatyön muutos

Tekoäly ja teknologinen muutos

Tekoälyn kehitys on sekä kiehtovaa että hämmentävää. Asiaa ei auta, että jostakin syystä tekoälystä uutisoidaan eri tavoin kuin muista teknologioista. Tekoälystä kirjoitetaan tekijänä ja toimijana, kun muita teknologioita yleensä tarkastellaan selvästi välineinä. Fantasia tekoälystä toimijana haittaa nykyisen tekoälyn ymmärtämistä ja kätkee taakseen sovelluksien takana olevan ihmistyön. Tekoälyyn kannattaa suhtautua samalle tavoin kuin muihinkin uusin teknologioihin ja olla varovainen yksityiskohtaisten tulevaisuuden ennustusten kanssa. Esimerkiksi käy autonomisten ajoneuvojen kehittäminen. Teknologiayhtiöiden johtajat ovat vuosia ennustaneet, että täysin autonomiset ajoneuvot olisivat todellisuutta aivan lähitulevaisuudessa. Mutta vuodet ovat kuluneet ja ennusteet ovat osoittautuneet toiveajatteluksi. Kadut eivät ole täynnä robottitakseja, ja sellaiset saattavat pysyä kokeiluasteella hyvin pitkään, ellei niitä sitten lopeteta kokonaan kalliiden kustannusten vuoksi. (Brooks 2024.)

Tekoälyn kehitystä ei tule ajatella yhteiskunnallisessa tyhjiössä. Tekoälyn sovellutukset ovat sosio-teknisiä järjestelmiä. Ne pitävät sisällään tietojärjestelmien lisäksi ihmiset ja organisaatiot, jotka niitä kehittävät, käyttävät ja mahdollisesti ovat niiden käytön kohteina. Kyse on yhteiskunnallisesta ilmiöstä, jonka tuleva kehitys tulee riippumaan huomattavasti markkinakilpailusta, oikeudellisesta säätelystä ja viime kädessä siitä, kuinka käyttäjät ottavat järjestelmät haltuun. Tämä on erityisen tärkeää pitää mielessä pohdittaessa tekoälyn vaikutuksia työelämään ja asiantuntijatyöhön. Vielä ei tiedetä, mitkä ovat parhaita tapoja käyttää uusia välineitä ja millaisia käyttöjä tulisi ehdottomasti välttää. Emme myöskään tiedä, miten parhaiten toteuttaa ihmisen ja tekoälyn yhteistoiminta. Samoin kuin aikaisempien teknologioiden – kuten sähkön ja internetin – käyttöönoton kohdalla, odotettavissa on varsin pitkä kokeilu- ja oppimisjakso ennen kuin yksilöt ja organisaatiot ovat löytäneet parhaat tavat hyödyntää ja elää yhdessä uusien teknologioiden kanssa.

Kokeilujen myötä myös organisaatiot ja työtehtävät tulevat muuttumaan, eikä välttämättä parempaan suuntaan. Teknologinen muutos hävittää yllättävän harvoin kokonaisia ammatteja. Useimmiten muutos tapahtuu työtehtävien tasolla ja siinä, kuinka paljon työntekijöitä tarvitaan tehtävien suorittamiseen. Seuraavassa keskityn tarkastelemaan asioita työtehtävien muutoksen tasolla. Lähden liikkeelle tekoälyteknologioiden ominaisuuksista ja etenen sitten niiden käytön seurauksiin pitäen silmällä erityisestä asiantuntijatehtäviä.

Kaikki perustuu dataan

Sana-assosiaation perusteella tekoälyn salaisuus olisi sen älykkyydessä tai kyvyssä järkeillä. Mutta tosiallisesti kaiken perusta on data. Koneoppiminen ja muut tekoälymenetelmät perustuvat pohjimmiltaan datan säännönmukaisuuksien tunnistamiseen. Jos aiheesta ei ole dataa, ei tekoälystä ole siihen apua. Puutteellinen, epäedustava, systemaattisia virheitä sisältävä tai epätarkoituksenmukainen data vaarantaa tekoälyn soveltamisen, sillä se johtaa virhediagnooseihin, epäluotettaviin ennusteisiin ja syrjiviin päätöksiin (Hand 2020). Viime vuosikymmenten tekoälyn kehitys perustuukin pitkälti tietokoneiden laskentatehon ja saatavilla olevan datan määrän nopeaan kasvuun. Mitä tästä datan keskeisyydestä seuraa?

Yksi seuraus on, että datan tuottaminen ja hallinta ovat yhä keskeisempiä organisaatioiden toimintoja. Tämä tuottaa monia uusia dataan liittyviä työtehtäviä. Datan keräämisen ja käytön yhä laajemman oikeudellisen säätelyn myötä datan turvallisuudesta huolehtiminen tulee yhä tärkeämmäksi, erityisesti siten, että datan kohteiden yksityisyys tulee turvatuksi. Jotta eri lähteistä olevaa dataa voidaan käyttää, täytyy myös tietojärjestelmien ja niiden sisältämän datan olla yhteensopivaa. Tämä merkitsee suurta määrää työtä, joka liittyy yhtenäisten standardien luomiseen. Datan keräämisen ja käytön prosesseilta vaaditaan yhä suurempaa vastuullisuutta ja läpinäkyvyyttä, mikä merkitsee, että erilaiset datan, mallien ja prosessien auditointitehtävät ovat suuri tulevaisuuden kasvuala. Mitkään näistä uusista tehtävistä eivät ole puhtaasti tietoteknisiä asiantuntijatehtäviä, vaan ne vaativat usein oikeudellista ja sisällöllistä osaamista.

Vaikka datasta puhutaan uutena öljynä, sitä ajatellaan usein abstraktina informaationa. Moni tekoälyhanke on lähtenyt liikkeelle ajatuksesta, että tekoäly auttaa nopeasti säästämään kustannuksia tai tehostamaan toimintaa, mutta niissä on opittu kantapään kautta, että käyttökelpoinen data edellyttää usein paljon työtä ja resursseja. Datan tuottaminen ja sen turvallinen hallinnointi edellyttävät soveltuvan infrastruktuurin ja sen jatkuvan ylläpidon. Toiseksi, suuri määrä dataa ei riitä, sen tulee olla myös laadukasta ja relevanttia. Vaikka data syntyisi muun toiminnan sivutuotteena, sen laadun parantaminen saattaa edellyttää muutoksia työtehtäviin ja niiden sisältöön. Dataa täytyy kerätä, käsitellä ja kuratoida. Datan käyttökelpoisuuden arvioiminen edellyttää asianmukaista metadataa, tietoa datan alkuperästä ja käsittelytavoista. Tällainen datatyö jää usein näkymättömäksi, sillä se kasvaa pikkuhiljaa monien uudistusten myötä eikä sitä varten palkata erityistä henkilökuntaa. Asiantuntijatehtävissä työskentelevät saavat kuin vaivihkaa osansa näistä tehtävistä.

Esimerkkinä voi miettiä kuinka paljon esimerkiksi lääkäreiden ja sairaanhoitajien työstä nykyään liittyy datan syöttämiseen erilaisiin järjestelmiin (Bossen ym. 2019). Tulevaisuudessa automaatio ja erilaiset sensorit saattavat auttaa asioiden kirjaamisessa ja dokumentoinnissa, mutta ne tuovat mukanaan uusia tehtäviä, kuten sensorien ja järjestelmien ylläpito ja oikean toiminnan varmistaminen. Nämä datatyötehtävät tulevat tyypillisesti aikaisempien tehtävien lisäksi ilman, että tätä otetaan täysin huomioon töiden mitoituksessa. Usein tämä tarkoittaa, että työntekijällä on vähemmän aikaan varsinaisten tehtäviensä tekemiseen. Esimerkiksi hoitajilla ja lääkäreillä on yhä vähemmän aikaa potilaiden kanssa vuorovaikuttamiseen, kun he kasvavassa määrin tekevät datan keräämiseen ja ylläpitoon liittyviä tehtäviä. Tällaiset datatyön tuottamat vaihtoehtoiskustannukset olisikin syytä ottaa huomioon tietojärjestelmiä rakennettaessa.

Läpinäkyvyyden haaste

Monet tekoälyjärjestelmien tuottamat haasteet ovat tuttuja jo vanhemmista tietojärjestelmistä, jollaisia kaikki nykyaikaiset organisaatiot soveltavat. Tällaiset järjestelmät ovat usein vuosien kehitystyön seurauksena hyvin monimutkaisia, ja siksi on monesti vaikeaa arvioida niiden luotettavuutta ja ymmärtää niiden toimintaa. Tämä tuottaa ongelmia myös hallittavuudelle ja yhteensopivuudelle. Tekoälyn lisääminen järjestelmiin ei ole yksinkertaista ja voi tehdä järjestelmistä vielä vaikeampia ymmärtää. Uudet teknologiat rakentuvat yleensä vanhempien päälle, eivätkä tekoälyjärjestelmät ole poikkeus. Tekoälyn lisääminen saattaa parantaa käytettävyyttä, mutta se ei väistämättä ratkaise järjestelmien monimutkaisuutta ja sen tuottamia ongelmia.

Tekoälyjärjestelmät tuovat mukanaan myös uusia läpinäkyvyyden ja ymmärrettävyyden haasteita. Nämä tulevat esiin, kun tarkastellaan tekoälyn käyttöä päätöksenteossa (Levy ym. 2021). Automaattisessa päätöksenteossa voidaan erotella sääntöpohjaiset ja koneoppimiseen perustuvat ratkaisut. Sääntöpohjaisissa järjestelmissä tietokoneelle annetaan selkeät säännöt, joiden perusteella käsitellä tapauksia. Tällaiset järjestelmät eivät edellytä varsinaista tekoälyä, ja niiden keskeisiä riskejä ovat virheellisestä datasta tai ohjelmointivirheistä aiheutuvat virheelliset päätökset. Sen sijaan koneoppimiseen perustuvissa järjestelmissä on kaksi lisähaastetta. Ensinnäkin tällaiset järjestelmät tekevät päätöksiä perustuen sääntöihin, jotka ne ovat yleistäneet opetusaineistona käytetystä datasta. Tästä seuraa, että mikäli järjestelmän opettamisessa käytetty data on vinoutunutta esimerkiksi syrjivien käytäntöjen vuoksi, saattaa järjestelmä oppia nämä samat vinoumat ja ryhtyä toistamaan vastaavaa syrjivää käyttäytymistä. Samoin vinoumat voivat olla tulosta huonolaatuisesta tai epäedustavasta datasta. Joissakin tilanteissa järjestelmä tuottaa selkeästi vinoutuneita päätöksiä, joten voidaan päätellä, että jossakin on vikaa. Ongelman lähteen paikallistaminen onkin sitten vaikeampaa.

Järjestelmä voi olla myös vinoutunut ilman että se tuottaa helposti havaittavia räikeitä virhepäätöksiä. Tämä mahdollisuuden selvittäminen on vaikeaa, sillä tässä vaiheessa astuu kuvaan toinen tärkeä koneoppimismallien ominaisuus, niiden läpinäkymättömyys (Rosenfeld & Richardson 2019). Periaatteet, jotka malli on itselleen omaksunut, ovat käyttäjälle vaikeita tai mahdottomia ymmärtää. Tämä on haaste mallin kehittäneelle ohjelmoijalle, mutta vielä suurempi haaste järjestelmän käyttäjälle, joka ei ole tekoälyn asiantuntija. Haaste on merkittävä useasta syystä. Ensinnäkin järjestelmän käyttäjän tulisi pystyä arvioimaan milloin järjestelmä toimii tarkoitetulla tavalla ja milloin sen toiminnassa on jokin virhe. Tekoälymallia ei voi pitää oraakkelina, joka on aina oikeassa. Toiseksi kehittyneissä demokratioissa on totuttu ajattelemaan, että ihmistä koskevat päätökset tulee pystyä oikeuttamaan viittaamalla päätöksenteossa käytettyihin periaatteisiin. Tämä ei ole mahdollista koneoppimismallien tapauksessa. Emme tiedä tarkalleen, mihin perustuen tekoälymalli teki päätöksen, joten emme myöskään tiedä, ovatko ne hyväksyttäviä perusteita. Tämä muodostaa merkittävän haasteen tekoälyn käytölle automaattisessa päätöksenteossa, erityisesti julkisella sektorilla.

Päätöksenteossa käytettävien tekoälymallien läpinäkyvyys ja selitettävyys on elintärkeää oikeusvaltiossa. Mallien toimivuutta voidaan arvioida esimerkiksi tarkkailemalla niiden seurauksia eli sitä, kuinka ne käsittelevät erityyppisiä esimerkkitapauksia. Myös mallien vertailuun ja testaamiseen voidaan kehittää erilaisia tekoälyä hyödyntäviä välineitä. Huomattavaa on, että tällainen työ edellyttää varsin paljon sisällöllistä asiantuntemusta, joka ylittää puhtaan data-analyytikon perustaidot. Tarvitaan asiantuntijoita, jotka ymmärtävät, kuinka järjestelmän tulisi toimia ja ymmärtävät tekoälyjärjestelmän toimintaperiaatteet. Organisaatioilla tulisikin olla asiantuntijoita, jotka kykenevät osallistumaan uusien järjestelmien hankintaan ja rakentamiseen. Yhtä lailla on tärkeää, että organisaatiot kykenevät säilyttämään tällaiset asiantuntijat, sillä käyttäjien puutteellinen ymmärrys järjestelmästä on tärkeä läpinäkymättömyyden lähde.

Tekoälyjärjestelmien huono läpinäkyvyys tuleekin olemaan tulevaisuudessa merkittävä haaste ja rajoite niiden käyttöönotolle. Tekoälymallinen periaatteellisen läpinäkymättömyyden lisäksi hankaluuksia tuottavat liikesalaisuudet. Useimmat tekoälyjärjestelmät ovat yksityisten yritysten kehittämiä, joten niiden toiminnan yksityiskohdat ja koulutusdata ovat liikesalaisuuksia. Tämä tekee mallien arvioinnin vaikeaksi, ja kokemus osoittaa, että pelkkien myyntipuheiden perusteella ei tulisi tehdä tärkeitä päätöksiä. Tässä suuri syy sille, miksi erilaisten auditointikäytäntöjen ja standardien kehittyminen on aivan ensiarvoisen tärkeää.

Omanlaisensa läpinäkyvyyden haasteen muodostaa myös tekoälyvälineiden suuri määrä. Tästä on kokemuksia esimerkiksi laskennallisessa yhteiskuntatieteessä, jossa jatkuva virta uusia menetelmiä tekee todella vaikeaksi muodostaa käsitystä yksittäisten menetelmien luotettavuudesta. Kun yksittäistä menetelmää käytetään vain kourallisessa tutkimuksia, on lähes mahdotonta muodostaa käsitystä käytetyn menetelmän vahvuuksista ja heikkouksista. Menetelmien käyttäjät, tai tuloksien uskottavuuden arvioijat, eivät yleensä tunne menetelmien yksityiskohtia, joten monien tutkimusprosessissa tehtyjen oletusten merkitys tuloksille jää hämärän peittoon. Tämä merkitsee, että tutkimustulosten luotettavuus epävarma. Vastaavassa tilanteessa on moni uusien tekoälyvälineiden käyttäjä. Kuinka valita omaan tarkoitukseen sopiva väline? Miten arvioida kilpailevia välineitä? Kuinka paljon voin luottaa välineeni tuloksiin?

Tekoäly osana organisaatiota

Tekoälyä on useimmiten luontevinta ajatella tukiälynä, jossa ohjelmisto toimii ihmisen apuna. Tällöin tekoäly on väline, jonka hyödyllisyyden määrittää käyttäjän kyky käyttää sitä. Kaikissa tilanteissa tämä ei aina kovin hyvin kuvaa tekoälyn ja käyttäjän suhdetta. Joissakin sovelluksissa on pikemminkin kyse ihmisavusteisesta tekoälystä. Tällöin ohjelmisto suorittaa sellaisia tehtäviä, joita käyttäjä ei kykene tai halua toteuttaa. Ohjelmisto tarvitsee tällöin ihmistä joidenkin avustavien tehtävien suorittamiseen ja viime kädessä valvomaan prosessin ja tuotosten tarkoituksenmukaisuutta. Tämä asetelma ei toki ole uusi vaan tuttu tehtaista, joissa tuotantoprosessi on rakennettu koneiden ympärille.

Erikoistapaus ihmisavusteisesta tekoälystä on tekoälyohjelmistojen käyttö organisaation ja työntekijöiden johtamiseen. Tällöin ohjelmisto korvaa perinteisesti esimiesten tekemän työntekijöiden valvonnan, työnohjauksen ja arvioinnin. Esimerkiksi käyvät Amazonin jakelukeskukset, joissa ihmisiä tarvitaan pakettien siirtelyyn ja keräilyyn, sillä tällaiset tehtävät ovat liian vaikeita roboteille. Sen sijaan töiden johtaminen on pitkälti delegoitu tekoälyjärjestelmälle. Järjestelmä jakaa työntekijöille työtehtävät, seuraa heidän työskentelynsä tehokkuutta ja jopa tarvittaessa irtisanoo työntekijän (Crawford 2021). Vastaavan esimerkin tarjoavat puhelinpalvelukeskukset, joissa tietokonejärjestelmä seuraa työntekijöiden työtahdin lisäksi näiden käyttämää sanastoa ja puheäänen tunneilmaisua. Järjestelmä antaa tarvittaessa ohjaavaa palautetta kertoen, millaisia ilmauksia tulisi lisätä tai välttää asiakkaiden kanssa keskusteltaessa ja millä tavalla työntekijän tunneilmaisua tulisi korjata.

Tekoälyohjelmisto kohtelee työntekijöitä oletettavasti tasapuolisemmin, koska sillä ei ole henkilökohtaisia suhteita alaisiin. Mutta toisaalta järjestelmä saattaa olla työntekijöiden manipuloitavissa, millä saattaa olla merkittäviä vaikutuksia työmoraaliin. Toinen ongelma on, että esimerkiksi ohjelmistoihin saattaa olla sisäänrakennettuna kyseenalaisia oletuksia ihmisten käyttäytymisestä. Esimerkiksi yllä mainittu tunneilmaisun tunnistaminen saattaa perustua mallille, joka on tieteelliseltä kannalta kyseenalainen ja vinoutunut (Crawford 2021). Tällä saattaa olla merkittäviä sosiaalisista vuorovaikutusta vääristäviä vaikutuksia. On toki odotettavissa, että ajan myötä tällaiset ongelmat havaitaan ja korjataan, mutta siihen voi mennä pitkä aika, varsinkin jos ohjelmistojen toimintaperiaatteet ovat tarkoin varjeltuja liikesalaisuuksia.

Tekoälyjohtaminen on uusi asia, ja on vaikea ennustaa, millä tavoin se tulee kehittymään. Edellä kuvattuja varsin dystooppisia johtamisjärjestelmiä tuskin ulotetaan kovin pian asiantuntijatyöhön. Työnantajat ovat tähän asti välttäneet asiantuntijoiden työn mikromanagerointia, mutta jollakin tavoin tekoälyavusteinen johtaminen tulee ulottumaan myös asiantuntijatyötä tekeviin. Ja sikäli, kun asiantuntijalle kuuluu keskijohdon tehtäviä, voi hän jatkossa olla yhä enemmän johtamisjärjestelmää avustava tai täydentävä työntekijä kuin varsinainen esimies.

Asiantuntijuuden tulevaisuus

Aivan viime vuosiin asti tekoälyn ja yleisemmin tietotekniikan kehitys on suosinut asiantuntijoita. Uudet välineet ovat korvanneet ihmistyön rutiininomaisissa toistuvissa tehtävissä jättäen jäljelle tehtäviä, jotka edellyttävät luovuutta, ongelmanratkaisua ja asiantuntemusta. Vastaavasti välineiden kehittäminen ja käyttö ovat luoneet aivan uusia asiantuntijatehtäviä. Tähän asti tekoälyn kehitys onkin ollut pikemminkin uusi resurssi asiantuntijatyöhön kuin uhka. Parin viime vuoden aikana generatiivinen tekoäly on kuitenkin noussut haastamaan tätä tilannetta.

Generatiivisella tekoälyllä tarkoitetaan tekoälymalleja, jotka on suunniteltu tuottamaan uutta sisältöä, oli kyseessä siten teksti, ääni, kuva tai videomateriaali. Tunnettuja esimerkkejä generatiivisesta tekoälystä ovat kielimalli ChatGPT ja kuvia tuottava Midjourney. Generatiivisen tekoälyn taustalla on todella suuren aineistoon perustuva perustamalli, jota käyttäjän kanssa vuorovaikuttava botti – kuten ChatGPT – käyttää hyväkseen. Vaikka ChatGPT on periaatteessa malli, joka ennustaa tekstin seuraavia sanoja, on se osoittautunut hyödylliseksi hyvin erilaisten tekstien tuottamisessa, kääntämisessä ja sisällön jäsentämisessä. Generatiiviseen tekoälyyn liittyy monia periaatteellisia luotettavuuteen, tietoturvaan ja tekijänoikeuksiin liittyviä ongelmia ja on avoin kysymys, kuinka ne ratkaistaan. Näistä ratkaisuista tulee riippumaan, mihin suuntaan generatiivinen tekoäly kehittyy. En lähde arvailemaan tulevaisuutta tässäkään, vaan kuvailen millaisia tutkimustuloksia generatiivisen tekoälyn käytöstä on saatu.

Yksi alue, jolla generatiiviselle tekoälylle perustuvat työvälineet ovat jo laajassa käytössä, on ohjelmointityö. Microsoftin Copilot on ollut käytössä runsaan vuoden, ja se on selvitysten mukaan lisännyt merkittävässä määrin koodauksen nopeutta avustamalla usein toistuvien rutiinitehtävien hoitamista. Myös ohjelmoijien työtyytyväisyyden kerrotaan kasvaneen, kun rutiinitehtävistä irtautuminen mahdollistaa paremman keskittymisen olennaiseen. Tuottavuuden parantuminen onkin varsin odotettu vaikutus. Mutta mitä pidemmälle meneviä seurauksia uusilla generatiivisilla työvälineillä voisi olla?

Kiinnostava kysymys on, kenelle uusista välineistä on eniten hyötyä. Tähän asti välineet ovat suosineet osaavampia työntekijöitä, sillä heillä on paremmat mahdollisuudet hyödyntää uusia välineitä. Näyttää siltä, että ainakin joissakin tehtävissä generatiivinen tekoäly vähentää työntekijöiden välisiä eroja. Tutkittaessa generatiiviselle tekoälylle perustuvan avustajan vaikutusta asiakaspalvelijoiden työhön, havaittiin että suurimman hyödyn uudesta välineestä saivat uudet ja vähemmän taitavat työntekijät, kun taas kokeneet ja taitavat työntekijät eivät juuri hyötyneet välineestä (Brynjolfsson 2023). Tekoälyassistentin avustamana heikommat työntekijät selvisivät tehtävistään nopeammin, joutuivat pyytämään apua vähemmän ja asiakastyytyväisyys kasvoi. Tutkijoiden mukaan tämä perustui siihen, että assistentti antoi näiden työntekijöiden käyttöön kokeneempien työntekijöiden hiljaista tietoa, joka kavensi työntekijöiden välisiä tuottavuuseroja. On avoin kysymys, kuinka yleistettävissä tämä tulos on, mutta voi olettaa, että hyvin suunnitellut tekoälyvälineet nopeuttavat uusien tehtävien oppimista. Kiinnostava kysymys on, johtaako tämä siihen, että kokeneet työntekijät eivät enää ole työnantajalle yhtä arvokas resurssi.

Toinen kiinnostava kysymys on, mitä tapahtuu asiantuntijan taidoille ja tiedoille, kun ohjelmisto hoitaa yhä suuremman osan tehtävistä? Yksi mahdollisuus on, että työntekijälle jää enemmän aikaa keskittyä vaativiin tehtäviin ja pitää huoli tuotosten laadusta. Tämä vaikutus saattaa olla kuitenkin vain hetkellinen, sillä tuottavuuden kasvaessa myös odotukset kasvavat. Tällöin uuden teknologian seuraus on aikaisempaa tiukempi työtahti, joka merkitsee, että on vähemmän mahdollisuuksia perehtyä asioihin perusteellisesti.

Toinen kysymys liittyy siihen, mitä tapahtuu, kun kone hoitaa tehtävät ja työntekijän tehtäväksi jää valvoa mahdollisten virheiden varalta. Ihmiset eivät ole kovin hyviä tällaisissa tehtävissä. Esimerkit lentokoneista ja itseohjautuvista autoista osoittavat, että jos ihmisen tehtävä on vain valvoa itsenäisesti toimivaa järjestelmää, hänen huomiokykynsä herpaantuu, eikä hän pysty tai osaa reagoida tilanteissa, jossa sitä tarvittaisiin. Tässä onkin yksi tekoälyn ja ihmisen vuorovaikutuksen keskeisistä haasteista: kuinka suunnitella vuorovaikutus siten, että yhteistoiminta toimii mahdollisimman hyvin. Tältä kannalta tekoälyjärjestelmä, joka tekee tunnistettavia virheitä voisi olla parempi kuin sellainen, joka on suunniteltu tekemään mahdollisimman vähän virheitä (Dell’Acqua ym. 2023). Tällöin työntekijä ei voi tuudittautua ajatukseen, että kone hallitsee asian. Joka tapauksessa ihmisen ja koneen toimiva yhteistyö on tekoälyn kehittämisen suurimpia haasteita.

Automaatiolla voi olla vaikutuksia myös pidemmällä aikavälillä. Jos esimerkiksi tekoälyjärjestelmä korvaa ihmisen ongelmien tunnistamisessa tai vaikkapa lääketieteellisten kuvien tunnistamisessa, merkitsee tämä sitä, että ihmisasiantuntija ei enää saa harjoitusta tällaisissa tunnistamistehtävissä. Hänen kykynsä rapautuvat (Rinta-Kahila ym. 2023), tai myöhempien työntekijäsukupolvien kohdalla, eivät kehity lainkaan. Tällöin hänellä ei ole kykyä toimia myöskään niissä hankalissa tapauksissa, joissa tekoälyjärjestelmää ei voida luotettavasti käyttää. Kykyjen rapautumisen vuoksi ajattelumalli, jossa kone hoitaa rutiinitehtävät ja asiantuntija hoitaa vaikeat tapaukset, voi olla vaarallinen. Organisaatioiden tasolla käyttämättömien kykyjen rapautuminen voi tarkoittaa, että ne pikkuhiljaa menettävät inhimillistä pääomaansa. Tämä voi tulla esiin, kun esimerkiksi järjestelmiä vaihdetaan tai niissä on toimintahäiriöitä: työntekijät eivät enää pystykään niihin tehtäviin, jotka heidän oletetaan hallitsevan. Automaation toimiessa ja kannustimien puuttuessa osaamisen ylläpito ja päivittäminen on jäänyt tekemättä. Tässä jälleen hankala haaste tekoälyjärjestelmien kehittäjille: kuinka kehittää järjestelmiä, jotka eivät tuhoa inhimillistä asiantuntemusta, jota saatetaan vielä tarvita järjestelmien toiminnan arviointiin, uudelleen suunnitteluun tai sijaistamiseen.

Datalukutaito

Asiantuntijatyö tulee tekoälyn myötä muuttumaan. Yhä tärkeämmäksi tulee tietää, mihin erilaisia tekoälyvälineitä voi käyttää ja mitkä ovat niiden rajoitukset. Välineiden käytettävyys tulee paranemaan, mikä entisestään korostaa näiden välineiden ymmärtämisen tärkeyttä. Tästä syystä perinteisten analyyttisten ja kriittisten ajattelun taitojen merkitys tulee entisestään kasvamaan. On kyettävä näkemään kielimallin tuottaman hyvin jäsennetyn ja kauniisti kirjoitetun tekstin läpi ja arvioida sen argumentaation vahvuutta. Yleisemmin tarvitaan kykyä kriittisesti arvioida ja käsitellä tietoväittämiä.

Erityisen tärkeäksi tulee nousemaan datalukutaito. Sen perustana on ymmärrys siitä, kuinka dataa kerätään, prosessoidaan, analysoidaan, tulkitaan ja esitetään. Tämän päälle rakentuu tieto, kuinka data voi toimia näyttönä ja kuinka tekoäly käyttää hyväkseen datasta löydettäviä tilastollisia säännönmukaisuuksia. On tärkeää oivaltaa, että datalukutaito ei rajoitu datan käytön teknisiin ja tiedollisiin ulottuvuuksiin. Yhtä lailla tärkeää on ymmärrys datan käyttöä ohjaavista lainsäädännöllisistä ja eettisistä periaatteista. Datan – ja tekoälyn – kestävä käyttö edellyttää näiden eri ulottuvuuksien kokonaisvaltaista jäsentämistä.

Datalukutaitoa voidaan ajatella sekä kaikkien jakamana kansalaistaitona että tiettyjen tehtävien edellyttäminä taitoina. Jälkimmäisessä merkityksessä voimme pohtia, millaista datalukutaitoa tietyssä asiantuntijatehtävässä edellytetään, olisi sitten kyseessä rekisteriä ylläpitävä viranomainen, yhteiskuntatieteilijä, valmisteleva virkamies tai poliittinen päättäjä. Datalukutaitoa tarvitsevat myös yritysjohtajat, terveydenhuollon ammattilaiset ja kunnalliset päättäjät. Datalukutaito on edellytys realistisille odotuksille tekoälyn mahdollisuuksista ja vaaroista.

Yhteiskunnallisesti kestävä tekoäly ei perustu vain tekoälykehittäjien asiantuntemukselle. Tarvitaan laaja-alaista ihmisen psykologiaa, organisaatioiden ja markkinoiden toimintaa, lainsäädäntöä ja politiikkaa koskevaa asiantuntemusta. Edessä on suuria yhteiskunnallisia muutoksia ja kokeiluja, joista monet perustuvat epärealistisiin odotuksiin tekoälyn kyvyistä. Onkin syytä varautua siihen, että monet lähitulevaisuudessa käyttöön otettavat tekoälyä hyödyntävät järjestelmät eivät toimi tarkoitetulla tavalla. Onkin tärkeää pitää silmällä mitkä ovat todellisia uhkia. Jotkut uskovat, että tekoälyn suurin uhka on, että ihmistä huomattavasti älykkäämmät koneet tulevat hallitsemaan elämäämme. Läheisempi uhkakuva on sellainen, jossa yhteiskuntamme on riippuvainen tekoälyjärjestelmistä, jotka käyttävät epämääräistä dataa, joiden kehittäjät eivät ymmärrä niiden käyttötarkoitusta ja joiden käyttäjät eivät ymmärrä niiden toimintaa. Eläisimme huonosti toimivien mutta vaikeasti korvattavien järjestelmien armoilla ilman aitoa demokraattista kontrollia. Tällaisen dystopian välttäminen olisi hieno asia.

Lähteet

Brooks, Rodney 2024 blog: PREDICTIONS SCORECARD, 2024 JANUARY 01 https://rodneybrooks.com/predictions-scorecard-2024-january-01/

Bossen, C., Pine, K. H., Cabitza, F., Ellingsen, G., & Piras, E. M. (2019). Data work in healthcare: An Introduction. Health Informatics Journal, 25(3), 465–474. https://doi.org/10.1177/1460458219864730

Brynjolfsson, E., Li, D., & Raymond, L. 2023.

Generative AI at Work (arXiv:2304.11771). arXiv. http://arxiv.org/abs/2304.11771

Crawford, Kate 2021: Atlas of AI: Power, Politics, and the Planetary Costs of Artificial Intelligence. Yale University Press.

Dell’Acqua, F., McFowland, E., Mollick, E. R., Lifshitz-Assaf, H., Kellogg, K., Rajendran, S., Krayer, L., Candelon, F., & Lakhani, K. R. 2023: Navigating the Jagged Technological Frontier: Field Experimental Evidence of the Effects of AI on Knowledge Worker Productivity and Quality. SSRN Electronic Journal. https://doi.org/10.2139/ssrn.4573321

Hand, David J. 2020: Dark Data. Why You Don’t Know Matters. Princeton University Press.

Levy, K., Chasalow, K. E., & Riley, S. (2021). Algorithms and Decision-Making in the Public Sector. Annual Review of Law and Social Science. https://doi.org/10.1146/annurev-lawsocsci-041221-023808

Rinta-Kahila, T., Penttinen, E., Salovaara, A., Soliman, W., & Ruissalo, J. (2023). The Vicious Circles of Skill Erosion: A Case Study of Cognitive Automation. Journal of the Association for Information Systems, 24(5), 1378–1412. https://doi.org/10.17705/1jais.00829

Rosenfeld, A., & Richardson, A. (2019). Explainability in human–agent systems. Autonomous Agents and Multi-Agent Systems, 33(6), 673–705. https://doi.org/10.1007/s10458-019-09408.

 

Artikkelin on kirjoittanut tieteen- ja teknologiantutkimuksen professori Helsingin yliopistossa Petri Ylikoski.

Artikkeli on viides osa Akava Worksin ”Näkökulmia tekoälyyn” -artikkelisarjassa.

Kuva: DALL-E -tekoälysovelluksen tuottama kuva artikkelin teemoista.

Lue artikkeli ohesta (pdf)

Tekoäly ja asiantuntijatyön muutos Akava Works -artikkeli 5_2024

Näkökulmia tekoälyyn, osa 4 – Paula Aura, Noora Wallenius: Tekoälyn käyttö asianajoalalla

Asianajoalan nykytila ja tekoälyn nopean kehityksen vaikutus alaan

Asianajoala on toiminut kauan samojen oletusten vallitessa. Työtä on ollut lähes poikkeuksetta aina tehtäväksi, ja sitä on tehty suurelta osin tuntihinnoittelulla. Alan työnteon tavat ovat pysyneet kovin muuttumattomina sitten internetin tulon 1990-luvulla. Toki vaihtelevat talouden suhdanteet ovat vaikuttaneet myös juridiikkaan ja uudet toimialat ovat muokanneet alan palvelutarjontaa.

Muiden liikeyritysten tapaan asianajotoimistot ovat luonnollisesti hyödyntäneet viime vuosikymmeninä ajallemme tyypillisiä työntekoa helpottavia teknologioita, kuten sähköpostia ja muita toimistosovelluksia, asiakirjahallintaa, Teamsia ja sähköisiä allekirjoituspalveluita. Ne ovat kuitenkin melko vähän automatisoineet työprosessejaan tai hyödyntäneet niin sanottuja disruptiivisia teknologioita, joilla tavoitellaan työnteon tavan tai palveluiden tarjoamisen käytäntöjen muuttamista ja merkittävää tuottavuuden kasvattamista. Tähän ei ole ollut juurikaan painetta, sillä palveluille on riittänyt kysyntää, eivätkä asiakkaat ole liiemmälti vaatineet teknologian käyttöä. Alan digitaaliset työvälineet ovat olleet kovin perinteisiä, ja samat tuotteet ovat käytössä laajalti koko asianajotoimialalla.

Koronapandemian aikaan liikeyrityksissä, myös asianajotoimistoissa, otettiin isoja harppauksia teknologian hyödyntämisessä. Digitalisaatio otti loikan, kun kanssakäyminen työpaikoilla ja asiakkaiden kanssa siirtyi osin pakon edessä pitkälti sähköisten työkalujen ja viestintävälineiden avulla hoidettavaksi kasvokkaisten kohtaamisten sijaan. Pandemian aikana esimerkiksi sähköisen allekirjoitustyökalun käyttöaste kasvoi toimistollamme merkittävästi: DocuSignin käyttö nelinkertaistui ja se juurrutti asemansa allekirjoittamisen välineenä. Myös Teamsin käyttö yhteydenpitoon ja viestimiseen yleistyi merkittävästi. Alallamme otettiin digitaalinen osaamisharppaus, jonka ansiosta teknologian hyödyntäminen on yhä luontevampi osa työntekoa myös nykyisessä etä- ja läsnätyötä yhdistävässä hybridityössä. Kyky ottaa käyttöön muun muassa luovaa eli generatiivista tekoälyä on nyt huomattavasti parempi kuin ennen pandemia-aikaa.

Vajaan kymmenen viime vuoden aikana toimialamme markkinaan on erityisesti kansainvälisessä toimintaympäristössä tullut myös teknologiapalveluntarjoajia (alternative legal service providor, ALSP), jotka lähtökohtaisesti tarjoavat juridisten palvelujen sijaan enemminkin teknologiatukea asianajotoimistoille ja muille juridisille toimijoille muun muassa laajojen tietoaineistojen läpikäyntiin laajoissa riidoissa tai yrityskauppatilanteissa. Luova eli generatiivinen tekoäly tuo lisää liiketoimintamahdollisuuksia sekä asianajotoimistoille että ALSP- ja IT-palveluntarjoajille.

Huomionarvoista on, että yksistään oikeudelliselle toimialalle suunnattujen teknologisten tuotteiden määrä on kasvanut viimevuoden aikana merkittävästi. Juridisen työn tueksi tai toisaalta sen disruptoimiseksi ei ole kehitetty koskaan aikaisemmin yhtä paljon sovelluksia kuin Open AI:n julkaistua ChatGPT 3.5 -teknologian marraskuussa 2022. Yksistään generatiivisen tekoälyn ympärille keskittyviä oikeudellisia tuotteita on tullut markkinoille kuluneen vuoden aikana useita kymmeniä.

Alalle on tehty viime vuoden aikana historiallisia teknologiainvestointeja. Kun esimerkiksi yhdysvaltalainen pääomasijoitusyhtiö Sequoia Capital koordinoi juridiseen työhön tarkoitetun tekoälyohjelmisto HarveyAI:n rahoituskierroksen huhtikuussa 2023, se keräsi rahoitusta eri tahoilta yhteensä 21 miljoonaa dollaria. Näin suuria investointeja ei luonnollisestikaan tehtäisi, ellei tuotteissa nähtäisi valtavaa kehitys- tai tuottopotentiaalia. Myös suuret kansainväliset asianajotoimistot ja globaalisti toimivat Big4-talot ovat panostaneet merkittävästi tuotteiden hankkimiseen ja jatkokehittämiseen.

Luovan eli generatiivisen tekoälyn mahdollisuuksista juridisessa työssä

Juristien työ on pitkälti kielen ja tulkinnan parissa työskentelyä. Pääosa juridisesta neuvonannosta on ollut kirjallisten tuotosten kirjallista arviointia, ja relevantti neuvonanto on tuotettu tekstimuodossa, viime vuosikymmeninä digitaalisesti. Aineistoa tekoälyn hyödynnettäväksi on kertynyt runsaasti.

Kotimainen julkisesti saatavissa oleva oikeudellinen aineisto on laajalti digitaalisessa muodossa. Tähän kuuluvat muun muassa oikeuskäytäntö, lainsäädäntö ja muu säädännäismateriaali sekä juridinen kirjallisuus. Viimeksi mainittu on toki osin vain tilaajien käytössä, mutta se on käytettävissä kuitenkin laajalti digitaalisena eli muodossa, jota luova tekoäly voi hyödyntää.

Tekoäly voi käsitellä ja analysoida tietoa nopeasti ja tehokkaasti, joten sillä on suuri potentiaali automatisoida asianajotoimistojen eri työroolien rutiininomaisia tehtäviä. Esimerkiksi juridinen tiedonhaku tai asiakirjojen läpikäynti sujuu tekoälyavusteisesti paljon tehokkaammin ja laadukkaammin kuin pelkästään ihmisvoimin. Tekoäly voi auttaa muun muassa sopimusten laadinnassa ja tekstintuotannossa. Sitä voidaan opettaa esimerkiksi yrityksen omalla datalla ja saada siten aikaan entistä käyttökelpoisempia lopputuloksia. Datan laaja hyödyntäminen mahdollistaa myös, että asiakkaille tarjotaan yhä personoidumpia palveluja syvällisemmän asiakasymmärryksen ansiosta sekä auttaa parantamaan juridisen päätöksenteon nopeutta ja tarkkuutta.

Tekoälyn kehitys on nopeaa ja sen soveltamismahdollisuudet lisääntyvät jatkuvasti. Emme osaa vielä edes hahmottaa, mitä kehityskulkuja tekoäly mahdollistaa ja miten se muuttaa juridisten palveluiden tuottamista ja tarjoamista. Tekoälyn kehittyessä myös käsitys sen mahdollisuuksista täsmentyy. Kun työ tehostuu ja osin automatisoituu, ihmisten aikaa vapautuu tuottavampiin tehtäviin. Taitava tekoälyn hyödyntäminen voi mahdollistaa yrityksille ennennäkemättömän tuottavuusloikan.

Useissa tekoälyn vaikutuksia arvioivissa tutkimuksissa ja raporteissa on ennakoitu, että juristien työnkuva muuttuu merkittävästi tekoälyn tultua käyttöön. Esimerkiksi investointipankki Goldman Sachs ennustaa raportissaan, että 44 prosenttia juristien työstä automatisoituu ChatGPT:n kaltaisten tekstiä tuottavien tekoälysovellusten avulla (Hatzius et al. 2023).

Teknologioiden hyödyntämisen seurauksena myös tuntiperusteinen laskutuskäytäntö, joka aiemmin mainittiin, varmasti muuttuu yhä enemmän kiinteähintaiseen tai arvopohjaiseen laskuttamiseen. Juridisten palveluiden tuottamiskustannukset voivat vaihdella suuresti kulloinkin käytössä olevien työkalujen mukaan.

Tarve oikeudelliselle osaamiselle tai juristeille ei ole kuitenkaan vähenemässä. Näemme jatkossa pikemminkin  uudenlaisia tehtäviä ja työnkuvia. Esimerkiksi Risto Linturi ennakoi, että lainoppineiden pöydille ilmaantuu pian uudenlaisia työtehtäviä, jotka ovat tekoälysovellusten aikaansaamia (Keränen 2023).

Tulevaisuuden juristin ydinosaamiset

Tekoälyn muuttaessa juristien työnkuvaa ja koko juridista alaa juristeilta vaadittava osaaminen täydentyy uudentyyppisillä taidoilla. Perinteiset juristin taidot eivät enää riitä vastaamaan liiketoimintaympäristön muutoksiin ja juridisen alan kehitykseen. Tulevaisuuden juristin työkalupakkia voi kuvata seuraavan visualisoinnin avulla:

Kuvio 1. Tulevaisuuden juristin ydinosaamiset.

 

Juridinen asiantuntemus on jatkossakin juristien osaamisen keskiössä. Sitä täydentävät perinteiset juristin taidot kuten kommunikointitaidot, kriittinen ajattelukyky ja ongelmanratkaisu, jotka säilyvät tärkeinä taitoina myös tulevaisuudessa. Ne eivät kuitenkaan yksinään riitä vastaamaan juridisen alan muutoksiin, vaan tulevaisuudessa juristeilta vaaditaan yhä enemmän ymmärrystä teknologiasta, sen käytöstä ja toimintalogiikasta. Juristeilla pitää olla kyky hyödyntää digitaalisia työkaluja ja teknologiaa tehokkuuden lisäämiseksi, ja heidän on osattava suhtautua oikealla kriittisyydellä tekoälyn tuotoksiin. Myös datan lukutaito korostuu tietomäärien kasvaessa. Tulevaisuudessa juristien on kyettävä ymmärtämään ja hyödyntämään dataa tehokkaasti osana päätöksentekoa.

Tekoälyn aikakaudella ihmissuhde- ja kommunikointitaidot korostuvat. Vaikka tekoäly on ottanut isoja harppauksia eteenpäin, se ei pysty korvaamaan ihmisen empatiakykyä tai tunneälykkyyttä, joita tarvitaan vahvojen asiakassuhteiden rakentamiseen ja toimivaan yhteistyöhön. Myös kompleksisten ongelmien ja kokonaisuuksien selkeä ja ymmärrettävä esittäminen korostuu tulevaisuudessa. Teknologian ja yhteiskunnan nopea muutos luo jatkuvasti uusia oikeudellisia haasteita, mikä painottaa monialaisen osaamisen tärkeyttä. Osaamisen laajentaminen juridiikan ulkopuolelle auttaa ennakoimaan ja ratkaisemaan monimutkaisia ja monialaisia tulevaisuuden ongelmia.

Generatiivisen tekoälyn nopea kehitys ja lisääntyvä käyttö on herättänyt keskustelua siitä, johtaako kehitys etenkin nuorten juristien kriittisten ajattelun taitojen heikkenemiseen. Taustalla on huoli, että juristit luottavat ja tukeutuvat liikaa tekoälyn tuottamiin tuloksiin, jolloin heidän oma kriittinen pohdintansa vähenee. Oikein käytettynä tekoäly voi kuitenkin päinvastoin kehittää nuorempien juristien kriittisen ajattelun taitoja. Tekoälyn hoitaessa rutiininomaiset tehtävät juristit pääsevät jo uran alkuvaiheessa keskittymään monimutkaisempiin sekä enemmän asiantuntemusta ja kriittistä ajattelua vaativiin tehtäviin. Tulevaisuudessa kriittisen ajattelun taidot ovat välttämättömiä myös tekoälyn tuottamien tulosten arvioinnissa.

Juristien kriittisen ajattelun taitojen kehittäminen voidaan nähdä yliopistojen, asianajotoimistojen ja yksilöiden yhteisenä vastuuna. Oikeustieteellisen koulutuksen opetussuunnitelmaan tulisi sisällyttää kursseja ja opintokokonaisuuksia, jotka keskittyvät juridiikan ja teknologian, erityisesti tekoälyn, yhtymäkohtiin. Yliopistoissa opiskelijoilla on tilaisuus kehittää kriittisen ajattelun taitoja turvallisessa ja ohjatussa ympäristössä sekä saada työkaluja monimutkaistenkin ongelmien analysointiin sekä eri näkökulmien arviointiin ja argumentointiin. Yliopistossa opittuja taitoja pitäisi päästä soveltamaan käytännön ympäristössä erilaisten työharjoitteluiden ja uran alkuvaiheen työpaikkojen kautta. Työympäristön tulisi olla sellainen, että se rohkaisee jatkuvaan oppimiseen ja teknologiamyönteiseen kulttuuriin. Yksilöillä on puolestaan vastuu kehittää osaamistaan ja pysyä ajan tasalla tekoälyn edistysaskelista. Yksilöiden kyky sopeutua ja suhtautua myönteisesti muutokseen kantaa pitkälle.

Tekoälyn käyttö juridisessa työssä ennen generatiivisen tekoälyn aikakautta

Tekoälyavusteiset ohjelmistot ovat kuuluneet juristien työkalupakkiin jo yli viiden vuoden ajan tarjoten etenkin tehokkaita koneoppimista hyödyntäviä työkaluja. Erityisesti dokumenttien läpikäyntiin ja tarkastamiseen (document review) ja sähköiseen todistusaineiston käsittelyyn (eDiscovery) suunnitellut työkalut, kuten Luminance ja Kira, ovat olleet edelläkävijöitä tässä muutoksessa. Tiedostoja automaattisesti analysoivat ohjelmistot säästävät merkittävästi aikaa ja parantavat analyysin laatua, sillä koneoppimista hyödyntämällä ohjelmistot voivat havaita yhteyksiä ja muita piileviä virheitä, jotka saattavat jäädä ihmiseltä huomaamatta. Koneoppimiselle ja laajemminkin tekoälylle on käyttöalaa erityisesti laajoissa yritysjärjestely- ja riitatilanteissa, joiden yhteydessä käydään usein läpi suuria määrä asiakirjoja toisinaan tiukassa aikapaineessa.

Koneoppimista on perinteisesti hyödynnetty myös sopimushallintajärjestelmissä, mutta generatiivinen tekoäly tuo niihin aivan uudenlaista tehoa ja käyttömukavuutta. Pelkkää koneoppimista hyödyntävät sopimushallintajärjestelmät keskittyivät pääasiassa asiakirjojen arkistointiin ja hakutoimintoihin. Sen sijaan generatiivinen tekoäly voi analysoida sopimusten riskejä ja puutteita sekä soveltuu seuraamaan sopimusten ehtoja, kuten erilaisia määräaikoja tai muita muutostarpeita. Tekoälyä on hyödynnetty myös koneavusteisessa kielenkääntämisessä, missä se voi lisätä konekääntämisen tehoa ja laatua. Esimerkiksi DeepL-tuotteessa käytetään neuroverkkoja ennustamaan ja mallintamaan lauseiden rakennetta, mikä parantaa konekäännösten laatua.

Generatiivinen tekoälykyvykkyys on sen kehityttyä integroitu edellä mainittuihin tuotteisiin. Esimerkiksi Luminancessa se tarkoittaa, että juristi voi tehdä hakuja valtaviin asiakirjamassoihin käyttämällä luonnollista kieltä monimutkaisten hakuehtojen sijaan ja keskustella tekoälyn kanssa myös juridisista aiheista. Jatkossa ei siis niinkään tarvita erityistä sovelluskohtaista käyttöosaamista. Generatiivinen tekoäly on otettu käyttöön nopeasti juuri käytön helppouden ja intuitiivisuuden vuoksi. Tästä osoituksena on se, ettei yksikään kuluttajille suunnattu sovellus ole ennen ChatGPT-3.5:n julkistamista saavuttanut yhtä nopeasti 100 miljoonaa käyttäjää. ChatGPT:llä tähän meni kaksi kuukautta (Hu, 2023).

Vaikka tekoälyn aiemmat sovellukset juridiikassa ovat hyödyllisiä, ne ovat olleet pääasiassa apuvälineitä ja vaatineet merkittävästi ihmisen ohjausta. Luovan eli generatiivisen tekoälyn yleistyessä tekoälyn merkitys ja kyvyt ovat laajentuneet. Generatiivinen tekoäly kykenee yhä monimutkaisempiin tehtäviin ja syvällisempään analyysiin ja tehostaa aiempia tekoälysovellutuksia entisestään sekä käytettävyydessä että kyvykkyydessä. Esimerkiksi siinä, missä koneoppimiseen pohjaava työkalu kykenee osoittamaan virheen sopimusluonnoksessa, generatiivista tekoälyä hyödyntävä työkalu voi tämän ohella tarjota ratkaisuehdotuksia.

Mitä yrityksissä tällä hetkellä tehdään generatiivisen tekoälyn parissa

Tekoäly kehittyy vauhdilla, mikä on pakottanut kaikki perinteisimpiäkin toimintatapoja suosivat toimijat ottamaan tekoälyn huomioon. Muutoksen nopeus ruokkii väistämättä itse itseään. Kun havahdutaan siihen, ettei tätä muutosta voi jättää huomiotta tai ohittaa, asioita tutkitaan ja kartoitetaan merkittävilläkin panostuksilla. Selvittelyt ja kokeilut ovat varsin monipolvisia, eikä valmista ratkaisua välttämättä löydy helpolla. Prosessi voi ottaa aikansa, mutta toisaalta ajan käyttö ja tietty harkinta varmistavat, että uudet ratkaisut saadaan mahdollisimman luontevaksi osaksi arjen tekemistä, jolloin ne tuottavat aitoa lisäarvoa käyttäjälleen.

Valtaosa juridisista toimijoista, asianajotoimistot mukaan lukien, selvittää tällä hetkellä parhaita käyttömahdollisuuksia ja -tapauksia tekoälylle ja mitkä työkalut tai sovellutukset sopisivat parhaiten yritysten prosesseihin ja eri työnkuvien tueksi. Tällä hetkellä tarjolla olevista työkaluista Microsoftin Copilot vaikuttaa lupaavalta. Sitä ei ole erityisesti suunniteltu juridiseen työhön, mutta on todettu olevan apua esimerkiksi tekstintuottamisessa ja tiivistämisessä, ideoinnissa, tiedonhaussa ja ylipäänsä Microsoft Office -työkalujen käytön tehostajana.

Monet yritykset ovat laatineet viime vuoden aikana ohjeistuksia generatiivisen tekoälyn käyttämiseen työtehtävissä ja kouluttaneet henkilökuntaa tekoälyn mahdollisuuksista ja riskeistä. Osa työnantajista on kieltänyt sen käytön kokonaan ja osa päinvastoin kannustaa tutustumaan ja hyödyntämään sitä työtehtävissä. Käyttipä tekoälyä tai ei, jonkinasteinen työn murros ja työtapojen muutos on tapahtumassa. Se mitä näemme nyt, on todennäköisesti vasta alkusoittoa.

Mitä paremmin yritys ja erityisesti sen työntekijät ovat selvillä siitä, mihin työn tuottavuutta tai laatua parantaviin tehtäviin tekoäly soveltuu ja mihin ei, sitä tehokkaampia ja tekoälyosaavampia työntekijöistä tulee. Kuten todettu, tekoäly ei syrjäytä mitään ammattikuntaa kokonaan, mutta esimerkiksi tekoälyä hyödyntävä juristi varmasti pärjää työmarkkinoilla paremmin kuin sille silmänsä ummistava kollega.

Eettinen näkökulma

Tekoälyn etiikka on tärkeä osa älykkäiden teknologioiden kehittämistä. Tekoäly tekee päätöksiä sen mukaan, miten se on ohjelmoitu ja millä tiedoilla se on opetettu. Tämä herättää kysymyksiä siitä, miten tietojamme käytetään ja kuka vastaa ”koneen” tekemistä päätöksistä, järjestelmien virheistä tai ennakoimattomista seurauksista. Kyse on laajemmin myös siitä, miten haluamme käyttää kehittyviä teknologioita. Jokainen tekoälyn käyttäjä tarvitsee tekoälyn lukutaitoa, jonka olennainen osa on eettisten kysymysten ymmärtäminen.

”Tekoälyn kaltaisten uusien teknologioiden hyödyntämiseen liittyy erilaisia sosiaalisia, yhteiskunnallisia, tietosuojaan ja ympäristöön liittyviä riskejä, joita organisaatioiden pitää ennakoida ja huomioida”, tiivistää Digi- ja väestötietoviraston Marko Latvanen (Savolainen 2023). Kun yritys hyödyntää tekoälyä, eettiset näkökohdat tulisi ottaa huomioon jo järjestelmää suunniteltaessa tai käyttöönottoa pohdittaessa. Tämä sisältää oikeudellisten näkökohtien huomioimisen, kuten esimerkiksi vastuu-, vahingonkorvaus-, ja tekijänoikeudelliset kysymykset sekä tekoälyn tuomien juridisten riskien ennakoimisen, ihmisoikeuksia unohtamatta.

Tekoälyn vaikutus asianajotoimistojen organisaatiorakenteeseen ja juristien vastuualueisiin

Työtehtävien tehostamisen ja juristien uudenlaisien osaamisvaatimusten lisäksi, tekoälyn vaikutus ulottuu tulevaisuudessa asianajotoimistojen organisaatiomalliin sekä juristien rooleihin ja vastuualueisiin. Perinteisesti suuret asianajotoimistot ovat noudattaneet niin sanottua pyramidirakennetta, jossa nuorempien juristien osuus on suuri verrattuna kokeneempiin senior-juristeihin ja osakkaisiin. Nuorempien juristien vastuulle kuuluvat usein rutiininomaisemmat tehtävät, kuten juridiset selvitykset sekä sopimusten ja muiden asiakirjojen luonnostelu. Teknologian kehittyessä yhä useampi nuorempien juristien rutiininomaisista työtehtävistä siirtyy kuitenkin tekoälyn hoidettavaksi. Tämä kehityskulku muuttaa nuorempien juristien työtä ja se keskittyy jatkossa enemmän monimutkaisempiin, luovaa ongelmanratkaisua vaativiin tehtäviin. Pyramidin huipulla osakkaiden ja muiden kokeneempien juristien työnkuvat pysyvät suhteellisen muuttumattomina, mutta myös heidän on sopeuduttava hyödyntämään tekoälyä työssään.

Kuva 2. Organisaatiomallin muutos pyramidirakenteesta rakettimalliin. (Mukaillen Veith et al. 2016)

 

Työvoiman määrässä ei kuitenkaan todennäköisesti nähdä isoja muutoksia, sillä tekoälyn korvaamat paikat täytetään uusilla tehtävillä. Muutosta voi kuvata rakettimallisen organisaatiorakenteen avulla (katso kuva 2). Tulevaisuudessa isoin muutos nähdään vastuualueiden muutoksina, uusien tehtävien syntymisenä sekä teknologian merkityksen kasvamisena. Muutos on jo nyt nähtävissä monissa asianajotoimistoissa, joihin on palkattu muun muassa projektinjohtamisen ammattilaisia sekä otettu käyttöön erilaisia legal tech -työkaluja. Myös teknologialiitännäiset roolit lisääntyvät jatkossa. Tulevaisuudessa on entistä suurempi tarve moniosaajajuristeille, joiden työssä yhdistyy sekä juridinen että teknologinen osaaminen. Heidän työnsä jakautuu kahteen pääalueeseen: yhtäältä perinteiseen juridiseen neuvonantoon erityisesti teknologiaan ja tietosuojaan liittyvissä kysymyksissä ja toisaalta juridisen alan teknisten työkalujen eli legal tech -työkalujen tehokkaaseen käyttöönottoon, opettamiseen ja hyödyntämiseen.

Yhteenveto

Generatiivisen tekoälyn avulla voidaan saavuttaa merkittäviä etuja ja muutoksia juridiikan alalla. Tekoälyn automatisoidessa rutiininomaisia, vähemmän vaativia tehtäviä, juristeilla on mahdollisuus keskittyä monimutkaisempiin, juridista asiantuntemusta vaativiin tehtäviin. Tämä heijastuu asiakasarvon ja työn tehokkuuden kasvamiseen. Myös työn mielekkyys lisääntyy työn keskittyessä mielenkiintoisempiin ja enemmän arvoa tuottaviin tehtäviin. Lisäksi toistuvista rutiinitehtävistä säästetty aika mahdollistaa paremman tasapainon työn ja vapaa-ajan välillä, mikä on nykypäivänä tärkeä kilpailutekijä.

Vaikka tekoälyn avulla voidaan automatisoida osa juristin tehtävistä, se ei korvaa juristien asiantuntemusta, strategista ajattelua, näkemyksellisyyttä, ihmissuhdetaitoja tai eettistä arvostelukykyä. Tekoälyn tuomat tehokkuusedut ovat kuitenkin niin merkittävät, että on mahdollista, että tekoälymyönteiset ja -osaavat juristit korvaavat juristit, jotka eivät sitä käytä. Jotta tekoälyä osataan hyödyntää mahdollisimman tehokkaasti ja eettisesti, on tärkeää ymmärtää sen toimintaperiaatteet ja rajoitukset sekä tunnistaa siihen liittyvät haasteet.

Yhteenvetona voidaan todeta, että generatiivisella tekoälyllä on tärkeä merkitys tulevaisuuden juristiammatin muokkaamisessa. Se sisältää lupauksen siitä, että hyödyntämällä sitä tehokkaalla ja vastuullisella tavalla sekä ymmärtämällä siihen liittyvät mahdollisuudet ja riskit, sen avulla voidaan saavuttaa tehokkuushyötyjä, parempia asiakastuloksia, kasvavaa työtyytyväisyyttä sekä parempaa työn ja vapaa-ajan tasapainoa.

 

Lähteet

Hatzius, Briggs, Kodnani & Pierdomenico (2023) Global Economics Analyst/The Potentially Large Effects of Artificial Intelligence on Economic Growth. Goldman Sachs, Economics Research. Saatavilla: https://www.key4biz.it/wp-content/uploads/2023/03/Global-Economics-Analyst_-The-Potentially-Large-Effects-of-Artificial-Intelligence-on-Economic-Growth-Briggs_Kodnani.pdf

Hu (2023) Reuters: ChatGPT sets record for fastest-growing user base – analyst note. Reuters. Saatavilla: https://www.reuters.com/technology/chatgpt-sets-record-fastest-growing-user-base-analyst-note-2023-02-01/

Keränen (2023) Näin tekoäly muuttaa juristin työn. Juristiuutiset. Saatavilla: https://juristiuutiset.fi/nain-tekoaly-muuttaa-juristin-tyon/

Savolainen (2023) Eettinen pohdinta pitää tehdä ennen tekoälyn käyttöönottoa – kattava opas neuvoo organisaatioita tekoälyn vastuullisessa hyödyntämisessä. Digi- ja väestötietovirasto. Saatavilla: https://www.edilex.fi/uutiset/88057

Veith, Bandlow, Harnisch, Wenzler, Hartung & Hartung, D. (2016) How Legal Technology Will Change the Business of Law. BCG & Bucerius Law School.

 

Artikkelin ovat laatineet Castrén & Snellmanin Director of Knowledge Management & Innovation Paula Aura ja kauppatieteinen maisteri ja oikeustieteen ylioppilas Noora Wallenius.

Artikkeli on neljäs osa Akava Worksin ”Näkökulmia tekoälyyn” -artikkelisarjassa.

Kuva: DALL-E -tekoälysovelluksen tuottama kuva artikkelin teemoista.

 

Näkökulmia tekoälyyn, osa 3 – Saara Malkamäki: Tekoälystä tukea sote-ammattilaisten työhön sekä sairauksien ehkäisyyn

Kuinka moni uskaltaa sanoa tietävänsä paljon tekoälystä tai osaavansa luoda tekoälypohjaisia tuotteita tai palveluita? Ei vielä moni. Kuitenkin meidän kaikkien terveysalan toimijoiden tulisi tietää asiasta, oppia soveltamaan tekoälyä jokapäiväisessä työssämme ja kasvattaa osaamistamme datan ja tekoälyn hyödyntämisessä, koska varmaa on, että tekoäly tulee vaikuttamaan koko sosiaali- ja terveysalaan. Mutta kysymys on, miten ja millä tavalla?

Tekoälyn käyttö herättää epävarmuutta ja kysymyksiä: Voi olla vaikea pysyä kärryillä, mikä on olennaista, mitä riskejä tekoälyn käyttöön liittyy ja miten nämä riskit voivat toteutua omassa työnkuvassa.

Tähän tekstiin on koottu esimerkkejä siitä, miten tekoälyä hyödynnetään tällä hetkellä terveysalalla ja millaisia potentiaalisia käyttökohteita tekoälyn hyödyntämisessä on näköpiirissä lähitulevaisuudessa. Yhden mahdollisen käyttötapauksen havainnollistajana toimivat otteet Idan, 44-vuotiaan akuuttilääkärin, työvuorosta sairaalan päivystyksessä helmikuussa vuonna 2034.

Kello 22.00. Ida aloittaa työvuoronsa. Sairaalan iltapäivystäjältä siirtyy Idalle yksitoista potilasta. Ida silmäilee potilaslistan ja lukee tekoälyn tuottaman sekä iltalääkäreiden tarkastaman raportin potilaista. Hyvältä vaikuttaa, voi tulla melko rauhallinen yö. Idan työpari triagehoitaja Juuso ottaa potilaat vastaan ja laittaa heidät kiireellisyysjärjestykseen. Tekoäly auttaa Juusoa luomalla valmiin mutta muokattavan ehdotuksen kiireellisyysjärjestyksestä.

Tekoälyä hyödynnetään jo nyt usealla eri tavalla terveysalalla

Viime vuoden marraskuussa Helsingin ja Uudenmaan sairaanhoitopiiri (HUS), Sosiaali- ja terveysministeriö sekä Fimea järjestivät viidennen vuosittaisen terveydenhuollon tekoälypäivän, jossa useat eri asiantuntijat esittelivät tekoälyn kehitystä, haasteita ja mahdollisuuksia.

Tekoälypäivillä kuultiin, kuinka tekoälyn kehittäminen aivoverenvuodon diagnostiikan osalta on kestänyt 6,5 vuotta ja jatkuu yhä. Jotta tekoälyä on voitu kehittää ja neuroverkon algoritmia kouluttaa, on pitänyt piirtää käsin 90 potilaan aivoverenvuodon kuvat. Tähän on kulunut tyypillisesti 11 tuntia per potilas. Tämän lisäksi esimerkiksi ulkomaiset todentamiset, eri neuroverkkojen muodostaminen erityyppisille aivoverenvuototyypeille, erillisten järjestelmien ja laitteiden käyttöönotto, tieteellisten artikkelien kirjoitus ja julkaisu ja tutkimusluvat ovat ottaneet aikansa.

Kliinisestä tutkimuksesta matka lääkinnälliseksi laitteeksi ja innovaatioiden käyttöönottoon hoidossa on pitkä. Tekoälyä voidaan kuitenkin hyödyntää monin eri tavoin terveydenhuollossa. Viime vuonna HUSissa oli käytössä 20 tekoälymallia, joista esimerkkeinä päivystyksen ruuhkatilanne, älykäs lähetelajittelija ja annosteluohjeen rakenteistaja. Generatiivista eli kielellistä tekoälyä käytettiin kliinisessä ja hallinnollisessa tekstintuotossa sekä tiedon kokoajana. Älykäs lähetelajittelija säästi ajankäyttöä 13 henkilötyövuotta vuodessa ja annosteluohjeen rakenteistaja -sovelluksen käytöllä säästettiin 35 henkilötyövuotta vuodessa. HUSissa käytetään myös ohjelmistorobotiikkaa, ja vuonna 2022 käytössä oli kymmenen tekoälyllä rikastettua ratkaisua sekä kliinisissä että hallinnollisissa tehtävissä. Automaatio on tuonut uusia mahdollisuuksia ja ratkaisuja eri toimintoihin, ja robotti tekee töitä jo yli 100 henkilötyövuoden edestä vuodessa. Puhutaan siis merkittävistä hyödyistä.

Tekoälystä ei voi puhua ilman dataa

Yllä kuvatut esimerkit osoittavat, että tekoälyn hyödyntämisessä terveysalalla on laaja skaala erilaisia ratkaisuja, joiden kehittäminen vie joissakin tapauksissa useita vuosia ja joissakin päästään hyvin lyhyessä ajassa liikkeelle ja tuotantoon. Näitä kaikkia ratkaisuja tarvitaan. Ne ovat vain kovin erilaisia.

Oleellista on kuitenkin ymmärtää, että tekoälyä ei kannata tarkastella yksittäisenä osa-alueena vaan osana laajempaa datatalouden kontekstia, eli teknologian, digitalisaation ja datan parempaa hyödyntämistä. Erilaisten dataratkaisujen kautta voidaan uudistaa sosiaali- ja terveydenhuoltoa sekä luoda kasvua ja kilpailukykyä alalle.

On myös tärkeää ymmärtää, että tekoälyä varten tarvitaan runsaasti dataa eri muodoissa. Yleensä tekoälyn käytön yhteydessä puhutaan isojen datamassojen hyödyntämisestä ei-rakenteellisessa muodossa, kun taas robotille parasta olisi rakenteellinen data. Datan täytyy olla myös löydettävissä, käytettävissä, yhteen toimivaa ja uudelleenkäytettävää.

Tekoäly mahdollistaa yksilöllisemmän hoidon sekä parempaa päätöksentekoa ja ennakointia

Kello 1.09. Ida hoitaa kahta vatsakipuista ja yhtä kovasta huimauksesta kärsivää potilasta. Ida tutkii vatsakipupotilaan huolellisesti laboratoriokokeiden ja tietokonekuvien perusteella. Tietokonekuvien analysoinnissa on käytetty tekoälyä, mikä on nopeuttanut tulosten saantia sekä analyysien tarkkuutta. Ida löytää potilaan tiedot yhdestä paikasta tekoälyn tuottaman synteesin avulla. Aiemmin hän joutui etsimään potilasta koskevia tietoja ja tutkimustuloksia useista järjestelmistä.

OECD:n pian julkaistava Artificial Intelligence and the Healthcare Workforce nostaa esille useita hyötyjä tekoälyn hyödyntämisestä yksilötasolla ja yhteisötasolla sekä kliinisissä ja hallinnollisissa tehtävissä. Kaiken keskiössä on potilaiden parempi hoito, jota tekoälyn avulla voidaan suunnitella ja toteuttaa yhä yksilöllisemmin. Potilaat voivat saada hoitoa etänä, sillä tekoälyä hyödyntävät etävalvontalaitteet voivat lähettää potilaista reaaliaikaisia tietoja terveydenhuollon ammattilaisille. Tekoälypohjaiset virtuaaliassistentit voivat puolestaan auttaa yksilöitä esimerkiksi tapaamisten kalenteroinnissa.

Yhteisötasolla tekoäly voi ennustaa terveydenhuollon tarpeita sairaalaympäristössä ja optimoida resursseja kuten henkilöstöä, laitteita ja tarvikkeita sen mukaisesti. Myös väestön terveydentilaa voidaan analysoida ja tarvittavia toimia suunnitella helpommin tekoälypohjaisten analyysien pohjalta. Kliinisessä päätöksenteossa tekoäly voi näyttöön perustuvasti auttaa terveydenhuollon ammattilaisia tekemään parempia päätöksiä kuvantamisessa tulkitsemalla esimerkiksi sydänkuvia. HUSin diagnostiikkakeskuksessa käytetään jo nyt jokaisen sydänkuvan analysointiin tekoälyä.

Henkilön terveysriskiä voidaan myös ennustaa tekoälypohjaisesti, millä voidaan ehkäistä sairauksien syntymistä. Hallinnollista työtä pystytään tehostamaan virtaviivaistamalla työnkulkua ja tiedonhallintaa esimerkiksi potilastietojen osalta. Myös alati kehittyvien lakien ja säädösten noudattamisessa tekoäly voi minimoida riskejä ja auttaa tarkistamaan tietoja.

Generatiivinen tekoäly vapauttaa lääkärin ja hoitajan työajasta vähintään viidenneksen

Tekoälyn potentiaali on valtava, ja Suomen etu on, että tarvittavaa teknologiaa on jo olemassa, digitalisaatiossa ollaan pitkällä ja myös sosiaali- ja terveysdataa on kertynyt tarpeeksi. Accenturen Suomessa tekemän tutkimuksen mukaan (Rauhala 2023) pelkästään generatiivinen tekoäly voi minimissään vapauttaa lääkärin ja hoitajan työstä 20 prosenttia ja hallinnollisista töistä 35 prosenttia työaikaa. Tämä tapahtuu poistamalla kielellisiä tehtäviä, joita näissä töissä on 40–70 prosenttia.

Sitran Datasta voimaa sote-järjestelmään -selvityksen (Larsio 2023) mukaan tietoon perustuvalla ennaltaehkäisyllä on mahdollista saavuttaa yli 400 miljoonan euron säästöt vuodessa, kun tunnistetaan riskiryhmät dataa ja tekoälyä hyödyntämällä, tehdään tietoon perustuvia päätelmiä ja hoitosuunnitelmia, seurataan potilaiden tilaa ja hoitovastetta sekä ohjataan potilaiden omahoitoa. Saavutetut suorat kustannussäästöt voidaan kohdentaa yhä kasvavaan sote-palvelutarpeeseen.

Nämä kaksi esille tuotua esimerkkiä ovat vain murto-osa tekoälyn tuomasta säästöpotentiaalista, mutta jo ne yksinään kertovat, että tekoäly voi tuoda valtavia hyötyjä väestön ikääntymisestä johtuviin haasteisiin resurssipulasta kipuilevalle terveydenhuollolle.

Ei ole järkevää tarkastella vain euroja ja säästöjä

Jos esimerkiksi tekoälyn avulla voidaan hoitaa enemmän hoitoa tarvitsevia potilaita kuin nykyisin, kustannukset nousevat suuremmiksi hoidettavien potilasmäärien myötä. Sote-alan suurin kuluerä on henkilöstökulut, ja suoraviivaisin tapa säästää kustannuksissa on henkilöstökulujen karsiminen, mikä näkyy vahvasti tällä hetkellä hyvinvointialueilla.

Kuitenkin meidän tulisi puhua myös alan kasvusta ja kilpailukyvystä sekä kyvystä tehdä rohkeita investointeja, jotka tuottavat todennettuja terveysvaikutuksia, hyvinvointia ja säästöjä myös pitkällä aikavälillä ja ennaltaehkäisevästi. Tärkeintä on arvioida, mitä hyötyjä tekoälyn avulla voidaan saavuttaa yhteiskunnassa ja kuinka hyvin sen avulla voidaan tuottaa hyvinvointia ja terveyttä ihmisille. Tekoälyn tulisi olla sosiaali- ja terveysalan työkalu, jolla saamme haluttua muutosta ja vaikuttavuutta aikaan. Vaikuttavuuden mittarit tulisi myös rakentaa tukemaan tavoitetta.

Yksi esimerkki uudentyyppisestä vaikuttavuusperusteisesta toiminnasta ja mittareista on tulosperusteinen rahoitussopimus (Social Impact Bond SIB), joka soveltuu erityisesti ennaltaehkäisevään toimintaan. Lapset-SIBissä vaikuttavuuden mittarit on laadittu siten, että julkinen sektori maksaa vain saavutetuista tuloksista. Tällä hetkellä 1 188 lasta perheineen saa ennaltaehkäiseviä palveluita, jotka on suunniteltu vastaamaan alueen lasten ja nuorten tarpeita. Mukana olevat kunnat ovat laskeneet säästävänsä 30 miljoonaa euroa lastensuojelun kustannuksissa.

Kello 3.52. Ida kutsutaan ompelemaan haavoja, jotka teini-ikäinen potilas on aiheuttanut itselleen. Yöaikaan korostuvat mielenterveys- ja päihdeongelmat. Idan potilaalle on aiemmin määrätty masennukseen lääketieteelliseen näyttöön perustuvaa digitaalista hoitoa. Ida tarkistaa potilaan käyttämän sovelluksen tiedoista, miten potilaan arki on sujunut ja millainen mieliala potilaalla on ollut viimeisen kahden kuukauden aikana. Tekoäly auttaa Idaa löytämään muut potilaaseen liittyvät tiedot kuten lääkitystiedot, koulupoissaolot ja sijaishuoltopaikan merkinnät nopeasti ja tehokkaasti. Tietojen avulla Ida pystyy hahmottamaan potilaan vointia ja elämäntilannetta kokonaisvaltaisesti, mikä auttaa Idaa tarjoamaan potilaalle hänelle sopivaa jatkohoitoa.

Tekoälyn käyttöön liittyy myös riskejä

Perinteisesti tekoälyn riskit, jotka vaikuttavat terveydenhuoltoon, sote-alaan ja sote-ammattilaisten työhön, liittyvät datan harhoihin ja vinoumiin sekä vääriin tietoihin. Puuttuvat tiedot voivat aiheuttaa ongelmia, ja tekoälymallit voivat muiden ohjelmistojen tavoin sisältää virheitä.

Tekoälymallit voivat myös kohdella eri ihmisryhmiä eri tavoin. Artificial intelligence in medicine and the disclosure of risks -artikkelin (Kiener 2020) mukaan rintasyöpää sairastavien naisten joukossa mustilla naisilla oli pienempi todennäköisyys tulla testatuksi korkean riskin ituratamutaation osalta verrattuna valkoisiin naisiin, vaikka heillä oli yhtä suuri riski tällaisiin mutaatioihin. Siten geneettisten testien tuloksista riippuva tekoälyalgoritmi kuvaa todennäköisemmin väärin rintasyövän riskiä mustilla potilailla kuin valkoisilla potilailla.

Eettisestä näkökulmasta tekoälyn hyödyntämisen tulisi olla reilua ja tasa-arvoista, eikä se saisi johtaa syrjintään. Ammattilaisilla on velvollisuus ymmärtää käyttämiensä tekoälytyökalujen riskit, ja niitä tulisi myös valvoa. Käyttäjät voivat aiheuttaa isoja ongelmia, jos he eivät ymmärrä hyödyntämäänsä tekoälypohjaista työkalua tai käyttävät sitä väärin. Sääntely, erityisesti monimutkainen ja vielä keskeneräinen EU:n tekoälyasetus, voi aiheuttaa viivästyksiä tekoälyn hyödyntämisessä ja käyttöönotossa terveysalalla.

Suurin riski on tekoälyn käyttämättä jättäminen sote-alalla

On tärkeää huomioida tekoälyyn ja dataan liittyvät riskit sekä eettiset näkökulmat. Yhtä tärkeää, ellei vielä tärkeämpää, on pohtia, mitä tapahtuu, jos emme ota käyttöön tekoälyä. Tätä näkökulmaa harvoin tuodaan esille. Usein terveysalalla kuulee keskustelua lainsäädännön tai kehittämisen esteistä, tiedon anonymiteetin varmistamisesta, tietoturvasta ja siitä, kuka on vastuussa, jos jokin menee pieleen. Me suomalaiset emme ota mielellämme riskejä, jos siitä seuraa mahdollisuus epäonnistua.

Tekemättömyyden seuraukset voivat olla merkittävät erityisesti sosiaali- ja terveysalalla. Tekoälyn käyttämättömyys voi tarkoittaa digitaalisen ja terveyteen liittyvän epätasa-arvon kasvamista, yksityisyyden suojaan liittyvien riskien lisääntymistä, tieteellisen kehityksen hidastumista, ihmisten luottamuksen heikentymistä sekä terveydenhuollon ammattilaisten työuupumuksen lisääntymistä, joka johtuu hallinnollisen taakan lisääntymisestä. (Sutherland, Keelara 2024.) Sosiaali- ja terveyspalveluiden osalta tekoälyn menetetyt mahdollisuudet voivat vaikuttaa palvelujen laadun ja saatavuuden heikkenemiseen.

OECD:n Tekoäly ja terveydenhuollon työvoima -kyselyyn vastanneet lääketieteelliset yhdistykset ympäri maailmaa uskovat, että tekoälyn hyödyt terveydenhuollossa ovat merkittävämpiä kuin sen riskit. On helppo yhtyä vastaajien näkemykseen. Samalla yhteiskunnalliseen keskusteluun olisi hyvä nostaa esille kysymys siitä, pitäisikö tekoälyn käyttöönotto terveydenhuollossa tehdä pakolliseksi. Vaikka ajatus pakollisuudesta kuulostaa vaativalta, on tärkeää keskustella riskeistä, mitä liittyy siihen, että tekoälyä ei oteta käyttöön sote-alalla.

Mitä tavoittelemme Suomessa tekoälyllä sosiaali- ja terveysalalla?

Tämä kysymys on keskeinen ja sitä tulisi tarkastella yhdessä laajemman kontekstin ja terveysalan vision kanssa. Haluammeko, että ihmiset saavat tulevaisuudessa enemmän hoitoa vai että hoitoa tarvitsevat ihmiset saavat hoitoa, joka tehoaa? Haluammeko aidosti ehkäistä sairauksien syntyä ja panostaa ennalta ehkäisevään terveydenhuoltoon?

Suomen terveysalan kasvun ja kilpailukyvyn visiossa 2030 sanoitettiin ensimmäistä kertaa, että Suomi on vuoteen 2030 mennessä päättänyt toteuttaa 50/50-vision, jonka mukaan puolet terveydenhuollon budjetista käytetään ennaltaehkäisevään terveydenhoitoon ja puolet sairaanhoitoon. Nykyisin ennaltaehkäisevään terveydenhoitoon panostetaan noin 5–10 prosenttia, eli matkaa tavoitteeseen on reilusti. Tärkeintä on kuitenkin yhteinen tahtotila ja suunta. Miten tekoäly voi tukea tämän tavoitteen toteutumisessa?

Kello 4.30. Ida viilettää vastaanotto- ja tarkkailuhuoneiden välillä. Pääosa Idan potilaista on ikääntyneitä. Sairaalan päivystys on ollut pitkään ruuhkainen, mutta ruuhkaa on saatu purettua hyödyntämällä tekoälyä jatkohoitopaikkojen riittävän määrän varmistamisessa. Tekoälyn avulla on ennustettu jatkohoitopaikkojen tarvetta päivystyksen ja osastojen reaaliaikaisten tietojen pohjalta ja optimoitu sen mukaan resursseja. Kymmenien tuntien odotusaika jatkohoitopaikkaan on onnistuttu lyhentämään alle puoleen. Tämä on helpottanut Idan ja muiden päivystyksen henkilöstön työkuormaa.

Tekoäly vai tukiäly – kumpaa haluamme?

Miten voimme rakentaa tekoälyä tukemaan työtämme sote-alalla nyt ja tulevaisuudessa? Onko tekoäly autonomista päättelyä tekevä äly, joka tekee päätökset puolestamme ja vie työpaikkamme tulevaisuudessa vai auttaako tekoäly meitä työssämme, päätöksenteossamme ja osaamisessamme? Voimmeko itse vaikuttaa tekoälyn tulevaisuuteen?

Tulevaisuuksia on aina monia, ja rakennamme tulevaisuutta tämänhetkisillä päätöksillämme. Teknologiakehityksen ja tekoälyn osalta tulevaisuuskeskustelu on erityisen tärkeää, koska tekoälyn tulevaisuus on meille tuntematon. Emme täysin ymmärrä tekoälyn mahdollisuuksia, uhkia ja vaikutuksia, jolloin on tärkeää pohtia, minkälaisen tulevaisuuden haluamme ja miten tekoäly voi auttaa meitä pääsemään toivottuun tulevaisuuteen terveysalalla. Tämä auttaa meitä rakentamaan tekoälyn osaksi suurempaa tarkoitusta ja toivottavaa tulevaisuutta.

ETLAn muistiossa generatiivisen tekoälyn vaikutuksista todetaan, että teknologisen kehityksen suunta sekä sen hyötyjen ja haittojen jakautuminen ovat lopulta yhteisön tekemiä sosiaalisia ja poliittisia valintoja. Tekoälyn tämänhetkisen kehityssuunnan nähdään painottuneen liikaa ihmistyön korvaamiseen sen täydentämisen sijaan.

Tekoälyä tulee kehittää ihmisten ehdoilla ja ihmisiä varten

Myös Tuukka Lehtiniemi (2023) Helsingin yliopistolta on tutkinut ja kirjoittanut tekoälypohjaisen ennakoinnista sosiaalityössä ja tuo esille tekoälyä koskevia tunnistettuja ongelmia lastensuojelussa. Espoon kaupungin kokeilu, jossa kehitettiin tekoälytyökalu lastensuojelun asiakkuuden ennustamiseksi, ei ollut yhteensopiva käytännön sosiaalityön kanssa. Haastateltavat sosiaalityöntekijät eivät odottaneet tekoälyltä ennakointitiedon tuottamista vaan tukea tiedontuotannon prosessille. Tekoälytyökalua ei kuitenkaan ollut suunniteltu asiakastyötä vaan riskin ennakointia varten. Lehtiniemi korostaa, että tekoälyn tulisi tukea ihmisten työtä sen sijaan, että se korvaisi ihmisten ammattitaitoa.

Tekoäly ei ikinä voi korvata ihmistä varsinkaan hoitotyössä, jossa empatiakyky ja kyky ymmärtää eri henkilöiden tilanteita kokonaisvaltaisesti on tärkeää. Tekoälyä tulisikin kehittää sote-alan ammattilaisten omista lähtökohdista tukemaan heidän työtään sekä mahdollistamaan ennalta ehkäisevä terveydenhuolto, joka tukee parhaalla mahdollisella tavalla ihmisten hyvinvointia ja terveyttä.

Kello 5.05. Kaikki sisään tulleet potilaat on tutkittu, ja Ida tekee rästiin jääneitä saneluita, joiden tiedot siirtyvät tekoälyn avulla suoraan oikeisiin kohtiin potilastietojärjestelmään. Ida tarkistaa, että tiedot ovat oikein. Ida ehtii sanelun ohessa juomaan kupin kahvia.

Tekoäly vaikuttaa eniten korkeakoulutettujen työnkuvaan

Tekoäly terveydenhuollossa -kyselytutkimuksen (2018) mukaan tekoäly tulee muuttamaan tulevaisuudessa eniten lääkäreiden (77), toiseksi eniten sairaanhoitajien (43) ja kolmanneksi eniten lähihoitajien (21) työnkuvaa. Näin vastaajat vastasivat kysymykseen, keiden terveydenhuollon ammattilaisten työnkuvat muuttuvat tulevaisuudessa tekoälyn myötä. ETLAn generatiivisen tekoälyn muistio nostaa esille, että aiemmista teknologiamurroksista poiketen generatiivisen tekoälyn vaikutukset kohdistuvat eniten työmarkkinoiden korkeakoulutettuihin ja tietotyöläisiin.

Kysyttäessä uskovatko vastaajat tekoälyn heikentävän työllisyystilannetta oman ammattikuntansa keskuudessa 74 prosenttia vastasi ei ja 8 prosenttia vastasi kyllä, 18 prosenttia ei osannut sanoa. Tärkein syy, miksi vastaajat eivät uskoneet tekoälyn heikentävän työllisyystilannetta oli, että hoitotyössä tarvitaan tulevaisuudessakin ihmisten välisiä kohtaamisia. Myöskään ETLAn muistion tutkimustulokset eivät tue ihmistyön häviämistä generatiivisen tekoälyn kontekstissa. Ikääntymisen takia monet maat ovat tilanteessa, jossa osaajia ei ole riittävästi saatavilla.

Tekoälyn ja massadatan hyödyntäminen ovat kysytyimpiä taitoja vuoteen 2027 mennessä

Tekoälyyn liittyvä osaamisen puute hoitohenkilökunnan keskuudessa (47) nousi toiseksi suurimmaksi esteeksi tekoälyn hyödyntämiselle terveydenhuollossa. Vain tietojärjestelmiin liittyvät haasteet (55) koettiin vielä suuremmaksi esteeksi. Huoli ei ole tuulesta temmattu. Maailman talousfoorumin Future of Jobs 2023 -raportin (Masterson 2023) mukaan 44 prosenttia työntekijöiden ydinkyvykkyyksistä muuttuu seuraavaan viiden vuoden aikana, ja kysytyimpiä taitoja vuoteen 2027 mennessä ovat analyyttinen ajattelu, luova ajattelu sekä tekoälyn ja massadatan hyödyntäminen. Kuusi kymmenestä työntekijästä tarvitsee koulutusta ennen vuotta 2027, mutta raportin mukaan vain puolella työntekijöistä nähdään olevan käytettävissään riittävät koulutusmahdollisuudet.

Koulutusmahdollisuuksiin tulisi panostaa sosiaali- ja terveydenalalla. Yliopistot ja korkeakoulut ovat luoneet terveystieteisiin dataosaamiseen ja tekoälyyn keskittyviä opintokokonaisuuksia, mutta yhtä tärkeää on oppia työssä ja työn ohessa. Työmarkkinoiden muutoksen johtava tutkija, MIT:n yliopiston professori David Autor (2023), painottaa, että generatiivisen tekoälyn hyödyntäminen lisää koulutettujen tietotyöläisten kyvykkyyksiä. Vain käyttämällä tekoälysovelluksia ja suhtautumalla avoimesti ja uteliaasti uusiin teknologisiin mahdollisuuksiin voi kehittää omaa osaamistaan. Jokainen voi tutustua tekoälyn eri sovelluskohteisiin, opetella tulevaisuusajattelua ja ennakointia omassa työssänsä tai esimerkiksi osallistua tekoälyn maksuttomalle Elements of AI -peruskurssille. Tekoälyn hyödyntäminen edellyttää laaja-alaista osaamista sosiaali- ja terveysalalla ja osaajia, jotka hallitsevat riittävän hyvin niin palvelujen sisältöihin, teknologisiin ratkaisuihin kuin myös lainsäädäntöön liittyvät asiat.

Ammattilaiset päättävät, mihin tekoälyä kehitetään

Tekoäly muuttaa koko sosiaali- ja terveysalaa nyt ja tulevaisuudessa. On tärkeää valjastaa tekoäly ehkäisemään sairauksien syntyä ja luomaan parempaa hyvinvointia ja terveyttä ihmisille. Meidän tulee mahdollistaa tarvittava ja laadukas hoito niille, jotka sitä tarvitsevat ja siitä hyötyvät sekä panostaa aidosti ennalta ehkäisevään terveydenhuoltoon. Meidän tulee myös varmistaa, että ammattilaiset koordinoivat tekoälyyn liittyvää kehitystä sote-sektorilla ja että ihmiset tekevät lopulliset päätökset tekoälyn pohjalta. On meistä kiinni, miten ja millä tavalla rakennamme tekoälyn tukemaan tavoitteitamme ja työtämme.

Kello 8.00. Aamukahdeksalta Ida kertoo päivävuoroon tulevalle päivystäjälle Baydaalle, että kolme potilasta odottaa jatkohoitopaikkaa. Yö on ollut melko rauhallinen. Ida nauttii työstään, vaikka päivystys on raskasta. Mielekästä työstä tekee sen, että hän pystyy auttamaan ihmisiä nopeasti. Myös tiimityö hoitajien kanssa pelaa hyvin. Ida huikkaa hyvät päivänjatkot kollegalleen ja lähtee kotiinsa nukkumaan.

Suosituksia tekoälyn kehittämiseen ja käyttöönottoon sote-alalla

  1. Valjastetaan tekoäly tukemaan sosiaali- ja terveysalan tulevaisuuden visiota ja auttamaan 50/50-visioon pääsemissä, jonka mukaan puolet terveydenhuollon budjetista käytetään ennaltaehkäisevään terveydenhoitoon.
  2. Tehdään rohkeita investointeja uusiin teknologioihin, datan hyödyntämiseen ja tekoälyyn, jotka auttavat tuottamaan todennettuja terveysvaikutuksia, hyvinvointia ja säästöjä myös pitkällä aikavälillä ja ennaltaehkäisevästi.
  3. Hyödynnetään dataa ja tekoälyä monella eri tavalla niin TKI-toiminnassa, hoidossa ja sairauksien ehkäisyssä kuin hallinnollisissa tehtävissä ja tiedolla johtamisessa.
  4. Kehitetään ja käytetään tekoälyä tukemaan reilua, tasa-arvoista ja syrjimätöntä sosiaali- ja terveydenhuoltoa
  5. Otetaan rohkeasti tekoäly käyttöön työpaikoilla ja tiedostetaan, että suurin riski on sen käyttämättä jättäminen.
  6. Kehitetään tekoälyä ihmisten ehdoilla ja ihmisiä varten tukemaan sote-ammattilaisten työtä sekä mahdollistamaan ihmisille hyvinvointia, terveyttä ja hyvää hoitoa.
  7. Varmistetaan, että työntekijät saavat tarvitsemansa koulutusmahdollisuudet ja pystyvät oppimaan uusista teknologioista, datan hyödyntämisestä ja tekoälystä työssään ja työn ohessa
  8. Rakennetaan tekoäly siten, että se on paras mahdollinen tulevaisuuden työkaveri, joka ratkaisee tehtäviä ja ongelmia tehokkaasti, tehostaa prosesseja ja vapauttaa työaikaa ihmisten kohtaamiseen hoitotyössä.

Kirjallisuutta

AbbVie, Finanssiala ry, Hyvinvointialan liitto, Lääkäriliitto, Sitra, Soste, Tehy, YTHS. (2018). Tekoäly terveydenhuollossa -kyselytutkimus. https://www.sitra.fi/app/uploads/2018/07/2018kestavaterveydenhuoltotekoalykyselyraportti.pdf.

Ash, N., Sutherland, E., Eiszele, S. (2024). Artificial Intelligence and the Healthcare Workforce. OECD. Draft version, unpublished.

Helsingin yliopisto (2023) Elements of AI. https://course.elementsofai.com/fi.

Kauhanen, A., Pajarinen, M., Rouvinen, P. (25.10.2023). Generatiivisen tekoälyn vaikutuksista. ETLA Muistio 128. ISSN 2323-2463. ETLA-Muistio-Brief-128 (1).pdf

Kiener, M. (2020, October 22). Artificial intelligence in medicine and the disclosure of risks. https://www.ncbi.nlm.nih.gov/pmc/articles/PMC7580986/

Lapset SIB (2024). https://www.lapsetsib.fi/fim/Home.

Larsio, A. (8.5.2023). Datasta voimaa sote-järjestelmään. ISSN 2737-1042 (verkkojulkaisu). https://www.sitra.fi/julkaisut/datasta-voimaa-sote-jarjestelmaan.

Lehtiniemi, T. (22.9.2023). Tekoälystäkö apua lastensuojeluun?. https://sosdigi.weebly.com/blogi/tekoalystako-apua-lastensuojeluun.

Lehto, P. Malkamäki, S. (15.2.2023). Suomen terveysalan kasvun ja kilpailukyvyn visio 2023. Sitra työpaperi. ISSN 2737-1042 (verkkojulkaisu). https://www.sitra.fi/julkaisut/suomen-terveysalan-kasvun-ja-kilpailukyvyn-visio-2030.

Masterson, V. (2023, May 1). World Economic Forum. Future of jobs 2023: These are the most in-demand skills now – and beyond. https://www.weforum.org/agenda/2023/05/future-of-jobs-2023-skills.

Rauhala, M. (marraskuu 2023). LinkedIn-kirjoitus Accenturen tekemästä generatiivisen tekoälyn selvityksestä Suomessa. https://www.linkedin.com/posts/marko-rauhala-a5867b_sote-suurisoteseminaari-activity-7125365842866782208-5zTf?utm_source=share&utm_medium=member_desktop.

Strauss, D. (2023, August 10). David Autor: ‘We have a real design choice about how we deploy AI’. The Financial Times. https://www.ft.com/content/9c087da3-63d2-%204d73-97dc-023025b529aa.

Sutherland, E., Keelara, R. (2024, January 19) AI in Health – Huge Potential, Huge Risk. https://www.oecd.org/health/AI-in-health-huge-potential-huge-risks.pdf.

 

Artikkelin on laatinut Sitran asiantuntija Saara Malkamäki. Hän kehittää Suomelle parasta tulevaisuutta Sitrassa rakentamalla reilua datataloutta ja edistämällä sosiaali- ja terveystietojen käyttöä Suomessa ja Euroopassa.

Artikkeli on kolmas osa Akava Worksin ”Näkökulmia tekoälyyn” -artikkelisarjassa.

Kuva: DALL-E -tekoälysovelluksen tuottama kuva artikkelin teemoista.

Lue artikkeli ohesta (pdf)

Tekoälystä tukea sote-ammattilaisten työhön sekä sairauksien ehkäisyyn Akava Works -artikkeli 3_2024

Näkökulmia tekoälyyn, osa 2 – Riku Neuvonen: Tekijänoikeudella suojattu aineisto tekoälyn koulutuksessa

Tekoälyn läpimurto julkisuudessa tapahtui kunnolla viimeistään vuonna 2023. Vuoden aikana OpenAI:n kehittämä, suuriin kielimalleihin (GPT) perustuva tekoälysovellus ChatGPT lunasti monet tekoälylle asetetut odotukset. Se pystyi tuottamaan tekstiä annettujen ohjeiden perusteella ja vastaamaan kysymyksiin uskottavammin kuin aiemmat tekoälyt. Perustana tälle on tekoälyn opetukseen käytetyt suuret tekstimassat. Samalla, kun tekoälyn käyttö lisääntyi, käynnistyivät spekulaatiot sen vaikutuksista ja tulevaisuudesta.

Tekoäly on nähty uhkana erityisesti luovilla aloilla. Uhkakuvana on, että tekoäly pystyy tuottamaan sille annettujen ohjeiden mukaisesti kaikenlaisia sisältöjä, jolloin tarve luovan työn tekijöille vähenee. Tässä keskustelussa sivurooliin on jäänyt se, että useimpien tekoälyjen opetuksessa käytetään luovilla aloilla luotuja teoksia. Näillä teoksilla on tekijä ja teoksiin kohdistuu tekijänoikeus. Voiko tekoäly siis käyttää esimerkiksi tätä kirjoitusta omaan oppimiseensa ja omien vastaustensa pohjana? Onko näillä tekoälyn luomilla aineistolla oma tekijäoikeus?

OpenAI on tämän hetken puhutuin tekoälyn kehittäjä, sillä se on julkaissut myös kuvia tuottavan DALL-E ohjelman, josta on nyt käytössä jo toinen kehitysversio. Vastaavia ovat Midjourney ja Stable Diffusion. Näiden läpimurtosovellusten vanavedessä on tullut suuri joukko muitakin suuriin kielimalleihin ja kuvapankkeihin perustuvia tekoälysovelluksia, jotka voivat tuottaa tekstiä ja kuvia käyttäjän esittämien toiveiden mukaisesti. Tällaisiin tekoälysovelluksiin liittyy useita kysymyksiä, joita esimerkiksi EU:n tekoälysäännös (AI Act) pyrkii tulevaisuudessa sääntelemään.

Tekijänoikeus tekoälyn koulutuksen haasteena

Tekoälyalalla on runsaasti keskustelua tekoälyjen kehittämisen etiikasta. Yksi keskeinen kysymys on tekoälyjen opettaminen materiaalilla, joka on muiden tekemää. Esimerkiksi ChatGPT:lle on annettu aineistona käytännössä kaikki internetissä oleva tieto aluksi vuoteen 2021 ja nyt joiltakin osin vuoteen 2023 saakka. Tämä aineisto on lähes kokonaan sellaista, jolla on tekijä ja johon kohdistuu tekijänoikeuden suoja. Olennainen kysymys onkin, että salliiko nykyinen tekijänoikeuden sääntely tekijänoikeuden alaisen aineiston käytön tällaisessa tarkoituksessa vai onko kyse tekijänoikeuden loukkauksesta (esim. Kousa 2013).

Tekijänoikeuslähtöisessä tekoälykeskustelussa ja -tutkimuksessa lähtökohta oli pitkään pohtia, voiko tekoälyn tuottama tai avustama teos saada tekijänoikeuden suojan ja voiko tekoäly olla tekijä. Tekijänoikeudessa peruslähtökohtana on, että teoksen tulee ylittää niin sanottu teoskynnys eli osoittaa, että se on riittävän itsenäinen ja omaperäinen. Teokseksi voidaan katsoa mikä tahansa luovan työn tulos. Suomessa tekijälle syntyy automaattisesti tekijänoikeus teokseen, joten tekijänoikeutta ei tarvitse rekisteröidä tai merkitä symboleilla. Tekijänoikeuksiin luetaan myös niin sanotut lähioikeudet, mutta niiden ottaminen tähän tarkasteluun sekoittaisi kokonaisuutta. (Harenko ym. 2016.)

Tekijänoikeus antaa tekijälle yksinoikeuden päättää teostensa käytöstä. Muilla ei ole oikeutta käyttää teosta ilman tekijän lupaa. Tähän on muutamia poikkeuksia, joihin palataan oikeassa asiayhteydessä. Tekijänoikeuteen kuuluvat taloudelliset oikeudet eli oikeus valmistaa teoksesta kappaleita ja oikeus saattaa teos yleisö saataville. Nämä oikeudet on mahdollista luovuttaa osittain tai kokonaan. Tekijänoikeuteen kuuluvat myös moraaliset oikeudet eli oikeus tulla tunnustetuksi teoksen tekijänä ja oikeus kieltää teoksen omaperäisyyttä tai taiteellista arvoa loukkaava muuntelu. Moraalisia oikeuksia ei ole mahdollista luovuttaa. (Harenko ym. 2016.)

Tekijänoikeus on tällä hetkellä voimassa tekijän koko elämän ajan ja 70 vuotta hänen kuolemansa jälkeen. Huomattava on, että tekijänoikeus ei koske ideaa, vaan muotoa. Vielä jokin aikaa sitten tekijänoikeuskeskustelussa oli osittaisena vitsinä, että tekijänoikeuden suoja-aikaa pidennetään aina kun Mikki Hiiren tekijänoikeus on vanhenemassa. Nyt alkuvuodesta 2024 ensimmäinen Mikki Hiiren muoto menetti suojansa, joten suoja-aikoihin on tuskin tulossa muutoksia.

Keskeistä tekijänoikeudessa on, että riippumatta kansallisesta lainsäädännöstä tekijänoikeus suojaa tekijän asemaa ja tekijänoikeuden haltijan oikeuksia kaikkia kohtaan. Tekijänoikeus on yksinoikeus päättää tietyn teoksen käytöstä, johon sisältyy oikeus saada korvausta teoksen käytöstä tekijän näin halutessa. Tekoälyn koulutuksessa käytetään todennäköisesti tekijänoikeudella suojattua materiaalia ilman tekijänoikeuden haltijan lupaa.

Tekijänoikeuden rajoitukset mahdollisuutena

Tekijänoikeuteen on olemassa erilaisia rajoituksia, jotka sallivat teoksen esittämisen ja kappaleiden valmistamisen eli kopioinnin tietyissä olosuhteissa. Pääosin nämä koskevat opetuskäyttöä, tutkimuskäyttöä ja lainaamista sallitulla tavalla. Sallitussa lainaamisessa eli sitaatissa on mainittava aina alkuperäinen teos ja tekijä. Tämän ohella Yhdysvalloissa on tekijänoikeudessa fair use -oppi, jonka mukaan tekijänoikeudella suojattua aineistoa voi käyttää tietyissä tilanteissa. Tämän opin mukainen käyttöala on paljon laajempi kuin eurooppalaiset erikseen mainittuihin ja rajattuihin tarkoituksiin soveltuvat tarkkarajaiset poikkeukset (Tapio 2013). Suurin osa tunnettujen tekoälysovellusten kehittäjistä on yhdysvaltalaisia, jolloin tapauksiin sovellettavan lainsäädännön valinta voi olla haasteellista ja aiheuttaa ongelmia.

Suomen tekijänoikeussäännöstö perustuu nykyään suurelta osin EU:n tekijänoikeussäännöksiin ja vastaa mannereurooppalaista tekijänoikeuskäsitystä. Tähän sääntelyn kuuluvat väliaikaiset teoskappaleet, joita saa tekijänoikeuslain 11 a § mukaan valmistaa tarkoitukseen, jolla ei ole itsenäistä taloudellista merkitystä ja joka on väliaikaista sekä välttämätön osa teknistä prosessia. Tämä soveltuu käytännössä välimuistiin tehtäviin teoskappaleisiin. Tekoälyn opetuskäyttö saattaisi liittyä tähän poikkeukseen, mutta itsenäisen taloudellisen merkityksen arviointi voi muodostua ongelmaksi. Toisaalta kaikissa tekoälymalleissa toiminta ei ole väliaikaista, vaan teos on tekoälyn käytössä pidempään ja tekoäly ottaa teoksesta osia omaan toimintaansa.

EU:n DSM-direktiivin (digitaalisten sisämarkkinoiden direktiivi) seurauksena Suomen tekijänoikeuslain 13 b §:ään (HE 43/2022 vp ja HE 313/2022 vp)  on lisätty mahdollisuus valmistaa teoskappaleita tekstin- ja tiedonlouhintaa varten. Edellytyksenä on, että teokseen on laillinen pääsy eli se on tekijänoikeuden haltijan luvalla saatavilla. Tekijä voi kieltää nimenomaisesti tämän käyttötarkoituksen. Tekoälyä ei direktiivissä mainita, joten säännöksen soveltuvuus nimenomaan tekoälyn tapauksessa on avoinna.

Direktiivejä saatetaan voimaan jäsenvaltioissa kansallisesti, joten Euroopan tasolla voi olla eroja tiedonlouhinnan sääntelyssä. Toisaalta tässäkin tarkastelussa on kyse tekoälykohtaisuudesta eli ovatko kaikki tekoälyt ja niiden opetustoiminta direktiivissä ja laissa mainittua tiedonlouhintaa. Toisaalta verkossa on aineistoa ajalta ennen direktiiviä, jolloin tekijällä ei ole ollut tietoa tällaisesta toiminnasta ja mahdollisuutta kieltää sitä. Tällä hetkellä käytössä olevat tekoälyt on koulutettu aineistolla, jossa tekijöiden lupia ei ilmeisesti ole kysytty. Vastaavalla tavalla esimerkiksi Google on pitänyt pitkään omaa Google Books-palveluaan tarjolla, vaikka sen sisältämien kirjojen tekijänoikeus ei ole ollut selvitetty. Yhdysvalloissa alioikeustasolla käyttö on toistaiseksi mennyt fair use-kategoriaan. Tekoäly näin ollen on vain osa internetissä olevaa tekijänoikeudellisen aineiston harmaalla alueella liikkuvaa hyödyntämistä.

Tekoälyn koulutusaineiston sallittuun käyttöön voidaan käyttää myös lisenssimallia. Suomessa ja monissa muissa maissa sopimuslisenssijärjestelmän avulla on saatu paljon aineistoja lisensoidun käytön piiriin. Tekijänoikeusjärjestöt kuten Teosto, Kopiosto ja Sanasto edustavat suurta joukkoa tekijöitä, joiden puolesta he ovat luoneet lisensointisopimusmallin ja hoitavat lisensoinnin tekijän puolesta. Tekoälyn käyttöön on jo luotu tietokantoja, joiden sisältöä voi lisensoida tekoälyn opetukseen. Samoin OpenAI on tehnyt lisenssisopimuksia kuvapankkien kanssa.

Tekoäly tekijänä

Tekoäly tekijänä on oma kysymyksensä (Alen ym. 2018). Pääsääntöisesti tekijänoikeus suojaa luonnollisen tekijän eli ihmisen riittävän omaperäisiä teoksia. Ensimmäinen ongelma nykyisissä tekoälyissä koskee tekijän määrittelemistä. Onko tekijä tekoäly vai teoksen tekoälyltä ohjeistuksen avulla hankkinut henkilö? Toinen ongelma on omaperäisyyskynnys. Monenlaisia teoksia tehdään yhdistelemällä vaikutteita ja jopa muita teoksia, mutta tekoäly selkeästi käyttää muita teoksia pohjana, ja näin tulisi selvittää, onko tekoälyn mahdollista lisätä luomaansa teokseen sellaista uutta, joka ylittäisi teoskynnyksen. Eri teosten käyttö voi johtaa myös tilanteeseen, jossa tekijänoikeus kuuluu usealla tekijälle (Mattila 2022).

Ajatus tekoälystä yhteistyönä luodun teoksen tekijänä voi soveltua myös tilanteisiin, joissa tekoäly käyttää opetuksessaan käytettyä aineistoa uuden teoksen luomisessa tavalla, jossa aiempien teosten käyttö voidaan osoittaa ja tekijänoikeus näin jakaa. Pohdinta osoittaa sen, että tällä hetkellä ei ole varmuutta oikeudellisesta perusteesta, jolla tekoäly voi käyttää tekijänoikeudella suojattuja aineistoja. Toisaalta ei ole yksiselitteisiä säännöksiä, joilla käyttö voidaan kieltää. EU:n ja sitä kautta Suomen uusi tiedonlouhintasääntely mahdollistaa tässä säännöksessä tarkoitetun käytön kieltämisen, mutta vielä ei ole tulkintaa siitä, missä määrin tekoälyn kouluttaminen ja uusien teosten luominen vastaa tätä tekijänoikeuden poikkeusta. Samalla tavoin avoimena on kysymys tekoälyn luoman teoksen tekijänoikeudesta.

Joulukuussa 2023 muun muassa New York Times on haastanut OpenAI:n ja Microsoftin oikeuteen. Perustana on, että ChatGPT:n koulutuksessa on käytetty miljoonia New York Timesin artikkeleita. Ratkaisun saamisessa kestää aikansa ja se soveltuu suoraan vain yhdysvaltalaiseen tekijänoikeussääntelyyn. Samalla tavoin aiemmin syksyllä 2023 ryhmä taiteilijoita nosti kanteen kuvia hyödyntäviä tekoälysovelluksia vastaan. EU:n piirissä on suunnitteilla uusia säännöksiä, ja vasta uudistetun tekijänoikeussääntelyn tiedonlouhintaa koskevia säännöksiä ei ole vielä testattu oikeudessa. Huolimatta suhteellisen pitkästä historiasta ja teoreettisesta keskustelusta, on tekoälyn ja tekijänoikeuden välisessä suhteessa vielä paljon avoimia kysymyksiä. Tilanne ei ole ratkeamassa pitkään aikaan ja siihen saakka voidaan olettaa, että kaikki internetissä oleva aineisto on tekoälyn koulutuksen materiaalia. Mukaan lukien tämä kirjoitus.

 

Lähteet

Alen, Anette & Ballardini, Rosa & Pihlajarinne, Taina: Tekoälyn tuotokset ja omaperäisyysvaatimus – kohti koneorientoitunutta tekijänoikeutta?. Lakimies 7–8/2018, s. 975–995.

Hallituksen esitys eduskunnalle laeiksi tekijänoikeuslain ja sähköisen viestinnän palveluista annetun lain muuttamisesta HE 43/2022 vp.

Hallituksen esitys eduskunnalle laeiksi tekijänoikeuslain ja sähköisen viestinnän palveluista annetun lain muuttamisesta annetun hallituksen esityksen (HE 43/2022 vp) täydentämisestä. HE 313/2022 vp.

Harenko, Kristiina & Niiranen, Valtteri & Tarkela, Pekka: Tekijänoikeus. 2. uudistettu painos. Helsinki: Talentum Pro 2016 (3. painos julkaistaan keväällä 2024).

Kousa, Viivi: Tekoälytaide ja tekijänoikeus – haastava yhtälö?, IPR Info 1/2023 (27.1.2023), https://iprinfo.fi/artikkeli/tekoalytaide-ja-tekijanoikeus-haastava-yhtalo/ (käyty 14.12.2023).

Mattila, Tuomas: Yhteistyö tekijänoikeudessa: tutkimus alkuperäisestä tekijänoikeuden haltijasta yhteistyöhön ja yhteisöllisyyteen perustuvissa luovissa prosesseissa. Suomalainen lakimiesyhdistys 2022.

Tapio, Veli-Markus: Fair Use ja kolmivaihetesti joustavamman tekijänoikeudellisen sääntelyn mahdollistajina. Lakimies 1/2013, s. 35–54.

 

Artikkelin on laatinut julkisoikeuden yliopistonlehtori ja viestintäoikeuden dosentti Riku Neuvonen.

Artikkeli on toinen osa Akava Worksin ”Näkökulmia tekoälyyn” -artikkelisarjassa.

Kuva: DALL-E -tekoälysovelluksen tuottama kuva artikkelin teemoista.

Lue artikkeli ohesta (pdf)

Tekijänoikeudella suojattu aineisto tekoälyn koulutuksessa Akava Works -artikkeli 2_2024

Näkökulmia tekoälyyn, osa 1 – Arto Klami: Miksi tekoäly oppi näkemään ja juttelemaan nyt ja mihin se riittää?

Tekoäly teknologiana on jo pidemmän aikaa ollut esillä yritysten visioissa, mutta osaksi jokapäiväistä keskustelua se on tullut toden teolla parin viime vuoden aikana. Algoritmit eivät enää ole piilossa, vaan voimme keskustella tekoälyn kanssa filosofiasta ja pyytää nähtäväksi tussilaveerauksen vaikkapa höyrykäyttöisellä kirpulla ratsastavasta apinasta. Ohjelmoijan työkalupakkiin on tullut tekoälyapuri, joka sanallisten ohjeiden perusteella tuottaa rutiinikoodia verkkokaupan pohjaksi ja voi säästää päiväkausia monimutkaisen algoritmin kirjoittamisesta.

Siirryimmekö yhdessä vuodessa tekoälyn kivikaudelta tieteisfiktioon? Tästä ei ole kyse vaan todellisuudessa on kyse pidemmän kehityksen luonnollisesta askeleesta. Tekoälyn toiminta perustuu koneoppimiseen, jossa joustava malli – syvä neuroverkko – on opetettu tietoaineistojen avulla vastaamaan annettuun syötteeseen halutulla tavalla. Alalla on käytetty melko samankaltaisia malleja ja oppimisen periaatteita jo vuosikymmeniä, mutta laskentatehon ja käytettävissä olevan datan kasvu yhdessä menetelmien jatkuvan kehityksen kanssa alkaa kantaa hedelmää. Melko tasainen kehitys näyttää meistä mullistavalta, koska tekoäly astuu nyt ensimmäistä kertaa selkeästi ihmisen osaamisen tontille: se osaa vihdoin käsitellä luonnollista kieltä ja kuvia.

Tekoälyn toimintaperiaatteista: koneoppiminen ja syvät neuroverkot

Tekoälyn alaan kuuluu laaja kirjo erilaisia menetelmiä, joista näkyvimmät perustuvat koneoppimiseen. Koneoppimisessa käytettävien mallien toimintaa säätelevät tuntemattomat parametrit eli muuttujat. Näitä parametreja muuttamalla mallin toiminta muuttuu. Oppimisella tarkoitetaan parametrien valitsemista siten, että malli saadaan toimimaan halutulla tavalla. Käytännössä malli opetetaan toistamaan opetusaineistossa olevia säännönmukaisuuksia.

Oppimisen periaatteet juontavat juurensa perinteisestä tilastotieteestä. Malli opitaan oleellisilta osin samalla tavalla, oli sitten kyseessä yksinkertaisen kasvukäyrän sovitus neuvolan pituusmittauksiin tai monimutkaisen tekoälymallin opettaminen. Vaikka jälkimmäisessä tapauksessa syötteenä voi iän sijaan olla valokuva ja tuloksena pituuden sijaan sanallinen kuvaus kuvan sisällöstä, molemmissa tapauksissa on kyse matemaattisesta funktiosta, joka muuttaa syötteen tulokseksi. Tarvittavat funktiot ovat paljon monimutkaisempi ja niiden sovittamiseen tarvitaan enemmän esimerkkejä, mutta periaate on sama ja alalla on vuosikymmenien kuluessa kehitetty toimivia algoritmeja erityisesti ohjattuihin ongelmiin, joissa opetusaineiston syötteille tiedetään halutut tulokset.

Itse mallit voivat olla hyvin monimuotoisia. Tunnetuin malliperhe ovat syvät neuroverkot, joissa tietoa käsitellään kerroksittain yksinkertaisilla laskutoimituksilla ja verkon rakennetta muuttamalla voidaan luoda malleja moniin tarkoituksiin. Kuvia käsittelevät mallit hyödyntävät suotimia, jotka analysoivat paikallisia kuva-alueita, ja taas kielten käsittelyssä malli on rakennettu käsittelemään sanojen tai niiden osien jonoja. Keskeisenä elementtinä nykyisissä kielimalleissa on huomiomekanismi (engl. attention), joka kohdentaa mallin kulloinkin tarkastelemaan tiettyä osaa aiemmasta syötteestä (Vaswani A. ym. 2017). Yksinkertaisten laskutoimitusten lisäksi nykyaikainen neuroverkko voi sisältää muitakin monimutkaisia osia, jopa erillisiä päättelyalgoritmeja. Niitä on hyödyllisintä ajatella mielikuvituksellisen monimutkaisina funktioina, joita kuitenkin osataan sovittaa annettuun dataan.

Hyvän mallin tärkein ominaisuus on sen yleistyvyys. On helppo opettaa malli tuottamaan oikea vastaus opetusaineistossa nähdyille tapauksille, mutta tämä ei riitä, vaan sen tulee tuottaa mielekkäitä vastauksia myös uusille syötteille. Perinteisten tilastollisten mallien osalta on opittu ajattelemaan, että havaintoja tulisi olla selkeästi enemmän kuin mallin parametreja. Muuten malli ylisovittuu opetusaineistoon ja voi toimia mielivaltaisen huonosti uusille näytteille. Vaikka mallien opettamiseen käytettävät aineistot ovat kasvaneet, mallien monimutkaisuus on monissa tilanteissa kasvanut vielä enemmän ja nykyisin parametreja voi olla jopa miljardeja. Voivatko tällaiset mallit toimia?

Kaikkia yleistyvyyteen liittyviä ongelmia ei missään tapauksessa ole saatu ratkaisua, ja monet alan avoimista ongelmista koskevat mallien luotettavuutta poikkeavissa tilanteissa. Siitä huolimatta voidaan yleisesti sanoa, että erittäin suuria malleja voidaan nykyisin sovittaa luotettavasti. On runsaasti sekä teoreettista (Belkin M. ym. 2019) että empiiristä todistusaineistoa siitä, että miljoonien tai miljardien parametrien mallit voivat toimia hyvin myös uusille syötteille. Vaikka keskusteleva tekoäly ei monissa tilanteissa tuotakaan sisällöllisesti oikeita vastauksia, se ei hätkähdä, vaikka käytettäisiin täysin kuvitteellisia sanoja. Jos vaikkapa kerron maanviljelijän eilen kyntäneen pellon ruosteisella pompellorilla, tekoäly osaa kuvailla pompellorin olevan vanha, mutta edelleen käyttökelpoinen kyntöaura. Tekoäly ei herää pohtimaan, miksi toinen osapuoli käytti kummallista sanaa ja saattaa jopa väittää sen olevan perinteinen murreilmaus, mutta yhtä kaikki se osasi toimia yllättävässä tilanteessa.

Tekoälyn historiasta eli onko kuvien tulkinta helppoa vai vaikeaa?

Tekoälyn historia on yhtä pitkä kuin tietokoneiden historia. Alan lähtölaukauksena pidetään vuonna 1956 järjestettyä Dartmouthin kesäseminaaria, neuroverkkojen perusperiaate kehitettiin jo 40-luvulla ja koneoppimisen käsite on 50-luvulta. Älyn automatisointi oppimiseen perustuvilla menetelmillä on ollut eräs tietojenkäsittelytieteen tavoitteista käytännössä niin kauan kuin ala on ollut olemassa. Viime vuosien murroksen ymmärtämiseksi on hyvä pohtia hieman sitä, mikä on tekoälylle tai tietokoneille ylipäätään helppoa ja mikä vaikeaa. Tämä on itseasiassa melko hankala kysymys, ja alan kehittyessä tiedeyhteisön vastaukset ovat tavallaan kiertäneet täyden ympyrän.

Aluksi uskottiin, että ihmiselle helpot tehtävät ovat helppoja myös tietokoneille. Lapsikin ymmärtää puhetta, mutta shakkia osaa pelata vain harjaantunut ammattilainen, joten oletettiin, että tietokoneetkin oppivat ymmärtämään puhetta helpommin. Eräs MIT:n professori perusti 1960-luvulla kesän mittaisen opiskelijaprojektin luodakseen ohjelman, joka tunnistaa kuvasta kappaleita luotettavasti. Kylmän sodan molemmat osapuolet pyrkivät tosissaan täysin automaattiseen konekäännökseen. Tänä päivänä on helppo naureskella näille visioille, mutta aikanaan tällaisten hankkeiden jatkuva epäonnistuminen loi varjon koko tekoälyn kentälle ja johti niin kutsuttuun tekoälyn talveen. Jos edes ”helppoja ongelmia” ei saada ratkaistua, koko alan rahoittaminen lienee turhaa. Vielä tämän vuosituhannen puolelle asti koneiden kyky käsitellä luonnollista kieltä ja kuvia säilyi vaatimattomana, mutta ihmisen älyn mittatikkuina pidetyissä rajatummissa ongelmissa koneet olivat jo ehtineet kauas edelle. Tietokone voitti shakin suurmestarin ensimmäistä kertaa jo 80-luvun puolella, lähes vuosikymmenen ennen kuuluisaa DeepBluen ja Gasparovin ottelua. Tämä onnistui nykypäivään verrattuna erittäin rajallisilla laskentaresursseilla.

Olikin niin, että ihmiselle helpot asiat ovat koneille vaikeita, vaikka ne suorituvatkin hyvin monista ihmisille vaikeista tehtävistä. Erään selityksen ilmiölle tarjosi 80-luvulla esitelty Moravecin paradoksi (Moravec H., 1988), jonka mukaan havainnointi vaatii merkittävästi enemmän laskentaa kuin päättely. Monimutkaisen aistiympäristön tulkinta ja siihen reagoiminen ovat itseasiassa tehtävinä vaikeita myös ihmisille, mutta eliöiden biologinen koneisto suoriutuu niistä tehokkaasti miljardien vuosien evoluution ansiosta. Abstrakti päättely taas on kehityshistoriallisesti uusi ilmiö. Se ei ole välttämättä erityisen vaikeaa laskennallisesti, mutta ihmisten aivoilla on ollut vain kymmeniä tuhansia vuosia aikaa erikoistua siihen. Havaintojen tulkintaan tarvitaan paljon enemmän laskentaresursseja kuin varhaisilla tietokoneilla oli käytössä.

Ihmiselle lähes automaattinen ympäristön havainnointi oli näin selitetty tekoälylle haastavaksi, mutta ei suinkaan mahdottomaksi. Jos eliöt pystyvät siihen varsin rajallisella energiankulutuksella, sen on oltava mahdollista koneellisesti. Nyt todistamme tätä askelta käytännössä. Meillä on nyt saatavilla sekä tarpeeksi suuria ja monimuotoisia aineistoja että tarpeeksi laskentaresursseja oppimaan aistiärsykkeitä käsitteleviä malleja. Tekoälytutkija Andrew Ng ennusti vuonna 2017, että pystymme lähitulevaisuudessa automatisoimaan tekoälyn avulla lähes kaikki sellaiset tehtävät, joista tyypillinen ihminen suoriutuu alle sekunnin pohdinnan avulla. Se alkaa näyttää mahdolliselta.

Olemme tavallaan palanneet tekoälyn alkuhetkiin. Tekoäly suoriutuu nyt melko hyvin aikuiselle ihmiselle lähes automaattisista ympäristön ja kielen havainnointiin liittyvistä pulmista, mutta korkeamman tason ajattelua edellyttävät ongelmat ovat sille edelleen haastavia. Tekoäly osaa nyt salamannopeasti kuvailla näkemänsä kuvan sisällön ja jopa vastata kysymykseen, mutta korkeamman tason päättelyä tehdään edelleen varta vasten kuhunkin tarpeeseen räätälöidyillä algoritmeilla. Niiden avulla voidaan pelata shakkia tai go-peliä, mutta pitkäjänteiseen suunnitteluun vapaassa ympäristössä kykeneviä tekoälyjä ei juurikaan edes tutkita. On kuitenkin hyvä huomata, että syötteitä matalalla tasolla käsittelevät mallit ovat jo hämmästyttävän hyviä monissa vaativissa tehtävissä. Pelkästään niiden avulla voidaan luoda keskustelevia tai kuvia piirtäviä tekoälyjä. Oppimalla käsittelemään aisteja opimme siis samalla enemmän. Palaamme tähän jäljempänä tarkasteltuamme ensin hieman sitä, miten tähän on päästy.

Perustutkimus ja avoimet ympäristöt kehityksen vetureina

Rinnakkain on tapahtunut laskentatehon, käytettävissä olevien tietoaineistojen ja algoritmien kehitystä. Nämä ovat sikäli yhtä tärkeitä, että ilman kaikkien kolmen kehitystä emme olisi vielä lähelläkään nykyisiä menetelmiä. Toisaalta millään näistä osa-alueista ei ole tapahtunut sellaista yksittäistä läpimurtoa, joka olisi kriittinen. Voidaankin perustellusti sanoa, että tekoälyn murros on seurausta pitkäjänteisestä ja laaja-alaisesta perustutkimuksesta. Se on parhaita esimerkkejä siitä, että perustutkimukseen panostetut eurot ja tunnit maksavat itsensä takaisin. Nykyisten menetelmien keskiössä on edelleen sekä Robbinsin ja Monron jo vuonna 1951 luoma optimointiperiaate, että Seppo Linnainmaan 70-luvun alussa kehittämä vastavirta-algoritmi. Monet syvien neuroverkkojen perusratkaisuista on kehitetty viime vuosituhannella. Nykyisin alan tutkijoita on moninkertaisesti enemmän ja uusia menetelmiä julkaistaan päivittäin. Seuraavien läpimurtojen elementit seuloutuvat tästä tutkimusmassasta. Uuden tehokkaamman algoritmin voi kehittää jopa yksittäinen tohtorikoulutettava pienessä maassa, koska kyse on pohjimmiltaan matematiikasta ja varsin lyhyistä ohjelmakoodin palasista.

Teknisten kehitysaskeleiden rinnalla muutosta ovat vauhdittaneet uudet toimintatavat, keskeisimpinä avoimuus ja paremmat työkalut. Nykyisin on tarjolla suunnaton määrä laadukkaita avoimia ohjelmistoja, jotka helpottavat tekoälymenetelmien kehittämistä. Omina opiskeluvuosinani neuroverkon toteuttaminen edellytti viikkojen työpanoksen, mutta nyt jokainen ohjelmoinnin perusteet tunteva voi luoda yksinkertaisen neuroverkon muutamalla koodirivillä. Valtaosa työkaluista on avointa lähdekoodia ja ilmaiseksi kaikkien saatavilla, valmiita esimerkkejä on saatavilla työn tueksi liki rajattomasti ja monet menetelmien kehittämisessä ja testaamisessa käytettävät datat ovat avoimia. Uusia malleja ja algoritmeja esittelevien tieteellisten artikkelien ohessa tarjotaan usein myös avoin ohjelmistototeutus. Näiden työkalujen avulla matka uudesta tieteellisestä ideasta toimivaksi, varmistetuksi malliksi voi onnistua jo viikoissa.

Oleellista on, että ilmaiset työkalut eivät ole vain tutkijoiden ja harrastelijoiden puuhastelua. Yritykset käyttävät täsmälleen samoja työkaluja ja monien avointen työkalujen taustalla on alan suurimpia toimijoita Googlesta Metaan. Syväoppimisen alustat ovat nousseet Linuxin rinnalle avoimen lähdekehityksen airuina ja näkyvimpinä esimerkkeinä. Luotettavat työkalut ovat suuryrityksille kriittisen tärkeitä ja avoin kehitys on todettu parhaaksi tavaksi pitää ne ajan tasalla. Kyse ei ole hyväntekeväisyydestä, vaan ainoasta vaihtoehdosta: suljettuun omaan järjestelmään nojaava yritys jäisi auttamatta kilpailijoista jälkeen. Avoimen ympäristön päälle rakennettavaan korttitaloon on helppo liittää kaikkein tuoreimmat menetelmät ja työvoima liikkuu helposti organisaatiosta toiseen, myös tutkimusmaailman ja yritysten välillä.

Suuryritysten merkitys tekoälyn murroksessa on kokonaisuutena moninainen ja yrityksiä on aiheesta kritisoitu erityisesti henkilökohtaisen datan hyödyntämiseen ja kaupallistamiseen liittyvistä ongelmista, mutta avointen työkalujen näkökulmasta ne ovat olleet tärkeitä tekoälykehityksen vauhdittamisessa. Ilman laadukkaita työkaluja sekä tutkimus että yritysten mahdollisuudet hyödyntää tekoälyjä olisivat selvästi jäljellä nykyisestä.

Enemmän irti datasta

Algoritmit ovat kehittyneet merkittävästi, mutta sitä kehitystä ei voi tällaisessa katsauksessa käsitellä laajemmin. Yksi käsitteellinen muutos voidaan kuitenkin nostaa esille. Historiallisesti valtaosa koneoppimisesta on keskittynyt ohjattuun oppimiseen, jossa malli opitaan syöte-vaste-pareista. Esimerkiksi kuvien luokittelijan opettamiseen tarvittiin tietoa eli dataa, jossa kaikista kuvista on valmiiksi kerrottu, mitä kuva esittää. Tälläkin periaatteella saatiin noin vuosikymmen sitten luotua kuvia hyvin tulkitsevia malleja (Krizhevsky A. ym. 2012). Tässä opetustavassa valmiiden vastausten luominen on kuitenkin aina merkittävä pullonkaula: ei auta, vaikka tarjolla olisi miljardi valokuvaa, jos on resursseja muodostaa toivottu vaste vain pienelle murto-osalle niistä. Mitä jos koko miljardin kuvan aineistoa voitaisiin hyödyntää tehokkaasti ilman käsityötä vastausten muodostamiseksi?

Tämä onnistuu niin kutsutun itseohjatun oppimisen (engl. self-supervised learning) avulla. Itseohjatussa oppimisessa malli opitaan ohjatun oppimisen algoritmeilla, mutta tavoitteena on ratkaista jokin keinotekoinen tehtävä, jonka vastaus on valmiina datassa. Kielimallia pyydetään ennustamaan lauseen seuraava sana tai täyttämään keskeltä lausetta poistettu sana. Kuvia käsittelevää mallia voidaan pyytää täyttämään kuvasta tarkoituksella poistettu osa tai poistamaan kuvasta siihen varta vasten lisättyä kohinaa (kuvio 1). Näihin tehtäviin voidaan käyttää hyviksi tunnettuja ohjatun oppimisen algoritmeja, mutta oikeat vastaukset ovat jo olemassa ja siten kaikki data saadaan käyttöön. Lisäksi samasta datasta voidaan muodostaa liki rajattomasti ennustustehtäviä: samaan kuvaan voidaan lisätä aina uudenlaista satunnaista kohinaa.

Kuvio 1: Kuvia luova tekoäly voidaan opettaa itseohjatun oppimisen periaatteella.

Opetuskuviin lisätään keinotekoista kohinaa ja malli opetetaan ennustamaan alkuperäinen kuva kohinaisesta versiosta. Diffuusiomallit käyttävät tähän tarkoitukseen differentiaalilaskentaa ja osaavat lopulta luoda pelkästä kohinasta tarkkoja kuvia.

On perusteltua kysyä, mitä hyötyä on mallista, joka osaa täyttää puuttuvan osan kuvasta. Vastaus on yksinkertainen: mallin on opittava jotain oleellista kuvan sisällöstä, jotta se pystyy täyttämään puuttuvan alueen. Jos tennisottelun kuvasta poistaa keskikentän, malli osaa täyttää sinne verkon vain, jos se on jollain tasolla oppinut, että tennisottelussa palloa lyödään verkon yli. Jos malli kykenee samaan kaikkien mahdollisten kuvien kanssa, sen on täytynyt oppia jotain kuvista yleensä. Kaikki tämä ”ymmärrys” on jollain tavalla koodattuna mallin sisäiseen esitykseen, jonka se muodostaa saatuaan kuvan syötteeksi. Tämän esityksen avulla on merkittävästi helpompaa ratkaista alkuperäinen ongelma. Enää ei tarvitakaan miljoonien kuvien ja niiden merkitysten opetusaineistoa, vaan jo muutamat sadat esimerkit riittävät. Ne on helppo kerätä.

Tämä oppimisen periaate on yhdessä suurempien datojen ja parempien mallien kanssa auttanut murtamaan Moravecin paradoksin rajat. Osaamme nyt opettaa luonnollista kieltä, kuvia, puhetta ja videota käsitteleviä malleja. Kaikille näille on ominaista se, että niistä on tarjolla lähes rajattomasti aineistoa ja osaamme muodostaa luontevia ennustustehtäviä niiden opettamiseksi.

Itseohjatusta oppijasta luovaksi tekoälyksi

Edellä kuvasin teknistä oppimisperiaatetta, jonka avulla tekoäly saatiin ymmärtämään monimutkaisia aistihavaintoja. Kuten aiemmin vihjasin, tämän kyvyn seurauksena saatiin myös enemmän. Sekä kielimalleista että kuvia tarjoavista tekoälyistä käytetään nykyisin yleistermiä luova tekoäly (engl. generative AI, huom. ei creative). Tällä käsitteellä viitataan siihen, että ne osaavat luoda uutta sisältöä: ne voivat jatkaa annetusta tekstisyötteestä mielivaltaisen pitkälle tai tuottaa pelkästä kohinasta valokuvan. Kieli- ja kuvamallien yhdistelmällä voidaan tuottaa kuvia, jotka vastaavat annettua sanallista kuvausta.

Nämä tekoälyn luomat sisällöt ovat hätkähdyttävän laadukkaita ja monella tapaa hyödyllisiä. Jos syötteenä kielimallille käytetään ihmisen puheenvuoroa, tekstiä eteenpäin jatkava kielimalli muuntuu suoraan yksinkertaiseksi keskustelevaksi tekoälyksi. Vaikka mallilla ei voida sanoa olevan ymmärrystä käsiteltävästä aiheesta, se osaa silti tuottaa mielekkäitä vastauksia myös vaativiin kysymyksiin, joihin vastaaminen edellyttää monimuotoisen tiedon yhdistämistä ja muistuttaa erehdyttävästi asian syvällistä ymmärrystä. Voidaan ajatella, että tekoäly osaa erinomaisesti näytellä henkilöä, joka tietää vastauksen haluttuun kysymykseen. Monissa tapauksissa se riittää, mutta ei kaikissa.

Tekoäly osaa hetkessä tuottaa kuvia, joiden piirtämiseen valtaosa ihmisistä ei kykenisi vuosikausien harjoittelunkaan jälkeen. Toisaalta me osaamme kuvitella vastaavia kuvia ja tämä on meille yhtä automaattista kuin näkökentän tulkinta. Tekoälyn kyvyt kuvien ja videon tuottamisessa on osuvampaa rinnastaa kuvitteluun. Kunhan kone on oppinut kuvittelemaan, varsinaisen kuvan muodostaminen, joka merkitsee pikselien tallentamista tietokoneen muistiin, on tietokoneelle erittäin yksinkertainen tehtävä ja sen takia kuvittelun tulos saadaan ihmisen hyödynnettäväksi ilman piirtämiseen tarvittavia motorisia taitoja. Koneelle vaikean osatehtävän ratkaisu johti suoraan häkellyttäviin tuloksiin, koska muut osaongelmat olivat sille helppoja.

Perustamallit kehityksen pohjana

Vaikka edellä kuvatuille malleille löytyy runsaasti käyttöä jo luovina tekoälyinä, niillä on myös toinen merkitys, jossa mallin arvo on sen sisäisessä esityksessä. Suuret kielimallit ja kuvia ymmärtävät mallit ovat esimerkkejä niin kutsutuista perustamalleista (engl. foundation model) (Bommasani R. ym. 2021). Ne ovat malleja, jotka on opetettu suurilla tietoaineistoilla siten, että ne oppivat mielekkään sisäisen esityksen kunkin mallin ominaiselle datalle. Nimensä mukaisesti niitä voidaan käyttää pohjana tai perustana uusille malleille, mutta ne eivät vielä ratkaise kuin pienen joukon ongelmia (kuvio 2).

Kuvio 2. Perustamallit opetetaan laajalla ja monipuolisella tietoaineistolla ratkaisemaan erilaisia tehtäviä itseoppimisen periaatteella. Malli oppii havainnoille sisäisen esityksen, joka auttaa uusien ongelmien ratkaisemisessa. Malli voidaan hienosäätää sovellusalueen datalla ja sen päälle on helppo opettaa malleja uusiin tehtäviin.

Tällä hetkellä moni tutkii, miten perustamallien avulla voidaan ratkaista tehokkaasti uusia ongelmia. Helpoimmillaan se tapahtuu hienosäätämällä mallia tietyn tehtävän datalla. Esimerkiksi kuvia ymmärtävää mallia voidaan käyttää lähtökohtana lääketieteellisten kuvien analyysissa. Mallin oppimiseen tarvitaan vähemmän dataa, koska perustamalli osaa jo käsitellä kuvissa esiintyviä rakenteita ja niiden välisiä suhteita. Perustamalleihin voidaan myös liittää muita malleja ja kielimalleihin lisätäänkin jatkuvasti uusia toiminnallisuuksia sallimalla, että se kutsuu ulkoisia ohjelmia.

Enää tuskin kannattaa luoda luonnollista kieltä tai kuvia käsittelevää tekoälymenetelmää, joka ei jollain tavalla rakentuisi valmiiksi opetettujen perustamallien päälle. Tämä muuttaa myös alan tutkimusta. Jokainen menetelmä rakentuu entistä suoremmin muiden tarjolle tuomien komponenttien päälle. Perustamallien hyödyt ovat selviä, mutta niiden käyttöön liittyy myös avoimia kysymyksiä. Miten tutkijan tai yrityksen tulisi suhtautua siihen, jos oman ratkaisun pohjana käytetystä kielimallista myöhemmin löydetään merkittävä puute tai se on kehitetty epäeettisesti? Entä jos perustamallin kehittänyt yritys vetää sen pois saatavilta tai alkaa laskuttaa sen käytöstä päätähuimaavia summia? Miten varmistetaan, että oma ratkaisu toimii hyvin tulevienkin perustamallien kanssa?

Samaan aikaan luodaan myös uusia perustamalleja. Ihmisen aistiympäristö kattaa loppujen lopuksi melko pienen osan niistä ilmiöistä, joita haluaisimme tekoälyjen käsittelevän. Samoihin oppimisperiaatteisiin nojaten kehitetään malleja esimerkiksi satelliittikuville ja lääkemolekyyleille, mutta useimmiten tarvitaan uutta tieteellistä tietoa esimerkiksi siitä, kuinka muodostetaan kullekin datatyypille parhaiten sopivia oppimistehtäviä itseohjattuun oppimiseen. Kohinan poisto tai seuraavan sanan ennustaminen ovat luontevia tehtäviä, mutta minkä tehtävän avulla opitaan hyvä malli solubiologiasta?

Toinen merkittävä haaste on riittävän kattavan datan kerääminen ja mallin usein korkeiden kehityskustannusten kattaminen. Suomessakin on paljon osaavia tekijöitä, jotka tuntevat perustamallien oppimiseen tarvittavat algoritmit ja CSC tarjoaa kattavat laskentaresurssit, mutta datan kerääminen ja käsittely on kallista. Suuryhtiöt ovat panostaneet kielen ja kuvan perustamalleihin suunnattomasti, koska näkevät niille kaupallisesti kannattavia sovelluksia, mutta emme voi luottaa niiden luovan vastaavia malleja kaikkiin tarkoituksiin. Esimerkiksi räätälöityjä opetuksen tukiratkaisuja voitaisiin tehokkaasti kehittää kunkin lapsen osaamistarpeita ymmärtävän perustamallin päälle, mutta olemmeko valmiita rahoittamaan perustamallin kehityskustannukset, jos konkreettiset hyödyt saadaan esille vasta vuosikymmenen kuluttua? Miten kemianteollisuuden yritykset saadaan yhdessä ponnistelemaan prosessiteollisuuden ilmiöiden mallintamiseen tarvittavien perustamallien eteen?

Avoimet haasteet – mitä seuraavaksi?

Kyky käsitellä ihmisen aistiympäristöä ratkaisee vain pienen, vaikkakin tärkeän, osan tekoälyn haasteista ja työtä riittää vielä paljon.

Alan kenties suurin avoin ongelma on kausaliteetti eli syy-seuraussuhteet. Ennustaminen ei riitä monissa sovelluksissa, lääketieteestä poliittiseen päätöksentekoon, vaan haluttaisiin päätellä, mikä suunnitellun toimen seuraus olisi. Kausaliteetin parissa on tehty alalla tutkimusta jo vuosikymmenien ajan, mutta valmiita ratkaisuja on vielä valitettavan vähän. Kausaalisia suhteita voidaan kyllä päätellä luotettavasti, mutta vain melko rajatuissa tilanteissa. Muissa tilanteissa voidaan usein osoittaa, että kausaalisia suhteita ei voida aukottomasti päätellä. Tämä on tärkeä tieto, mutta soveltajien näkökulmasta usein pettymys.

Toinen keskeinen haaste liittyy epävarmuuksien luotettavaan mallintamiseen. Erityisesti on tärkeää, että autonomisesti toimivat järjestelmät pystyvät arvioimaan, milloin ne ovat varmasti oikeassa ja milloin vastaukseen liittyy epävarmuuksia. Vaikka tilastollisten oppimismenetelmien avulla voidaankin periaatteessa ottaa epävarmuudet huomioon perustellulla tavalla, monet nykyisistä malleista ovat liian itsevarmoja. Epävarmuuksien huomioimisen tärkeys korostuu silloin, kun mallien oppimiseen on käytettävissä vain vähän dataa. Vaikka osassa sovelluksista datan määrä on vain kustannuskysymys, monissa tilanteissa dataa ei yksinkertaisesti ole olemassa enempää. Ensimmäistä Mars-lentoa tehdessä ei ole olemassa aiemmilla lennoilla mitattua dataa, fossiileja on olemassa rajatusti, ja harvinaisia sairauksia potevia potilaita on vähän kuten sairausryhmän nimi kertoo.

Tutkimusta tarvitaan myös ihmisten ja tekoälyjen yhteistyön parantamiseksi. Moni kaipaa tulkittavia tekoälyjä, jotka osaavat aina perustella, miksi päätyivät antamaansa vastaukseen. Vaikka tämä on pääpiirteittäin toivottava ominaisuus, on hyvä muistaa, että myöskään ihmiset eivät ole tulkittavia. Kuka osaa kertoa, miksi naurahti, kun työkaveri lounaalla valitti liian suolaisesta ruuasta? Osaako radiologi kertoa, miksi hän teki yhden potilaan kohdalla virhetulkinnan? Voinko luvata, että kohtelen kaikkia asiakkaita tasapuolisesti myös väsyneenä? Tekoälyjärjestelmät ovat jo nyt usein tässä mielessä läpinäkyvämpiä ja tasapuolisempia kuin ihmiset, mutta me edellytämme tekoälyltä enemmän kuin toisiltamme. Keskustelevat tekoälyt osaavat jo pyydettäessä muokata ilmaisuaan huomioidakseen keskustelukumppanin mielentilan, mutta meille tämä on erittäin hankalaa. Onko vastuu ihmisen tunteisiin ja oikkuihin reagoimisessa jatkossa nimenomaan tekoälyllä?

On aika kohdistaa katse myös siihen, miten tekoälyjä hyödynnetään mahdollisimman tehokkaasti kaikkein hankalimpien ongelmien ratkaisemisessa. Mikä on tekoälyn asema ilmastonmuutoksen hallinnassa tai miten sen avulla edistetään yhdenvertaisuutta? Näiden ongelmien ratkaisu ei ole autonominen tekoäly, eikä myöskään erilliset tekoälymallit osana ihmisen työkalupakkia. Niiden sijaan tarvitaan ratkaisuja, jossa ihminen ja tekoäly toimivat aidosti yhteistyössä. Tähän keskittyvää tutkimusta tehdään Suomen Akatemian lippulaivahankkeessa Suomen tekoälykeskus (https://fcai.fi). Esimerkiksi oma tutkimukseni liittyy siihen, miten tekoälyn avulla tuetaan ihmisiä sekä tieteellisessä tutkimuksessa että tuotekehityksessä niin, että käytettävät tekoälymallit yleistyvät laajasti eri aloilla. Näin vältetään resurssien tuhlaaminen alakohtaisiin ratkaisuihin.

Yhteistyöhön rakentuvassa ratkaisussa tekoälyn on pyrittävä tekemään omasta toiminnastaan läpinäkyvää sekä yritettävä ymmärtää ihmisen tavoitteita ja toimia. Toisaalta vastuuta yhteistyöstä ei pidä ulkoistaa vain tekoälylle, vaan myös meidän kannattaa toimia niin, että yhteistyö on mahdollisimman tehokasta. Kenties kemistin kannattaa tekoälyn pyynnöstä tehdä muutama laboratoriokoe lisää, vaikka hän ei itse heti ymmärrä niiden tarvetta? Alamme hyväksyä tällaiset pyynnöt vasta, kun luotamme siihen, että tekoäly pystyy niiden avulla auttamaan meitä ratkaisevasti paremmin. Voimme oppia luottamaan vain kokeilemalla.

 

Viitteet

Vaswani A., ym. Attention is all you need. Advances in Neural Information Processing Systems 30, 2017.

Belkin M., ym. Reconciling modern machine-learning practice and the classical bias–variance trade-off. Proceedings of the National Academy of Sciences (PNAS), 116(32):15849-15854, 2019.

Moravec H., Mind children: The future of robot and human intelligence, Harvard University Press, 1988.

Krizhevsky A., ym. ImageNet classification with deep convolutional neural networks, Advances in Neural Information Processing Systems 25, 2012.

Bommasani R., ym. On the Opportunities and Risks of Foundation Models. arXiv:2108.07258, 2021.

 

Artikkelin on laatinut tekniikan tohtori Arto Klami. Hän työskentelee tietojenkäsittelytieteen apulaisprofessorina Helsingin yliopistolla.

Artikkeli on ensimmäinen osa Akava Worksin ”Näkökulmia tekoälyyn” -artikkelisarjassa.

Kuva: DALL-E -tekoälysovelluksen tuottama kuva artikkelin teemoista.

Lue artikkeli ohesta (pdf)

Miksi tekoäly oppi näkemään ja juttelemaan nyt ja mihin se riittää Akava Works -artikkeli 1_2024