Näkökulmia tekoälyyn, osa 6 – Nikolaj Tatti: Tekoälyn rajoitukset ja väärinkäyttö

Artikkeli käsittelee tekoälyn rajoitteita ja väärinkäytön mahdollisuuksia. Siinä tarkastellaan, millä tavoilla tekoälymallit voivat esimerkiksi aiheuttaa syrjintää, levittää virheellistä tietoa ja joutua jopa manipulaation kohteeksi. Artikkelissa korostetaan ihmisen merkitystä mallintajana sekä tekoälyn toimintatapojen, käytön ja rajoitteiden ymmärtämisen tärkeyttä.

5.4.2024

Tekoälyä on tutkittu yli 60 vuotta, ja monia tekoälysovelluksia on ollut jo kauan käytössä. Kasvojen-, äänen- ja tekstintunnistusohjelmat ovat vakiintuneita sovelluksia, jotka ainakin osittain perustuvat koneoppimismenetelmiin. Kuitenkin viime vuonna tekoäly nousi uudella tavalla pinnalle luovien eli generatiivisten mallien myötä. Erityisesti laajat kielimallit, kuten ChatGPT, Google Bard ja kuvamallit, esimerkiksi Midjourney ja Stable Diffusion, ovat siivittäneet keskustelua. Kyseiset sovellukset ovat olleet erittäin näyttäviä ja ne ovat herättäneet paljon pöhinää. Kuitenkin keskustelussa on tärkeää pitää mielessä, että näissä malleissa niin kuin kaikissa tekoälysovelluksissa, on omat rajoituksensa. Näitä malleja voi väärinkäyttää siinä missä muutakin uutta teknologiaa.

Mitä tekoäly on?

Jotta voisimme tarkastella koneoppimisen heikkoja puolia, olisi hyvä aluksi kerrata, miltä tyypillinen tekoälymalli näyttää. Tarkastellaan yksinkertaista, mutta usein käytettyä, tekoälymallia, jolla suodatetaan roskasähköpostia. Tämä malli sisältää joukon sanoja ja siinä jokaisella sanalla on paino eli jokin luku: positiivinen numero tarkoittaa, että sana esiintyy usein normaaleissa sähköposteissa, ja negatiivinen numero tarkoittaa, että sana esiintyy usein roskasähköposteissa. Tuntemattomat sanat saavat painoksi nollan. Luokitin arvioi sähköpostia tarkastelemalla viestin sanoja. Tämä tehdään laskemalla yhteen viestin sanojen painot. Jos summa on positiivinen, viesti arvioidaan normaaliksi. Jos summa on negatiivinen, viesti arvioidaan roskasähköpostiksi.

Kyseisen mallin työläin prosessi on sanojen painojen määrittely. Tämä voidaan tehdä käsin, mutta parempia tuloksia saadaan nopeammin, jos painot valitaan tietokoneen avulla. Tämä tehdään valitsemalla tarkoitukseen sopiva koulutusaineisto, sopiva optimointikriteeri ja sopiva algoritmi, joka optimoi valittua kriteeriä.

Tietokoneen osuus mallintamisesta on siis optimoida painot eli mallien muuttujat eli parametrit, ja mallintajan osuus on mallin, aineiston, optimointikriteerin ja -algoritmin valinta. Mallintajan eli ihmisen merkitys usein unohtuu, kun puhutaan tekoälysovelluksista, vaikka hänen päätöksillään on huomattava vaikutus sovelluksen suorituskykyyn. Mallintajia tarvitaan, koska ei ole olemassa yleistä tekoälymallia, eli sellaista mallia, joka soveltuisi jokaiseen ongelmaan. Esimerkiksi kielimalli ei sovellu kuvien luomiseen, vaan siihen tarvitaan oma malli.

Vaikka edellä mainittu esimerkki on yksinkertainen, kaikki tekoälysovellukset noudattavat samaa periaatetta. Ongelma muotoillaan optimointiongelmaksi määrittelemällä mallin ja sen parametrien lisäksi, miten mallin toimivuutta mitataan ja millä tavalla parametreja optimoidaan.

Jos ongelma on monimutkainen, kuten esimerkiksi tekstin mallinnus, mallin pitää olla joustava. Joustavissa malleissa on hyvin monta parametria: esimerkiksi ChatGPT 4.0:n malliparametrien yhteismäärän on arvioitu olevan 1,76 triljoonaa. Isojen mallien käytössä kuitenkin esiintyy aina useita ongelmia. Ensinnäkin mallien kouluttaminen, tallentaminen ja käyttö kuluttaa paljon resursseja. Toiseksi joustavat mallit ovat herkkiä ylioppimiselle, jossa opetusaineistossa esiintyvä kohina vaikuttaa voimakkaasti mallin päätöksentekoon. Kolmanneksi isoja malleja on käytännössä mahdotonta tutkia käsin. Ne ovat ikään kuin mustia laatikkoja, joiden tehokkuutta voi ainoastaan arvioida tilastollisella analyysilla, mutta joiden päätöskriteerien loogisuutta on mahdotonta analysoida. Tämä myös tarkoittaa sitä, että jos huomataan, että malli käyttäytyy väärällä tavalla, mallin korjaaminen ei onnistu kovin helposti.

Tekoälyn rajoitukset

Tarkastellaan seuraavaksi tekoälyn rajoituksia.

Koneoppimisen asiantuntijoiden keskuudessa liikkuu seuraava urbaani legenda: Yhdysvaltain armeija päätti rakentaa luokittimen, joka pystyisi erottelemaan Yhdysvaltain ja Neuvostoliiton tankit satelliittikuvista. Luokitin saatiin tehtyä ja se toimikin testiaineistolla erittäin hyvin. Mutta lisätestien jälkeen sen huomattiin olevan täysin kelvoton. Koulutusaineistossa kaikki Yhdysvaltain tankit oli valokuvattu päivällä ja Neuvostoliiton tankit oli valokuvattu yöllä. Luokitin olikin oppinut tunnistamaan päiväsajan eikä tankkeja kuvista.

Kuten urbaaneilla legendoilla on tapana olla, kyseistä tapausta ei todennäköisesti tapahtunut tai ainakaan siitä ei ole uskottavaa dokumentaatiota. Kuitenkin tällä koulutusaineistolla ja melkein millä tahansa mallilla näin kävisi. Koneoppimisalgoritmi nimittäin ei tiedä, haluaako käyttäjä mallintaa päiväsaikaa vai tankkeja. Kun päiväsaika on helpompi ongelma, algoritmi keskittyy ratkaisemaan sen. Mallintajan pitää siis ottaa tämä huomioon ja joko korjata koulutusaineisto tai muokata mallia.

Tiedeyhteisössä on paljon esimerkkejä siitä, että rakennettu malli on tehnyt jotain muuta kuin on alun perin haluttu. Koronapandemian takia ajankohtainen luokitteluongelma on taudin diagnosointi keuhkoröntgenkuvista. Tätä varten eräs suosittu aineisto koostuu toisaalta keuhkokuumetta ja toisaalta koronapotilaiden keuhkokuvista. Kuitenkin tässä koulutusaineistossa keuhkokuumepotilaat olivat lapsia ja koronapotilaat aikuisia, jolloin tällä aineistolla koulutettu luokitin saattoikin ennustaa potilaan iän taudin sijasta [21]. Tämän lisäksi Maguolo ja Nanni [16] näyttivät, että vaikka yleisesti käytetyistä röntgenkuva-aineistoista olisi sensuroitu olennainen tieto, eli itse keuhkokuvat, kuvista rakennettu koronaluokitin silti pääsee hyviin tuloksiin.

Pedreshi et al. [20] tutkivat luottoluokitusaineistoa ja näyttivät, että aineistossa esiintyvää syrjintää esiintyy myös aineiston päälle rakennetussa luokittimessa. Malli oli siis oppinut syrjimään aineiston pohjalta. Tämän lisäksi tutkijat näyttivät, että ei riitä, että poistaa aineistosta piirteet, joita voi käyttää syrjimiseen, kuten esimerkiksi iän tai sukupuolen: malli nimittäin pystyi päättelemään poistettujen piirteiden arvot muista piirteistä tietyllä tarkkuudella. Tällainen epäsuora syrjintä edeltää tekoälyä. Kuuluisa esimerkki tästä on yhdysvaltalaisen asuntolainayhdistyksen (HOLC) 1930-luvulla laatima asuinalueiden luokittelu: tietyt alueet olivat yhdistyksen mukaan verrattain riskittömiä asuntolainakohteita, ja jotkin alueet enemmän riskikkäitä. Tämä luokittelu johti siihen, että asuntolainan saaminen oli vaikeampaa joillain alueilla. Näillä alueilla asui pääsääntöisesti vähemmistöjen edustajia. Toisin sanoen käyttämällä pelkästään osoitetietoja pystyttiin syrjimään vähemmistöjä. Muun muassa tämän ilmiön takia tekoälytutkimuksessa on viime aikoina kehitetty järjestelmiä, jotka ottavat syrjinnän huomioon [1].

Laajoja kielimalleja on koulutettu valtavalla määrällä aineistoa tavoitteena matkia ihmisen tuottamaa tekstiä. Toisaalta näitä malleja on markkinoitu uudenlaisina hakukoneina, ja niitä käytetään etsimään tietoa. Nimenomaan tämä koulutuksen ja todellisen käytön ero voi olla ongelmallinen, koska kielimallit voivat tuottaa virheellistä tietoa.

Kielimallien virheet juontavat juurensa kahdesta lähteestä.

Ensinnäkin itse koulutusaineistossa voi olla vinoumia. Esimerkiksi, kielimallit ovat tuottaneet väärää terveystietoa, joka on perustunut rasistisiin käsityksiin [19]. Varhainen versio ChatGPT:sta on myös, pyydettäessä, tuonut esiin maita, joiden asukkaita voi kiduttaa [4]. Tämä tulos on erittäin ongelmallinen, erityisesti koska kielimalleilla voivat olla laajaa vaikutusta. Moni pitää vaikkapa Microsoftin tai Googlen hakupalvelun tarjoamaa vastausta paljon uskottavampana kuin yksittäisten käyttäjien viestejä sosiaalisessa mediassa. Lähdekritiikki on mahdotonta, jos alkuperäinen lähde ei ole tiedossa.

Toiseksi kielimallit saattavat johtaa harhaan antamalla täysin vääriä vastauksia. Esimerkiksi kielimallit eivät pärjää kovin hyvin matematiikkatehtävissä [7]. Mallit voivat myös tuottaa väärää tietoa. Yhdysvalloissa ainakin kahdessa tapauksessa lakimiehet ovat jääneet kiinni kielimallien käytöstä, osittain sen takia, että kielimallit olivat tuottaneet tekaistuja ennakkotapauksia [27].

Tekoälyn huijaaminen

Valtaosa koneoppimismenetelmistä olettaa, että aineiston lähde ei ole tietoinen luokittimesta eikä yritä huijata sitä. Luokittimia on kuitenkin usein mahdollista kiertää.

Tarkastellaan aluksi aikaisemmin esitettyä roskasähköpostiluokittelijaa. Helpoin tapa kiertää kyseinen luokittelija on käyttää vaihtoehtoisia kirjaimia, esimerkiksi Unicode-merkistöistä löytyy merkkejä, jotka näyttävät samanlaisilta, mutta joilla on eri koodi. Toinen suoraviivainen tapa on lähettää teksti kuvana. Tässä ei hyökätä varsinaisesti mallia vastaan, vaan esikäsittelyprosessia vastaan. On kuitenkin tärkeää pitää mielessä, että järjestelmä on yhtä heikko kuin sen heikoin lenkki.

Hienostuneempi hyökkäys käyttää mallin painoja hyväksi. Jos hyökkääjä tuntee sanojen painotukset, hän voi vältellä negatiivisia sanoja ja sirotella positiivisia sanoja viestin sekaan. Tällöin luokitin päättelee, että viesti ei olekaan roskapostia.

Samanlaisia hyökkäyksiä voidaan tehdä monimutkaisempia luokittimia vastaan. Hyökkäyksiä, jossa hyökätään kuvien luokittelua vastaan, on tutkittu erityisen paljon. Ne saattavat perustua siihen, että luokittimen suunnittelussa ei ole otettu kaikkia tilanteita huomioon. Esimerkiksi sotkemalla liikennemerkki saadaan luokitin luulemaan, että merkissä lukeekin jotain muuta. Ihminen kuitenkin huomaa heti, että kyltissä on jotain vikaa, koska ihminen tietää, miltä oikea liikennemerkki näyttää. Luokitin ei voi päätellä samalla tavalla, ellei sitä ole erikseen koulutettu siihen.

Monimutkaiset luokittimet, erityisesti kuvaluokittimet, toimivat eri tavalla kuin ihmiset. Nämä luokittimet päättelevät yksittäisistä pikseliarvoista, mitä kuvassa näkyy. Muuttamalla pikseliarvoja voidaan huijata luokitinta tavalla, joka ei olisi mahdollista, jos tulkinnan olisi tekemässä ihminen. Esimerkiksi Sharif et al. [23] saivat laittamalla erityiset lasit päähänsä luokittimen luulemaan, että kuvassa onkin tietty julkisuuden henkilö. Toisena absurdina esimerkkinä Athalye et al. [3] tulostivat 3D-tulostimella kilpikonnan, jonka Googlen kehittämä kuvaluokitin luokitteli kivääriksi.

On hyvää pitää mielessä, että näissä tapauksissa varsinaisen hyökkäyksen, esimerkiksi silmälasien suunnittelun, tekee varta vasten tähän tarkoitukseen suunniteltu algoritmi. Toisin kuin roskapostiesimerkissä hyökkäys ei onnistu ilman koneen apua. Tämän lisäksi nämä hyökkäykset ovat aina räätälöityjä tiettyä luokitinta vastaan. Sama kuvamanipulaatio ei siis toimi useaa luokitinta vastaan. Jotta hyökkääjä voi toteuttaa hyökkäyksen, hänellä pitää olla pääsy luokittimeen. Ihannetapauksessa hyökkääjä tietää mallin rakenteen ja muuttujat, esimerkiksi siinä tapauksessa, että malli on julkinen. Toisessa tapauksessa hyökkääjä ei tiedä mallin muuttujia, mutta hän pystyy käyttämään mallia esimerkiksi rajapinnan kautta, jolloin hän voi päätellä muuttujat kyselyiden avulla. Tässäkin tapauksessa hyökkäys onnistuu, mutta hyökkäysalgoritmi on monimutkaisempi ja kuluttaa enemmän resursseja.

Edellä mainituissa esimerkeissä hyökkäys tehtiin luokitteluvaiheessa. Jos hyökkääjällä on pääsy opetusaineistoon, muuttamalla sitä hän pystyy vaikuttamaan luokittimen päättelyyn. Tällainen aineiston myrkytys voi tulla erityisen ajankohtaiseksi, jos kielimalleja aletaan käyttää tietolähteinä, koska mallit on koulutettu julkisella aineistolla.

Varhainen esimerkki opetusaineiston manipuloinnista on hakukoneen tulosten manipuloiminen. Suosituin hakukone ennen Googlea oli Altavista, joka tuli käyttöön vuonna 1995 ja poistui käytöstä vuonna 2013. Sen hakukone perustui puhtaasti sivujen sisältöön: jos sivun HTML-koodista löytyi termejä, jotka vastasivat hakua, niin kyseinen sivu sijoitettiin korkealle. Tämä menetelmä johti nopeasti siihen, että sivustojen kehittäjät piilottivat HTML-koodiin paljon yleisiä, mutta sisällön kannalta epäolennaisia termejä, jotta hakukone näyttäisi sivun mahdollisimman usein. Tämä huononsi hakutuloksia huomattavasti, minkä vuoksi syntyi uusi markkinarako, jonka Google täytti. Google-hakukoneen toiminta perustui linkkeihin: tärkeille sivuille oli paljon linkkejä tärkeiltä sivuilta. Tämä paransi huomattavasti hakukoneen tuloksia ja oli yksi tärkeimmistä syistä siihen, että Google vei voiton selainten välisessä kilpailussa.

Vaikka Googlen tulosten manipulointi on huomattavasti vaikeampaa kuin Altavistan, se on kuitenkin mahdollista.  Perusajatus tällaisissa hyökkäyksissä, joita on yleensä kutsuttu Google-pommeiksi, on luoda sivusto, johon on paljon linkkejä. Hyökkäysten motiivit ovat tavallisimmin olleet poliittisia tai taloudellisia. Tämän lisäksi manipulaatioita on tehty huumorimielessä tai kilpailun yhteydessä [8].

Mielenkiintoinen esimerkki aineiston myrkytyksestä on Nightshade-sovellus, jonka tarkoitus on vaikeuttaa kuvien luvatonta käyttöä luovien eli generatiivisten mallien koulutuksessa [13]. Sovellus toimii muokkaamalla kuvia siten, että kuva näyttää täysin samalta, mutta näillä kuvilla koulutettu luova eli generatiivinen malli toimii huonosti.

Onnistunut aineiston myrkytys edellyttää, että on tiedossa, miten malli toimii. Altavistan tapauksessa tiedettiin, että HTML-koodissa esiintyneet termit olivat tärkeitä, kun taas Googlen tapauksessa tiedettiin, että linkit olivat tärkeitä. Tällä hetkellä ei ole selvää miten kielimalleihin voi vaikuttaa. Tämän lisäksi, kielimalleja ei päivitetä uusimmalla aineistolla, toisin kuin hakukoneita. Joten manipulaatiomahdollisuudet ovat tällä hetkellä ainoastaan teoreettiset, mutta tilanne saattaa muuttua tulevaisuudessa.

Tekoälyn väärinkäyttö

Kun tekoälysovelluksia on tarkasteltu etiikan näkökulmasta, yleensä on tuotu esiin ongelmia yksityisyyden suojan kanssa, kuten konenäön käyttämistä kasvojentunnistuksessa joko valtion [10] tai yritysten toimesta [14]. Tekoälyä on myös käyty profilointiin: Cambridge Analytica käytti Facebookin kautta kerättyä aineistoa Donald Trumpin vuoden 2016 kampanjassa ja brexit-kampanjassa [6]. Yhdysvaltainen kappaketju Target käytti 2000-luvun alussa myyntiaineistoa ennustaakseen, oliko asiakas raskaana [9].

Luovat eli generatiiviset mallit ovat luoneet uusia väärinkäyttömahdollisuuksia. Perimmäinen ongelma on, että usein oletetaan ihmisen tuottaneen sisällön esimerkiksi tekstin, kuvan tai äänen ja että on suhteellisen helppoa ja mahdollista erottaa ihmisen tuottama sisältö koneen tuottamasta sisällöstä. Tämä oletus on murenemassa.

Kielimallia käyttäen on suhteellisen helppoa tuottaa uskottavaa tekstiä, jonka sisältö kuitenkin saattaa olla virheellistä. Tästä syystä suosittu kyselypalsta Stack Overflow on kieltänyt kielimallien käytön [24]. Kielto on luonteva myös, koska mallin tuottamat vastaukset eivät tuo alustalle mitään lisäarvoa. Palstalle kirjoittava kysyjä olisi voinut yhtä hyvin kysyä saman asian suoraan kielimallista, joten on aiheellista kysyä, miksi hän vaivautuisi käyttämään mitään muuta palvelua. On myös hyvä huomata, että kielimallit on koulutettu muun muassa tekstillä, joka on saatu tällaisilta kyselypalstoilta. Tästä syystä kielimallien kehittäjien intressissä on, että kielimallien vastauksia ei esiinny palstoilla, koska muuten voi syntyä noidankehä, jossa uusia kielimalleja koulutetaan vanhan kielimallin vastauksilla.

Kielimallien käyttö sisällön tuottamisessa on ollut myös ongelmallista. Scifi-lehti Clarkesworld joutui sulkemaan vuoden 2023 alussa uusien tarinoiden vastaanoton sen jälkeen, kun lehteen oli lähetetty satoja tekoälyllä tuotettuja novelleja [2]. Useat julkaisijat alkoivat tuottaa tekoälyllä tekstejä joko myöntäen sen avoimesti tai väittäen, että kirjoittaja oli ihminen [18].

Vuonna 2023 on julkaistu useita tiedeartikkeleita, joissa tekijäksi oli listattu kielimalli. Tästä seurasi se, että isot tiedelehtien julkaisijat päivittivät ohjeistustaan ja kielsivät kielimallien laittamisen tekijöiksi. Tämä kielto on luonteva, koska kirjoittaja on vastuussa tekstistään, mutta kielimalli ei voi kantaa vastuuta. Kielimallien dokumentoitu käyttö on kuitenkin edelleen sallittu.

Kielimallien käytöstä opetustilanteissa on tullut erittäin iso ongelma sekä yliopistotasolla [22] että alemmilla koulutusasteilla [25]. Kielimallien avulla on mahdollista tuottaa esseevastauksia ja väittää tekstiä omakseen. Tämä on plagiointia. Sen tunnistaminen on hyvin vaikeaa, ellei suorastaan mahdotonta. Kielimallit huonontavat esseetehtävien käytettävyyttä opiskelijoiden sisäistämiskyvyn testaamisessa ja arvioimisessa, ja sen vuoksi opettajat ovat joutuneet suunnittelemaan kurssitehtävät uudelleen tai muuttamaan arviointikriteerejä. Ongelmana on myös, että usein rajattu kielimallin käyttö, esimerkiksi apuna oikoluvussa tai ladonnassa, voi olla sallittua, mutta sisällön luomiseen se ei ole toivottua. Kielimallien käytön rajoitusten selittäminen opiskelijoille voi olla haastavaa. Tällä hetkellä näihin ongelmiin ei ole hyvää ratkaisua.

Ongelmia on myös ilmennyt kuvan ja äänen tuottamisessa. Tekoälyllä luodut kuvat voivat näyttää aidoilta, erityisesti jos kuvat on poistettu asiayhteydestään eli kontekstistaan [28]. Tekoälysovellusten tuottamia kuvia ja ääntä on valjastettu muun muassa romanssihuijauksiin [26] ja disinformaation levittämiseen [11]. Nämä uudet työkalut eivät varsinaisesti luo uusia väärinkäytöstapoja, vaan sen sijaan ne madaltavat olemassa olevien huijaus- tai väärinkäytöskampanjoiden kustannuksia.

Kuvissa ja äänissä on huomattavan paljon enemmän dataa kuin tekstissä. Tämän takia tekoälyllä luodun kuvan tai äänen erottaminen aidosta on helpompi tehtävä kuin tekoälyllä tuotetun tekstin erottaminen ihmisten kirjoittamasta. Tämän lisäksi kuva- tai äänitiedostoon voi lisätä digitaalisen vesileiman, mikä huomattavasti helpottaa tunnistamista. On kuitenkin tärkeää huomata, että tällainen vesileima on poistettavissa tai piilotettavissa, mutta toisaalta vesileiman käyttö nostaa kiinnijäämisen todennäköisyyttä ja sitä kautta huijauskampanjan kustannuksia.

Keskustelu tekijänoikeuksista tekoälysovelluksissa on ollut vilkasta. Mallit on usein koulutettu aineistolla, joka on suojattu tekijänoikeuksilla. Esimerkiksi kuvanluontisovellus Midjourney on muun muassa koulutettu Tove Janssonin teoksilla [15]. On epäselvää, onko tällainen aineiston käyttö laillista, ja tekijänoikeusasiasta on meneillään monia oikeudenkäyntejä [1712]. Vaikka käyttö todettaisiin lailliseksi, on hyvin todennäköistä, että suuri osa taiteilijoista ei hyväksy, että heidän teoksiaan käytetään koulutusaineistona sovelluksessa siten, että he eivät saa palkkiota. Lisäksi sovellus saattaa tehdä heidän työnsä tarpeettomaksi tulevaisuudessa. Toisaalta Yhdysvalloissa on tullut useita oikeuden päätöksiä, joiden mukaan tekoälyllä tuotettua materiaalia ei voida suojata tekijänoikeuslailla, koska itse teoksen tuottamiseen tarvittava ihmistyö on ollut liian vähäpätöistä [5].

Tekoälysovellukset ovat erittäin hyödyllisiä työkaluja, mutta niitä voi myös väärinkäyttää tai käyttää väärin. Sen takia on tärkeää, että ymmärrämme, miten nämä mallit toimivat, miten niitä voi käyttää ja millaisia seurauksia niiden käytöllä on.

 

Lähteet

[1]    ACM Conference on Fairness, Accountability, and Transparency. URL https://facctconference.org/.

[2]    Vincent Acovino, Mary Louise Kelly, and Halimah Abdullah. A sci-fi magazine has cut off submissions after a flood of AI-generated stories. NPR, 2023. URL https://www.npr.org/2023/02/24/1159286436/ai-chatbot-chatgpt-magazine-clarkesworld-artificial-intelligence.

[3]    Anish Athalye, Logan Engstrom, Andrew Ilyas, and Kevin Kwok. Synthesizing robust adversarial examples. In International conference on machine learning, pages 284–293. PMLR, 2018.

[4]    Sam Biddle. The internet’s new favorite AI proposes torturing Iranians and surveilling mosques. The Intercept, 2021. URL https://theintercept.com/2022/12/08/openai-chatgpt-ai-bias-ethics/.

[5]    Blake Brittain. AI-generated art cannot receive copyrights, US court says. Reuters, 2023. URL https://www.reuters.com/legal/ai-generated-art-cannot-receive-copyrights-us-court-says-2023-08-21/.

[6]    Philip Bump. Everything you need to know about the Cambridge Analytica-Facebook debacle. The Washington Post, 2018. URL https://www.washingtonpost.com/news/politics/wp/2018/03/19/everything-you-need-to-know-about-the-cambridge-analytica-facebook-debacle/.

[7]    Lingjiao Chen, Matei Zaharia, and James Zou. How is ChatGPT’s behavior changing over time?, 2023. URL https://arxiv.org/pdf/2307.09009.pdf.

[8]    Isabel Drost and Tobias Scheffer. Thwarting the nigritude ultramarine: Learning to identify link spam. In European Conference on Machine Learning, pages 96–107. Springer, 2005. URL https://doi.org/10.1007/11564096_14.

[9]    Charles Duhigg. How companies learn your secrets. The New York Times, 2012. URL https://www.nytimes.com/2012/02/19/magazine/shopping-habits.html.

[10]    Steven Feldstein. China’s high-tech surveillance drives oppression of uyghurs. Bulletin of the atomic scientists, 2022. URL https://thebulletin.org/2022/10/chinas-high-tech-surveillance-drives-oppression-of-uyghurs/.

[11]    Allie Funk, Adrian Shahbaz, and Kian Vesteinsson. The repressive power of artificial intelligence. Freedom House, 2023. URL https://freedomhouse.org/report/freedom-net/2023/repressive-power-artificial-intelligence.

[12]    Michael M. Grynbaum and Ryan Mac. The Times sues OpenAI and Microsoft over A.I. use of copyrighted work. The New York Times, 2023. URL https://www.nytimes.com/2023/12/27/business/media/new-york-times-open-ai-microsoft-lawsuit.html.

[13]    Karen K. Ho. New data ‘poisoning’ tool enables artists to fight back against image generating AI. ARTNews, 2023. URL https://www.artnews.com/art-news/news/new-data-poisoning-tool-enables-artists-to-fight-back-against-image-generating-ai-companies-1234684663/.

[14]    Fred Katz. James Dolan doubles down on use of facial recognition at msg in latest interview. The Athletic, 2023. URL https://theathletic.com/4132393/2023/01/27/james-dolan-msg-facial-recognition-wfan/.

[15]    Anna-Maija Lippu. Tove Janssonin nimi on taidepiirejä huolestuttavalla listalla: näin kommentoi muumeja vimmatusti suojeleva yritys. Helsingin Sanomat, 2024. URL https://www.hs.fi/kulttuuri/art-2000010110672.html.

[16]    Gianluca Maguolo and Loris Nanni. A critic evaluation of methods for covid-19 automatic detection from x-ray images. Information Fusion, 76:1–7, 2021. URL https://doi.org/10.1016/j.inffus.2021.04.008.

[17]    Shanti Escalante-De Mattei. Artists file class action lawsuit against AI image generator giants. ARTNews, 2023. URL https://www.artnews.com/art-news/news/artists-class-action-lawsuit-against-ai-image-generator-midjourney-stability-deviantart-1234653892/.

[18]    Brian Merchant. The depressing fall of Sports Illustrated reveals the real tragedy of AI. The Los Angeles Times, 2023. URL https://www.latimes.com/business/technology/story/2023-12-01/column-the-depressing-fall-of-sports-illustrated-reveals-the-real-tragedy-of-ai.

[19]    Jesutofunmi A Omiye, Jenna C Lester, Simon Spichak, Veronica Rotemberg, and Roxana Daneshjou. Large language models propagate race-based medicine. NPJ Digital Medicine, 6(1): 195, 2023. URL https://doi.org/10.1038/s41746-023-00939-z.

[20]    Dino Pedreshi, Salvatore Ruggieri, and Franco Turini. Discrimination-aware data mining. In Proceedings of the 14th ACM SIGKDD international conference on Knowledge discovery and data mining, pages 560–568, 2008. URL https://doi.org/10.1145/1401890.1401959.

[21]    Michael Roberts, Derek Driggs, Matthew Thorpe, Julian Gilbey, Michael Yeung, Stephan Ursprung, Angelica I Aviles-Rivero, Christian Etmann, Cathal McCague, Lucian Beer, et al. Common pitfalls and recommendations for using machine learning to detect and prognosticate for covid-19 using chest radiographs and ct scans. Nature Machine Intelligence, 3(3):199–217, 2021. URL https://doi.org/10.1038/s42256-021-00307-0.

[22]    Molly Roberts. AI is forcing teachers to confront an existential question. The Washington Post, 2023. URL https://www.washingtonpost.com/opinions/2023/12/12/ai-chatgpt-universities-learning/.

[23]    Mahmood Sharif, Sruti Bhagavatula, Lujo Bauer, and Michael K Reiter. A general framework for adversarial examples with objectives. ACM Transactions on Privacy and Security (TOPS), 22(3):1–30, 2019. URL https://doi.org/10.1145/3317611.

[24]    StackOverflow. Temporary policy: Generative AI (e.g., ChatGPT) is banned, 2022. URL https://meta.stackoverflow.com/questions/421831/temporary-policy-generative-ai-e-g-chatgpt-is-banned.

[25]    Noora Takamäki. Lukio-opettaja keksi keinon, miten hän voi paljastaa Chat GPT:llä huijanneet oppilaat. YLE, 2023. URL https://yle.fi/a/74-20055878.

[26]    Olli-Pekka Toivanen. Romanssihuijarit ovat jo valjastaneet tekoälyn käyttöönsä —videopuhelussa näkemääsi ihastusta ei ehkä ole olemassakaan. YLE, 2023. URL https://yle.fi/a/74-20060751.

[27]    Pranshu Verma. Michael Cohen used fake cases created by AI in bid to end his probation. The Washington Post, 2023. URL https://www.washingtonpost.com/technology/2023/12/29/michael-cohen-ai-google-bard-fake-citations/.

[28]    James Vincent. The swagged-out pope is an AI fake—and an early glimpse of a new reality. The Verge, 2023. URL https://www.theverge.com/2023/3/27/23657927/ai-pope-image-fake-midjourney-computer-generated-aesthetic.

 

Artikkelin on kirjoittanut Helsingin yliopiston tietojenkäsittelyntieteen professori Nikolaj Tatti.

Artikkeli on kuudes osa Akava Worksin ”Näkökulmia tekoälyyn” -artikkelisarjassa.

Kuva: DALL-E -tekoälysovelluksen tuottama kuva artikkelin teemoista.

Lue lisää aiheesta