Yle kävi läpi suomalaisen disinformaatiokampanjasivuston sisältöä. Sivusto käyttää sosiaalisen median eri alustoilla julkaistuissa videoissaan muun muassa tekoälyllä tuotettuja entisen presidentin Urho Kekkosen kuvia sekä Avara Luonto -luontodokumenttisarjan tyylistä kertojaääntä.
Disinformaatio on tahallisesti levitettyä väärää tietoa. Suomalaisille tuttujen ja luotettavien kansallisten symbolien käyttö on yksi disinformaation levittämisen keino.
Emme kerro sivuston nimeä sen sisältämän disinformaation takia. Yle ei ole onnistunut tavoittamaan sivuston ylläpitäjää kommentoimaan sisällöntuotantoa. Alta voit kuunnella sivustolta poimitun ääninäytteen:
Analysoimamme sivuston sisältö toistaa äärioikeistolaista sanomaa ja salaliittoteorioita. Se myös kannustaa suoraan toimintaan.
Tällä hetkellä suurin osa meillä leviävistä salaliittoteorioista nousee äärioikeistolaisesta tai konservatiivisesta maaperästä, kertoo suomalaista disinformaatiokenttää tutkiva viestinnän asiantuntija Janne Riiheläinen.
– Suomessa tällä hetkellä hirveän monet ajatukset, narratiivit sekä salaliittoteoriat ovat peräisin Yhdysvaltain kulttuurisodista.
Riiheläisen mukaan tekoälytyökalujen ansiosta kuka tahansa voi tuottaa laadullisesti ja määrällisesti yhä enemmän disinformaatiota.
Riiheläinen nimittää tulevaa autentikoinnin eli todentamisen kriisiksi.
– Videolla voidaan saada kuka tahansa sanomaan mitä tahansa kenen tahansa äänellä. Kuka vain voi tehdä juridisen kuuloisen tiedotteen mistä tahansa pähkähullusta asiasta.
Riiheläisen mukaan meillä ei enää kohta ole tapoja todentaa tietoa muodon kautta. Tietoon pitää syventyä ennen kuin näemme, onko se luotettavaa vai ei.
Salaliittoteoriat leviävät nyt huipulta
Toimittaja-tietokirjailija Johanna Vehkoo kirjoittaa vuonna 2019 ilmestyneessä Valheenpaljastajan käsikirjassaan, että pitkään ajateltiin, että salaliittoteorioita ja disinformaatiota levittävät ihmiset, joilta puuttuu yhteiskunnallista valtaa.
Viime vuosina asetelma on kääntynyt lähes päinvastaiseksi – salaliittoteoriat ja disinformaatio leviävät nykyisin myös yhteiskunnan huipulta, kuten poliitikoilta, julkkiksilta ja sosiaalisen median vaikuttajilta.
Riiheläisen mukaan ylhäältä tuleva informaatiovaikuttaminen perustuu siihen, että isketään olemassa oleviin yhteiskunnallisesti kipeisiin ja hankaliin jakolinjoihin. Tätä kutsutaan kiilastrategiaksi.
– Siinä pyritään repimään rakoja auki ja halvaannuttamaan yhteiskuntaa.
Videon vallankumousta odotellessa
Generatiivisen tekoälyn käyttö oikeistoradikaalin disinformaation tuotannossa ei ole uusi ilmiö. Sitä on nähty tänä vuonna käytettävän esimerkiksi Southportin mellakoiden lietsomiseen, vaalivaikuttamiseen EU-vaaleissa ja Yhdysvaltain sisäpolitikan manipulointiin.
Meemien muodossa disinformaatiota on esimerkiksi Elon Muskin omistaman X-alustan Grok-kuvageneraattorilla.
Generatiivisen tekoälyn kuvageneraattorit löivät läpi jo ennen tekstigeneraattoreita. Radikaalit äärioikeistolaiset toimijat olivatkin molempien varhaisia käyttöönottajia.
Kaupalliset kielimallit tarjoavat terroristiryhmittymille pomminteko-ohjeita, tietoa yhteiskunnallisen infrastruktuurin haavoittuvuuspisteistä sekä kirjoittavat käskystä sivukaupalla antisemitististä vihapuhetta. Kuva- ja äänigeneraattoreita puolestaan käytetään deepfake-videoiden sekä äärioikeistolaisten meemien luomiseen.
Verkostot levittävät tekoäly-propagandaa
Yle tutki aiemmin Southportin mellakoita lietsoneen suomalaisen Telegram-kanavilleen jakamaa kuvasisältöä. Niistä osan hän oli tuottanut AI-kuvageneraattorilla. Kuvat voidaan sisällöllisesti luokitella kuuluviksi radikaaliin äärioikeistolaiseen Siege-kulttuuriin, joka koostuu erittäin hajautetusta rihmastomaisesta verkostosta.
Tällä hetkellä yksi ryhmän suosituimmista propagandan tuotantotavoista on generatiivinen tekoäly. Aatemaailmaan kuuluu pyrkimys kiihdyttää yhteiskuntajärjestelmän romahduttamista terroriteoilla ja väkivallalla.
Kuvia tuotetaan tekoälytyökaluilla ja jaetaan digitaalisesti ympäri maailman. Joskus kuvat leviävät myös muille sosiaalisen median alustoille. Niistä niitä poistetaan muun muassa automatisoituun moderointiteknologiaan ja asiantuntijatyöhön perustuvan Terrorist Content Analytics Platform -alustan lähettämien TCAP-hälytysten myötä.
TCAP-poistopyyntöihin reagoiminen vaihtelee alustakohtaisesti. Moderointijärjestelmät ovat myös heikompia tunnistamaan radikaalia äärioikeistolaista sisältöä kuin äärijihadistista sisältöä lähihistoriallisista syistä.
Paskapuhegeneraattorit eivät tunnista faktaa
Johanna Vehkoon mukaan osa tutkijoista kutsuu suuria kielimalleja, etenkin ChatGPT:tä, ”paskapuhegeneraattoreiksi”, koska ne eivät tiedä, mikä on fakta.
Ne voivat keksiä vakuuttavan näköisiä lähdeviitteitä, joita ei ole olemassa. Lisäksi ChatGPT voi keksiä olemattomia journalistisia artikkeleita ja tapahtumia.
– Monet ihmiset käyttävät näitä tiedonhakuun. Se on hirvittävän pelottava kehityskulku faktantarkistuksen ja journalismin näkökulmasta, Vehkoo sanoo.
Suuret kielimallit on ohjelmoitu antamaan vastauksia kaikenlaisissa tilanteissa ja kuulostamaan vakuuttavilta, vaikka oikeasti ne eivät tiedä, mitä tieto on. Ongelmaa on lähes mahdoton poistaa, sillä se on sisäänrakennettu tekoälymalleihin. Lisäksi estoja voi kiertää.
Chatbotit suoltavat myös vihapuhetta pyydettäessä. Vaikka kielimalleja rakentavat yritykset sanovat pyrkivänsä estämään sitä, virheet tilkitään usein vasta jälkikäteen.
Vehkoo ennustaa, että kehittyneemmät chatbotit, joiden kanssa ihmiset voivat keskustella, mahdollistavat propaganda- ja disinformaatioviestien henkilökohtaisen räätälöinnin lähitulevaisuudessa.
– Tuotannosta on tullut niin helppoa ja edullista, että propagandaa ei tarvitse enää suunnata laajoille joukoille. Yhden hengen yleisö riittää.
Hyvä kohde henkilökohtaistetulle disinformaatioviestinnälle ovat esimerkiksi salaliittoteorioihin kallellaan olevat sosiaalisen median vaikuttajat, joiden kautta viesti leviää suurelle määrälle seuraajia.
– Se on vain järkevää, jos haluaa disinformaatiota levittää, ja nykyään myös täysin mahdollista, Vehkoo sanoo.
Sisällöntuottajiin kohdistettu propagandakampanja nähtiin jo tänä vuonna, kun yhdysvaltalaiset oikeistolaiset vaikuttajat Tim Pool, Dave Rubin ja Benny Johnson levittivät Venäjän valtion sponsoroiman propagandakampanjan disinformaatiota, jossa käytettiin myös generatiivista tekoälyä.
Oxfordin yliopiston Reuters-instituutin kyselytutkimuksessa on pyydetty vastaajia nimeämään kolme sellaista sosiaalisen median tiliä, joita he seuraavat. Yhdysvaltalaisvastaajien parissa alle listatut henkilöt saivat eniten mainintoja, mukana myös Pool ja Rubin:
Yksittäisellä käyttäjällä on vastuu siitä, mihin käyttää tekoälyn generoimaa kuvaa ja ääntä.
– Mielestäni tämä on verrattavissa siihen, kun ilmastonmuutoksesta vastuutetaan ihmisiä, että ”teidän täytyy nyt kierrättää”. Okei, meidän täytyy kierrättää, mutta emme ratkaise sitä valtavaa, massiivista systeemistä ongelmaa kierrättämällä, vaan ratkaisut ovat jossain aivan muualla, Vehkoo toteaa.
Vehkoon mukaan tekoälyn mahdollistama disinformaatio on erittäin vaarallista silloin, kun joku valesisältömassasta lyö itsensä läpi valtavirtajulkisuuteen ja keskusteluun. Hän arvioi, että tämä voi tapahtua milloin tahansa.
Riiheläisen mukaan Suomi on ollut hyvässä tilanteessa muuhun maailmaan verrattuna, koska suojana on ollut hyvä koulutustaso ja pieni kielemme.
– Tekoälyn tuomien muutoksien myötä mekin joudumme vielä lujille.
Uutisen lähteinä on käytetty lisäksi Supon kansallisen turvallisuuden katsaus -raporttia, Europolin Terrorismitilanne ja trendi -raporttia, Tech against Terrorism -järjestön analyyseja, Terrorist Content Analytics Platform -Global Internet Forum to Counter Terrorism (GIFCT) -järjestön sekä sen rahoittaman Global Network on Extremism & Technology (GNET) -hankkeen tutkimuksia ja raportteja sekä Johanna Vehkoon kirjaa Valjeenpaljastajan käsikirja.