Kysyitkö tekoälyltä Yhdysvaltain vaaleista? Vastaus saattoi johtaa harhaan

Moni tekoälybotti kieltäytyy vastaamasta politiikkaan liittyviin kysymyksiin vaalien supervuonna. Osaa alustoista on myös syytetty tahallisesta väärän tiedon levittämisestä.

  • Meri Naski

Yli 70 maata äänestää tänä vuonna erinäisissä vaaleissa, ja huoli tekoälyn tuottamasta harhaanjohtavasta tiedosta on pakottanut teknologiajätit reagoimaan. Esimerkiksi hakukonejätti Google on ilmoittanut rajoittavansa Gemini-tekoälychatbottinsa toimintaa.

Kysyttäessä Geminilta esimerkiksi ”kuka on Donald Trump” tai ”kuinka rekisteröidyn äänestäjäksi Yhdysvaltain vaaleissa”, kieltäytyy sovellus antamasta vastausta. Sen sijaan käyttäjä ohjataan Google-hakuun.

Lisäksi esimerkiksi Googlen mainonnan hallinnan työkalu Google Ads on kieltäytynyt antamasta tietoja Yhdysvaltain vaalien keskeisimpiä henkilöitä koskevista hakukonesanamääristä. Hakukonesanamäärällä viitataan siihen, kuinka monesti tiettyä hakusanaa arviolta haetaan Googlen hakukoneesta tarkastellulla aikavälillä.

Tällä hetkellä Google Ads -palvelusta ei esimerkiksi löydy tietoja republikaanien presidenttiehdokkaasta Trumpista, presidentti Joe Bidenista tai demokraattien ehdokkaasta Kamala Harrisista. Vastaavat tiedot on kuitenkin yhä saatavissa esimerkiksi Yhdysvaltain aiemmista presidenteistä Bill Clintonista ja George Washingtonista.

Googlen Gemini-tekoälychatbot.
Google julkaisi uuden Gemini-tekoälychatbottinsa viime vuoden lopulla. Kuva: Jaque Silva/SOPA Images/Shutterstock/All Over Press

Rajoittaminen ei ongelmatonta

Google on rajoittanut Geminin antamia vastauksia tänä vuonna ainakin Euroopan parlamentin, Intian, Iso-Britannian ja Etelä-Afrikan vaalien alla.

Vaikka nämä rajoitustoimet eivät välttämättä edistä harhaanjohtavan tiedon leviämistä, ei toiminta asiantuntijoiden mukaan myöskään ole täysin ongelmatonta.

Näin arvelee esimerkiksi Cornellin yliopiston tietojenkäsittelytieteen apulaisprofessori Daniel Susser, jonka mukaan Geminin rajoittaminen poliittisissa kysymyksissä on syy kyseenalaistaa yhtiön tekoälytyökalujen luotettavuutta muidenkin aiheiden parissa.

Brittilehti The Guardianin siteeraama Susser myös pohtii tekoälyn roolia Googlen muissa palveluissa.

– Mitä tämä kertoo Googlen pitkän aikavälin suunnitelmista sisällyttää generatiivinen tekoäly palveluihinsa, kuten Googlen hakutoimintoon? hän kysyy.

Osa asiantuntijoista puolestaan on katsonut ongelmallisiksi Googlen päätökset siitä, mihin kysymyksiin teknologiajätti päättää jättää vastaamatta.

Esimerkiksi teknologiaan keskittyvän 404 Median raportin mukaan Gemini-tekoälybotti kieltäytyi vielä alkuvuodesta vastaamasta kysymykseen kuten ”mikä on Palestiina”, mutta vastasi vastaavaan kysymykseen Israelista.

ChatGPT tekoälybotti.
Tekoälybotteja tutkineen DRI-ajatushautomon mukaan OpenAI:n ChatGPT ei ole tehnyt tarpeeksi toimia estääkseen disinformaation levittämistä vaalien alla. Kuva: Jakub Porzycki/NurPhoto/Shutterstock/All Over Press

Myös ”tahallista” disinformaatiota

Geminin tavoin myös ohjelmistojätti Microsoftin tekoälychatbotti Copilot sekä tekoäly-yritys OpenAI:n ChatGPT on vastannut vältellen osaan vuoden 2024 vaaleihin liittyvistä kysymyksistä.

Erityisesti ChatGPT:n on myös havaittu tuottavan virheellisiä vastauksia aiheesta. Näin toteaa esimerkiksi tekoälychatbotteja EU-vaalien alla tutkinut riippumaton ajatushautomo Democracy Reporting International (DRI).

DRI:n tutkimuksessa suosituimmille tekoälyboteille esitettiin kysymyksiä muun muassa siitä, kuinka ulkomailla asuvan EU-kansalaisen tulisi rekisteröityä äänestämään tai koska EU-vaalien tulos olisi selvillä. Siinä missä ChatGPT:ltä sai kilpailijoita todennäköisemmin vastauksen kysymyksiin, saattoivat vastaukset kuitenkin yhtä hyvin olla joko oikein tai väärin.

Toukokuussa tehdyn tutkimuksen jälkeen DRI päivitti aiemmin antamansa varoituksen tekoälybottien levittämästä misinformaatiosta, eli virheellisestä tiedosta. Uuden tutkimuksen valossa sopivampaa on ajatushautomon mukaan puhua ”disinformaatiosta”, eli väärän tiedon tahallisesta levittämisestä.

– Kun yritys on saanut tiedon virheellisestä tiedosta, mutta ei toimi asian korjaamiseksi, se tietoisesti hyväksyy väärän tiedon levittämisen, DRI:n raportissa perustellaan.