Start
Artikeln är över 4 år gammal

Lögndetektorn: Framtidens propagandabot lurar att hen är din vän – och du går på det

Vita animerade människoliknande robotar på rad.
Artficiellt intelligenta bottar kommer att fylla nätet med aldrig förr skådade mängder av falska nyheter. Är du redo? Bild: Yle/ Heidi Grönroos / Shutterstock / Pixabay

Artificiellt intelligenta robotar kommer i framtiden att bryta sig in i privata diskussionstrådar med skräddarsydd propaganda just för dig. Johanna Vehkoo har skrivit en artikel på yle.fi hur det går till.

De här bottarna har en central roll i spridningen av desinformation. Robotkonton spelar verkliga personer, men styrs av olika datorprogram. Ofta är det automatiserade konton som sprider politiska eller kommersiella meddelanden i sociala medier.

Trovärdiga bottar är ändå sådana som ibland styrs av en riktig person. Sådana konton är svåra att bevisa som robotkonton, eftersom de inte beter sig konsekvent som bottar.

Det är allt svårare att se skillnad mellan den nya generationens bottar och riktiga personer

Det har hittills varit ovanligt att utnyttja artificiell intelligens, AI i politiska bottar. Typiska botkampanjer är sådana där automatiserade konton sprider texter som har skrivits av en verklig person. Bottar kan också programmeras så att de stärker och delar vissa makthavares eller politikers meddelanden.

Nu håller situationen på att förändras. Program som baserar sig på AI har ökat och det är bara en tidsfråga när bottar börjar användas för att sprida propaganda och desinformation.

Forskaren Lisa-Maria Neudert på Oxford Internet Institute skrev redan år 2018 på vilket sätt artficiellt intelligenta chattbottar kan påverka framtida val.

robotansikten på en skärm
Skillnaden mellan bottar i kundtjänst och bottar som sprider lögner är att en propagandabot aldrig avslöjar sin identitet.

En chattbott är en kommunikativ, social och interaktiv bot. Du har säkert märkt att det redan nu är vanligt att myndigheter och företag använder bottar som stöd i sin kundservice. Bottar som säljer eller betjänar kunder informerar tydligt att de är bottar. Men en propagandabot avslöjar aldrig sin identitet.

Enligt Lisa-Maria Neudert kommer det att vara allt svårare att se skillnad mellan den nya generationens bottar och riktiga personer. Det här beror på hur snabbt datoriserad språkbehandling (natural language processing, alltså NLP) utvecklas.

Piirroksessa poika näppäilee puhelintaan
Vill du ha skräddarsydda lögner specialtillverkade just för dig? Bild: Lasse Isokangas / Yle

Enligt Neudert kommer det om bara några år att finnas kommunikativa och sociala bottar som letar efter lämpliga offer och söker kontakt via privata meddelanden. De analyserar sina offers data och serverar skräddarsydd propaganda just för dem.

I stället för att sprida propaganda till alla, kommer de här nya bottarna att rikta sin verksamhet till personer i maktpositioner eller till politiska oliktänkare.

- De intelligenta bottarna kommer att attackera individer med välformulerad hatretorik, dränka folk med skräppost och rapportera innehållet i vissa personers sidor som kränkande för att få deras konton att stängas, förklarar Neudert.

Politisk bot kan påverka osäkra väljare

Matti Nelimarkka, som är universitetslektor på Centret för samhällsdatavetenskap vid Helsingfors universitet, CSDV, konstaterar att det redan nu finns AI-bottar.

Trots att det fortfarande är utmanande för bottarna att föra en trovärdig dialog med människor, utgör de enligt Nelimarkka ändå en risk för vår framtid.

Att rikta direkta meddelanden till utvalda individer är redan vardag inom marknadsföring. Teknologiska utmaningar kommer emot först när det blir dags att föra meningsfulla samtal och ha en djupare dialog.

Det kommer att ta tid innan bottar kan förstå kontext och nyanser.

- Men snart är vi där, säger Matti Nelimarkka

För övrigt är benämningen artificiell intelligens flytande. Olika experter strider faktiskt om när ett fall fyller kriterierna för AI och när inte. Men Nelimarkka upplever diskussionen om var gränsen går för vad som är AI som onödig.

Botten kan ha ett generiskt standardsvar, något slags politiskt svammel. Och det kan ju faktiskt hända att svamlet går hem

Markku Nelimarkka

I marknadsföring säljs vilken som helst kommunicerande apparat med förklaringen att den innehåller AI också om teknologiexperter inte skulle hålla med. AI är ett flytande begrepp, förklarar Nelimarkka.

Ruudukko, jossa näkyy monia hymyilevien ihmisten kasvokuvia.
I framtiden blir det allt svårare att veta vem som är en verklig person och vem som är en bot i ditt flöde i sociala medier. Bild: Unsplash, kuvankäsittely Illusia Sarvas / Yle

Nelimarkka förklarar att det är helt möjligt för politiska bottar att rikta meddelanden direkt till personer som inte tidigare trott på konspirationsteorier, men som visat intresse för dem.

Problem uppstår om en person försöker ställa en lite mer invecklad fråga till botten.

- Visserligen kan botten i en sådan situation ha ett generiskt standardsvar, något slags politiskt svammel. Och det kan ju faktiskt hända att svamlet går hem, säger Markku Nelimarkka.

Var och en som fört diskussioner på nätet har kanske också erfarenhet av att inte heller riktiga människor alltid är konsekventa i sina svar.

Datorer kan redan skriva propaganda

När man behandlar ett språk behövs enorma mängder av data som finns hos teknologijättar som Google. Och det är med hjälp av sådan data som teknologiföretag bygger upp applikationer för artificiell intelligens.

Samtidigt som teknologiföretag erbjuder verktyg för att automatisera diskussioner, undervisar de också i hur man gör propaganda

Lisa- Maria Neudert, Oxford Internet Institute

Också andra aktörer som sysslar med programmering kommer åt Googles data via ett så kallat öppet gränssnitt, eller API. Google och liknande företag vinner på att de ger också andra bolag tillgång till sina algoritmer för att vidareutveckla dem.

- Problemet är att när de här tjänsterna är öppna för alla, är de öppna också för dem som bygger politiska bottar. Samtidigt som teknologiföretag erbjuder verktyg för att automatisera diskussioner, undervisar de också i hur man gör propaganda, säger Lisa-Maria Neudert.

Snart är det möjligt för alla som sprider propaganda att skapa oändliga mängder automatiserat vilseledande innehåll.

En oberoende forskningscentral som heter OpenAI publicerade nyligen dataprogrammet GPT-3, som kan utveckla massor av olika sorters texter beroende på vilka data man matat i programmet. Resultaten är imponerande.

The Guardian publicerade i höstas en ledare under rubriken:

En robot skrev hela den här artikeln, är du rädd människa?

The Guardian

Det var alltså GPT-3 som hade skrivit The Guardians artikel från början till slut. Men redaktionen hade editerat artikeln utgående från åtta olika texter som programmet hade producerat.

Den tidigare versionen, GPT-2, var en hejare på att producera högerextremistisk hatpropaganda. Det här kom forskare i terrorism och extremism fram till när de matade GPT-2 med kända högerextremistiska massmördares texter, som Anders Breiviks och Dylann Roofs manifest för att undersöka hurudan text programmet kunde leverera.

Forskarna gjorde samma test med ISIS-ledares tal, marxistiska texter och material ur anarkistiska böcker och tidningar.

Säkerhetsbolaget Fire Eye matade i sin tur GPT-2 med två miljoner nätsidor av innehåll som ryska konton i sociala medier hade producerat.

Då lärde sig programmet skriva fullständigt kompetenta propagandatweetar.

Mängden av desinformation ökar ständigt

När det gäller desinformationens framtid är i alla fall en sak helt säker: Mängden av desinformation kommer att fortsätta öka.

1. För det första är det här oundvikligt för att mänskligheten dagligen producerar så mycket data.

2. För det andra för att en del av informationen är avsiktligt vilseledande.

3. För det tredje för att det hela tiden blir både billigare och mer effektivt att producera och dela automatiserat innehåll.

- Det är klart att det här förändrar vårt förhållande till verkligheten på ett radikalt sätt, säger universitetslektor Matti Nelimarkka.

Datorprogram kan redan skapa fullständigt trovärdiga ansikten och det är urenkelt att producera text. Artificiell intelligens kan också skapa både bilder och videor.

En kille underhåller sig genom att titta på sin telefon.
Mängden strunt bara ökar på nätet. Därför bör var och en veta vem man kommunicerar med och varifrån informationen kommer. Bild: Mostphotos

Förr behövdes människohänder för att skriva propaganda, skriver forskningschef Renée DiResta på Stanford Internet Observatory i sin artikel i The Atlantic.

Men snart kan alla som sprider propaganda producera en oändlig mängd av automatiserat vilseledande innehåll.

Och det kommer att produceras så mycket strunt att det blir omöjligt för företag på de sociala medierna och andra aktörer på nätet att avgöra vad som är sant och vad som är falskt.

I stället kommer man att försöka definiera trovärdighet utgående från identitet.

- Många internetanvändare vill veta om det de läst eller sett har producerats av en verklig person eller av AI, skriver Renée DiREsta.

Enligt DiResta håller vår informationsmiljö tyvärr på att glida in i en absurd situation där det blir allt svårare att skilja mellan fakta och fiktion.

Johanna Vehkoo har skrivit artikeln för yle.fi och Heidi Finnilä har översatt den till svenska.

Lögndetektorn: Framtidens propagandabot lurar att hen är din vän – och du går på det