Isak Rautio, programledare för serien Q&AI på Yle Arenan, samtalar med universitetslektor Jeremias Berg, som undervisar i datavetenskap vid Helsingfors universitet.
För att testa Chat GPT frågade Isak Rautio vad Futucast är och Chat GPT gav det tvärsäkra svaret: Den handlar om kriminalitet och programledarna är kriminella kändisar. Några förklaringar till varför Chat GPT gav det här svaret kom det inte.
– Chat GPT är programmerad att producera meningar som vi människor skulle kunna säga och hur meningar brukar se ut, men det som Chat GPT uttalar sig om baserar sig inte alltid på sanning och fakta utan på enorma mängder av text som finns på nätet, säger Jeremias Berg.
Det här beror på att det är matematiska modeller som styr vad AI väljer att svara, inte sammanhang och sanning. Artificiell intelligens baserar sig inte på semantik eller förståelse av kontext
Att Chat GPT svarade så på Isak Rautios fråga, beror enligt Jeremias Berg på att det finns så många poddar som handlar om kriminalitet. Chat GPT räknade helt enkelt ut att sannolikheten är stor för att också podden Futucast handlar om kriminalitet. Chat GPT svarade utgående från sin sannolikhetskalkyl.
Men sanningen är att Futucast är en samtalspodd med gäster om samhällsfrågor som Isak Rautio är programledare för.
Men hur ska vi kunna utnyttja AI så att vi kan lita på den? Enligt Jeremias Berg är det enkla svaret att vi inte kan lita på AI.
– AI är bäst på att korrigera dina manus och ge dig rekommendationer på filmer som streamingtjänster serverar åt dig. Men vad juridik och situationer där det krävs ansvar och etik beträffar, kan vi inte alls lita på AI, svarar universitetslektor Jeremias Berg.
Jeremias Berg berättar också om medicinsk forskning där man undersökt hur AI fungerar vid diagnostisering av melanom. Man matade in miljontals bilder av födelsemärken och markerade vilka som var melanom och vilka som inte var det. Småningom började AI ge svar med olika procents sannolikhet för hur troligt det var att ett visst födelsemärke var melanom.
Men det visade sig att AI missuppfattat sitt uppdrag. Det berodde på att det på bilderna också fanns linjaler för att mäta hur stort melanomet var. Det artificiellt intelligenta systemet hade alltså lärt sig att de positiva fallen var de där linjalen var med på bild, men hade inte lärt sig analysera hur maligna födelsemärken såg ut.
Det krävs enorma mängder av mänskliga arbetstimmar för att AI ska lära sig. Frågan är om det lönar sig.
Jeremias Berg, universitetslektor
Enligt Jeremias Berg är människor mycket bättre än datorer på att analysera bilder. En människa behöver till exempel inte se mer än ett par bilder av en katt för att lära sig hur en katt ser ut. Men för att få AI att förstå hur en katt ser ut måste man mata in miljontals bilder av olika katter i olika ställningar och färger. Först efter det kan AI förstå att det är fråga om en katt oberoende av om den sitter eller står på bilden.
Hur säkra är självkörande bilar?
Isak Rautio funderar vidare på etik och vad AI kan lära sig och tar exemplet självkörande bilar. Om det skulle vara så att människor årligen förorsakade 500 krockar medan självkörande bilar bara förorsakade 300 krockar, skulle det betyda att självkörande bilar är säkrare?
Enligt Jeremias Berg måste vi börja med att få en uppfattning om ansvarsfrågor.
– På vems ansvar är det och vem är ersättningsskyldig när en AI-bil förorsakar krock? Är det företaget som byggt bilen, samhället, bilens ägare, eller den stackars kodaren som har kodat just den bilen så att det blev fel? frågar Jeremias Berg och tillägger att han inte alls känner sig trygg med tanken på att leva i ett samhälle där AI bestämmer allt.
AI får gärna utveckla verktyg som stöder och hjälper människor så att var och en förstår AI:s svagheter och styrkor. Själv skulle jag aldrig överlåta ansvaret för något till AI, slår Jeremias Berg fast.
Hur kan AI blir mer pålitlig?
– Det behövs ett annat system vars uppgift är att förklara hur AI kommer fram till sina beslut, men redan här blir det problem. AI kan hjälpa oss, men det finns alltid en risk att AI förklarar saker fel. Därför kan AI aldrig ha ansvar för att fatta beslut i livsviktiga frågor. Så är det i alla fall nu, svarar universitetslektor Jeremias Berg.