Reilu viikko sitten tekoäly-yhtiö Open AI:n hallitus ilmoitti yllättäen erottavansa yhtiön toimitusjohtajan Sam Altmanin luottamuspulan vuoksi. Käynnistyi vuoristorata-ajelu, jossa useamman käänteen ja kiepautuksen jälkeen palattiin, kuten vuoristorata-ajelussa on tapana, lähtöpisteeseen. Altman on yhä Open AI:n toimitusjohtaja.
Altmanin potkujen syy ei ole tähän päivään mennessä tarkentunut hallituksen alkuperäisestä muotoilusta. Siinä todettiin, ettei Altman ollut vilpitön keskusteluissaan hallituksen kanssa. Viikon aikana yleiseksi näkemykseksi on muodostunut se, että Open AI:n hallitus koki Altmanin edistävän tekoälyn kehitystä ja teknologian kaupallistamista liian voimakkaasti.
Normaalin yhtiön hallitukselle toimitusjohtajan kaupalliset pyrkimykset eivät ole ongelma, mutta Open AI ei ole normaali yhtiö. Alun perin voittoa tavoittelemattomana säätiönä perustetun tutkimuslaboratorion toimintastrategian punaisena lankana on ollut tekoälyn turvallinen kehittäminen.
Kun Open AI perustettiin vuonna 2015, sen päämääräksi asetettiin jokseenkin epämääräinen tavoite ”rakentaa turvallinen ja hyödyllinen yleinen tekoäly koko ihmiskunnan hyväksi”. Kaupallisten intressien sijaan yhtiön hallituksen tehtävänä on ollut varmistaa, että tämä strategia toteutuu.
Altmanin johdolla Open AI on onnistunut tuotteistamaan tekoälyn ennen näkemättömällä tavalla. Open AI:n liikevaihto on Chat GPT:n ansiosta nousemassa yli miljardiin dollariin ja yhtiön arvo paperilla lähentelee 90 miljardia dollaria. Rahaa toki palaa yhä valtavia määriä, mutta yhtiöön sijoittaneet ovat olleet tyytyväisiä kehitykseen.
Yhtiön hallituksen näkökulmasta menestyksellä ei ollut väliä. Se itse asiassa näyttäytyi alkuperäisen strategian vastaiselta. Uutistoimisto Reutersin mukaan useat Open AI:n työntekijät kirjoittivat hallituksen jäsenille kirjeen, jossa he varoittivat yhtiön olevan lähellä läpimurtoa, joka saattaisi olla uhka ihmiskunnalle.
Vaikka Open AI:n laboratoriossa ei kehittyisi ihmiskunnan lopulta tuhoava tekoälyjärjestelmä, vaikutti vähintään siltä, että Altmanin johtama Open AI tuotteisti kehittämäänsä teknologiaa ilman täyttä ymmärrystä sen seurauksista.
Käytännössä yhtiön hallitus oli omien sääntöjensä mukaan pakotettu antamaan Altmanille potkut.
Teoreettiset pohdinnat ihmiskunnan tuhosta johtivat kaaokseen
Tekoälyn mukanaan tuomien uhkakuvien skaala on valtava. Toisessa päässä on ihmisten laiskistuminen ja toisessa koko ihmiskunnan tuho. Välissä on syrjiviä algoritmeja, synteettistä disinformaatiota, massatyöttömyyttä ja automatisoituja asejärjestelmiä.
Käytännössä pahimmat uhkakuvat voivat toteutua kahdella tavalla. Joko pahaa tahtova toimija käyttää hyväkseen tekoälyjärjestelmää tai itse tekoälyjärjestelmä kääntyy ihmisiä vastaan.
Tekoälyn kehittäjät ohittavat ensimmäisen vaihtoehdon todeten, että erilaisia työkaluja on läpi ihmiskunnan historian käytetty sekä hyvään että pahaan. Vastuu on lopulta käyttäjällä.
Toista vaihtoehtoa he eivät voi ohittaa samalla tavalla, vaikka se tavallisesta ihmisestä kuulostaa scifiltä. Tämä on johtanut siihen, että tekoäly-yhtiöt tarkastelevat turvallisuutta usein eksistentiaalisten uhkakuvien kautta.
Lähestymistapa on vetänyt puoleensa efektiiviseksi altruismiksi kutsutun liikkeen edustajia. Efektiivisen altruismin kannattajat katsovat, että hyvän tekeminen maailmassa pitäisi maksimoida tutkitun tiedon avulla. Piilaakson piireissä ja Oxfordin yliopiston käytävillä suositun liikkeen mielestä esimerkiksi hyväntekeväisyyttä ei pitäisi tehdä henkilökohtaisista mieltymyksistä, vaan varat pitäisi ohjata sinne, missä ne tuottavat absoluuttisesti eniten hyötyä.
Efektiivisen altruismin kannattajat tarkastelevat hyötyjä usein pitkällä, jopa satojentuhansien vuosien, aikavälillä. Silloin tekoälykin nähdään nykyisiä chatbotteja kehittyneempänä järjestelmänä. Kun EA-liikkeessä puhutaan tekoälystä, sillä usein tarkoitetaan ihmisen kaltaiseen järkeilyyn kykenevää yleistä tekoälyä. Tällaista järjestelmää ei ole vielä olemassa, jos koskaan tulee olemaan.
Open AI:n hallituksessa usealla jäsenellä oli yhteyksiä efektiiviseen altruismiin. Vaikuttaa siltä, että he uskoivat loppuun asti toimivansa koko ihmiskunnan hyväksi.
Open AI:n hallituksessa Altmanin potkuista päättämässä ollut Georgetownin yliopiston CSET-tutkimuskeskuksen (Center for Security and Emerging Technology) johtaja Helen Toner totesi Altmanin erottamisen jälkeen käydyssä videopuhelussa, että Open AI:n mahdollisen tuhoutumisen voidaan katsoa olevan linjassa säätiön päämäärän eli koko ihmiskuntaa hyödyntävän tekoälyn kehittämisen kanssa.
Open AI ei kuitenkaan tuhoutunut, ja sittemmin Toner ja merkittävän EA-rahaston hallituksessa istuva teknologiayrittäjä Tasha McCauley ovat joutuneet jättämään Open AI:n hallituksen.
Altmanin potkuista seurannut sekasorto osoittaa, ettei teoreettisista ongelmista huolestunut hallitus ollut perillä päätöksensä konkreettisista seurauksista.
Tekoälyn aiheuttama uhka ihmiskunnalle on myös myyntivaltti
Tekoälyn aiheuttamista eksistentiaalisista uhkista puhuminen ei ole rajoittunut vain efektiivisen altruismin piiriin.
Ihmiskunnan suojeleminen tekoälyltä on myös hyvää markkinointia. Tekstiä tuottava botti vaikuttaa paljon mielenkiintoisemmalta ja hyödyllisemmältä, jos sen taustalla pyörivä teknologia pitää sisällään ihmiskunnan tuhoavan superälyn siemenen.
Altman on itse allekirjoittanut vetoomuksen, jossa tekoälyn aiheuttamia vaaroja verrataan ydinaseiden uhkaan.
– Jos tämä teknologia menee pieleen, se voi mennä pieleen vakavilla seurauksilla, Altman kertoi Yhdysvaltain senaatin kuulemisessa viime toukokuussa.
Pari viikkoa myöhemmin Open AI ilmoitti varaavansa viidenneksen tekoälyjärjestelmien kehittämiseen käytettävästä laskentatehosta tutkimusohjelmaan, jonka tavoitteena on ratkaista tekoälyn suuntaamiseen liittyvä ongelma.
Suuntaamisella pyritään varmistamaan, että tekoäly pyrkii saavuttamaan sille asetetut tavoitteet hyväksyttävillä tavoilla. Tarkoituksena on estää tapaukset, joissa tekoäly saavuttaa tavoitteensa, mutta samalla tuhoaa vaikkapa ihmiskunnan.
Tunnetuin esimerkki tästä on ruotsalaisen filosofi Nick Boströmin ajatuskoe klemmareita valmistavasta tekoälyjärjestelmästä, joka lopulta valjastaa koko maailmankaikkeuden klemmareiden valmistamiseen. Boström on yksi EA-liikkeen tunnetuimmista tukijoista.
Nykymaailmassa huonosti suunnatut tekoälyjärjestelmät aiheuttavat esimerkiksi some-riippuvuutta. Open AI:n tutkimus keskittyy kuitenkin ratkaisemaan vielä tulossa olevan superälykkään tekoälyjärjestelmän mukanaan tuomat suuntaamisongelmat.
Tekoälyn lupaus on liian suuri vauhdin hidastamiseksi
Open AI:n kriisiviikko osoitti, etteivät teoreettiset uhkakuvat tekoälyn vaaroista riitä hidastamaan teknologian kehitystä. Potentiaalinen palkkio on liian houkutteleva.
Kun viime viikonloppuna lähes koko Open AI:n henkilöstö uhkasi irtisanoutua tuen osoituksena Altmanille, Saleforcen ja Microsoftin kaltaiset ohjelmistojättiläiset alkoivat kilpaa kosiskella heitä palkkalistoilleen.
Altman ja hänen kanssaan Open AI:n hallituksen puheenjohtajan tehtävistä potkut saanut Greg Brockman ehtivät olla vuorokauden työttöminä ennen kuin ohjelmistojätti Microsoft ilmoitti palkkaavansa heidät.
Nyt Altman ja Brockman jatkavat perustamassaan yhtiössä kuin mitään ei olisi koskaan tapahtunut. Toki todennäköistä on, että Open AI:n organisaatiorakenne muuttuu. Ainakin voittoa tavoittelemattoman säätiön valta tekoälyä kehittävään yhtiöön varmasti heikkenee. Mielenkiintoista on nähdä, muuttuuko tekoäly-yhtiölle asetettu voittokatto.
Kun Open AI uudisti organisaatiorakennettaan vuonna 2019, tekoäly-yhtiöön sijoittaneiden voitot rajoitettiin satakertaisiksi sijoitettuun pääomaan nähden. Tästä ylimenevä osuus päätyisi voittoa tavoittelemattomalle säätiölle, joka ohjaisi varat todennäköisesti efektiivisen altruismin oppien mukaisesti eteenpäin.
Voittokatto tuntuu varsin korkealta, mutta sen taustalla on ajatus siitä, että jos Open AI onnistuu kehittämään yleisen tekoälyn, sen voitot ovat tähtitieteelliset. Samalla yhtiö mullistaisi koko maailman niin perusteellisesti, että yhteiskunnan uudelleenjärjestämiseen tarvittaisiin Open AI -säätiön rahoja.
Matka tähän pisteeseen on pitkä. Sitä ennen tekoälyä kehittävien ja käyttävien ihmisten on ratkaistava monia käytännön ongelmia.
Viikon jälkeen on selvää, että efektiivisen altruismin liike on menettänyt merkitystään tekoälyn turvallisuuden ympärillä käytävässä keskustelussa. Jos yleinen tekoäly toteutuu ja se joskus kääntyy luojaansa vastaan, voimme katsoa tähän hetkeen ja miettiä, että siinä oli se paikka muuttaa historiaa.
Todennäköisesti suurempi haitta kohdistuu kuitenkin tekoälyn aiheuttamiin konkreettisiin turvallisuusuhkiin ja niiden tutkimiseen. Viikko sitten Meta hajotti vastuullista tekoälyä kehittävän ryhmä ja sijoitti sen työntekijät muihin tekoälytiimeihin.
Altmanin paluun jälkeen hitaampaa tahtia kannattavat henkilöt on helppo sivuuttaa teoreettisia ajatusleikkejä pelaavina luddiitteina.