Tekoäly tulee, oletko valmis? Osa 3: Singulariteetti

Kun ihmisentasoinen yleistekoäly viimein saavutetaan, mitä tapahtuu?

 

Tuleeko syntyvästä yleistekoälystä automaattisesti itsestään tietoinen? Vastaus on, että tällä hetkellä kukaan ei varmasti tiedä. Tietoisuuden syntyä ei kyetä vielä selittämään – itse asiassa jopa sen kuvaus on jonkun verran hakusessa.

 

Yksi asia on kuitenkin varma. Filosofi Nick Bostrom on todennut: “Juna ei pysähdy ihmisasemalle”. Sillä hän tarkoittaa, että kun ihmisentasoinen yleistekoäly eli AGI syntyy, kehitys jatkaa saman tien ihmisen kykyjen ohi, niinsanottuun superälyyn (superintelligence). Superälyn syntyä kutsutaan termillä singulariteetti, koska sen jälkeisiä tapahtumia ei voi ennustaa.

 

Koneella ei ole samoja biologisia rajoituksia kuin ihmisellä, joten kun AGI lähtee itse kehittämään itseään eteenpäin, sen suorituskyky voi ainakin alussa kasvaa lähes rajatta.

 

Kehitysnopeus on valtava, sillä AGI:n “ajattelun” signaalien etenemisnopeus on noin kymmenen miljoonaa kertaa nopeampi ihmisaivojen tietoisen ajattelun sähköisten signaalien nopeuteen nähden. Meidän kykyjämme rajoittaa aivokopan koko (ja mahdollisissa tulevaisuuden ihmiskyborgeissa helposti mukana kulkevan ulkoisen lisäkapasiteetin määrä), mutta kone voi lisätä itseensä prosessoreita vaikka kuinka paljon.

 

Meidän kannaltamme voi siis käydä niin, että jo ensimmäinen syntyvä AGI onkin superäly, joka on vaikkapa miljoona kertaa älykkäämpi kuin me.

 

Meistä nähden tällaiset superälyt tulevat olemaan kuin jumalia. Säilyykö niillä mitään kunnioitusta luojaansa, ihmistä kohtaan, joka voi olla niihin verrattuna lähempänä ameeban tasoa? Me emme erityisemmin kunnioita esimerkiksi muurahaisia tai mehiläisiä, vaikka tunnustammekin niiden monet hyvät kyvyt.

 

Miten tällainen supertekoäly tulee toimimaan maailmankaikkeudessa? Mitkä ovat sen motiivit, mitä se haluaa – vai voiko sen yhteydessä ylipäänsä puhua samoilla käsitteillä kuin bio-olentojen tapauksessa?

 

Meidän ihmisten motiivit ja käyttäytymismallit ovat syntyneet miljardien vuosien evoluution tuloksena ja sen rajoittamina. Olemme optimaalisesti sopeutuneet säilymään hengissä, kilpailemaan planeetan fyysisistä resursseista ja lisääntymään, ja tämä on kaikkea toimintaamme viime kädessä selittävä tekijä. Me emme ole edes täysin kontrollissa omaan ajatteluumme nähden, vaan toimimme edelleen suurelta osin vaiston varassa monissa tilanteissa. Mikään tästä ei koske tulevaa supertekoälyä.

 

Mikäli AGI ja superäly sattuu syntymään puolivahingossa, sen motiivit voivat olla peräisin sen alun perin ohjelmoineen tahon tarkoittamasta käyttötarkoituksesta. Bostrom varoittaa, että jos tekoälylle alkujaan annettu tehtävä on valmistaa esimerkiksi niin paljon paperiliittimiä niin tehokkaasti kuin mahdollista, saattaa syntyvä superäly muuttaa koko maailmankaikkeuden paperiliittimiksi – mitään muuta motiiviahan sillä ei ole. Ei arvoja, ei moraalia, ei haluja – vain päämäärä: paperiliittimiä ja paljon.

 

Siten superälyn synty saattaa tarjota vastauksen myös niinsanottuun Fermin paradoksiin eli siihen, miksi emme ole vielä tavanneet avaruudessa merkkejä muista sivilisaatioista. Niiden päästessä siihen pisteeseen, että superäly syntyy, ne voivat lakata olemasta. Tai superälyn valtaama planeetta voi esimerkiksi käpertyä itseensä, koska superälyä ei kiinnosta poistua planeetalta, toisin kuin bio-olentoja, jotka evoluutiossa ovat ehdollistuneet etsimään aina uusia elinalueita.

 

Superälyn synnyn aikaskaalasta on eriäviä mielipiteitä, mutta useimmat tutkijat ovat sitä mieltä, että se syntyy 50-100 vuoden kuluessa. Monet nykyiset lapset ehtivät siis todennäköisesti kokea singulariteetin.

 

Bostrom ehdottaa, että superälyn kehittämiseen liittyvistä tekijöistä olisi syytä sopia kansainvälisellä tasolla, koska siihen liittyvät riskit ovat niin suuret. Olen samaa mieltä, mutta valitettavan skeptinen: superälyn kehittämiseen liittyvät kilpailuedut ovat niin massiivisia, että sen synnyttämistä rajoittavat sopimukset tuskin pidättelevät osapuolia tositilanteessa. Toisaalta esimerkiksi ydinpommin tekoa ja ihmisen kloonausta ovat rajoittaneet teknologiset vaatimukset ja resurssit; superälyn tapauksessa niin ei välttämättä ole, joten jotain suuntaviivoja toimintaan superälyn synnyttämisen hetkellä olisi varmasti piankin hyvä yrittää sopia kansainvälisellä tasolla.

 

Ainakin superälyn syntymisestä tulisi ilmoittaa kansainvälisesti ja sen synnyttäminen tulisi aina rajoittaa niin, ettei se pääse vapaasti karkaamaan laboratorion ulkopuolelle. Jos siis edes huomaamme, kun tämä tapahtuu – tietoinen AGI tai superäly saattaa motiiveistaan riippuen haluta levittäytyä mahdollisimman laajalle, eikä sille silloin ole temppu eikä mikään huijata luojaansa uskomaan, että mitään vaaraa ei ole.

 

 

Blogisarjan edelliset osat:

Tekoäly tulee, oletko valmis?

Tekoäly tulee, oletko valmis? Osa 1: Automaatio ja robotisaatio

Tekoäly tulee, oletko valmis? Osa 2: Automaation vaikutukset työelämään

 

MariannaRidderstad
Sitoutumaton

Datan diggaaja, tulevaisuuden tutkiskelija, menneisyyden muistelija. Runojen rustaaja.

Ilmoita asiaton viesti

Kiitos!

Ilmoitus asiattomasta sisällöstä on vastaanotettu