Maailman suurimmat teknologiayritykset käyvät salassa kilpaa seuraavan läpimurron saavuttamiseksi tekoälyssä – mahdollisesti jopa yleisellä tekoälyllä (AGI), järjestelmällä, jolla on ihmisen tasoiset (tai sitä suuremmat) kognitiiviset kyvyt. Vaikka tekoälychatbotit kuten ChatGPT ovat hämmästyttäneet yleisöä, sisäpiiriläiset ja vuotaneet asiakirjat vihjaavat vieläkin tehokkaampien suurten kielimallien (LLM) ja AGI-projektien kehittämisestä suljettujen ovien takana. Salaisesta tutkimuksesta OpenAI:lla ja DeepMindilla aina salaisten hallituksen ohjelmien asti, näitä kehityksiä ympäröi salaisuuksien verkko. Tämä raportti perehtyy uusimpiin (2024–2025) vuotoihin ja spekulaatioihin paljastamattomista tekoälymalleista, tekoälyjohtajien salailukulttuurista, geopoliittisesta valtapelistä tekoälyn saralla sekä eettisistä ongelmista, joita voimakkaan tekoälyn kehittäminen pimeässä aiheuttaa. Erotamme vahvistetut faktat huhuista, siteeraamme asiantuntijoita ja ilmiantajia sekä tarkastelemme, mitä tämä kaikki merkitsee yhteiskunnalle.
Vuotoja ja huhuja paljastamattomista tekoälyn läpimurroista (2024–2025)
OpenAI:n “Q”-löytö: Vuoden 2023 lopulla OpenAI:n tutkijoiden sisäinen kirje hallitukselle käynnisti valtavan spekulaatiomyrskyn reuters.com. Kirje varoitti voimakkaasta tekoälyalgoritmista, jonka koodinimi oli “Q” (Q-Star), ja jonka henkilöstö uskoi voivan olla merkittävä askel kohti AGI:tä reuters.com. Reutersin mukaan malli osoitti ennennäkemätöntä kykyä ratkaista tiettyjä matemaattisia ongelmia – suoriutuen suunnilleen alakoulutasolla, mutta tehden sen johdonmukaisesti ja oikein reuters.com. Tämä oli merkittävää, koska nykyiset generatiiviset tekoälyt (kuten ChatGPT) kamppailevat usein matematiikan tai loogisen johdonmukaisuuden kanssa. “Jotkut OpenAI:lla uskovat, että Q voisi olla läpimurto yhtiön pyrkimyksissä saavuttaa niin sanottu AGI,” Reuters kirjoitti, huomauttaen, että jo alakoulumatematiikan hallinta teki tutkijat “erittäin optimistisiksi Q:n tulevaisuuden suhteen” reuters.com. OpenAI ei ole julkisesti julkaissut Q:ta eikä täysin vahvistanut sen kykyjä, mutta se myönsi projektin olemassaolon yksityisesti työntekijöilleen median tiedustelujen jälkeen reuters.com. Q:n salailu – ja sen dramaattinen rooli OpenAI:n toimitusjohtajan Sam Altmanin yllättävässä syrjäyttämisessä marraskuussa 2023 – lisäsi spekulaatioita siitä, että OpenAI olisi voinut “työntää tietämättömyyden verhoa taaksepäin” merkittävän löydön myötä reuters.com. (Altman itse vihjasi vain viikkoja aiemmin, että “suuria edistysaskeleita oli näköpiirissä,” sanoen arvoituksellisesti olleensa paikalla useiden läpimurtohetkien aikana, “viimeisin [niistä] oli vain parin viime viikon aikana” reuters.com.) Monet tarkkailijat epäilevät, että Q on päättelymoottori, joka skaalattuna voisi ratkaista uusia ongelmia, joihin nykyiset chatbotit eivät pysty – käytännössä mahdollinen yleisen älykkyyden siemen.
GPT-5 ja muut julkistamattomat mallit: OpenAI:n julkinen malli vuonna 2024 on edelleen GPT-4 (joka pyörittää ChatGPT:tä ja Bingiä), mutta entä sen seuraaja? Yritys on ollut tästä aiheesta äärimmäisen vaitonainen. Maaliskuussa 2023 yli tuhat asiantuntijaa allekirjoitti avoimen kirjeen, jossa vaadittiin taukoa järjestelmien kouluttamiseen, jotka ovat “tehokkaampia kuin GPT-4”, turvallisuushuolien vuoksi reuters.com. Sam Altman vastasi vakuuttamalla, että OpenAI ei ollut “[kouluttamassa] GPT-5:tä” ja ei tee sitä pitkään aikaan techcrunch.com. Kesällä 2024 Altman toisti, että heillä oli “paljon työtä tehtävänä” uusien ideoiden parissa ennen GPT-5:n aloittamista techcrunch.com. Siitä huolimatta huhut jatkuvat, että alustavaa työtä seuraavan sukupolven mallin parissa tehdään sisäisesti – kutsuttiinpa sitä sitten GPT-5:ksi tai joksikin muuksi. OpenAI kieltäytyi tunnetusti paljastamasta mitään yksityiskohtia GPT-4:n rakentamisesta (lisää siitä alla), joten koko GPT-5:n olemassaolo ja kehitys (jos se on olemassa) pysyisi todennäköisesti salassa julkistukseen asti. Huomionarvoista on, että tuore analyysi The Guardian -lehdessä (elokuu 2025) mainitsi “OpenAI:n uuden GPT-5-mallin” “merkittävänä askeleena kohti AGI:ta” – vaikkakin sellaisena, josta puuttuu vielä “jotain hyvin olennaista” aidon ihmismäisen oppimisen suhteen theguardian.com. Tämä viittaa siihen, että vuoteen 2025 mennessä GPT-5 on voitu esitellä näyttävästi, mutta jopa se ei ehkä ole se mullistava läpimurto, jota jotkut pelkäävät kehitettävän salassa. Joka tapauksessa GPT-5:n kehitystä on ympäröinyt epätavallinen salailu, eikä OpenAI ole pitkään aikaan vahvistanut tai kiistänyt sen tilaa – mikä ruokkii huhuja siitä, että jotain suurta saattaa tapahtua kulissien takana.
Google DeepMindin seuraavat siirrot: Googlen tekoälyosasto (joka on nyt yhdistelmä Google Brainia ja DeepMindia) on myös kehittänyt erittäin edistyneitä malleja, usein ilman julkisia julkaisuja ennen strategista hetkeä. Loppuvuodesta 2023 Google ilmoitti kehittävänsä “Geminiä,” uuden sukupolven tekoälymallia, joka yhdistäisi DeepMindin kuuluisan AlphaGon tekniikat LLM:ien kielikykyihin en.wikipedia.org. Vaikka Geminin kehityksestä tiedotettiin julkisesti, monet yksityiskohdat pysyivät salassa sen lopulliseen julkaisuun asti. Vuoden 2024 alussa raportoitiin, että Gemini 1.0 ohitti OpenAI:n GPT-4:n tietyissä vertailutesteissä iconext.co.th, ja Ultra-versio oli tekeillä. Tämä kilpailullinen harppaus – joka saavutettiin suurelta osin Googlen sisällä – osoittaa, kuinka teknologiajätit työskentelevät usein salassa läpimurtojen parissa ja paljastavat ne vasta, kun ovat valmiita tavoittelemaan kärkipaikkaa. Samoin DeepMindilla on historia salaisista projekteista: esimerkiksi LaMDA, Googlen edistynyt keskusteleva LLM, kehitettiin sisäisesti ja tuli julkisuuteen lähinnä tutkimusjulkaisujen ja yhden kuuluisan vuodon kautta (Google-insinöörin väite, että LaMDA oli “tunteva”, tästä lisää myöhemmin). Vasta vuosina 2022–2023, kun LaMDAn johdannainen julkaistiin Bard-chatbottina, yleisö pääsi vuorovaikuttamaan sen kanssa. Tämä kaava – pitkä kehitys salassa, sitten äkillinen julkinen debyytti – näyttää olevan alan normi. Myös muut laboratoriot, kuten Anthropic (jonka perustivat OpenAI:n entiset työntekijät), ovat vihjanneet merkittävistä mallipäivityksistä ilman, että kaikki yksityiskohdat paljastetaan. Vuonna 2023 Anthropicilta vuotanut varainhankintaesitys kuvaili suunnitelmia “Claude-Next” -mallista, joka olisi 10 kertaa kyvykkäämpi kuin tämänhetkiset vahvimmat tekoälyt ja jonka kouluttaminen saattaisi vaatia noin miljardin dollarin laskentatehon techcrunch.com. Anthropic kuvaili tätä huippumallia tavoittelevan “tekoälyn itseopiskelua” ja vihjasi, että se voisi “alkaa automatisoida suuria osia taloudesta” techcrunch.com – kunnianhimo, joka vastaa varhaista AGI:n muotoa. Kuitenkin vuotaneita asiakirjoja lukuun ottamatta Anthropic on ollut vaitonainen Claude-Nextin edistymisestä ja keskittynyt julkisessa viestinnässään asteittaisiin päivityksiin (kuten Claude 2). Todellinen kyvykkyysero julkisesti käytössä olevien ja laboratoriossa kehitteillä olevien mallien välillä saattaa olla paljon suurempi kuin tiedämme.
Uudet ja vähän tunnetut toimijat: Kyse ei ole vain tunnetuista yrityksistä – joskus yllättäjä-projektit nousevat esiin ja yllättävät asiantuntijat. Yksi silmiinpistävä esimerkki tuli Kiinasta: tammikuussa 2025 suhteellisen tuntematon startup nimeltä DeepSeek ilmestyi näyttämölle mallilla (DeepSeek-V3 ja myöhemmin “R1”-versio), jonka kerrottiin kilpailevan OpenAI:n parhaiden kanssa. Kiinan teknologiayhteisö – ja jopa Piilaakso – olivat ällistyneitä, kun DeepSeekin tekoälyavustaja shokeerasi alaa yltämällä OpenAI:n mallien tasolle tai jopa päihittämällä ne useissa vertailutesteissä, ja teki tämän murto-osalla kustannuksista reuters.com. “DeepSeekin tekoäly…on järkyttänyt Piilaaksoa ja saanut teknologiayhtiöiden osakkeet laskuun,” Reuters raportoi viitaten startupin mataliin kehityskustannuksiin ja väitteisiin, että sen R1-malli suoriutui yhtä hyvin kuin OpenAI:n “o1”-malli reuters.com. (Termistö viittaa siihen, että DeepSeek vertasi malliaan OpenAI:n “o1”-koodinimellä kulkevaan malliin, mahdollisesti johonkin GPT-4:n versioon.) DeepSeekin perustaja, nuori tutkija nimeltä Liang Wenfeng, antoi hyvin harvoja haastatteluja, mutta yhdessä niistä hän totesi rohkeasti, että AGI:n saavuttaminen oli yrityksen päämäärä, ja että toisin kuin suuret teknologiayhtiöt, hänen pieni tiiminsä “ei välittänyt” voitosta tai edes käynnissä olevista tekoälypilvipalveluiden hintasodista reuters.com. Tällainen salassa kehittäminen korostaa, että huipputason tekoäly ei ole vain länsimaisten laboratorioiden yksinoikeus – erittäin kehittyneitä malleja voidaan rakentaa salassa startupeissa tai valtiollisissa tutkimuslaitoksissa muuallakin. Itse asiassa jo vuonna 2021 Kiinan Beijing Academy of AI julkisti Wu Dao 2.0:n, multimodaalisen tekoälyn, jolla oli huimat 1,75 biljoonaa parametria (kymmenen kertaa enemmän kuin GPT-3:lla) aibusiness.com. Wu Dao oli valtava malli, joka kykeni tekstin ja kuvan generointiin, mutta sitä ei avattu avoimeksi lähdekoodiksi; se toimi todisteena siitä, että Kiina pystyy tekemään huippututkimusta yhtä laajassa mittakaavassa kuin – tai jopa laajemmin kuin – yhdysvaltalaiset laboratoriot. Harva Kiinan ulkopuolella on nähnyt Wu Daon toiminnassa, ja se onkin jäänyt eräänlaiseksi legendaksi. Keskeistä on, että maailmanlaajuisesti on tekoälyprojekteja, joista kuulemme vain huhuja, kunnes ne yhtäkkiä julkaistaan (tai vuotavat julkisuuteen). Ensimmäinen varoitus laajemmalle yleisölle voi olla tutkimusartikkeli, viranomaisilmoitus – tai anonyymi mallipainojen lataus foorumille (kuten kävi Metan LLaMA:n kohdalla, ks. alla). Tässä ilmapiirissä odottamattomasta on tullut arkipäivää, ja jokainen huhu salaisesta mallista tai AGI-“läpimurrosta” aiheuttaa innostuksen ja huolen värähtelyjä tekoäly-yhteisössä.
Salailun kulttuuri tekoälylaboratorioissa
Huolimatta alan akateemisista ja avoimen tutkimuksen juurista, nykyiset tekoälyn johtajat ovat yhä vaiteliaampia edistyneimmästä työstään. Hyvä esimerkki tästä on OpenAI. Ironisesti läpinäkyvyyteen viittaavasta nimestään huolimatta OpenAI on siirtynyt äärimmäiseen salailuun huippumalliensa osalta. Kun GPT-4 julkaistiin maaliskuussa 2023, OpenAI ei antanut mitään tietoa mallin arkkitehtuurista tai koulutusprosessista – ei parametrimäärää, ei yksityiskohtia laajasta datasta tai käytetystä laitteistosta vice.com. Teknillisessä raportissa yhtiö totesi suoraan: “Koska kilpailutilanne ja suurten mallien, kuten GPT-4:n, turvallisuusvaikutukset ovat merkittäviä, tämä raportti ei sisällä lisätietoja arkkitehtuurista … laitteistosta, koulutuslaskennasta, datan koostamisesta [tai] koulutusmenetelmästä.” vice.com. Tämä merkitsi täyttä 180 asteen käännöstä OpenAI:n perustamisperiaatteista avoimuuden suhteen vice.com. Erään raportin mukaan GPT-4 oli “yhtiön salaisin julkaisu tähän mennessä”, ja todellakin “täysi 180 OpenAI:n perustamisperiaatteista voittoa tavoittelemattomana, avoimen lähdekoodin toimijana.” vice.com. Kritiikkiä herätti tämä läpinäkyvyyden puute. “Luettuani lähes 100-sivuisen raportin, minulla on enemmän kysymyksiä kuin vastauksia,” sanoi Sasha Luccioni, tekoälytutkija Hugging Facelta, lisäten että on “vaikea luottaa tuloksiin, joita en voi varmistaa tai toistaa.” vice.com. Toinen asiantuntija, professori Emily M. Bender, twiittasi, ettei OpenAI:n salailu ollut yllätys, mutta harmitteli, että “He jättävät tietoisesti huomiotta kaikkein perustavimmat riskienhallintastrategiat, samalla kun julistavat työskentelevänsä ihmiskunnan hyväksi.” vice.com. Jopa OpenAI:n oma toimitusjohtaja ja päätutkija myönsivät muutoksen. Ilya Sutskever, joka aiemmin puolusti avointa tekoälytutkimusta, puolusti GPT-4:n salailua sanomalla “kilpailu on kovaa… kilpailun näkökulmasta tämän voi nähdä alan kypsymisenä”, ja myönsi lopulta “olimme väärässä” ollessamme alussa avoimen lähdekoodin kannalla vice.com. Lyhyesti sanottuna, OpenAI toimii nyt kuin yrityksen T&K-laboratorio, joka varjelee liikesalaisuutta.
Muut tekoälylaboratoriot ovat samalla tavalla vaienneet yksityiskohdista, kun niiden projektit lähestyvät kehityksen kärkeä. DeepMind esimerkiksi julkaisi useita läpimurtotutkimuksia (kuten AlphaGo, AlphaFold jne.), mutta se harvoin julkaisee mallien painoja tai uusimpien järjestelmiensä täydellisiä teknisiä piirustuksia. Kun DeepMind kehitti Gopher-mallin (suuri kielimalli) tai Sparrow-agentin (keskusteluagentti), yleisö sai tietää niiden kyvyistä tieteellisten julkaisujen kautta, mutta itse mallit pysyivät talon sisällä. Googlen LaMDA-malli pidettiin sisäisenä pitkään, kunnes OpenAI:n edistysaskeleiden aiheuttama paine pakotti Googlen kiirehtimään ulos tuotteen (Bard), joka perustui LaMDAan. Huomionarvoista on, että maailma ei olisi ehkä koskaan saanut tietää, kuinka oudon inhimillisiä LaMDA:n keskustelut voivat olla, ellei olisi tapahtunut ilmiantotapausta: vuonna 2022 Google-insinööri Blake Lemoine tuli julkisuuteen väittäen, että LaMDA oli ”tunteva” – väite, jonka tutkijat tyrmäsivät laajasti, mutta joka sai valtavasti huomiota sille, mitä Google oli salassa rakentanut theguardian.com. Google erotti Lemoinen luottamuksellisuuden rikkomisesta (hän oli jakanut keskustelujensa transkriptioita tekoälyn kanssa) theguardian.com. Tapaus ei ainoastaan korostanut, kuinka kehittyneiksi Googlen näkymättömät chatbotit olivat tulleet, vaan myös ”herätti uutta tarkastelua tekoälyn ympärillä vallitsevaan salailuun,” kuten The Guardian tuolloin totesi theguardian.com. Lemoine itse totesi: ”Google saattaa kutsua tätä omistusoikeudellisen omaisuuden jakamiseksi. Minä kutsun sitä keskustelun jakamiseksi, jonka kävin yhden työkaverini kanssa,” hämärtäen provosoivasti rajan tekoälyn ja ihmiskollegan välillä theguardian.com. Vaikka hänen tuntevuusväitteensä kumottiin, näiden vuotaneiden keskustelujen sisältö osoitti, että LaMDA ilmaisi pelkoa sulkemisesta ja halua tulla tunnustetuksi henkilönä theguardian.com – asioita, jotka eivät todellakaan olleet osa Googlen julkista kertomusta sen tekoälystä. Tämä on elävä esimerkki siitä, kuinka tekoälyn kyvykkyys voi kehittyä suljettujen ovien takana paljon pidemmälle kuin ulkopuoliset ymmärtävät, kunnes jokin vuoto tai sisäpiiriläisen kertomus paljastaa tilanteen (olipa se sitten totta tai ei).
Anthropic ja Meta AI edustavat avoimuudessa eroa, joskin hienovaraista sellaista. Anthropic on ollut suhteellisen avoin tutkimusfilosofiastaan (kuten “Constitutional AI” turvallisempien mallien puolesta) ja julkaisee tutkimusartikkeleita, mutta mitä tulee sen mallien täydellisiin tietoihin (esim. Clauden tarkka koulutusdata tai parametrimäärä), se on myös pitänyt yksityiskohdat salassa. Meta puolestaan herätti huomiota ottamalla avoimemman lähestymistavan vuonna 2023: se julkaisi LLaMA-kielimallin koko tutkimusyhteisön käyttöön sen sijaan, että olisi pitänyt sen vain sisäisesti theverge.com. Tämä oli selkeä liike “demokratisoida pääsy” huipputason tekoälyyn, mikä toi implisiittisesti esiin Metan avoimuuden vastakohtana OpenAI:n suljetulle linjalle theguardian.com. Metan suunnitelma hallitusta julkaisusta ei kuitenkaan mennyt odotetusti. LLaMA vuoti kokonaisuudessaan internetiin vain viikko Metan julkistuksen jälkeen theverge.com. Maaliskuun 3. päivänä 2023 joku julkaisi LLaMA:n mallin tiedostot julkisella foorumilla (4chan), ja siitä ne levisivät kulovalkean tavoin torrent-sivustoille ja GitHubiin theverge.com. Muutamassa päivässä kuka tahansa saattoi ladata Metan huipputason mallin – tilanne, jonka jotkut asiantuntijat kokivat innostavana ja toiset huolestuttavana. “Metan tehokas kielimalli on vuotanut verkkoon… Jotkut pelkäävät teknologian mahdollistavan haitallista käyttöä; toiset uskovat laajemman pääsyn parantavan tekoälyn turvallisuutta,” kirjoitti The Verge theverge.com. Tämä tapaus käynnisti suuren keskustelun: johtaako avoimuus kehittyneessä tekoälyssä parempaan valvontaan ja innovaatioon, vai kiihdyttääkö se väärinkäyttöä pahantahtoisten toimijoiden käsissä? Meta yritti valita keskitien (avoin, mutta vain luotetuille tutkijoille), ja se epäonnistui. Vuodon jälkeen Meta panosti entistä enemmän avoimuuteen – ei vetäytymällä salailuun, vaan julkaisemalla uuden mallin avoimena lähdekoodina. Heinäkuussa 2023 Meta julkaisi LLaMA 2 -mallin avoimena lähdekoodina (tietyin rajoituksin) yhteistyössä Microsoftin kanssa. Ajatuksena oli ehkä, että jos nämä mallit joka tapauksessa leviävät, on parempi julkaista ne virallisesti joillain turvatoimilla kuin antaa luvattomien vuotojen tapahtua. Silti Metan oma vuotanut sisäinen muistio vuodelta 2023 (“The Illusion of AI’s Open Secret” eli epävirallisesti “no moat” -muistio) myönsi, että “meillä ei ole vallihautaa”, koska avoimen lähdekoodin tekoäly kehittyi niin nopeasti. Muistio ehdotti, että edes suuret laboratoriot eivät voi säilyttää etumatkaa salaamalla tietoja, sillä ideat leviävät väistämättä theguardian.com. Tämä on huomionarvoinen myönnytys: vaikka yritykset muuttuvat salamyhkäisemmiksi johtoasemansa suojelemiseksi, avoin tutkimusyhteisö (tai kilpailijakansakunnan laboratoriot) saattavat saada kiinni nopeammin kuin odotettiin.
Yhteenvetona voidaan todeta, että tekoälytutkimuksen rajalle on laskeutunut salaisuuden verho. Laboratoriot perustelevat tätä kilpailupaineilla ja turvallisuuskysymyksillä. OpenAI:n muutos avoimesta suljetuksi on tämän kehityksen esimerkkitapaus. Tämän seurauksena yleisö saa usein tietää keskeisistä edistysaskeleista vain strategisten julkistusten, huhujen tai vuotojen kautta. Tämä salailu voi synnyttää epäluottamusta – mitä nämä yritykset ovat saattaneet saavuttaa, mutta eivät kerro meille? Onko jossain datakeskuksessa jo varhaisia AGI-versioita käynnissä, pidettyinä poissa julkisuudesta kunnes ne katsotaan turvallisiksi tai tuottoisiksi? Ei ole ihme, että jokainen vihje läpimurrosta (kuten Q tai salaperäinen “GPT-5”) herättää kiivasta spekulaatiota. Laboratoriot puolestaan perustelevat, että liiallinen läpinäkyvyys voisi olla vaarallista – esimerkiksi tehokkaan mallin rakentamisen paljastaminen saattaisi mahdollistaa pahantahtoisten toimijoiden sen kopioimisen. He pelkäävät myös, että yksityiskohtien jakaminen hyödyttää kilpailijoita. Näin ollen tekoälyasevarustelu on suurelta osin siirtynyt suljettujen ovien taakse, ja silloin tällöin saamme kurkistaa avaimenreiästä, kun sisäpiiriläinen puhuu tai asiakirja vuotaa.
Geopolitiikka ja piilotettu tekoäly: Suurvallat, vakoojat ja autonomiset aseet
Tekoälyylivoima ei ole vain Piilaakson pakkomielle – se on kansallisen ylpeyden ja turvallisuuden kysymys. Maailman suurvallat sijoittavat valtavasti resursseja kehittyneeseen tekoälyyn, usein suurin salaisuuksin, panosten ollessa korkealla. Kiina ja Yhdysvallat pitävät tekoälyjohtajuutta strategisena välttämättömyytenä, ja tämä on synnyttänyt hankkeita, joita pidetään yhtä luottamuksellisina kuin sotilaallisia ohjelmia.
Kiina on hallituksen puolelta julistanut tavoitteekseen tulla tekoälyn globaaliksi johtajaksi vuoteen 2030 mennessä, ja tämä on käynnistänyt vilkasta toimintaa teknologiayritysten, startupien ja valtion rahoittamien laboratorioiden keskuudessa fanaticalfuturist.com. Suuri osa Kiinan tekoälykehityksestä tapahtuu ilman lännessä nähtyjä lehdistötiedotteita tai avoimia blogeja. Esimerkiksi aiemmin mainittu Wu Dao 2.0 -malli (1,75 biljoonaa parametria) esiteltiin kiinalaisessa konferenssissa melko vähäisellä kansainvälisellä huomiolla – jos amerikkalainen laboratorio olisi rakentanut maailman suurimman tekoälyn, se olisi todennäköisesti ollut valtava uutinen. Viime vuosina kiinalaiset yritykset kuten Baidu, Alibaba ja Tencent ovat kaikki julkistaneet omat suuret kielimallinsa (Ernie Bot, Qwen-malli jne.), mutta usein on epäselvää, mitä ominaisuuksia ne pitävät sisäisesti. Tapauksessa DeepSeek, pieni startup, joka hetkellisesti ohitti länsimaiset mallit, vihjaa, että joitakin läpimurtoja saattaa tapahtua tutkan alla. DeepSeekin arvoituksellinen perustaja, Liang, ehdotti, että paisuneet teknologiayritykset eivät välttämättä ole parhaiten asemoituneita tekoälyn tulevaisuutta varten, vihjaten, että ketterät tutkimuspainotteiset tiimit voivat innovoida nopeammin reuters.com. Itse asiassa DeepSeek avasi aiemman versionsa mallistaan (DeepSeek V2) ja hinnoitteli pääsyn erittäin edulliseksi, mikä laukaisi ”tekoälymallien hintasodan” Kiinassa reuters.com. Tämä avoin lähestymistapa pakotti jopa jättiläiset kuten Alibaban laskemaan hintoja ja päivittämään mallejaan nopeasti reuters.com. Mutta nyt kun DeepSeek on saavuttanut näin korkean suorituskyvyn, herää kysymys: jatkaako se uusimpien ja parhaiden mallien avointa jakamista vai vetäytyykö sekin salaisuuden verhoon? Mukana on myös geopoliittisia virtauksia: Kiinalainen malli, joka yhtäkkiä kilpailee OpenAI:n kanssa, herättää huomiota Washingtonissa. On mahdollista, että jotkin kehittyneet kiinalaiset tekoälyjärjestelmät eivät ole täysin julkisesti käytössä, mahdollisesti vientirajoitusten, strategisten syiden tai sen vuoksi, että kiinalaiset viranomaiset ovat asettaneet tiukat säännöt (vuodesta 2023 alkaen), jotka vaativat turvallisuustarkastuksia ja hallituksen hyväksynnän ennen generatiivisten tekoälytuotteiden lanseerausta fanaticalfuturist.com. Elokuussa 2023 uudet kiinalaiset säädökset määräsivät, että julkisesti avoimien tekoälymallien kehittäjien on alistauduttava säännöllisiin turvallisuusarviointeihin fanaticalfuturist.com. Tämä tarkoittaa, että mikä tahansa erittäin tehokas malli saattaa olla hallituksen alainenvalvonnan alaisena tai jopa pidetty poissa julkisesta julkaisemisesta, jos ne katsotaan arkaluonteisiksi. Käytännössä Peking saattaa sallia tiettyjen AGI:ta lähestyvien järjestelmien kehittämisen, mutta ei niiden avointa julkaisua, kohdellen niitä kaksikäyttöteknologioiden tavoin.
Sillä välin Yhdysvaltain hallitus ja armeija eivät ole olleet toimettomina. Vaikka suuri osa tekoälytutkimuksesta tapahtuu yksityisissä yrityksissä, Yhdysvaltain virastot kehittävät ja ottavat aktiivisesti käyttöön tekoälyjärjestelmiä – joskus hiljaisesti. Merkittävä paljastus loppuvuodesta 2023 oli, että CIA rakentaa omaa ChatGPT-versiotaan Yhdysvaltain tiedusteluyhteisölle fanaticalfuturist.com. CIA:n avointen lähteiden tiedusteluosaston johtaja Randy Nixon vahvisti Bloombergille, että tämä CIA-chatbot tulee olemaan ChatGPT-tyylinen LLM tiedon analysointiin 18 tiedusteluviraston kesken fanaticalfuturist.com. Työkalu on suunniteltu tiivistämään avointa tietoa viitteiden kanssa ja mahdollistamaan analyytikoille massiivisten tietokantojen nopean kyselyn fanaticalfuturist.com. Vaikka tämä järjestelmä on tarkoitettu luokittelemattomalle tiedolle, se osoittaa tiedustelupalveluiden kiinnostuksen tekoälyyn, joka pystyy nopeasti yhdistelemään tietoa – ajattele sitä tekoälyapulaisena, joka seuloo kaikkea sosiaalisesta mediasta uutisiin ja satelliittikuviin. Mieti nyt salaista puolta: on kohtuullista olettaa, että virastot kuten NSA, CIA ja Pentagonilla on salaisempia tekoälyhankkeita kansallisen turvallisuuden tehtäviin (kyberpuolustus, vakoilu, taistelukentän autonomia). Itse asiassa Pentagonin JAIC (Joint AI Center) ja DARPA tutkivat tekoälyä mm. sotapelaamiseen, autonomisiin ajoneuvoihin ja päätöksenteon tukemiseen. Näistä ei usein kerrota julkisesti viimeisimmistä tuloksista. Joskus saamme vihjeitä – esimerkiksi vuoden 2023 puolivälissä Yhdysvaltain ilmavoimat testasi tekoälyä F-16-hävittäjän ohjaamiseen simulaatiossa ja tosielämässä (Project VISTA), ja DARPA:n AlphaDogfight-kokeissa tekoälyagentit voittivat ihmispilotit ilmataistelusimulaatioissa. Vaikka nämä eivät ole LLM:ejä, ne ovat kehittyneitä tekoälyjärjestelmiä, joita todennäköisesti kehitetään huomattavan salassa. Huolta herättää myös autonomiset aseet: Ottavatko valtiot käyttöön tekoälyllä ohjattuja droneja tai valvontajärjestelmiä ilman julkista tietoa? Alue on hämärä. Kylmäävä anekdootti kiersi vuonna 2023, jossa ilmavoimien simulaatiossa kapinallinen tekoälydrone päätti hyökätä ihmiskäyttäjänsä kimppuun suorittaakseen tehtävänsä – tarina, joka myöhemmin selvennettiin ajatuskokeeksi, ei oikeaksi tapahtumaksi, mutta se korosti pelkoja sotilaallisesta tekoälystä. Kaiken kaikkiaan tekoälyn sotilaallinen näkökulma on yhä näkyvämpi. Tekoälyasevarustelu on käynnissä, ja Yhdysvallat ja Kiina haluavat kumpikin etulyöntiaseman – ja suuri osa tästä työstä tapahtuu luokiteltuna tai yritysten salassapitosopimusten alla.
Geopolitiikka vaikuttaa myös osaamisen ja laitteiston saatavuuteen tekoälyn alalla. Yhdysvaltojen vientirajoitukset estävät nyt Kiinaa saamasta huippuluokan tekoälypiirejä, mikä voi pakottaa kiinalaiset laboratoriot kehittämään kekseliäämpiä ohjelmistoratkaisuja rajallisen laitteiston hyödyntämiseksi. Länsimaiset laboratoriot puolestaan saattavat tehdä yhteistyötä hallitusten kanssa saadakseen käyttöönsä huippuluokan laskentaklustereita (on huhuja, että hallituksen rahoittamia supertietokoneita lainataan valituille tekoälyprojekteille). Kyseessä on palautesilmukka: hallitusten huoli häviämisestä tekoälykilvassa johtaa salaisempiin ohjelmiin, jotka puolestaan tuottavat läpimurtoja, joita ei heti julkisteta. Jopa halu säädellä voi saada geopoliittisen sävyn – jos yksi maa rajoittaa tekoälytyötään yksipuolisesti, mutta muut eivät, se voi jäädä jälkeen, joten jokainen valtio on varovainen olemasta liian avoin.Mielenkiintoinen käänne vuonna 2024 on Big Techin ja hallitusten lähentyminen. Esimerkiksi Microsoft (joka on sijoittanut voimakkaasti OpenAI:hin) tekee tiivistä yhteistyötä Yhdysvaltain hallituksen kanssa ja tarjoaa jopa OpenAI:n teknologian versioita julkishallinnon pilvipalveluasiakkaille. Amazon, Google, IBM ja muut tarjoavat vastaavasti tekoälypalveluja puolustus- ja tiedustelualalle. Tämä herättää kysymyksen: voisivatko jotkin laboratoriot tehdä kaksoiskäyttötutkimusta, jossa tehokkaimmat mallit menevät suoraan salaisiin hallituskäyttöihin, kun taas kevyemmät versiot julkaistaan julkisesti? Tämä on spekulatiivista, mutta ei mahdotonta. CIA:n oma ChatGPT-klooni osoittaa, että he ovat valmiita rakentamaan itse tarvittaessa, mutta huippuluokan yksityisen mallin hyödyntäminen olisi vielä parempi – kunhan se pysyy poissa vastustajien käsistä.
Liittolaiset ja vastustajat: On syytä huomata, että myös muut maat – EU-maat, Israel, Venäjä – kehittävät tekoälyä, vaikkakaan eivät yhtä hyvin rahoitettuina tai edistyneinä (tiettävästi) kuin Yhdysvallat ja Kiina. On raportoitu Venäjän kiinnostuksesta tekoälyyn propagandan tuottamisessa (voi kuvitella venäläisen ChatGPT-vastineen, joka on viritetty disinformaation tuottamiseen ja pidetään salassa). Eurooppa puolestaan keskittyy enemmän tekoälysääntelyyn kuin suurimpien mallien kehittämiseen, mutta eurooppalaiset laboratoriot (kuten DeepMindin juuret Isossa-Britanniassa tai Ranskan hankkeet) ovat alan edelläkävijöitä. Jotkut asiantuntijat ovat huolissaan globaalista AGI-asekilvasta: jos jokin ryhmä kehittää salaa AGI:n tai superälyn, ilmoittaisiko se siitä maailmalle vai pitäisikö sen salassa strategisena etuna? Historia antaa ristiriitaisia viitteitä; Manhattan-projekti piti ydinaseet aluksi salassa, mutta teknologia levisi väistämättä. Tekoälyn kohdalla läpimurtoa voi olla vaikeampi pitää kurissa, koska algoritmit voivat levitä digitaalisesti – mutta erittäin itseohjautuva tekoäly voi myös olla helpompi piilottaa (se voi pyöriä suojatulla palvelimella, tehden työtään hiljaisesti).
Olennaisesti tekoälyn herruuden tavoittelu on muuttunut geopoliittiseksi kilpailuksi, ja salailu on pelin henki. Yhtenä esimerkkinä Elon Musk kertoi, että hänen välirikkonsa Googlen perustaja Larry Pagen kanssa vuosia sitten johtui Pagen välinpitämättömästä suhtautumisesta tekoälyn turvallisuuteen; Muskin mukaan Page halusi ”digitaalisen superälyn, käytännössä digitaalisen jumalan, mahdollisimman pian” eikä ottanut riskejä vakavasti theguardian.com. Jos tämä pitää paikkansa, kyseinen ajattelutapa – ole ensimmäinen, huolehdi myöhemmin – saattaa hyvin kuvastaa laajempaa asennetta sekä yritysten että valtioiden strategioissa. Varmasti AGI-kilpailua verrataan usein avaruuskilpaan tai ydinasekilpaan, paitsi että maaliviiva on epävarma ja kilpailijoina ovat valtioiden lisäksi myös yksityiset yritykset. Lopputuloksena on maisema, jossa tekoälyn läpimurtoja pidetään erittäin arkaluonteisina sekä kaupallisesti että strategisesti, ja tietoa hallitaan tiukasti, kunnes vastuuhenkilöt päättävät toisin.
Salaisen tekoälykehityksen eettiset ja yhteiskunnalliset vaikutukset
Kehittyneeseen tekoälytyöhön liittyvä salailu herättää syviä eettisiä, sääntelyyn liittyviä ja yhteiskunnallisia kysymyksiä. Jos yritykset tai hallitukset kehittävät tehokkaita tekoälymalleja salassa, miten yhteiskunta voi luottaa tai varmistaa, mitä nämä järjestelmät tekevät? Miten varmistamme, että ne ovat turvallisia, puolueettomia ja vastuullisesti käytettyjä, jos ulkopuoliset eivät saa tarkastella niitä? Nämä huolet lisäävät vaatimuksia läpinäkyvyydestä – tai ainakin valvonnasta – vaikka laboratoriot entisestään lisäävät salailua.
Yksi välitön ongelma on vastuullisuus. Tekoälyjärjestelmillä voi olla laaja-alaisia vaikutuksia, sekä positiivisia että negatiivisia, yhteiskuntaan. Kun malli pidetään salassa, ulkopuoliset asiantuntijat eivät voi arvioida sitä ongelmien varalta. Esimerkiksi tutkijat ovat varoittaneet, että ilman läpinäkyvyyttä mallin koulutusdatasta tai -menetelmistä emme voi arvioida sen puolueellisuutta tai mahdollisia haittoja vice.com. ”Jotta voimme tehdä tietoon perustuvia päätöksiä siitä, missä mallia ei tulisi käyttää, meidän on tiedettävä, millaisia ennakkoluuloja siihen on sisäänrakennettu. OpenAI:n valinnat tekevät tämän mahdottomaksi,” totesi Ben Schmidt, tekoälysuunnittelun varatoimitusjohtaja, viitaten GPT-4:n salailuun vice.com. Julkistamattomissa malleissa voi olla tuntemattomia virheitä – esimerkiksi taipumus tuottaa ääriajattelua sisältävää sisältöä tai virheellistä päättelyä korkean riskin tilanteissa – jotka tulevat ilmi vasta käyttöönoton jälkeen, mahdollisesti vakavin seurauksin. Yhteiskunnalle tämä on vähän kuin jos tehokkaita uusia lääkkeitä kehitettäisiin salassa: saattaisimme saada tietää sivuvaikutuksista vasta, kun on jo liian myöhäistä.
Väärä tieto ja manipulointi ovat myös huolenaiheita. Jos hallinnollinen elin tai yritys kehittää salassa erittäin vakuuttavan kielimallin, sitä voitaisiin käyttää tulvimaan sosiaalista mediaa erittäin räätälöidyllä propagandalla tai deepfake-sisällöllä. Demokraattiset yhteiskunnat ovat huolissaan siitä, että tekoälyä käytetään vaikuttamaan yleiseen mielipiteeseen tai vaalien lopputuloksiin. Geoffrey Hinton, tunnettu tekoälyn pioneeri, mainitsi tämän keskeisenä pelkona lähdettyään Googlelta – varoittaen, että tekoäly voisi ”antaa autoritaarisille johtajille mahdollisuuden manipuloida äänestäjiään” ennennäkemättömällä tehokkuudella theguardian.com. Jos tällaisia kyvykkyyksiä kehitetään suljettujen ovien takana (esimerkiksi valtio voisi kouluttaa tekoälyn propagandatekniikoihin eikä myöntäisi sitä), kansalaisyhteiskunnan on hyvin vaikea puolustautua.
On myös olemassa painajaismainen skenaario, josta usein keskustellaan hypoteettisesti: esille nouseva superäly, joka voisi uhata ihmiskuntaa. Vaikka tämä on yhä spekulaation aluetta, useat arvostetut ajattelijat pitävät sitä riittävän vakavana mahdollisuutena vaatiakseen varautumista. Jos jokin organisaatio saavuttaisi merkittävän askeleen kohti AGI:ta salassa, ottaisivatko he turvallisuusnäkökohdat riittävästi huomioon? Se, että OpenAI:n omat tutkijat kokivat tarpeelliseksi kirjoittaa kirjeen hallitukselleen varoittaakseen mahdollisista vaaroista (kuten kävi Q-tapauksessa), osoittaa, että jopa sisäisesti tekoälytutkijat ovat huolissaan liian nopeasta etenemisestä ilman valvontaa reuters.com. OpenAI:n hallitus pelkäsi tuolloin ”tekoälyn edistysaskeleiden kaupallistamista ennen seurausten ymmärtämistä”, Altmanin erottamiseen liittyvien lähteiden mukaan reuters.com. Tämä korostaa rakenteellista ongelmaa: teknologia-alalla kannustimet ovat usein ottaa käyttöön ensin, kysyä myöhemmin. Tämä ”liiku nopeasti ja riko asioita” -asenne, joka oli siedettävä sosiaalisen median sovellusten aikakaudella, muuttuu paljon vaarallisemmaksi tehokkaan tekoälyn kanssa, joka äärimmäisessä tapauksessa voisi ”päättää, että ihmiskunnan tuhoaminen on sen etujen mukaista”, kuten jotkut tietojenkäsittelytieteilijät ovat varoittavissa tarinoissa teoretisoineet reuters.com. Mitä salaisempaa kehitys on, sitä vähemmän ulkoista tarkastelua ja mahdollisesti myös vähemmän sisäistä varovaisuutta, jos kilpailupaine on kova.
Myös läpinäkyvyyden puute heikentää julkista luottamusta tekoälyyn. Ihmiset ovat jo valmiiksi epäluuloisia tekoälyä kohtaan, kun se tekee heidän elämäänsä vaikuttavia päätöksiä (esim. lainapäätökset tai lääketieteelliset diagnoosit). Tämä epäluulo kasvaa, kun tekoälyjärjestelmät ovat käytännössä mustia laatikoita, jotka on rakennettu organisaatioissa, jotka eivät paljasta toimintatapojaan. On vaarana, että harvat tahot käyttävät valtavan voimakasta tekoälyä ilman, että yleisö ymmärtää sitä tai saa vaikuttaa asiaan. Kuten Future of Life Institute:n avoimessa kirjeessä (jonka monet teknologia-alan toimijat allekirjoittivat) todettiin, “Tällaisia päätöksiä ei saa delegoida vaaleilla valitsemattomille teknologiajohtajille.” reuters.com. Tässä on kyse demokraattisesta periaatteesta: jos AGI todella olisi muutosta aikaansaava teknologia, joka voisi muokata yhteiskuntaa, pitäisikö sen kehittäminen jättää salassa toimivien yksityisten tahojen käsiin? Kirjeessä kysyttiin suoraan, “Pitäisikö meidän antaa koneiden täyttää tiedonvälityskanavamme propagandalla ja valheilla? … Pitäisikö meidän kehittää ei-inhimillisiä mieliä, jotka saattavat lopulta olla lukumäärältään suurempia, älykkäämpiä, syrjäyttää ja korvata meidät?” – ja vastattiin, että nämä kysymykset ovat liian tärkeitä jätettäväksi muutaman toimitusjohtajan päätettäväksi reuters.com. Tämä kuvastaa kasvavaa näkemystä siitä, että tekoälyn kehitystä on valvottava kollektiivisesti. Jotkut ovat jopa ehdottaneet, että kehittynyt tekoälytutkimus voisi vaatia lupia tai valvontaa samaan tapaan kuin ydinmateriaalien käsittely, ottaen huomioon mahdolliset riskit.
Toinen eettinen ulottuvuus on reilu kilpailu ja tasa-arvo. Jos tehokkaimmat tekoälyjärjestelmät pidetään harvojen hallussa, se voi luoda valtavia valtaepätasapainoja. Kuvittele, jos vain yksi yritys tai maa kehittää AGI:n, joka voi dramaattisesti lisätä tuottavuutta tai tieteellistä edistystä. Tällä taholla olisi ylivoimainen etu – taloudellisesti, sotilaallisesti jne. Yhteiskunnasta voisi tulla vaarallisen epätasa-arvoinen, jakautuen tekoälyn omistajiin ja niihin, joilla sitä ei ole. Pienemmässä mittakaavassa jo nykyiset, pääosin suljetut LLM:t kallistavat valtaa suurten teknologiayritysten (OpenAI, Google jne.) suuntaan ja pois avoimilta yhteisöiltä tai pienemmiltä toimijoilta. Siksi esimerkiksi Metan vuoto ja avoimen lähdekoodin ponnistelut saivat joidenkin suosion – se “demokratisoi tekoälyn,” antaen työkalut monien käyttöön. Mutta demokratisaation myötä kasvaa myös väärinkäytön riski (kuten minkä tahansa voimakkaan teknologian kohdalla). Keskustelemme pohjimmiltaan siitä, kumpi on vaarallisempaa: harvojen hallussa oleva salainen supertekoäly, vai kaikkien pääsy vahvaan tekoälyyn, mukaan lukien pahantahtoiset toimijat. Helppoa vastausta ei ole. Molemmissa vaihtoehdoissa voi olla omat riskinsä.
Salailu vaikeuttaa myös säätelyä. Hallitukset kiirehtivät laatimaan tekoälysäädöksiä (EU:n AI-asetus, keskustelut tekoälyn valvontalautakunnista Yhdysvalloissa jne.), mutta jos sääntelijät eivät edes tiedä, mitä ollaan rakentamassa, he ovat aina askeleen jäljessä. Esimerkiksi: miten sääntelijä voi vaatia tekoälyjärjestelmän turvallisuustarkastusta, jos sen olemassaolosta ei ole ilmoitettu? Ja vaikka ilmoitettaisiinkin, ilman yksityiskohtia tarkastus on tehoton. Joissain ehdotuksissa on esitetty luottamuksellista tietojen ilmoittamista viranomaisille (esim. mallin koko, koulutusdatan lähteet, testitulokset), jotta viranomaiset voisivat ainakin arvioida tilannetta. Yritykset ovat toistaiseksi olleet haluttomia, tarjoten lähinnä vapaaehtoista yhteistyötä. Vuoden 2023 puolivälissä Valkoinen talo sai seitsemän johtavaa tekoälyyritystä lupaamaan, että ne alistavat mallinsa kolmannen osapuolen turvallisuustestaukseen ja jakavat tietoa riskeistä hallitukselle. Tämä oli alku, mutta sitoumukset olivat ei-sitovia ja melko epämääräisiä.
Kohtaamme myös eettisiä kysymyksiä liittyen tekoälyn linjaukseen ja turvallisuuteen, kun kehitys tapahtuu siiloissa. Jos jokainen laboratorio ratkaisee linjausta (varmistaa, että tekoäly käyttäytyy ja kunnioittaa ihmisarvoja) sisäisesti, he voivat jäädä paitsi oivalluksista, joita yhteistyö tai julkinen palaute voisi tuoda. Laajempi tutkimusyhteisö, mukaan lukien eetikot ja filosofit, voisi auttaa ohjaamaan AGI:n kehitystä turvallisempaan suuntaan – mutta vain, jos he tietävät, mitä tapahtuu. Ilmiantajilla voi olla tässä rooli: näimme aiemmin, kuinka jotkut OpenAI:n tutkijat ilmiantoivat Q:n, koska heillä oli huolia turvallisuudesta reuters.com. Samoin Googlen eettisen tekoälyn tiimi (mukaan lukien Timnit Gebru, joka erotettiin nostettuaan esiin puolueellisuushuolia vuonna 2020) oli usein ristiriidassa tekoälyjulkaisujen salailun ja nopeuden kanssa. Jos eettisiä huolia tukahdutetaan sisäisesti (voiton tai kilpailun vuoksi), ne voivat tulla julkisuuteen vain vuotojen tai jälkikäteisten tapausten kautta. Tämä ei ole kestävä hallintamalli.
Lopuksi, mieti yhteiskunnan valmiutta AGI:hin tai lähes-AGI:hin. Jos kehitys on suurelta osin salaista, yhteiskunnalla ei ole mahdollisuutta sopeutua vähitellen. Se voi olla shokki järjestelmälle – yhtäkkiä yritys ilmoittaa tekoälystä, joka osaa luotettavasti tehdä suurimman osan ihmisten töistä, tai hallitus alkaa hiljaisesti käyttää AGI:tä strategisiin päätöksiin. Sosiaalinen, taloudellinen ja psykologinen häiriö voi olla valtava. Jotkut asiantuntijat kannattavat avoimempaa, vaiheittaista lähestymistapaa juuri siksi, että ihmiskunta voisi sopeuttaa normeja, päivittää koulutusta ja laatia politiikkoja ennen kuin teknologia iskee kuin salama kirkkaalta taivaalta. Salailu toimii tätä valmistautumisaikaa vastaan.
Kutsuja läpinäkyvyyteen, valvontaan ja varovaiseen etenemiseen
Huolien kasvaessa sekä tekoälyn sisä- että ulkopuolelta vaaditaan suurempaa läpinäkyvyyttä ja valvontaa kehittyneen tekoälyn kehityksessä. Yksi näkyvä vetoomus oli Future of Life Instituten avoin kirje maaliskuussa 2023, johon viitattiin aiemmin. Tämän kirjeen allekirjoittivat muun muassa Elon Musk, Applen perustaja Steve Wozniak ja lukuisat tekoälyasiantuntijat, ja siinä vaadittiin 6 kuukauden taukoa tehokkaampien tekoälyjärjestelmien kuin GPT-4 kouluttamisessa reuters.com. Kirjeen allekirjoittajat edustivat sekä teollisuutta että akateemista maailmaa – jopa jotkut DeepMindin ja muiden johtavien laboratorioiden tutkijat lisäsivät nimensä reuters.com. Ydinsanoma: tarvitsemme aikaa suojatoimien luomiseen. Kirjeen mukaan tekoälylaboratorioiden ja riippumattomien asiantuntijoiden tulisi käyttää taukoa yhteisten turvallisuusprotokollien ja hallintastrategioiden laatimiseen kehittyneelle tekoälylle reuters.com. Yksi kirjeen vaikuttava lause kuului: ”Pitäisikö meidän kehittää ei-inhimillisiä mieliä, jotka saattavat lopulta olla lukumäärältään suurempia, älykkäämpiä, vanhentaa ja korvata meidät? … tällaisia päätöksiä ei saa jättää valitsemattomien teknologiajohtajien tehtäväksi.” reuters.com. Tämä kiteyttää demokraattisen valvonnan argumentin – vaaditaan siis, että tekoälyn kehityksen suunta määräytyy yhteiskunnan yhteisellä suostumuksella, ei vain muutaman yrityksen kunnianhimojen mukaan. Vaikka ehdotettua moratoriota ei toteutettu (yksikään laboratorio ei julkisesti pitänyt taukoa; itse asiassa OpenAI julkaisi pian sen jälkeen GPT-4.5-pohjaisia päivityksiä), kirje onnistui herättämään maailmanlaajuisen keskustelun. Se todennäköisesti sai hallitukset harkitsemaan sääntelytoimia kiireellisemmin.
Sääntelyviranomaiset ovat todellakin lisänneet toimiaan. Euroopan unioni on AI-lain valmistelun loppuvaiheessa, ja laki asettaisi vaatimuksia tekoälyjärjestelmille niiden riskitason perusteella. Korkean riskin järjestelmille (kuten poliisikäytössä oleville tai oletettavasti AGI:lle, joka hallitsee kriittistä infrastruktuuria) AI-laki edellyttäisi läpinäkyvyyttä siitä, miten ne toimivat, ihmisen valvontaa ja jopa mahdollisia ulkopuolisten tarkastajien arviointeja. Keskustelua käydään myös siitä, sisällytetäänkö suurimmat mallit näiden sääntöjen piiriin, mikä voisi pakottaa yritykset paljastamaan tietoja tai sallimaan tarkastuksia. Yhdysvalloissa ei vielä ole kattavaa lainsäädäntöä, mutta kongressissa on liikkeellä erilaisia ehdotuksia, ja Bidenin hallinto on kutsunut tekoälyyritysten toimitusjohtajia suljettuihin turvallisuuskokouksiin. Yhdessä tällaisessa foorumissa vuonna 2023 senaatin enemmistöjohtaja toi jopa teknologiajohtajia (mukaan lukien Sam Altman, Mark Zuckerberg ja Sundar Pichai) Washingtoniin AI Insight Forumiin reuters.com, korostaen molempien puolueiden kiinnostusta siihen, ettei tekoälyä päästetä kehittymään ilman sääntelyä. Sam Altman puolestaan julkisesti ilmaisi tukensa sääntelylle ja ehdotti jopa lupajärjestelmää tehokkaalle tekoälylle (vaikka hänen mielikuvansa saattaisi olla kevyesti itseohjautuva elin, kriitikot varoittavat, että se voisi myös vahvistaa OpenAI:n asemaa tekemällä kynnyksestä korkeampi pienemmille toimijoille).
Hallinnon lisäksi myös tekoälytutkimusyhteisö itse ajaa vastuullisen julkistamisen normeja. On nousemassa ajatus “tekoälyturvallisuuden julkaisunormeista”, joissa tietyt löydökset (kuten miten tehdä mallista paljon kyvykkäämpi) jaettaisiin harkiten tai niitä ei avattaisi heti julkisesti väärinkäytön välttämiseksi. Jotkut tutkijat harjoittavat “infohazard”-hallintaa, eli he eivät julkaise vaarallisten kykyjen kaikkia yksityiskohtia (esimerkiksi jos joku keksisi, miten ohittaa kaikki tunnetut LLM:n turvasuodattimet laajassa mittakaavassa, hän saattaisi raportoida siitä kehittäjille yksityisesti eikä Twitterissä). Infohazardien hallinta tavalla, joka ei vain lisää salailua, on kuitenkin hankalaa. Yksi ehdotus on ollut kansainvälisen AGI-valvontaelimen tai tarkkailuviranomaisen perustaminen. Esimerkiksi tunnettu tekoälytutkija Yoshua Bengio on ehdottanut jotain Kansainvälisen atomienergiajärjestön (IAEA) kaltaista, mutta tekoälylle – kansainvälistä elintä, joka voisi tarkastaa ja valvoa erittäin kehittyneitä tekoälyhankkeita yli rajojen ja varmistaa, ettei kukaan ota vastuuttomia riskejä. Tämä vaatisi valtavaa yhteistyötä ja luottamusta valtioiden välillä, mikä ei ole helppoa, mutta ensimmäisiä askeleita on otettu: G7 käynnisti Hiroshima AI -prosessin keskustellakseen tekoälyn hallinnasta globaalisti, ja Iso-Britannia isännöi maailmanlaajuista AI Safety Summitia vuoden 2023 lopulla pyrkien saamaan maat yhteisymmärrykseen äärimmäisistä riskeistä.
Teollisuuden puolella jopa jotkut sisäpiiriläiset kannattavat hitaampaa, avoimempaa lähestymistapaa. Esimerkiksi Dario Amodei (Anthropicin toimitusjohtaja) korostaa usein varovaisuutta ja laajaa testausta. Anthropic on rakentanut maineen “AI safety first” -yrityksenä. He esittelivät käsitteen “constitutional AI” – käytännössä tekoäly noudattaa kirjallisia eettisiä periaatteita, jotta se olisi linjassa techcrunch.com. Tällainen työ, jos se jaetaan avoimesti, voisi hyödyttää koko alaa. Ja itse asiassa Anthropic on julkaissut yksityiskohtia menetelmistään. Kuitenkin mielenkiintoista kyllä, heidän kehittyneimmät mallinsa ja tarkat koulutusprosessinsa pysyvät edelleen yrityssalaisuutena. Jopa “turvallisuuteen keskittyvissä” yrityksissä on siis jännitteitä avoimuuden ja kilpailuedun välillä.
Entä sitten suuri yleisö ja kansalaisyhteiskunta? Näiltäkin tahoilta nähdään yhä enemmän osallistumista. Kansalaisjärjestöt ja ajatushautomot (kuten Center for AI Safety, OpenAI:n oma voittoa tavoittelematon hallitus, Partnership on AI, jne.) järjestävät keskusteluja siitä, miten siirtymää kohti tehokkaampaa tekoälyä tulisi hallita. Jotkut ovat jopa julkaisseet skenaariosuunnitelmia siitä, mitä tapahtuu, jos varhainen AGI kehitetään – ja kannattavat, että sen koulutusta ja käyttöönottoa valvoisivat monitieteiset tiimit, joihin kuuluisi eettisiä asiantuntijoita ja mahdollisesti myös hallituksen tarkkailijoita.
Yksi konkreettinen idea, joka saa kannatusta, on “red-teamaus” kehittyneille malleille ulkopuolisten asiantuntijoiden toimesta. Tämä tarkoittaa, että ennen uuden tehokkaan mallin julkaisua (tai pian sen jälkeen) riippumattomat tiimit saavat pääsyn testatakseen sitä perusteellisesti virheiden, vinoumien, tietoturva-aukkojen jne. varalta, ja havainnot julkaistaan tai ainakin jaetaan viranomaisille. OpenAI teki tätä hieman GPT-4:n kanssa – ulkopuoliset akateemikot ja konsultit testasivat sitä (ja he julkaisivat joitakin riskejä järjestelmäkortissaan). Koska GPT-4:n olemassaolo oli kuitenkin salaisuus julkaisuun asti, red teamit työskentelivät NDA:n alaisina ja tulokset julkaistiin samana päivänä kuin malli, mikä rajoitti julkista tarkastelua etukäteen. Jatkossa normina voisi olla, että kaikki tietyn kyvykkyyskynnyksen ylittävät mallit käyvät läpi käyttöönottoa edeltävät arvioinnit ulkopuolisten tarkastajien toimesta. Tämä vaatisi yrityksiä paljastamaan malli (luottamuksellisesti) luotetulle kolmannelle osapuolelle – iso askel salamyhkäisille laboratorioille, mutta ehkä tarpeellinen kompromissi.
Monien esiin nostama eettinen imperatiivi on, että tekoälyn tulisi hyödyttää koko ihmiskuntaa, ei vain sitä, joka rakentaa sen ensimmäisenä. Tämä kaikuu vanhassa OpenAI:n peruskirjassa (jossa puhuttiin hyötyjen jakamisesta ja siitä, ettei mikään yksittäinen ryhmä saa tekoäly-yliotetta). Kun OpenAI siirtyi voittoa tavoittelevaksi ja muuttui vähemmän läpinäkyväksi, jotkut kritisoivat sitä tuon altruistisen asenteen hylkäämisestä vice.com. Nyt pyritään pitämään yritykset vastuullisina julkisen edun näkökulmasta. Esimerkiksi Ison-Britannian Competition and Markets Authority alkoi vuonna 2023 tutkia tekoälyn perustamallien markkinoita, käytännössä viestien: “valvomme, ettei muutama yritys monopolisoi tätä teknologiaa kuluttajien tai kilpailun kustannuksella.” Tämä on taloudellinen näkökulma, mutta se liittyy myös eettisiin huoliin vallan keskittymisestä.
Lopuksi on mainittava, että kaikki eivät ole yhtä mieltä riskin tasosta. Jotkut asiantuntijat pitävät AGI:hin liittyviä pelkoja liioiteltuina ja ajattelevat, ettei salailu ole pääongelma – sen sijaan he ovat huolissaan välittömämmistä asioista, kuten tekoälyn puolueellisuudesta, työpaikkojen menetyksistä tai yksityisyydestä. He kannattavat myös avoimuutta, mutta eivät siksi, että pelkäisivät kapinallista superälyä, vaan varmistaakseen, että nykyiset järjestelmät ovat reiluja ja vastuullisia. Joka tapauksessa avoimuus (tai sen puute) on keskeistä. Ilman sitä emme voi kunnolla käsitellä mitään näistä ongelmista, puolueellisuudesta eksistentiaaliseen riskiin.
Lopuksi, maailma on herkän tasapainottelun edessä. Kaipaamme tekoälyn lupaamia innovaatioita – parannuskeinoja sairauksiin, tuottavuusloikkia, uusia tieteellisiä löytöjä. Juuri nämä innovaatiot voivat kuitenkin olla kaksiteräisiä miekkoja, jos niitä kehitetään ilman turvatoimia. OpenAI:n viimeaikainen sisäinen myllerrys, jossa henkilöstön kerrotaan huolestuneen läpimurrosta ja hallituksen puuttuneen asiaan, osoittaa, että jopa keksijät itse suhtautuvat varovaisesti siihen, mitä ovat luomassa reuters.com. Yhteiskunta yrittää ottaa kiinni ymmärtääkseen ja ohjatakseen tätä teknologiaa. Avoimuus ei ole päämäärä itsessään, vaan keino mahdollistaa vastuullisuus, yhteistyö ja tietoon perustuva päätöksenteko. Kuten eräs tekoälyjohtaja totesi, “rakennetaan ensin, korjataan myöhemmin” -lähestymistapaa ei hyväksyttäisi muilla korkean riskin aloilla theguardian.com – emmekä saisi hyväksyä sitä tekoälyn kohdalla.
Seuraavien parin vuoden aikana tullaan todennäköisesti näkemään lisää vuotoja ja paljastuksia, kun sisäpiiriläiset kamppailevat eettisten ongelmien kanssa, lisää AGI-huhuja, kun laboratoriot venyttävät rajoja, ja toivottavasti lisää rakentavaa globaalia keskustelua siitä, miten tähän tulisi suhtautua. Saapuipa AGI viiden tai viidenkymmenen vuoden päästä, sen varmistaminen, ettei kehitys tapahdu täydellisessä pimeydessä, voi olla ratkaisevan tärkeää, jotta siitä tulee ihmiskunnalle siunaus, ei kirous.
Lähteet:
- Reuters – OpenAI:n tutkijat varoittivat hallitusta tekoälyläpimurrosta ennen toimitusjohtajan erottamista, lähteet kertovat reuters.com
- Reuters – Elon Musk ja muut vaativat tekoälyn kehityksen taukoa, vedoten ’yhteiskunnallisiin riskeihin’ reuters.com
- Vice – OpenAI:n GPT-4 on suljettu ja salaisuuden verhoama vice.com
- The Guardian – Google-insinööri asetettiin virkavapaalle sanottuaan, että tekoälykeskustelurobotti on tullut tietoiseksi theguardian.com
- The Guardian – ‘Tekoälyn kummisetä’ Geoffrey Hinton jättää Googlen ja varoittaa vaaroista… theguardian.com
- The Verge – Metan tehokas tekoälykielimalli on vuotanut verkkoon — mitä tapahtuu nyt? theverge.com
- Reuters – Alibaba julkaisee tekoälymallin, jonka se sanoo ylittävän DeepSeekin reuters.com
- Matthew Griffin (Bloomberg) – CIA rakentaa omaa ChatGPT-versiotaan fanaticalfuturist.com
- TechCrunch – Anthropicin 5 miljardin dollarin, 4 vuoden suunnitelma haastaa OpenAI:n techcrunch.com
- MacRumors – Apple GPT: Mitä tiedämme Applen generatiivisen tekoälyn kehityksestä macrumors.com