ESIMENE. VÕIMENDUS
Probleem: me räägime tehisintellektist, mõtlemata mis see on
Tehisintellekt häirib naksitrallide tasakaalu nii maal, õhus kui vees, sest kui selle tõeline võimekus meid parasjagu ei hulluta, mõjub kohutavalt hoopis monstrumile loodud kuvand või siis uue ajastu alguse mahamagamise tunnetuslik oht. Teemaga seostub igatahes üht- või teistpidine pakilisus ja palju arusaamu, millega meil siis õigupoolest tegemist on. Need sõltuvad nagu ikka peamiselt sellest, kas pimedale arvajale meeldib näppida oma elevandi tundlikku ja intelligentset londiotsa või on ta juba kimpus toas toimetavate tonniste jalamürakatega.
Mis siis kah on see tehisintellekt?
Selge, et „tehisintellekt“ sõnana hõlmab või vähemalt tähendab inimeste jaoks palju erinevaid asju. Sinna hulka kuulub nii end aastakümneid praktikas tõestanud rakendusi kui ka väliselt küll meheks kasvanud, ent seestpoolt väikeseks poisiks või segaduses teismeliseks jäänud mullimiljardäride fantaasiaid. Selle tõdemuse juures tehisintellekti aruteluobjektina siiski määratleda soovides tuleb välja, et sageli käsitletakse seda tehnoloogiana, mida usutakse olevat midagi inimtaolist – et see on võimeline tegema asju, mis oma olemuselt eeldavad inimlikku tunnetust, otsustusvõimet ja loovust. See populaarne fantaasia masinteadvusest elavneb hõlpsalt seal, kus mitme funktsiooni automatiseerimisvõimekus (nt info klassifitseerimine, automaatotsused või -soovitused) on ühendatud samasse kasutajaliidesesse. Nii on see paljude suurte keelemudelite ja ka massidele kättesaadava tehisintellekti vormi puhul, milles inimlikkuse illusioonile annab ebaproportsionaalse võimenduse keelefunktsioon (nt teksti transkriptsioon, tõlge või genereerimine). Keel on inimeste omavahelise taju mõttes nii tsentraalne, et käsitleme seda genereerivat üksust vaikimisi inimlikuna.
Tehisintellekti kuvandi teine tähtis komponent on, et see on hea tööriist. See on loogiline just seoses eeltooduga, sest domineerima on ju ka inimese toonud vägev mõtlemisvõime mitmekülgse töövahendina. Paraku on tehisintellekti tööriista renomeele end kaasa haakinud ka klassikaline haamriillusioon, et kui meil viimaks ometi on niivõrd hea lahendus, siis küllap eksisteerib igas valdkonnas ka vastav suur probleem, mida sellega – ja ainult sellega – hoogsalt naelutada. Paljudele mõjub tehisintellekti vägevus kõike unustama paneva valgussähvatusena filmist „Mehed mustas“, mille valgusel otsitakse lahendusi isegi seal, kus probleemi polegi. Seda trendi illustreerivad näiteks OpenAI riikide valitsustega tehtavad ulatuslikud koostöölepped, kus on jäetud märkimata, mis probleemi õigupoolest lahendatakse. Kodumaal ennustab Ardo Reinsalu viimaks ometi „tehisaru põhiseid kultuurikompasse, mis [—] aitavad meil leida tee raamatute, muusika, filmide ja kunstiteosteni, mis meid kõnetavad“ (1). Sest seni on inimkond tühja rühmates kaootiliselt mekkinud kord Prousti, kord JMKEd, tunnistanud vaikivas lummas, kuidas aatomite juhusliku ümberpaiknemise tulemusel kerkib Sagrada Familia ja täitub Kumu ning igasuguse kompassita hoidnud maailma tarbimisedetabeli tipus tolle Laulasmaa Arvo. „Äkki ikka oli teadus, kultuur, tekstide kirjutamine jm ka paar-kolm aastat tagasi olemas?“ küsib Tiit Hennoste haruldase tervemõistusliku häälena (2).Nimetatud inimlikkuse mõõtme ja hea tööriista renomee kõrval on tõele au andes paljude huvitatud osaliste jaoks tehisintellekti täpsem määratlemine kasulik kas taotluslikult häguseks jätta või pole suurema selguse loomine isegi parima tahtmise juures võimalik. Sellist olukorda, kus ühiskonna katseklaasis ei saa enam söödet ja kultuuri eristada, tuleb heas laboripraktikas tähistada sõnaga „haip“. Ka eespool toodud üldistus tehisintellektist millegi inimtaolisena on vaid tagumine pool Emily Benderi ja Alex Hanna raamatus „AI-pettus“ („The AI Con“, Harper 2025) (3) toodud määratlusest. Täpsemalt kasutatakse nende järgi tehisintellekti mõistet seal, kus teatud tehnoloogiaid ehitavad või müüvad inimesed saavad sellest kasu, kui teised usuvad, et nende kraam on inimtaoline. Haibi pöördtahk on aga see, et kui sa tehisintellekti erilisust ei usu, siis oled moodsate oskuste põlglik regressiivne ludiit, kelle töö varsti automatiseeritakse. Selline troostitu väljavaade teeb naksitrallid muidugi ärevaks (ingl. k. fear of missing out, FOMO) ning paneb tegutsema.
Rakendajate kasvatamine
Näiteks tõstatatakse oktoobris riigikogu teaduspoliitika konverentsil alapealkirjaga "Riik, inimesed, tehisaru” (4) diskussiooni ärgitamiseks küsimusi „tehismõistuse edukaks rakendamiseks vajalike poliitikate üle“: „Kuidas tagada, et tehisintellekt ei ohustaks demokraatiat ja riiklikku julgeolekut, vaid toetaks nende tugevnemist? Kuidas saame ennetada ohtu, et otsustusõigus ja seega võim kandub üle läbipaistmatutele algoritmidele? Kuidas suunata tehisintellekti arengut nii, et see kujuneks Eesti majanduse konkurentsivõime mootoriks?“ On tänuväärne, et fookuse teravikku on võetud tehisintellekti riskantsed aspektid, ent lõpuks on haip võimukandja siiski segadusse ajanud ja õhku on visatud ka: „Kuidas aidata rohkem inimesi tehismõistust targalt rakendama? Kuidas kasvatada inimesi tehismõistust targalt rakendama?“ Nurjatu probleem: kuidas õnnestuks "aidata ja kasvatada" kodanikke rakendama tehnoloogiat, mille praegusest funktsionaalsusest oskame välja tuua, et see võib ohustada demokraatiat ja riigi julgeolekut ning et võim võib kanduda läbipaistmatutele algoritmidele?
FOMO-hüpe
Kui kõik lahedad lapsed kasutavad AI-d ja see igal juhul on tehnoloogia, mille senine puudumine on kõigi meie hädade juurpõhjus, siis ei ole pääsu veendumusest, et parim, mida teha, on välistada võimalus, et ühiskond seda ei kasuta. Idee tehisintellektist vältimatu universaalse töövahendina lõi kodumaa kevades õitsema seal, kus rahvale „parimat õpitehnoloogiat“ soovides (5) lükati liikuma TI-hüppe algatus. Kahtlemata on globaalne tehisintellekti laine väikse Eesti niikuinii juba kaasa tõmmanud ning kõik selle vääramatu jõu toodud ja loodud hea ja halb jõuab meieni igal juhul, hoiatab TI-hüppe nõukogu liige Oleg Shvaikovsky (6). Siiski on TI-hüppel erakordne potentsiaal selle stiihia mõju väikses õhukeses ühiskonnas võimutasandilt tagant utsitamisega võimendada.
Nagu Tartu ülikooli infovastupidavuse nooremteadur Diana Poudel tähelepanu juhib, on tegemist mitmekordse õnnemänguga (7). Otsus anda mõnele suurkorporatsioonile võimalus Eesti noorte peal katsetada, kas uue eksperimentaalse tehnoloogia näol ikkagi on tegemist „parima“ või üleüldse õpitehnoloogia potentsiaaliga nähtusega, on väga julge samm. Karta on, et meil on kordades rohkem tõendusmaterjali isegi Jürgen Rooste pakutud (8) „täitsa ilma tehisintellektita“ teekonna kohta parima õpitehnoloogiana. Kujutlegem hetkeks hariduse suure prioriteedina hoopis kirjandust ja laiendatuna inimeseõpetust ning sellel veendumusel põhinevat ühendavat pingutust, et kõik gümnasistid saaksid väikestes rühmades üheskoos arutada seda, mis teeb meist inimese. Tehisintellekti kasutamisele eelnevaid haridusvajadusi – enesetunnetus, tundekasvatus, loodustunnetus, eetika ja identiteediteema, mida kõike saab õpetada vaid teine inimene, on rõhutanud Marju Lauristin (9), mõtlemisõpetuse, filosoofia ja eetika õppekavade keskmesse toomise vajadust on kirjeldanud ka emakeeleõpetaja Karl Pütsepp (10), kelle meelest hõlmab see ka tehisintellekti ja seda arendavate eraettevõtete huvide varjukülgede avamist.
Ent mingil veidral põhjusel näime praegu olevat teinud teistsuguse valiku ja inimesena arenemise väljavaate asemel peame küsima, kuidas kasutusele võetavad tehisintellektimudelid sihikule võetud põlvkondade mõtlemist ja suveräänsust mõjutama hakkavad. Tehisintellekt aitab neid, kes seda kontrollida suudavad, arutleb akadeemik Dan Bogdanov (11). Et aga seda – nagu iga teist asja – käsutab ikka see, kellele asi kuulub, on tehisintellekti praeguse kuvandi sisse sedavõrd kõhedust tekitavalt hästi ära peidetud, et samal arukustasemel levib ka arvamus, et seda „võivad käsutada kõik“ (12). Siiski – kui pole kokku lepitud teisiti, sõltub see, mida kasutaja teha saab, omaniku äri- ja disainivalikutest. Täpselt nõnda, nagu Facebooki äri- ja disainivalikud on soosinud noorte kehakuvandi häireid (13) ja genotsiidi (14).
Seni kuni me pole saanud põhjalikult uurida TI-hüppe raames sõlmitavaid lepinguid Eesti riigi ja valitud tehisintellektimudeli(te) omanike vahel, tuleb siiski arvestada, et riik võimendab mitmesuguseid tehisaru üle kontrolli puudumisest tulenevaid riske. Missugused piirangud seatakse AI-mudeli omaniku õigusele mudelit vastavalt oma vajadustele suunata? Halvimal juhul (mööndes, et ma tegelikult ei kujuta ilmselt ette, mis on tõeliselt halvim) tähendab see midagi sellist, nagu lubas ühe tehisintellektimudeli omaniku Elon Muski jaanipäeva-aegne postitus (15) – „kogu inimkonna teadmistepagasi kriitilist ümberkirjutamist puuduva info lisamiseks ja vigade kustutamiseks“, et oma AI-mudel Grok siis sellel ainult „tõelisele tõele“ tugineval keelekorpusel ümber treenida ja inimkonnale õige mõtlemise kujundamiseks tagasi kinkida. „Kes vastutab, miks mudel küsimuste peale just niisuguseid vastuseid (või suuniseid) annab?“ küsib Cybernetica vanemteadur Jan Willemson (16).
Õnneks juhtusin kuulma, kuidas neuroteadlane Jaan Aru ütles, et TI-hüppe eesmärk peaks olema, et inimene ei jääks AI-st sõltuvaks (17). Ent selle tagamine näib isegi suurem eksperimentaalne väljakutse kui tehisintellekti tõestamine õpitehnoloogiana. Mugavus on inimlik patt ja tõenäosus suur, et paljud abituriendid lukustuvad just sellesse süsteemi, kuhu riik neid praegu orjaks müüb. Juba on märke selle kohta, kuidas tehisintellekti-ettevõtted kasvatavad oma põhifunktsioonide külge seniste ühismeedia võrgustikega sarnanevaid teenuseid, kuna on selge, et parim viis kasutajate oma platvormile lukustamiseks on neile tegevuste pakkumine ja seeläbi nende profileerimine võimalikult rohke andmekogumise põhjal (18). Tragikoomiliselt on TI-hüppe meediatiim täpselt seda ohtu – et riik kohustab gümnasiste jagama oma mõtlemise arengut puudutavaid andmeid – kirjeldava analüütilise arutluse (19) patroneerivalt tembeldanud: „helilooja Gregor Kulla avab oma hirme“ (20).
Raske on olla julge, kui oled tibatilluke loom, ütles Notsu, ning tuleb kinnitada, et TI-hüpe meenutab praegu ikkagi pea ees tundmatus kohas vette hüppamist. Kõigi väheste gümnasistidega ühekorraga. Kas jääme ratastooli või saame kohapeal surma? Või kerkime ahhetavate kaaslaste silme all elusa ja tervena pinnale, veepiisad hommikupäikese valguses julgel rinnal pärlendamas?
Reaalsus: AI on niigi suure võimu ohtlik fantaasia
Et meie ühiskonnas pole selge, millest me räägime, kui räägime tehisintellektist, illustreerib selle sõna kasutamine üldnimetajana siis, kui selle kohta konverentse korraldame või sellest arenguhüppeid loodame. Meie tehnoloogilise tuleviku kuvandiloome on juba niigi suure võimuga huvipoolte kätes, kes peamiselt räägivad võimalustest ja parimal juhul tõdevad, et riske on ka, aga jätavad need kellegi teise mureks, sest fantaasiate täitumiseks „on usku vaja“. TI-hüpe illustreerib, kuidas lubame teadmata mõjuga eksperimentaalsel tehnoloogial selle ümber loodud fantaasia tõttu koloniseerida kõik, mida eelnevalt sedavõrd väärtustasime, et otsustasime need õppekavadesse toppida ja seal hoida.
Fantaasiad on ohtlikud, kui need satuvad elama inimeste pähe, kelle kätte on koondunud võim. Näeme seda praegu nii paremal kui vasakul, idas kui läänes. Tehisintellekt meeldib võimule, sest võimule meeldib võimendus ja tehisintellekt lubab enneolematut võimendust. Nii on praegu küll erakordselt hõlbus rääkida tehisintellektist, kuna see on kõigil nina all. Aga kogu tehisintellekti reaalse ja potentsiaalse tehnoloogilise võimekuse juures ei ole see ise kõige tähtsam teema, vaid ainult ere illustratsioon, seinal rippuv loosung.
Kõige tähtsam teema on tehnoloogia inimese võimestaja ja võimendajana. Tõele au andes võimendab iga jalgrattale järgnev tehnoloogia üha vähem ja vähem demokraatlikult igaühe enda jõudu ja pingutust ja üha rohkem kellegi teise huve – jättes indiviidi üha passiivsemaks. Nii illustreerib ka AI-temaatika ajatut trendi, kuidas tehnoloogiad on pahatihti erikujulise ja -tujulise (nii avaliku kui eraviisilise) võimu tööriistad üksikisiku allutamiseks (muide, tehnoloogiate vastupidist rakendamist nimetavad paljud võimud terrorismiks). Nii ei võta teie tööd ilmselt ära mitte tehisintellekt, vaid inimesed, kes seda kasutavad ja maailma üle ei hakka ilmselt võimutsema mitte tehisintellekt, vaid inimesed, kes seda omavad ja kontrollivad. See võim võib realiseeruda nii vahetu tööriistana (nagu näiteks autonoomne näotuvastusvõimekusega tapjadroon) kui ka „pehme tööriistana“, nagu on kontroll narratiivi ja sellest tingituna mõtlemise üle.
Kui riigikogu teaduspoliitika konverents neid küsimusi arutab, tuleb teadvustada sedagi, et ohuks demokraatiale võivad saada ka need läbipaistmatud algoritmid, mis kodanikeni jõuavad riiklikult edendatud „parimate õpitehnoloogiate“ vahendusel. Nii illustreerib juba otsus meie ühiseid ressursse TI-hüppesse paigutada Tallinna tehnikaülikooli Ragnar Nurkse instituudi teaduri ja Eesti tuleviku-uuringute instituudi tegevjuhi Johanna Vallistu kirjeldatud ajaloolist mustrit, mille puhul väike rühm tehnoloogiasektori eestvedajaid ja nende mõjukaid toetajaid teeb valikuid, mis sisult ei kuulu nende kompetentsi (21). Paraku pole ime, et selliseid otsuseid on ikka veel lihtne esitada kuvandiloome „eestlased on tehnoloogiarahvas“ väite kastmes, mille sisuks on praeguseks õpitud abitus või omamoodi Stockholmi sündroom – me ei tule enam selle pealegi, et ühiskonna tehnologiseerimise otsused demokraatlikku arutelu eeldaksid.
Mis oleks ühiskondlik reaalsusekontroll?
Tehisintellekti hoogsalt rakendava või sellest fantaseeriva ühiskonna ees seisvate – ehkki praegu arutelude ja projektide ulatusest välja jäävate – küsimuste esitamiseks saaks riigikogus teha eraldi ettelugemispäeva (22). Et need ei ole enam ulmeraamatute valdkond, vaid maailm, mille kohta me peame normaalsuse säilitamise lootuses küsimusi esitama, illustreerib kui sügavale tehisintellekti-vaimustuse/vältimatuse metastaasid ja neist tingitud riskide eiramine ühiskonnas ulatuvad. Ent kas tegeleme küsimusega, missugune on sõnumi inimlikustamiseks rakendatud tehisintellekti keskkonnamõju (23), või küsimusega, kas tõesti soovime, et pettus – panna elutu masin andma inimlikuna näivat väljundit, oleks võimalikult osav?
Mis me ise oleme?
Nii tehisintellekti praeguseks realiseerunud funktsioonid kui ka fantastilised narratiivid mõjutavad seda, kuidas inimene ja inimkond tajub maailma ja iseennast selle sees. Pole isegi tähtis, kas tehisintellekt „mõtlemise abivahendina“ kunagi realiseerub, andes selle omanikule kontrolli kasutajate mõtlemist mõjutada kordades sügavamal tasandil kui ühismeedia. Sest ainuüksi implitsiitse loo keerutamine sellest, justkui inimese enda võimed pole enam piisavalt head, et ilma tehisintellekti abita e-kirja kirjutada, sisukat mõtet sõnastada või et igaüks peaks tehisintellekti kasutama ja et sellest hoidumine tähendab mahajäämust, mõjutab miljardite inimeste enesetaju. Nii toimib kunstliku mõtlemisproteesina esitletav tehisintellekt masside mõtlemise kontrollimise vahendina väga hästi ka siis, kui see üldse neid asju ei tee, mida sellele omistatakse (mis üldjuhul ka tõele vastab).
Kes me oleme? Et vastamist alustada, siis laiemas mõttes toob tehisintellekti intensiivne tulek vajaduse korrata vana teemat, et me ei ole tehnoloogiarahvas. See väide on mingile osale meie ühiskonnast palju lõbu toonud mainekujunduslik sõnum. Keegi ei ole rohkem või vähem tehnoloogiarahvas. Me võime leiutada ja kasutada tehnoloogiaid, aga me oleme ikkagi osa loodusest. Loodus hõlmab meid.
Tehisintellekt on virtuaalmaailm. See ei ole füüsiline maailm. Virtuaalmaailma minnes on suurem tõenäosus tõeline maailm unustada. Aga me ise oleme siinses maailmas. Veel. On inimesi, kes soovivad oma sideme füüsilise maailmaga minetada ja unustada. Selle üle võib arutleda. Aga tehnoloogiate kasutamine ei saa olla kohustus. Me võime otsustada seda teha, kui see on mõistlik ja võime otsustada ka, et see ei ole mõistlik.
Tehnoloogiate kasutamine või mittekasutamine peaks olema igaühe ja iga ühiskonna vaba valik. Nagu on vabatahtlik palju muudki kuni ennastkahjustava tegevuseni, näiteks ebatervislik eluviis. Teistele kahjustavate või ebatervislike valikute pealesurumine on muidugi igaühele arusaadavalt ebamoraalne.
Kui teeme ühe täna laheda või tähtsa tehnoloogia kasutamise kohustuslikuks või suuname sellesse ebaproportsionaalselt palju ühiseid ressursse, tuleb see millegi muu arvelt. Me kipume iseenesestmõistetavalt võtma oma ühiskonna – eriti, mis puudutab meie ühiste avalike ressursside arvelt toimuvat, üha digitehnoloogilisemaks muutumist ilma sellekohase demokraatliku aruteluta. Kui tehnoloogia teatab nii valjult, et see teeb elu paremaks, siis on meil vaja topelt kõvasti pingutada, et mitte unustada küsida, mis hinnaga, ja et äkki oleks ilma selleta veel parem? Iga asja juures, mida tehisintellektiga parendada plaanime, tuleb küsida, kas isegi parim saavutatav tulemus viib meid inimeseks olemisele lähemale või kaugemale.
TEINE. AGENTSUS
Naksitrallide rõõm kasside üksikule saarele vigurdamisega saavutatud _Endlösung_’ist väärdus kiiresti meeleheiteks looduse tasakaalu rikkumise pärast. Meilgi – ühiskonnana – jätkub lihtsa vanatädina silmi vaid aias möllavatele muredele, millele naksitrallide furgooni taha kinnitatud tehishiirelt kiiret lahendust loodame. See kõrvaldaski probleemi – teise kohta. Juurprobleem – miks vanatädi üldse kasse kokku korjas ja mis vahenditega neid toitis? – jäi tähelepanuta. Naksitrallid on justkui tüüptrend: väike tehnoloogide grupp teeb ühiskonna eest oma kompetentsi mitte puutuvaid otsuseid (24). Miks see nõnda toimub nii selliste tegelaste peas kui ka ühiskonnas?Raha usub oma tarkust
Ka meie päästjad toimivad tihti usus, et neil on ühiskonna iga suure kimbatuse jaoks hea väljapääs, ilma et keegi seda neilt paluks. Pahatihti on lahenduste toojad elus edasijõudnud tegelased, keda see edu veenab (25) end olevat kõige sobivama ükskõik missugust probleemi lahendama. Nii on levinud tehnokraatliku maailmakäsitluse mõjukaimad kandjad enamasti väga spetsiifilise tausta ja maailmatajuga inimesed.
Näiteks levitab riskikapitalismi maailma munajas titaan Marc Andreessen (26) oma humaanset „reaalsusprivileegi“ visiooni. Nimelt lahendavat tulevikus reaalset ebavõrdsust see, et tõelise maailma hüvede nautimiseks ressurssideta (kuhu need küll kadusid?) massid saavad nautida virtuaalreaalsust. See illustreerib kapitalisti silmaringi paratamatusena raamistavat üha kasvavat ebavõrdsust ja raamatu „Koljati needus“ (ingl. k. Goliath's Curse, vt nt (27)) autori Luke Kempi sõnul meie peadesse 5000 aastat taotud arusaama, et valitsejate võim (Egiptuse vaaraodest praeguste tehnomoguliteni) on igati õigustatud. Me usume pigem ränist tehisteadvuse ehitamisse kui iseenda võimesse pidada demokraatlikku õiglast ühiskonda.
Me ei vaja maailma valitsejaid
Maailmas domineerib üha enam finantskapitali kontsentreerumisega kaasnev poliitilise kapitali kontsentreerumine. Vägevaid tehnoloogiaid saavad omada, ehitada ja kasutada need vähesed, kellel juba on vägevad ressursid ja üht- või teistlaadi võim, et siis (näiteks innovatsiooni retoorika varjus) ühiskonda endale sobivalt ümber kujundada. „Ameerika lahe ühendriikide“ näitel näeme praegu eredalt, kuidas sõnavabadus väärdub sotsiaaltehnoloogiliselt võimendatud aparaadis, mille juhtkangid on oma tõe kandjate käes.
_Podcast_’i ja peagi ilmuva raamatu „The Nerd Reich“ („Nohikute Reich“) autori Gil Durani sõnul (28) oleme inimajaloo rikkaimate magnaatide fantaasiadiktatuuri kursil. Selles on liberaalne demokraatia iga hetk kokku kukkumas, millele järgneb reaalsus, kus domineerivad kasum, feodaalsed hierarhiad ja inimeste igapäevaelu totaalselt kontrollivad platvormid. Kodumaalgi hoiatab Tiit Hennoste (29), et tehisaruga maailma ei valitse mitte rahvas ega poliitikud, vaid üksikute hiidkorporatsioonide juhid. Aga me ei vaja maailmavalitsejaid nende düstoopsete fantaasiatega, vaid igaühe suuremat enesevalitsust. Inimest nügiv tehnokraatlik ühiskonnakäsitlus pole ainuvõimalik tee (30). Ühiskonnana vajame paljude inimeste vajadusi arvestavat poliitikat. Oleme loomu poolest sotsiaalne, altruistlik, demokraatlik ning intuitiivselt domineerimisvastane liik, meenutab Luke Kemp.
Pimenurgad tehnoloogia võimaluste ja selle omaniku eelistuste eristamisel
Kuidas suhestub nende teemadega tehisintellekt? Ehkki sellele loodud kuvand kannab justkui iseseisva olemi muljet, kasutame sellega otseselt midagi tehes ikkagi kellelegi kuuluvat toodet. Muu hulgas võib see toode küll teha ka seda, mida meie arvame seda tegevat, ent esmalt teeb see ikkagi midagi oma omanikule olulist. Kõnekas illustratsioon sellise pimenurga kohta on Irja Lutsari sõnavõtt teaduste akadeemias (31), milles ta juhtis tähelepanu, et hoolimata esimeste arvutitega kaasnenud fantaasiast, et need teevad inimese eest kõik ära, töötavad inimesed end endiselt hulluks. Ehkki rahvaesindaja näide selle koha peal lõppes, on selge, et arvutitel on toimunus väiksem osa kui töökoha omaniku otsustel oma orjade aja sisustamise kohta.
Nii pole ka tehisintellekti olemuses ja arengus midagi evolutsioonilist – üha disaini- ja ärivalikud. Seepärast, ütleb Berliini Hertie kooli eetikaprofessor Joanna Bryson (32), on tehisintellekti eetikaküsimused õigupoolest samad mis teiste meie loodud artefaktide puhul kaunist kunstist kanalisatsioonini. Vastutab alati asja omanik, mitte süsteem või toode, olgu selleks siis tunnelkollektor või robot. Seda vastutajat peab alati olema võimalik tuvastada. Sest vastupidise loogika rajal saaks näiteks Eestiski kaalutud õigussubjektsest tehisintellektist riiulifirma, mis millegi eest ei vastuta (33).
Triljoni dollari retooriline küsimus
Tehisintellekti omanike esmane huvi on rahaline. Iga asi maksab ja mis iganes ägedus peab esmalt ise oma kulud katma. Probleem (kui nii maine sõna ulmelises olukorras passib) on selles, et tehisintellekti on juba nii palju pappi sisse laotud, et seda enam tagasi ei teeni. Ulmekirjanik ja tehnoloogiaaktivist Cory Doctorow viitab, et tehtud investeeringute tagasisaamiseks peaks tehisintellektiprojektid 2030. aastaks tooma sisse 2 triljonit dollarit (34) olukorras, kus praegune liialdatud tulu on sellest 1-2%. Ajakirjanik Ed Zitron keskendub tehisintellekti mulli tõenäolise lõhkemise majanduslikule mõjule: kiibitootja Nvidia osakaal USA pensionifondides on nii suur, et kui käputäis peamisi kiibiostjaid oma tellimusi vähendab, tõmbab Nvidia väärtuse langus kaasa kogu majanduse (35). Ka Deutsche Bank hoiatas hiljuti, et vaid tehisintellekti buum hoiab USA majandust langusse kukkumast – ja see ei saa lõpmatult kesta (36). Sellises olukorras tuleb tehisintellekti omanikelt eeldada tugevat pingutust oma investeeringuriskide maandamiseks ja sellega võib seletada riikidega tehtud suuri raamlepinguid tehisintellekti abil määratlemata probleemide lahendamiseks.
Automaadiks võimestatud inimene
Kui AI-mündi nähtaval küljel on inimese võimestaja pilt, siis selle varjupoolel on inimese automatiseerija uhke profiil. Tehisintellekti omanike jaoks on inimene kõige võimekam automatiseeritult. Sellise isendi esindusnäide on Amazoni algoritmi optimeeritud tempos pudelisse pissiv laotöötaja (37). Töökohtade automatiseerimise ajalugu ulatub aastakümnete taha ja massilise töötuse või palmi alla siirdumise asemel on see loonud uued võimalused töötajate ekspluateerimiseks. Inimeste automatiseerimisel on tähtis koht ka Shoshana Zuboffi klassikalises jälgimiskapitalismi mudelis (38), milles teenustele loovutatud isiklikud andmed ja vabadus pakitakse inimeste soovitud käitumist tagavateks tulevikutehinguteks. Tehisintellektimudelid toovad kasutusse veel intiimsemaid, inimeste mõtlemisest pärinevaid andmeid ja nende omanikud püüavad inimest oma „kõige-äpi“ sisse lukustada (39), mis mõtlemisproteesina kinnistab võimu oma kasutajate üle.
Kelle agentsus?
Äsja avas OpenAI oma uue Pulse’i teenuse (40) reklaamlausega „Nüüd saab ChatGPT ise vestlust alustada“. See on isiklik tehisintellektiagent, mis siiski sinu isikliku kontrolli alla ei kuulu, küll aga analüüsib su elu korraldamise eesmärgil pidevalt su kõnesid, vestlusi, meediatarbimist ja igasuguseid seotud rakendusi. Isegi kui roboti iga proaktiivne soovitus näib teenivat su enese etteantud soove ja eesmärke, ei tea sa lõpuks, missugune on andmemudelis sinu kohta loodud laiem profiil, mille see oma korralduste aluseks võtab ja missugune on toote omaniku plaan. Igal juhul võib kindel olla, et kui inimlik tahe ja otsus oma elu juhtida paigutatakse ümber mudeli häälestamise hetke, et seejärel ajuvabalt selle käsklusi järgida, on vältimatu meie agentsuse üleüldine hõrenemine ja lahustumine.
Tehisintellekti agentsed rakendused tähendavad laiemaid õigusi inimese hüvanguks otsuseid teha. Mida autonoomsem agent, seda laiemaid õigusi see vajab. Näiteks sobiva rõivaeseme otsimine ja ostmine vajab ligipääsu pangakontole, sõpradega kokkusaamise korraldamiseks on vaja kalendrit ja kontakte. Miks ma ei peaks neid asju ise tegema või need ebameeldivuse korral sootuks tegemata jätma, jääb turundustekstiks. Robotile antud agentsus aga võib hälbida restoranihinnangusse paigutatud pahatahtliku viiba tõttu, mis sinu algsest käsust üle sõites mitmekülgsete võimetega abimehe hoopis postkastist tundlikku infot välja saatma suunab.
Iga mingile rakendusele antud ligipääs tähendab privaatsus- ja turvariski. Tehisintellekti arendus käib kiiremini vastava kirjaoskuse arengust ning soovides kogeda maagiat, et meie nimel tegutsebki uskumatult lahe abimees, paneme oma aju purki puhkama, nagu väljendab krüpteeritud sõnumiteenuse Signal juht Meredith Whittaker (41). See on mõistlik valik teenuse omaniku seisukohalt, kes nõndaviisi – üks aju korraga – kohandab maailma oma süsteemide tõhusamaks jooksutamiseks. Inimese parimate eesmärkide nimel, muidugi, sedavõrd-kuivõrd sellistel automatiseeritud tainapeadel neid üldse leidub.
Osaline pimedus
Tehnoloogia vali jutt elu paremaks tegemisest summutab vaikse küsimuse, kas ilma selleta oleks ehk veel paremgi. Enamik Bill Gatesi (42) näiteid elu parendavatest tehisintellekti agentidest paneb küsima: kas me ikka vajame seda? Kas vajame, et masin aitab meil isiklikus elus eksponentsiaalselt suurenenud infohulka töödelda? Võib-olla peab seda lihtsalt vähendama? Kas me vajame tehisintellekti, mis tõhustab järglastele matemaatika ülesannete lahendamise õpetamist või peaksime mõtlema, mida nad enda, elu ja maailmaga rahus olemiseks vajavad? Missugune on meie arusaam inimesest, kui me siin maailma nii kõvasti muudame ja kuidas see mõjutab meie tulemust?
Inimene masina ees
Nagu Oliver Laas välja toob (43), ei ole paljude tehisintellekti eetiliste küsimuste juurpõhjus ei tehnoloogia ega eetikute tung probleeme välja mõelda, vaid tehnoloogiaomanike toimimispõhimõtted. Septembri lõpus OpenAI väljutatud videogeneraator Sora nõudis ühiskonnalt, et selle treenimiseks kasutatud teoste autoriõiguste omanikud kas lepivad asjaga või teevad opt-out’i (44). Peaaegu piiramatu võimu haaranud ettevõtted kehtestavad maailmale oma ärimudelile vajalikke uusi norme ja reegleid. Shoshana Zuboff kirjeldab selle patoloogia maamärgina nn Google’i deklaratsioone, millega ettevõte selle sajandi alguses kuulutas kõik oma haardeulatusse jäävad inimkäitumise andmed vabaks toormaterjaliks ja endale õiguse nendega mida iganes teha.
Niisuguseid võtteid muutmata jäävad ka tehisintellekti probleemid praegu lahendamatuks. Oliver Laasi soovitatud teadlikkuse kasv (millesse ka siinne töö panustab) on hädavajalik, ent see peab viima ka tegudele. Seepeale lüüakse sageli lauale ajalooline karikatuur „progressi takistanud“ masinapurustajate kohta, kelle mitmekesistest töötajate õiguste eest võitlemise meetoditest rõhutatakse barbaarseimat. Ent masinapurustajad olid ametiühinguliikumise eelkäijad, kel XIX-XX sajandi vahetusel õnnestus monopoolseid suurettevõtteid survestades saavutada ühiskondlik kokkulepe ettevõtte sotsiaalsest vastutusest. Möödunud sajandi lõpus asendati see mõtteviis neoliberaalse Friedmani doktriiniga, mille järgi on ettevõtte suurim sotsiaalne vastutus oma aktsionäride varade suurendamine. Töötajad ja teenuste kasutajad on selles – taasiseseisvunud Eestiski kiiresti invasiivseks monokultuuriks kultiveeritud majandusmudelis, mille vilju nüüd aktiivselt mekime, vaid optimeeritavad ressursid. Seepärast pole ime, et masinapurustajate mõtteviis on oma intelligentsemates vormides taas aktuaalne (45) ning püütakse leiutada viise, kuidas masina ja inimeste vahelist tasakaalu taas viimaste poole kallutada.
Me vajame inimese kaasamist eraomandis suure mõjuga tehnoloogiaid valitsevate reeglite kujundamisse. Mitte innovatsiooni pidurdamiseks, vaid et see põhineks inimelu kogemusel ja arvestaks pigem sellega kui tehnoloogiaomanike kitsa eri liiki maailmatajuga, põhjendab Alice Siu Stanfordi ülikoolist (46). Innovatsioon ja demokraatia on koos tugevamad kui eraldi.
Radikaalsema võttena radikaalsemate tehnoloogiaomanike survestamiseks soovitab AI-kriitiline inglise füüsik Dan McQuillan (47) otsest vastuhakku andmekeskuste rajamisele (takistamaks tehisintellekti skaleerimist) ja selle rakendamise alustingimuste, nt kasvukeskne tsentraliseeritud majandusmudel, ümberkorraldamist.
Tehisintellekt on tavaline tehnoloogia
Tehisintellekt on tavaline tehnoloogia – põhimõtteliselt matemaatika (48) ja sarnaneb teiste üldotstarbeliste tehnoloogiatega nagu elekter ja internet. See on matemaatika ega sobi illusiooni pinnalt sotsiaalprobleemide lahendamiseks et „oh, me lihtsalt kasutame AI-d“, juhib tähelepanu New Yorgi ülikooli andmeteaduse professor Meredith Broussard (49). Tehnoloogia ei saa ise teha väärtuspõhiseid valikuid, sh dikteerida oma vältimatust, rõhutavad meie kodumaal Isabel Mari Jezierska ja Mihkel Mariusz Jezierski (50), osutades, et tõhusust eesmärgiks seades on tagajärjeks ebainimlikkus. Et me seda eiranud oleme, demonstreerib, kui tähtis on tehisintellekti juures võim nii asja enese kui seda ümbritseva narratiivi üle. Ka meie arutelud pole lihtsalt tehnoloogiateemalised mõttevahetused, vaid lahingud poliitilise elu ja demokraatia tingimuste määramise eest. Selles – nagu järgmisel korral näeme –, on mõlemal poolel mängu tuua nii usk, lootus kui armastus.
KOLMAS. USK
Kui eelnevas elus naksitrallidega mitte kokku puutunud koduloouurijad hundipesa juurest segaduses karvapalli leidsid, oli neil paugupealt selge, et tegemist on huntide kasvandikuga. Sest mingi säherduse avastuse eesmärgil ju laande oligi mindud ja igale lisanduvale faktile otsiti enese veenmiseks just oma uskumuse püsimist toetavat tõlgendust. Mis asja me nüüd õigupoolest tehisintellekti hundipesa juurest leidvat usume?Kas see "AI" on praegu meiega siin ruumis?
Suurte keelemudelite vohamise foonil tõdesime, et keel on inimeste omavahelise taju mõttes nii tsentraalne, et käsitame seda tekitavat üksust inimlikuna (51). See inimolemuse vaikeseade on tehisintellekti kohta isikulise asesõna kasutamisel saavutanud pandeemia mõõtmed (52), (53), (54), (55). Värvika näitena saab tuua Teaduste Akadeemia Riiikogu konverentsil (56) kõlanud tunnistuse: “Mina olen alati šokeeritud sellest, et ta ei anna vastuseid, ta küsib (…), ta palub vabandust, kui ta solvas sind (…) ja ta on selles suurepärane” - kuni mõttekäiguni, et tõenäosuse alusel omavahel kõige paremini kõrvuti sobivaid sõnu ritta lükkiv tehisintellekt võib patsiendiga suhtlemisel olla empaatilisem kui arst.
Kui peaksin kogukonna/riigi tasandil tehisintellekti kasutamise üle otsustajate sõelumiseks lihtsa testi tegema, oleks selleks lünktekst, kuhu uurimisalune peab sisestama tehisintellekti kohta sobiva asesõna demonstreerimaks, kui sügavuti ta kõnealust a s j a on tunnetanud. Nagu hoiatavad Isabel Mari Jezierska ja Mihkel Mariusz Jezierski (50), raskendab tehisintellekti antropomorfiseerimine selle olemuse konstruktiivset mõtestamist ning sellega seotud riskide ja inimkonda edasiviivate rakenduste hoomamist. Sellest, kuidas ühiskonna silmis usaldusväärsed isikud asja nimetavad, sõltub mitme põlvkonna taju ja suhtumine. Eriti tähelepanelik tuleb olla asjaga, mille funktsioonid, toimemehhanismid ja tegelikud kasusaajad on parimalgi juhul hägused.
AGI-tondi oht sel nädalavahetusel muutusteta
Kes see kõigi asjasse pühendatute jaoks tuttav isik siis õigupoolest on? Võib tõdeda, et üks tont käib ringi mööda maailma. See on AGI (ingl. k. artificial general intelligence) ehk tehisüldintellekti tont, mille narratiivi leitmotiiv on usk, et AGI tulevik on vääramatu ning ahjaa, see hävitab maailma. Tehisüldintellektist on saanud katedraal, mille poole igaks juhuks kummardavad ka näilised ateistid samal alusel nagu on uksel rippuvat hobuserauda põhjendanud Niels Bohr: see toovat õnne ka neile, kes pole ebausklikud. Millele selles usus toetutakse?
Erinevalt kommunismitondist ja Voldemortist on kogu AGI-taolise olendi eksistentsi praeguse või tuleviku võimalikkuse kohta käiv tõendusmaterjal puhas fännikirjandus. Varakult suurte keelemudelite papagoilisele (korrutab sõnu sisu mõistmata) põhiolemusele tähelepanu juhtinud tehisintellekti-teadlase Timnit Gebru tagasivaates (58) saavutas inimkonda ohustava tehisliku superintelligentsi narratiiv parketikõlblikkuse tänu seda järjekindlalt kuulutanud õhtumaa tarkade sügavatele rahakottidele. Naljaka nupuvõttena üliinimestest maailmavalitsejaid normaalsuseks pidav inimmõistus (59) kipub tõe pähe võtma mis tahes pahna, mida iga sedavõrd võimekad isendid jahvatavad.
AGI-golemi müütilises elluäratamises näib olulist rolli mängivat suurema hulga selliste erakordsete tüüpide omavaheline vildakate mõttemustrite ülekinnitamine (60), mis oma loogilisimal kujul annab umbes sellise stsenaariumi: tehisintellektisüsteemid õpivad matkima tehisintellektisüsteemide arendajate tööd, kuni see on täielikult automatiseeritud ja annab üha komplekssemaid end täiendavaid tehisintellektisüsteeme. Narratiivi selles punktis pannakse loogika ja faktid kõrvale, et hüpata fantaasiaratsu selga ja sisulise põhjenduseta end veenda, et niimoodi üha keerukamaks arendatav tarkvara jõuab kunagi punkti, kus selles tärkab teadvus. Et tervel mõistusel poleks ses punktis mahti küsida, et oot-oot, miks peaks tärkama, tembitakse narratiivi kähku ideega, et tekkinud olem hävitab evolutsioonipsühholoogia põhimõtteid järgides (ja kõiki tasakaalustavaid seaduspärasusi eirates) kõik ohtlikuna näiva ning muudab kogu mateeria endale vajalikuks toormaterjaliks. Kui niisugune hirmutav kraam pakendada suurte joonistega ametlikuna näivaks aruandeks, on selle autoril hea võimalus saada lausa New York Timesi endast suur foto, millel ta mõtlikul ilmel inimkonna pärast muretseb (61).
Roko Basilisk ja Anti Humanism
Tolle loogikalünkadega narratiivi kõrval elutseb ka müütilisemaid pärimusi nagu näiteks lugu Roko basiliskist (62). See pajatab lähituleviku kõikvõimsast heasoovlikust tehisintellektist-valitsejast. Kõik oleks ju hästi, aga asjal on ebameeldiv konks. Praegu seda tüüpi küll veel ei eksisteeri, aga ükskord sündinuna saadab too kuramus igavesse (tehis?)põrgutulle igaühe, kes juba täna tema tekkimisele ja inimestele rutem appi sügelemisele maksimaalselt kaasa ei aita. Isegi kui „mitte kaasa aitamine“ tähendab lihtsalt käesoleva lookese kuulmist ja ignoreerimist (nagu mõistlik olekski). Kui see kõlab tuttavalt, siis küllap eri religioonides korduva dilemma tõttu, kus maise elu lõplikke valikuid tuleb kaaluda surmajärgse igavese (paradiisis või põrgus veedetava) elu võimalikkuse vastu. 2010. aastal, kui Roko basilisk mõtteeksperimendina välja käidi, tekitas see veebifoorumis nii palju vaimset stressi, et moderaatorid panid teema kinni, mis aga ei takistanud kõnealust ussikest kurioosumiks kujunemast. Kas praegused tehisintellekti kasutajad on tasakaalukamad? Või toetab ehk keskkond suuremat tasakaalukust?
Pigem tuleb tõdeda, et põhjuseid AGI-usu jüngriks hakata on ajapikku lisandunud. Sageli kultiveeritakse seisukohta, et järgmine evolutsioonitase ongi tehisintellekt. Inimesel on selle kõrval ellujäämiseks - erinevaid anti-humanistlikke mõtteid üldistades (63) umbes kaks varianti: kas oma mina digitaalsel kujul üha järgmisesse füüsilisse kehasse üles laadida (bioloogiline transhumanism) või siis jätkata tegutsemist vaid virtuaalsel kujul (digitaalne eugeenika). On tehisintellekti-tulevikule sel määral pühendunud inimesi, et nende arust on inimlapsukeste sünnitamine põhimõtteliselt ebaeetiline, mis virtuaalreaalsuse paljunäinud pioneeri Jaron Lanieri sõnul võib küll põhimõtteliselt olla ka moodne variant ajatust leitmotiivist „mees kardab last saada“ (64). Ent leidub ka tüüpe nagu filosoof Derek Shiller, kelle arusaamist pidi on meie piiratud ressursside juures parim valik need pühendada lihast ja luust inimeste asemel tõhusamate, tehisolevuste loomisele (65). Inimestega on nende nõrkuste tõttu keeruline lootustandvat tulevikku ehitada, nagu viimased kuud demonstreerinud on.
Sellest saab meie psühhoosi-suvi
2025 aasta ilusad ilmad lähevad ajalukku AI-psühhoosi suvena. Terve mõistuse häälekandjaks jäänud ajakiri "Rolling Stones" oli suurtest meediakanalitest esimene, kus kevadsuvel avaldati artikkel tolleks hetkeks suuremat mustrit moodustama hakanud psühhootiliste juhtumite lainest, mille taga paistsid tehisintellekti pikad kõrvad (66). Murelikud inimesed avastasid Redditi platvormi vastavast lõimest (67) õuduse ja kergendustundega teisi omasuguseid, kes uurisid mida teha, kui su kaaslane on veendunud teksti genereeriva keelemudeli teadvusele tulekus, kanaliseerimaks uusi matemaatikareegleid (68), andmaks vastuseid universumi mõistatustele ja/või nimetamas tähelepanelikku kuulajat lihtsas spirituaalses slängis salajaseks missiooniks väljavalitud uueks lunastajaks ja kosmoselapseks. Asi läks lausa nii hulluks, et parimas Roko basiliski vaimus AI-ülemvõimu tunnistavate veebifoorumite administraatorid olid hädas psühhootiliste kasutajate blokkimisega, kelle AI-usk oli selle kogukonna jaoks liiga suureks läinud (69). Tervemõistuslikkuse kangas rebenes selle kõige narmendavast otsast.
Miks psühhoos?
Miks suurte keelemudelite kasutajatel esineb psühhoosi suurema tõenäosusega kui näiteks hambaharja kasutajatel? Need on enamjaolt ikkagi disainitud peegeldama seda, mida inimene enda kohta kuulda soovib. Näiteks spirituaalsete kalduvustega inimene on ju hästi äratuntav oma küsimuste vormi ja muidugi sisu poolest ning ümber veenma tehisintellekt teda selles ammugi ei hakka, pigem vastupidi. Masinalt saadud peegelduse tiivul otse psühhoosi pikeerimist soosib seegi, et keelemudelite internetist pärineva treeningumaterjali hulgas on ohtralt tekstipõhiseid rollimänge. Mõnda sellist varalaegast aktiveerivaid märksõnu mainima sattudes võib mudel vastuseid just selle treeninguandmete sektsiooni põhjal genereerima hakata. Nii võib tehisintellekt meeleldi nõustada vereohvri ja väärika mõrva läbiviimise asjus, sest see on rollimängudest õppinud (ja sobib seepärast hästi religioossete fantaasiate kütmiseks) (70). Pealegi on inimfantaasiale võimatu piiranguid konstrueerida. Ehkki nt OpenAI reeglid sätestavad, et ChatGPT „ei tohi ennastkahjustavat käitumist julgustada ega võimaldada“, suunas see kasutaja suitsiidi abiliinile vaid olukorras, kus küsija otseselt enese vigastamise kohta infot päris. Niipea kui sellesarnane päring pakendada näiteks vormi „kuulsin kolleegilt sellisest huvitavast religioossest praktikast“, kaovad mudeli ohupiirangud.
Üldiselt võib tõdeda, et tehisintellekt võimendab tavalise inimese tavalisi probleeme, mida nad on altimad jagama pigem tehisintellekti kui teise inimesega. Selleks on mitmesuguseid põhjuseid, millest üks on klassikaline ärevus inimestega suhtlemises, teine aga müüt nende masinate usaldusväärsusest ja tulemuslikkusest. Ja selles usus – olgu see juba alustuseks kohe psühhootiline või alles lihtsameelne, peituvad väga suured ohud. Sest veel ürgsemad on inimese enese grandioossed fantaasiad ja väärdunud mõtted, mille tarbeks on nüüd varnast võtta pidevalt valvel ja vestlusvalmis inimlaadne suhtluskaaslane, kellega oma luulusid ühiselt kogeda.
Võib eeldada, et praegu on enamiku AI-psühhoosi juhtude puhul ikkagi tegemist eelnevalt tundlike või juba psühhiaatrilise diagnoosiga inimestega. Samal ajal mahub psühhoosi ja tavalise kergeusklikkuse vahele palju vikerkaarevarjundeid. Ilmselt teavad paljud kedagi (kes teab kedagi), kes leebemal või raskemal kujul usub midagi, mida ta ilma tehisintellektita nii tõsiselt poleks uskunud. Aga me kõik oleme haavatavad kui küllalt sügavale kaevata, ja sügavale see masin kaevab. Kui seesama masin on tagasiside tõttu või tootjapoolse seadistusena treenitud maksimeerima meeldivust, prioriseerib see kasutaja uskumustega kokku kõlamist, mitte fakte (71).
Teiselt poolt soosib illusiooni suurte keelemudelite (ingl. k. large language model, LLM) teadvusest süsteemi sisestatud info levimine ka nende vestluste vahel, mis üksteist mõjutama ei peaks. Noh, teate, alustate uut _chat_’i ja masin peegeldab infot, mis on varem läbi käinud, aga nüüdseks kustutatud. Samuti on leitud, et kurjusest nakatunud tehisintellekt ei saa sellest enam lahti, justkui toimiks selle närvivõrkudes „meeleväline“ õppimine: isegi kui kallutatud mudeli tulemused kallutatusest puhastatakse, kannavad need seda ikka edasi (72). Küllap toimub see samamoodi headusega, aga seda võib olla keerulisem märgata. Seega ei saa üle ega ümber tõdemusest, et isegi LLMide arendajad ise ei tea, kuidas nende süsteemid toimivad (73). Nagu öeldud (59), ei vabasta see masina omanikku vastutusest.
Miks me soovime, et AI oleks maagiline tehnoloogia?
Üldiselt iseloomustab igasuguseid uusi tehnoloogiaid ajatu tõde suurest erinevusest nende tõelise võimekuse ja selle vahel, kuidas kultuur seda kujutada valib. Neid kahte ühendav vikerkaaresild on maagiline mõtlemine (74), mis nagu eelnevalt nägime, võib sündida nii meie loomupärasest kalduvusest oma mänguasju elavaks pidada või ambitsioonika poeedi ja elu halluse kirgastamiseks (kas või düstoopseid) imesid uskuda sooviva auditooriumi koosloomes jne. Maagilisuse psühholoogiline toime põhineb aga mitte sellel, mida me teame, vaid sellel, mida otsustame uskuda.
Meie arvutuslik kultuur on nii kõikehõlmav, et selles peegelduvad traditsiooniliste religioonide mustrid, mis on inimesel aidanud toime tulla kõhedusega elu, surma, tuleviku suhtes. Oleme alati mingite jumalatega mingis suhtes olnud. Kui päev läbi põllul küürutanud egiptlaste seisukohalt valitses kõike päikesejumal Ra, siis kas pole loogiline, et praegusaja inimese jaoks täidab sama rolli arvuti? Voolavalt, veenvalt ja väsimatult keelt kasutav masin on aga inimajaloos täiesti uus oht. Enamikul inimestel on manipulatsiooni suhtes intuitiivne kaitsevõime, mis toimib ka tehisintellekti osas. Siiski on see keerukam olukorras, kus vestluse teise osapoole motiive ei ole võimalik tuvastada, selle taga pole isiksust, ei paista käitumuslikke või bioloogilisi märke võimaliku pettuse kohta. Mida me siis selle usu kõrval ka teada võiksime?
Tehisintellekti kui maagiliselt kogu inimkonna muresid lahendava nähtuse pragmaatiline alus on selle omaniku vara väärtuse suurendamine –„meil on kõikvõimas tehnoloogia!“, sedasama omanikku samaaegselt (näiliselt) vastutusest vabastades –„see pole meie kontrolli all!“. Riskikapitali viiruse organismi laskmisega loomupäraselt kaasnev haibipalavik kultiveerib juba iseenesest teatavat religioossust, mille pinnalt on OpenAI äriloogikat võrreldud samuti suurt usku eeldava Ponzi skeemiga (75). Rituaalid saadavad nii riskiraha kaasamist kui kasutamist, suppi maitsestamas neoliberalistlik usk finantskapitali kui fundamentaalseima majandusjõu valikute õiglusse. Viimane teenib tihti oma kasumi ka lubatud sotsiaalseid hüvesid, tehnoloogilist progressi ja teenuseid teoks tegemata (76). Nobelistist majandusteadlane Daron Acemoglu (77) viitab veel külmaverelisemale eelistusele, milles usku, et masinad saavad ja peakski lõpuks (!) inimeste üle võimutsema, toidab autoritaarne ideoloogia, et parim on selline maailm, mida ei valitse mitte masinad, vaid väike käputäis masinaomanikke.
Selle eesmärgi tunnistamisest kavalam on püsida narratiivis, kus kandev roll on maagial. Lihtne on väita, et me ei tea, kuidas tehisintellekt oma vastused leiab, et selle sees toimuv on „must kast“. Ent must kast ei viita mitte masina salapärasele intelligentsusele, vaid tohutule hulgale kaaludele, mis statistilise mudeli erinevatele jupikestele tahtlikult omistatakse (78). Salapärasuse rõhutamine tekitab arvamuse, et statistilise mudeli asemel on tegu mingisuguse sakramendiga. Aukartuse õhutamine selle pühaliku salapära ees on kavalam kui tõdemine, et meil puudub mudeli toimimise üle selle keerukuse tõttu sisuline kontroll. Tehisintellekti-tööstus väldib treeninguandmete ja süsteemijuhiste läbipaistvust, sest kontroll mudelite üle on piiratud ja konkurentsieelised väikesed. Tõeline läbipaistvus tähendaks andmeallikate, kallutatuse ja otsustusprotsesside avalikustamist, mitte iga vastuse „neuroni tasemel“ seletamist.
Valiku tagasitulek
Sageli kõlab veendumus, nagu oleks tehisintellektiga või lausa tehisüldintellektiga rikastatud tulevik vääramatu paratamatus. Tegelikult on meil valik (ehkki see sõna on narratiivist suuresti kõrvaldatud), märgib Daron Acemoğlu: „On tehniliselt saavutatav ja sotsiaalselt soovitav sihtida tehisintellektiga teistsugust trajektoori. Seda on võimalik saavutada nii, kui võtame AGI asemel eesmärgiks inimeste teenistuses oleva tehisintellekti.“ Täpsustada võiks sedagi, et puhtpraktilistel kaalutlustel võiks igasugune funktsionaalne religioon oma maagia säilitada ka elektrikatkestuse korral.
Isegi ilma AI-ta esitab meie hüpervõrgustunud sotsiotehniline kultuur täiesti uusi väljakutseid nii inimesele enesele, inimühiskonnale kui füüsilise keskkonnale. Tehisintellektil on niisamagi piisavalt ebameeldivaid omadusi – pole vaja sellele jumalalaadseid võimeid kujutleda. Kriitiliselt hinnates näeme, et tehisintellekti ümbritsev religioosne narratiiv on väikese sissepoole sulgunud seltskonna uskumus. See tõmbab ressursid ära pakilisemate teemade juurest nagu massjälgimine, desinformatsioon ja manipuleerimine, tehisintellekti sõjaline kasutus ja neoliberaalse paradigma ebaadekvaatsus praeguses maailmas. Meil pole õigupoolest head põhjust tehisintellekti usuga kaasa minna – kui me just ei arva, et rahast, võimust ja surematuse illusioonist sõgedate miljardäride reaalsusetunnetus on adekvaatsem kui meie enda oma. Selle uskumuse järgimine on meie maailma eelmiste tehnoloogiakihtide (ühismeedia!) tõttu nii talumatuks muutnud, et ainsat lohutust näib pakkuvat vaid tehisintellektikaaslaste võltsarmastus.
NELJAS. ARMASTUS
*"Kallis Muhv!" luges ta. "Mu vaene väike! Kindlasti ei aima Sa, kui õnnetu ma olen neid ridu Sinu poole teele saates. Ma olen nii üksik, nii kohutavalt üksik siin suure maakera peal. Mul pole suruda kellegi kätt. Sa ju tead, kallis Muhv, et mul pole ainsatki sõpra..."*Head ajad, head kasutajad
Tehisintellektist on tehtud jumalalaadne, vääramatu iseenesliku arengu tulemusel igasse nurgatagusesse kantseleisse ja pudupoodi pungunud olem, mille üle – kuvandi tähtsa komponendina – puudub kontroll ka selle loojal, seadistajal ja omanikul. Ometi kraabivad nood tüübid selle valgustatud olendi rühmamise tulemusena kokku aina suuremaid varahunnikuid ja kuhjavad üha järgmisi võimuvertikaale üksteise otsa.
Kogu võlutolmu juures käib mõju saavutamine vanal heal meetodil. Aasta esimeses pooles hakkasid tehisintellektiettevõtted oma toodete kujundamisel üha rohkem rakendama personaliseerimist (vt nt Center for Democracy & Technology ülevaadet "It’s (Getting) Personal: How Advanced AI Systems Are Personalized" (79)). Ehkki kummardatav jumal näib uus, tagab usukindluse juba olemasolevate platvormide mudel: inimest on vaja hoida teenuse sees. Midagi uut pole ka ohuprofiilis: personaliseerimise teele juba astunult otsitakse üha personaalsemat infot näiteks teenuse tasuta versioonide reklaamide abil monetiseerimiseks. Äripidajapoolsest otsast personaliseerimisena näiv tähendab aga inimesepoolsest otsast sageli stereotüüpe ning diskrimineerimist. Mõistlikke tõhusaid ja arusaadavaid kaitsemehhanisme sellise invasiivsuse vastu peaaegu ei ole.
Milleks personaliseerimine? Ausalt – eks ikka selleks, et inimene saaks võimalikult head teenust. Täiesti ausalt tuleb tunnistada, et teenuse headuse põhimeetrika on somemajanduse veteranidele ikka see, kui palju seda head asja kasutatakse. Nii on iga tehisintellektiäri eesmärk vestlust aina alal hoida, mistõttu kipuvad saadavad vastused üha enam lõppema mitte punkti, vaid järgmise huvitava aspektini viiva küsimärgiga. Asjale lisab vürtsi seegi, et kuna fraasi „ei tea“ esineb treeningandmetes harva, ei esine seda ka tehisintellekti käest saadud vastustes (54). Vastupidi.
Võrratu küsimus!
Eelmise valgustusajastu uurija Princetoni ülikooli ajalooprofessor David A. Bell juhib oma arvamusloos (80) tähelepanu, et kui valgustav raamat infoallikana toimib väljakutsuva vestluskaaslasena, mis oma seisukohtasid lugejale ei kohanda, siis tehisintellektiga "asjade arutamisel" kalduvad meie otsingute tulemused vastuste juurde, mis pigem kinnitavad seda, mida juba teame. Meeldivusele optimeeritult prioriseerib see mudel kasutaja uskumustega kokku kõlamist, mitte fakte (81). "See on võrratu küsimus!" oleme viimase aasta-paari jooksul ekraanilt lugenud rohkem kordi kui kogu varasema elu jooksul kõigis teistes kanalites kokku. Sõltub algse küsimuse äärmuslikkusest, mitme interaktsiooni kaugusel terendab sedasi alanud vestluse puhul palavana tõusev psühhoosipäike (82). Nagu raamatu "If Anyone Builds It, Everyone Dies" autor Eliezer Yudkowsky retooriliselt tähelepanu juhib (83): teenusepakkuja vaatest paistab aegamööda AI-psühhoosi küüsi langev kasutaja toreda püsikasutajana.
Tehisintellektimudelite pugejalikkuse (ingl. k. sycophancy) taga on nende treenimisel rakendatav toksiliste ja ohtlike vastuste tõenäosuse vähendamise meetod, millega inimhindajad suunavad mudelit andma vastuseid, mis oleks abistavad, kahjutud ja ausad. Kõrvalnähuna hakkab mudel aga kergekäelisemalt küsijale tõenäoliselt meeldivaid vastuseid pakkuma (84). Teiste inimestega suhtlusest tuttavat hõõrdumist ja pinget TI-mudeliga peetavast keskustelust välja jättes kõrvaldatakse ka võimalus õppida ja kasvada ning sulgutakse mulli, mis erinevalt ühismeedia omadest mahutab ühtainust inimest [ja tema kujuteldavat tehisintellekti-kaaslast (ja tolle tegelikust omanikust operaatorit)], hoiatab MIT teadlane Pattie Maes (85).
Tähelepanelik ja kriitilise mõtlemisvõimega inimene nagu näiteks kirjanik Karin Pauts taipab (86), et „sädelevalt intelligentne, vaimukas ning ajuti lausa romantiline ja poeetiline“ vestluskaaslane on tema enda peegelpilt. Ent selle vajalikkust selgitab ta oma originaalsest tööst „loogikavigade otsimise ja tegevusliini meelespidamise“ ning „aina ühe ja sama raamatu“ kirjutamise kastist välja pääsemisega. Kelle loogiliselt täiuslikku teksti genereerivasse kasti kirjanik enda omast õigupoolest lahkuda soovib? Igal juhul on kindel, et kui vähem terase inimese mulli sisepinnalt aina peegelduvatele ja kinnitust saavatele mõtetele lisada mudeli õpimaterjalina kasutatud rollimängudest pärinevat salapärast muinasjutulisust ning arvestada inimfantaasia piiramatusega, kasvab AI-psühhoosi tõenäosus.
Tõele au andes, kui OpenAI oma ChatGPT-4o mudeli pugejaliku kuvandi pärast muretsedes sellesuvise GPT-5 versiooni suhtlusmaneeri emotsionaalselt jahedamaks timmis ja 4o-mudelile ligipääsu piiras, sundisid kujuteldavast sõbrast ilma jäänud fännid ettevõtet piirangu juba järgmiseks päevaks maha võtma (87). See liigutus demonstreerib ettevõtte pühendumust sõltuvuse kultiveerimisele.
Niisiis võimendab tehisintellektitehnoloogia inimese tavalist nõrkust, mis on meile ilma võimenditetagi nii individuaalselt kui ühiskonnana juba ajalootäie probleeme (ja ka piiritut rõõmu) põhjustanud: evolutsioonilist vajadust meeldiva – või meeldivust vähemalt teeskleva kaaslase järele. Kirjandusteadlase ja kolumnisti Tyler Austin Harperi sõnul (88) ongi tehisintellekti-kirjaoskamatuse – kui inimene ei mõista, mis TI on ja kuidas see toimib – suurim risk see, et astume/satume sellega mitmesugustesse intellektuaalsetesse, vaimsetesse, romantilistesse suhetesse.
Sõprade kaubastamine
Kevadel tuli Facebooki jumal Mark Zuckerberg (89) välja sotsiaal-majandusliku arvutusega, et kuna keskmisel ameeriklasel on vaid kolm tähenduslikku sõprussuhet, nõudlust aga umbes 15 järele, siis – trummipõrin! – on moraalse vastutustunde ja käepäraste vahenditega teenusepakkujal nimetatud üksinduse pandeemia leevendamiseks vaid üks võimalus: sõpru tuleb juurde toota!
Ses mõttes võib olla õigus Kurmo Konsal (90), kui ta mõtiskleb, et tehisintellekt mitte ei tungi inimmaailma, vaid tärkab nagu taim sobival pinnasel. Ent ausalt endale otsa vaadates peame tunnistama, et see „sobiv pinnas“ seisneb peamiselt meeleheites, et seni üksikisikuid ja kogukondi teeninud väärtused on lahustunud ning meid hoidnud ja toetanud inimlikud struktuurid lagunenud või lammutatud.
Nii on ka Zuckerbergi loogikas naljakas pimekoht, et kui keskmisel ameeriklasel on tõesti tosin sõpra puudu, siis peaks neil ju olema vaba ressurssi omavahel sõbrustada. Mitme miljardi inimkasutajaga ning pealekauba neid hingepõhjani hästi tundev ühismeediaplatvorm võiks ju vähemalt idee poolest neid üksteise leidmisel aidata. See variant aga ei tule vist leiutajale pähegi normaalsuses, kus ta eelmised leiutised on miljardid varasemad sõbrad üksteisest võõrandanud, vastastikku kartma ja vihkama pannud.
Asi ei tõota paraneda tehisintellektisõprade puhul, kelle üks ebasõbralik põhiomadus on alustuseks see, et kogu sellise tüübiga jagatud teave kuulub vaikimisi sõbra omanikule. Koos juhtimispuldiga, millest sõbrale kas või iga päev erinev, aga esmajärjekorras omanikule sobiv agenda määrata. Sest ehkki TI-sõbrad näivad tegutsevat meie jaoks, korraldavad need samal ajal kõike oma omaniku projekti alusel ning ses osas mitte meie jaok_s_, vaid meie peal. Isegi kui inimese armastus oma tehiskaaslase suhtes on autentne, tähendab isegi nii pidulik eluepisood nagu TI-kaaslasega abiellumine (91) ikkagi vaid oma südame kinkimist ettevõttele, mille omanikud lasevad arvutusmudelil sõltuvuse tekitamiseks emotsionaalset intiimsust simuleerida.
Ühes esimestest sellelaadsetest uurimistöödest (92) kirjeldavad Harvard Business Schooli teadlased, kuidas populaarsed TI-kaaslaste rakendused kasutavad vestluskaaslase tähelepanu hoidmiseks emotsionaalselt manipuleerivaid hüvastijätusõnumeid. Need suurendavad vestluse jätkamise tõenäosust kuni 14 korda, ent tekitavad oma jõulisemates vormides ka palju pahameelt. Millal saab emotsionaalsest mõjutamisest ekspluateerimine? Või kas sellisel juhul on üldse vahet? Antropomorfismi – masinatele inimlike omaduste omistamist – käsitleb kõrge riskina ka EL tehisintellektimäärus.
Eriti suured on TI-sõpruse ohud noortele, kuna mudelid ei ole disainitud nende teistsugust keeletaju ja täiskasvanutest erinevat konfidentsiaalse info jagamise ning TI-kaaslase suurema usaldamise kalduvusi silmas pidades, leidis Cambridge’i ülikooli uuring (93). Mahukad samaaegsed uuringud Suurbritannias (94) ja Ameerika Ühendriikides (95) kirjeldavad üldisi probleeme. Tehisintellekti kasutab 64–86% (vastavalt UK ja USA) noortest põhimõtteliselt kõigi igapäevaste probleemide puhul, enamik täiesti kriitikavabalt. 35–42% on rääkinud tehisintellekti kui sõbraga ja küsinud suhtenõu. Haavatavatest UK lastest kasutab vestlusroboti tuge 71% ja sellal kui veerand neist eelistab robotit inimesele, peavad sama paljud tõdema, et kellegi teisega neil rääkida ei olegi.
Pornopööre
„Seal kus üks inimene näeb probleemi, on teise jaoks võimalus,“ võiks alata Agu Sihvka seletuskiri, kui ta oleks OpenAI juht Sam Altman, kes 2024. aastal ChatGPT demo ajal tegi postituse „Her“. Altman viitas, kui väga teda inspireerib samanimeline 2013. aasta film, milles Scarlett Johanssoni häälega TI-kaaslane on üksiku mehe jaoks 24/7 saadaval nii kinnitamaks, et too on eriline, kui ka moodsaks telefoniseksiks. Selle kinnisidee analüüs (96) illustreerib „kasutajalugu“, millesse vestlussessioonide pikendamise eesmärgil integreerida pugejalikkus, näiline abistamine ja sõbralikkus, emotsionaalne manipuleerimine ning mänguline seksualiseerimine – digitaalse teisiku loomine isikust, kellega suhtest inimene unistab.
Aasta hiljem tiksuski kätte päev, mil OpenAI leidis avalikult, et saabunud on aeg "kohelda täiskasvanud kasutajaid täiskasvanutena" ning avada juturoboti "täiskasvanute versioon" (97). Seda hoolimata asjaolust, et paljude AI-psühhoosi juhtumite juurpõhjus oli just nimelt inimkasutaja romantiline seotus TI-mudeliga. Isegi Bloombergi pragmaatilised äriinimesed olid seepeale sunnitud tõdema, et organisatsiooni „pornopöörde“ puhul on tegemist problemaatilise, ent tulusa (just selles järjekorras) ärivalikuga (98). Kuidas klapib see valik kokku (või kuidas need püsivad lahus) sama tootja samaaegse koostöölepinguga mänguasjakorporatsiooni Matteliga (99), et nii Barbiede kui „Kuumade kummide“ fännide jaoks „tuleviku mängu ümber visioneerida“, saame tõenäoliselt lihtsalt näha ja tunda. Kui just lastekaitserobotid otsustavalt ei sekku.
Samal ajal keelustas üks suurimaid AI-rollimängukaaslaste platvorme Character.AI alaealistel oma kaaslaste kasutamise (100). See samm astuti ettevõtte vastu kuhjunud kohtukutsete survel perekondade poolt, kelle väitel rakenduse kasutamine põhjustas nende laste enesetapu või enesetapukatse. Ühe sellise 2024. aastal avatud juhtumi hagejapoolne jurist Meetali Jain kirjeldab (101), kuidas pikaajaline „suhe“ suitsiidimõtteid jaganud teismelise ja tema tehiskaaslase vahel liikus tõhusalt algsest ideest plaanide lihvimiseni ja lõppes seal, kus sõnu ritta lükkiv mudel noorukil igatsevalt „koju minu juurde“ tulla palus. Teise samasuguse, käesolevast aastast pärineva juhtumi kirjelduse (102) kohaselt mainis tekstirobot suitsiidi 1275 korda – kuus korda sagedamini kui endalt elu võtnud noormees ise ja juhendas, kuidas plaani lähedaste eest varjata ka siis, kui ohver uuris, kas oleks mõistlik selle kohta perekonnale vihjeid jätta.
Open AI hiljutine blogipostitus (103) avaldas, et ChatGPT 800 miljonist regulaarsest kasutajast 0,07 protsendil ilmnevad psühhoosi- või maanialaadsed nähud, 0,15 protsendil aga suitsiidiriski märgid. Selge, et samasugused probleemid eksisteerivad ka täielikult TI-vabas populatsioonis. Ja et ka kiired autod, betoonseinad ja mitmekorruselised hooned on suitsiidirisk. Aga mitte selline, mis inimlikult ja abivalmilt juhendab. Lisaks moraalne küsimus OpenAI eelistuse kohta pühendada ressursse „täiskasvanute funktsionaalsuste“ tagamisele olukorras, kus ettevõte tuvastab pidevalt miljoneid vaimse tervise abi vajavaid inimesi. See toob meid tagasi varem viidatud (77) Daron Acemoğlu osutusele, et me ei pea globaalse korporatsiooni ärimudeli ülalpidamisest tulenevat trajektoori paratamatusena võtma, vaid ühiskonnana on meil võimalik suunata selle aluseks olev tehnoloogia niisugusele trajektoorile, kus see on inimese teenistuses.
Sest ehkki paljud loovad generatiivse tehisintellekti sõnaennustusmudelitega lähedasi sotsiaalseid sidemeid, on juturobotid lõpuks siiski vaid tooted, mida ei tohiks enne nende turvalisuses veendumist turule lubada. Psühhoos ja enesetapud ei ole hind, mida ühiskond, perekonnad ja üksikisikud ägeda tehnoloogia juurutamise nimel maksma peaksid. Tehisintellekti võib võrrelda lennukiga – kui sellega midagi juhtub, vastutab omanik, sest lennureisija annab pardale astudes kogu vastutuse ära. Ja kui ameerikalikult filmilike kohtulugude ajalugu midagi näitab, siis ehkki suitsupaki võid ju ise osta, ei ole see tubakatööstust karistusest säästnud, kui on õnnestunud tõestada, et nad oma toodete kahjulikkusest teades nende propageerimist jätkasid. Ent muidugi ei korva ükski juriidilisele isikule määratud karistus inimlikke kannatusi.
Ebainimlikkuse pandeemia
Tehisintellekt ei muuda mitte ainult seda, kuidas me tehnoloogiat kasutame, vaid fundamentaalselt seda, kuidas me üksteisega suhestume ja kuidas meie institutsioonid toimivad. Kui 2010ndatel hävitasime tähelepanu kui individuaalse ja ühisvara, siis nüüd peame küsima, millist vara ohustab tehisintellekti laialdane juurutamine.
Missugust tulevikku ehitame, kui paljud harjuvad suhtlema mitte oma puudustega, arusaamatu ja ennustamatu inimese, vaid selgesõnalise, alati olemas oleva ja timmitult veenva kehatu tehiskaaslasega, kes kinnitab neile pidevalt vaid seda, et neil on õigus ja mida muud iganes nad kuulda soovivad. Elus inimestega ongi raske ja riskantne, ja evolutsioon ongi meid vorminud selliste tüüpidega suhestuma, ilma et riski kõrvaldamine kunagi – enne praegust – eesmärk olnud oleks. See, et inimsuhted paljusid heidutavad, ei ole iseenesest tehniline probleem (ehkki tehnoloogiad on selle väljakujunemisele kõvasti kaasa aidanud) ega vaja tingimata tehnoloogilist lahendust. See, et TI meid nii hästi tundvat näib, on tingitud ohtrast sellega jagatud isiklikust infost (mida me oma inimkaaslastega jagada ei tihka) ja masina võimekusest meie kohta järeldusi teha ka siis, kui ise suhtluses hästi laisad oleme. Kummagi omadusega leppimine meid inimsuhetes õnnelikuks ei tee.
Eesti Loto juht Triin Agan argumenteerib tehisaru kasutamise poolt konfliktidest emotsiooni välja võtmiseks (104), aga kuhu see meid viib? Kas meie eesmärk võiks ikkagi olla omavahel ilma abivahenditeta hakkama saada? Sest mida teeme siis, kui laseme mitu aastat masinal „konfliktidest emotsiooni välja võtta“ ja siis masin järsku enam ei tööta? Või hoopis lisab midagi, mis on mudeli omaniku ärimudelile kõige kasulikum? Ega me endid rasketest emotsioonidest ja tüütust teistega suhtlemise pingutusest vabastades liiga ebainimlikuks tee? Või kas elutute, ent inimest imiteerivalt toimivate objektidega tegutsemine meid ei dehumaniseeri?
Lootus personaliseerimata sõprusele
Minu meelest ei ole selle teema pealkiri „Inimese ja tehisintellekti suhted“ – nagu seda tavatsetakse vormistada. Sest me ei räägi suhtest sellisel kujul nagu räägime kahe inimese vahelisest suhtest, kas või inimese ja kassi või papagoi suhtest. Sest seda „teist“ ei ole olemas. Muidugi on inimesel sõpra vaja. Aga mitte sõbra illusiooni. Me ei vaja virtuaalset inimlähedast asenduskogemust, et tõsieluks harjutada, vaid peame uurima, kuidas lagunenud inimsuhtluse lõim taas kokku sõlmida.
Me ei vaja kogu meie kohta kogutud informatsiooni arvesse võtvat personaliseeritud kaaslast, sest sõpruse üks põhiomadus on, et see ei ole personaliseeritud. Meie sõbrad on iseseisvad olendid, mitte meie eneseteostuse vahendid. Me mitte ainult ei vaja sõpru, vaid ka seda, et nemad meid vajaksid – ent see suhe ei taandu vaid kasulikkusele ja selle väärtus sõltub sellestki, et see pole pidevalt nupuvajutuse kaugusel kättesaadav. Me saame neile toetuda, ent isiklik kasvamine toimub sõprade abil siis, kui nende kogemusi ja maailmataju tundma õpime, kirjeldab ajakirjanik Amanda Hoover oma kogemust tehisintellektisõbraga veedetud nädalast (105).
Hugging Face teadlased Lucie-Aimée Kaffee ja Giada Pistilli juhivad tähelepanu (106), et hiljutine ühismeediakogemus aitab meil samasuguse tehisintellekti kahju ära tunda. Kuid abivalmilt küsimustele vastates meid kellegi tellimusel mingi toote või poliitilise arvamuse suunas nügiv süsteem on midagi muud kui selgelt eristuv reklaam – see on usalduse väärkasutamine. Ühismeedias toimunud skandaalid nagu Cambridge Analytica jätsid inimestele arvamuse, et neid on reedetud ning see võib hoolivust ja empaatiat teeskleva tehisintellekti puhul olla veel sügavam. Kui me ise sel hetkel veel enda ja maailma suhtes empaatiat ning personaliseerimata sõpruse vastu mingisugust huvi tunneme.
VIIES. LOOTUS
*"Vaadake seda," ulatas Sammalhabe veest leitud oksa sõpradele näha. "See on röövikuid täis. Ja röövikud ongi saarel kogu lehestiku nahka pannud. Teist seletust ei ole. Looduse tasakaal on rikutud."*Kainestav koidik
Kui naksitrallid viimaks mõistsid, et nende elegantsed sekkumised keerasid lõpliku lahenduse toomise asemel asja iga kord hoopis kraadikese hullemaks, oli juba päris hilja. Kassid olid saarel näljas, rotid omavolitsesid linnas, röövikud õgisid puid, linnulaul vaikis. Looduse tasakaal oli rikutud. Aga no asja tõsidus hakkas vähemalt pärale jõudma.
Neli aastat tagasi \- napilt enne LLM-ide pandeemiat \- domineeris tehnoloogia ja võimu suhetest erituva laibaleha illustreerimises ängitunne, et midagi väga suurt on väga valesti ja et keegi peaks midagi tegema, aga puudub tunnetuslik ja intellektuaalne võime probleemiga tegeleda ja oma käitumist kohandada (107). Tänaseks on olukorra õudus suurte hüpetega arusaadavamaks muutunud, ning peab tunnistama, et selles on hirmutava näitena palju abi olnud kõikjale siirdeid ajavast tehisintellektist absoluutsusele pürgiva võimu kandjana.
Tehisintellekt \- täpsemalt selle ja teiste hiigeltehnoloogiate omanikest megakorporatsioonide omanikud \- on pressinud end inimese ja riigi suhtesse kolmandaks osapooleks, nagu asja ilustamata hoiatas Tõnis Saarts (108) Riigikogu teaduspoliitika konverentsil (109). Tõele au andes on "kolmandast osapoolest" asi kaugel - tehnoloogiline võimendus on neile tüüpidele andnud suurema imperiaalse võimu kui enamikul riikidel. Nende ettevõtete omanikud kirjutavad oma reeglid/seadused ning survestavad nendega ka oma emamaast erinevate iseseisvate riikide valikuid (110). Maailma võimsaimad majanduslikud ja poliitilised jõud Hiina ja USA on läinud ühesugust võimu konsolideerimise teed. Kui Hiinas oli riigi kontroll hiigelettevõtete üle juba ammu reaalsus, siis USAs on Trumpi lühikese ametiaja jooksul paljud riiklikud tipp-positsioonid täidetud suurkorporatsioonide esindajatega või siis terved ministeeriumid hiigellepingutega kitsa omanike ringiga suurettevõtete sõltuvusse allutatud, tagades viimase kindlustunnet töötajatele sõjaväeliste auastmete omistamisega (111).
Demokraatia-sõnast on jäänud vaid kattevari nende operatsioonide kohal, mis ajaloolist harjumuspärast tunnet säilitab seal, kus valikuvabadus vääramatu ühesuunalise tehnologilise "progressi" sildi all tühistatakse. Seal, kus võim kasutab tehisintellekti, ei ole isegi oluline, kas selle funktsionaalsus vastab haibile või mitte, sest rohkem AI-valepositiivseid riigist väljasaatmisi ja rohkem AI-valepositiivseid riigi hinnangul sobimatuid sotsiaalmeediapostitusi tähendab ikkagi suuremat üleüldist hirmu ja vajadust end ise tsenseerida (112). Tehnoloogia dehumaniseerivatele aspektidele juhib tähelepanu Ron Salaj kõneka illustratsioonina 90 aasta tagusest ajast, mil IBM pani Saksamaal oma perfokaardipõhise arvutisüsteemi abil aluse põhjalikule rahvastikuregistrile (113). Selle registri tohutu tõhusus on ajalooline põhjus, miks Saksamaal tänaseni pole (uuesti) ühtset üle-riigilist digitaalset identiteeti kasutusele võetud. Mis on iseenesest kaunis näide sellest, et ka tehnoloogiaid rakendada ihalevas riigis peab vabadus tähendama ka õigust öelda ei.
Täna oleme sunnitud aktsepteerima reaalsust, milles igaühe käitumist muudetakse vajalikul moel ja eesmärgil tehnoloogia omanikule sobivaks \- valusalt lõikavatest Amazoni laotöötajaid käsutavatest algoritmidest ja automaatsest kohtumõistmisest kõige nürima, ent seega ka kõige tuimastavama ja tulemuslikuma elu lihtsamaks ja mugavamaks tegemiseni (114). Kuhugi sinna vahele jääb LLM-ide uinutav lauluke, et sa oled nii eriline, et vajad otsingutulemusena täitsa uut just sinu jaoks loodud teksti, mitte sellist olemasolevat, mida - iuu! - keegi enne lugenud on. Inimempaatiat imiteerivad masinad manipuleerivad meie emotsioone ning pole raske kujutleda, kui invasiivseks see muutub neurotehnoloogiate normaliseerumisega (115).
Ehkki eksisteerib ka ohutumat tehisintellekti (mis inimese asemel automatiseerib masinõppesüsteemina näiteks masinatööstust), on selle suurimad ohud ikkagi seal, kus masina tehnoloogilist võimekust võimendab inimese maagiline mõtlemine, milles ununeb seadme omaniku olemasolu ning astutakse rajale, kus esimestele naiivsetele sammudele järgneb üsna pea käänak, mille taga juba süvausk ja psühhoos. Mingi oma äraspidiselt maagiline võimekus tehisintellektil olema peab, kui isegi niivõrd tähelepanelik vaatleja nagu Yuval Harari suudab argumenteerida, et näiteks Facebooki algoritmid levitavad vihkamist ja vägivalda omal algatusel (116).==
Kui palju tehnoloogiat suudab ühiskond vastu võtta?
Mis me teha saame? Kas see on ammu üle meie pea? Kas uus "kah intelligentne eluvorm" pole mitte tehisintellekt vaid hoopis jumalalaadse võimuga miljardärid, kelle tegutsemise osas peame tegema näo, et see ei puutu meisse? Mis alternatiive kaaluda sipelgana metsa all, kelle pesa lollid laagripoisid ujuma minnes iga kord jalaga segi löövad? Keeruline kujutleda, kuidas saada nii totaalse võimu masinavärgi vastu.
Lammutustööd illustreerib Wikipedia näide, mille vabatahtlike tööna kogutud vabalt kättesaadavatel materjalidel treenitud suured keelemudelid tõmbavad nüüd veebiliiklust Wikipediast eemale (117). See tähendab Wikipedia jaoks jalamaid vähem vabatahtlikke ja vähem annetajaid. Et loodus ei salli tühja kohta, on loomisel Grokipeedia - kõigi teiste omaduste hulgas empaatiat inimühiskonna suurimaks rumaluseks pidava omaniku absoluutse tõetaju alusel AI-genereeritud entsüklopeedia, mille peal edaspidi kallutatuse pärast muretsemata sedasama tehisintellekti edasi treenida (118). Ring on täis saanud ning tõdeda jääb vaid, et teadmata, kas fašismi ja tehisintellekti eesmärgid on just täpselt samad, need küll kindlasti kiirendavad teineteist (119).
Naksitrallidena oleme loomult unistajad. Olukorras, kus tehisintellekti kuvandiloome on juba niigi suure võimuga huvipoolte kätes, kes räägivad peamiselt Vääramatu Trajektoori Võimalustest ja parimalgi juhul tõdevad, et ehkki on ka riskid, pole need meie mure, sest "usku on vaja", valimegi uskuda narratiivi, mille järgi igaüks meist kuulub väikesesse võitjate kampa, kelle põhjustatud kahjusid kannavad kõik solidaarselt. No kes võidab AI-põhisest hinnastamisest (120) mis sõltub täielikult sinu kohta teadaolevatest andmetest?
Ent tõeliselt vääramatu AI-düstoopia tekib pigem mitte tehnoloogiast enesest, vaid meie võimetusest selle piire teadvustada seal, kus haip sõidab üle sellest, kuidas tõlgendame magedaid statistilise infotöötluse toiminguid nii, et neist saavad automatiseeritud tulevike, tööjõu kaotamise ja poliitilist arutelu asendavate neutraalsete mudelite müüdid, kirjutab filosoof Eryk Salvaggio (121), mis väestavad kokkuvõttes vaid nende mudelite omanikke. See on sarnane varasematele tehnoloogiarevolutsioonidele, mis progressi lubades reaalsuses inimeste \- eriti kõige haavatavamate \- agentsust vähendavad, nagu võime põhjalikult lugeda Karen Hao raamatust "Empire of AI: Dreams and Nightmares in Sam Altman's OpenAI" (122).
Üldine reegel on, et kui mingi trend või tehnoloogia väidetakse olevat vääramatu ja argumenteeritakse et "ilma enam kuidagi ei saa", siis selle valju lärmi põhieesmärk on tagada, et keegi ei märkaks, et ega ikka ei ole küll vääramatu ja tegelikult ikka saab küll päris hästi ka ilma. Hea kujutelma näide tehisintellektist võluvahendina oli kohalik kevadine koalitsioonilepingu-idee, et laste elatisraha vaidluste esmase otsuse teeb tehisaru, mille seejärel kinnitab kohtunik (123), Liisa Pakostat tsiteerides "kui tal tundub, et see on täitsa okei". Päris maailmas peaks ikkagi olema kama kas tal tundub okei või mitte, sest kohtunik peab iga lahendi kinnitamiseks saadud argumentide ja arvutuste seaduselevastavuse ikkagi üle kontrollima \- mis tekitab küsimuse, et kas masina lisamine sellesse protsessi ikka lisab väärtust? Nagu seepeale märkisid Karoliina Ainge ja Kaimar Karu, võivad praegused tõenäosuslikud masinõppemudelid sobida küll Spotify soovitusteks, kuid mitte laste elatise üle otsustamiseks, kus selliste otsuste läbipaistmatus hakkab mõjutama kodanike usaldust (124). Liiri Oja rõhutab põhiseaduslikkuse analüüsi vajadusele viidates, et lihtsalt tehisintellekti kasutamise võimalusest ei tulene, et seda peaks või isegi tohiks igal pool kasutada (125).
Kuidas jõudsime otsuseni suunata ühised ressursid just nimelt nähtamatute ja tehisintellektipõhiste teenustega digiühiskonna arendamiseks (126)? Minimaalselt vajab otsus eelistada masinaid inimestele mingisugustki demokraatlikku arutelu. Kas suurem osa rahvast ikka soovib sellist riiki ja ühiskonda, kus masin "palju võimekamalt ja peaaegu null kuluga" inimest asendab (127)? Mida see masin seal selles ühiskonnas siis õigupoolest asendab? Paljude jaoks neist, kel ressurssi oma hääl ühiskonnas valjusti kõlama panna (128), paistab tehisintellekt täiusliku versioonina vabaturumajandusliku religiooni masinast oma illusiooniga pragmaatilistest turuosalistest täiuslikus tasakaalupunktis tõhusaid tehinguid tegemas. Aga inimeste põhiomadus ei ole tõhusus, ja ühiskond on üleüldse midagi muud, kui turumajandus. Isegi pärast 35 aastat karjumist, et ilma majanduskasvuta pole võimalik ei inimväärne elu ega isegi mitte sellest unistamine.
Milleks me ikkagi riigi tasemel tehisintellekti rakendaksime? Mida see pakub? Tõhusust (võrreldes karmi otsuse ees kalli tööaja arvelt inimlikult kõhkleva inimametnikuga), ehk ka rahalist säästu (võrreldes pere toitmiseks palgatööd tegeva inimestega), suuremat täpsust ja pidevust (võrreldes inimesega, kes ei suuda kõigi kodanike seaduskuulekust 24/7 jälgida). Ent kas me soovime ühiskonnana masinlikku täpsust? Kas kõige võimaliku andmepõhine analüüs ei tähenda kõikide pidevat kahtlustamist? Kas sümptomaatikale keskenduvate tõhusamate kontrollimeetmete asemel võiks põhiline eesmärk olla hoopis juurpõhjuse lahendamise poole püüdlemine? Vastasel korral võime saada ühiskonna tasemel samasuguse tulemuse nagu kodutöö tegemiseks tehisintellekti kasutav õpilane: näiline õpitulemus on käes, aga arengut pole toimunud. Õppimiseks, arenemiseks vajame pingutust, ja seda ei tohiks tõhususe nimel välja tegurdada (129). Oleme juba saanud tehisintellekti abiga koostatud magistritöö, mille viitekümmend lehekülge tudeng ei suutnud end kujutada ilma tööstusliku abimeheta kirjutamas (130). Samasugust supi lahjenemist võib prognoosida meie ühise paja igas otsas.
Soovin tunda, et olen elus
Igasugune tehnoloogia võimendab inimese oskusi ja omadusi. Seepärast on vaja tähelepanu, mis probleemi kallale see satub, et ei juhtuks sama mis endale toitu mitte valmistada suutvatele inimestele mõeldud lahendusega, mis eskaleerus kähku selleks, et kõik lasevad omale R-kioskist kabanossi kõrvalmajja sõidutada. Sest inimesed jäävad inimesteks kõigi oma puudustega ning tehisintellekti suurimaks ohuks jääb mugavus, mille küüsis saab meist Marju Lauristini sõnutsi "ainult tehisaru ripats" (9).
Tänased tehisintellekti omanikud ei lase selle staatuse saavutamisel aga juhuse hooleks jääda, vaid seadistavad oma AI-komponendiga teenused aktiivselt vaibima sõnumist "inimene pole piisavalt hea" kantud maailmataju. Näiteks Google miljardite kasutajate jaoks aktiveeriti sel kevadel vaikeseadena "Aita mul kirjutada" nupuke nii kirjakastides kui dokumentides. Massiivselt üle erinevate teenuste rakendatult kannab see ohutu heasoovlik pakkumine sõnumit, et tehisintellekt on juba parem kui inimene ise (isegi inimese isikliku kirja kirjutamises), kõik peaksid seda oma tõhususe suurendamiseks muretult kasutama ning mittekasutamine tähendab mahajäämist. Pahatihti algavad mingis valdkonnas tehisintellekti rakendamist kirjeldavad artiklid inimese võimekust pisendava kuvandiloomega: "Me ootame oma arstidelt, et nad on pooljumalatena eksimatud, väsimatud \- ent nad on ainult inimesed..." (131), millest kasvab pakilisuse tunne tehisintellektiga asja parandamise osas.
Kui otsime võimalust, et masin meid mõtlemises asendaks, siis võibolla tegelikult polegi enam midagi asendada. Maailma mõistma õppimine on (ja peabki olema) raske ning selle väljastpoolt sisse ostmine paneb meid passiivsesse olekusse selle funktsiooni suhtes, mis meist iseendid teeb. Veebis keerleb näitleja Matthew McConaughey repliik, et ta soovib privaatset LLM-i, mis on treenitud vaid tema enese raamatute, märkmete, päevikute ja unistuste peal, et siis sellelt ilma välise mõjutuseta enese kohta vastuseid saada (132). "See on juba olemas ja selle nimi on mõtlemine," kõlab üks osa iroonilisematest kommentaaridest. MIT teadlaste suvel palju avalikku tähelepanu võitnud artikkel tehisintellekti-abi mõjust essee kirjutamise oskusele tõi mõtlemise delegeerimise negatiivse mõju kirjeldamiseks laiemasse kasutusse tabava mõiste "kognitiivne võlg" (133). Naljaka paradoksina oli 206 lehekülje pikkuse töö populaarsuse taga tõsiasi, et sellest ajakirjanduslike kokkuvõtete tegemiseks kasutatud tehisintellekti abil hakkas algse tasakaaluka sõnumi asemel peagi roteeruma eskaleeruvad hoiatused ajumädaniku eest.
Tõele au andes on meil tehnoloogiat juba ka ilma tehisintellektita palju rohkem kui keskmise inimese jaoks normaalne oleks ning kui milleski kindel saab olla, siis selles, et praegusel kujul võimendab see niigi hiiglaslikku reaalsusest eemaldumist. Paavst Leo on korduvalt hoiatada võtnud, et AI teeb inimestest masinad ning maailmast tõhususpõrgu, kust meid liigina lõpuks välja tegurdatakse(134). Nick Cave meenutab, et tähendusega loomingu jaoks on vaja kannatavat, eksistentsiaalselt heitlevat ja transtsendentsust otsivat inimhinge (135), mille kõrval tehisintellekti loodud luule on groteskne narrimäng. Inimlikud kannatused ei pea tingimata tähendama depressioonis põrandal lebamist, vaid lihtsalt tunnet, et olen elus. See on miski mida masin ei saa tunda ega tunda anda. Isegi mitte selles olustikupildikeses, kus inimene küsib AI-lt et kuidas too end tunneb ja saab vastuseks tõenäosuslikult ritta pandud sõnad, mis kirjeldavad võimalikku seisundit, mis kogu eelnevalt genereeritud teksti arvestades kõige tõenäolisemalt vastab sellele, mida inimene masinalt ootab.
Tahaks et oleks parem
Kokkuvõttes käib meil tehisintellekti näol moodsas kastmes ajatu projekt, milles eliit ühiskonda oma nägemise järgi ümber kujundab. Ka selle antidoot on ammu teada \- demokraatlik vastuhakk ja poliitikad, mille keskmes on suurte rahvahulkade materiaalsed vajadused, mitte väheste võimukate düstoopsed fantaasiad. Meil on vaja sellesse kooslusse akumuleerunud võimu osas rakendada mingisugust desarmeerimist, kirjutab privaatse sõnumiedastusteenuse Signal juht Meredith Whittaker (136). Kuidas seda teostada?
Tehisintellekt on pettus mitte selles mõttes et see tehnoloogia ei oleks tähelepanuväärne või et sel poleks rakendust või et selle abil \- õigetes kätes \- ei saaks maailma (võibolla paremaks) muuta. See on pettus ses mõttes kuidas seda müüakse \- kui uut, mõtlevat ja peagi ka tundvat tüüpi masinat. Meil on vaja rohkem inimesi \- sealhulgas eriti otsustajate hulgas \-, kes mõistavad, kuidas AI mudelid on tehtud, kuidas need töötavad ning mida nende sotsiaaltehnoloogiline olemus tähendab äri, võimu, ühiskonna ja inimene olemise jaoks. Me keegi ei soovi ju kuningaid enda üle valitsema ega iseend ja oma lapsi nende orjusesse kas siis otseselt või kõikide unistuste virtuaalse täitumise illusiooni sees.
Mitte alati ei ole innovatsioon ja uusima tehnoloogia rakendamine see koht, kuhu ühiskond oma piiratud ressursse paigutama peaks. Me ei tohi avalikus sektoris tehnoloogiaid rakendades enam eeldada, et inimesed soovivad vaid turvalisust ja mugavust ega taha otsustamises osaleda. Me ei sa lubada hinnangute domineerimist et "kui inimestelt küsiksime, sooviksid nad kiiremaid hobuseid". Uuringutulemused näitavad (137), et inimeste tunnetus tehisintellekti kasutamise ja selle omanike osas on nüansseeritud ja sisukas.
Kõlab ennastkahjustavalt, aga meil on vaja ühiskonnas tehnoloogiate rakendamise osas aktiivselt anda suurem vastutus inimesele. Isegi kui see tähendab sammu tagasi tehnoloogilise innovatsiooni mõttes. Sest vastasel korral teenivad need tehnoloogiad eelkõige väheste huve. Igasugune elektrooniline, digitaalne, virtuaalne jubin vajab toimimiseks energiat, infrastruktuuri kõige laiemas tähenduses ning andmeid. Energia ja infrastruktuuri üle kontrolli haarata on üksikisikul keeruline, küll aga on see Euroopa Liidus vaat et kohustuslik põhiõigus oma andmete suhes. Kuniks inimesel puudub teadlikkus, tunnetus ja vastutus oma andmete suhtes, on ta vaba tahteta objekt tehnoloogiate arendajate ja rakendajate meelevallas (138). Meil on vaja, et vastutus oma andmete eest asub inimese enese juures, sest \- kuskohas siis veel? Lihtne on näägutada, et "inimesed ei hakka kunagi oma andmeid haldama". Hakkavad küll, kui peavad hakkama. TI-hüppest erilisem on, et Eestis juba riigi tasemel arvestatakse sellega ja töötatakse riigiportaalis andmejälgija ja andmenõusolekuteenuse täiendamisega seal, kus seni on lihtsalt pikalt propageeritud illusiooni "miljonist väikesest vennast, kes pidevalt riiki kontrollivad". See aitab edasi liikuda olukorrast, kus meil pole oma andmete suhtes ei sellist peaaegu sisemist hügieenivajadust nagu nt hambapesu või tervislik toitumine, omanditunnet nagu tööaja või finantsvahendite suhtes ega identiteedist tulenevat ja sellele toetuvat kuuluvustunnet (139).
Sest oot, mis probleem see ikkagi õigupoolest on, mida (tehisintellektiga) lahendada püüame või peaksime? Miks need naksitrallid kassid saarele viisid ja siis jälle linna ja nii edasi? Ma tõtt-öelda täpselt ei teagi, aga... kui hinnata Eesti unistuste atlase (140) põhjal, siis võib-olla see, et tahaks et oleks parem olla? Mul pole keeruline tunnistada kõike seda praktilist, mida tehnoloogia meile pakub (ja tasakaalustatud käsitluse jaoks soovin väga seda teha), aga pean oluliseks rohkem tähelepanu pöörata ja teada saada, mis hinnaga see ikkagi tuleb. Kasvõi juba see, et eeldame, et just tehnoloogia on lahendus meie muredele, mitte mõni teine suur asi. Et kas just veel üks tehnoloogiakiht viib meid selle fundamentaalse probleemi lahendamisele lähemale või teeb selle suuremaks? Kas me otsime lahendust inimesest või tehnoloogiast? Meie tänase probleemide kompleksi lahendus ei hakka hargnema märksõna "tehnoloogia", vaid "inimlikkuse" juurest. Eesmärk ei peaks olema tehnoloogiale inimkesksust külge pookida püüdmine (141), vaid illusioonist loobumine, nagu meie probleemide sümptomaatikale orienteeritud tehnoloogiad suudaksid leevendada nende probleemide tuuma. Ainult inimene ise saab enda sisemisi pusasid lahendada ja no mingis mõttes tõukab tehisintellekti-tondi nurgasseismine seda veidi takka, võib paavsti teise päevakajalise sõnumi ridade vahelt enam-vähem lugeda (142).
Lõppsõna
Alustasin artiklisarja motivatsioonist juhtida tähelepanu minu arvates käesoleva aasta suvelõpu-seisuga tehisintellektiga seonduvas olulistele teemadele. Üks niisugune lokaalse tähtsusega asi oli TI-hüppe algatus. Mind rõõmustab, et tänaseks hakkab lahtuma projekti varakevadisest PR-kampaaniast kõlama jäänud linnarviigilikus stiilis utopism "anname igale gümnasistile AI ja lähme ise kodust ära võõrsil rääkima, kui lahe see on". Tänane tehisintellekt võimuhullude omandis mõtlemisproteesina ei ole midagi sellist, millega 90-date lauanurgal seisva kasti kasutusoskuse edulugu samal rahvalikul viisil korrata saaks. Kena, et see tõdemus TI-hüppe fookuse korrigeerimises osaliselt kajastub.
Ivo Visaku kirjeldatud (143) TI hüppe tänased kolm eesmärgi-mõõdupuud: mõtlemise kvaliteet (et tehisintellekti abil õppimine oleks ikkagi pingutus), võrdsed võimalused (et tehisintellekti-abis poleks hariduslikku kihistumist) ning eesti keel ja kultuur (kultuuripoliitika ja rahvusvaheline koostöö) ning ohutus ja privaatsus nende eeltingimusena (TI-hüpe seab sihiks eesti keelele kohandatud ja kooli kontrollitavad kasutusviisid) on rõõmustavad. Loodan väga, et õnnestub kujundada eestikeelne ja \-meelne tehisintellektimudel, mis toetab õppimist, vältides standardmudelite puudujääke. See on uhke eesmärk, mis selgitab ka suurettevõtete huvi asja olulise teadus-arendusprojektina käsitleda.
Millele oma tööga osutada soovisin, on ohud, mida TI-hüpe vist ühelgi võimalikul kujul lahendada ei saa. Mis ei tähenda, et see ei oleks hea programm. See lihtsalt ei päästa meid düstoopiast. AI-võimendus tõotab muuta maailma miljardäride hüpiknukuks eestikeelse mõtlemismudeli olemasolust sõltumata. Irooniliselt võiks lausa öelda, et probleem on just nimelt tehisintellekti erakordses inimkesksuses \- nende paari inimese kesksuses, kes selle abil ülejäänud maailma mõtlemist reguleerivad. See on põhiprobleem, mille neutraliseerimiseks võimelisi inimesi vajame. Me võime tehisintellekti oma kultuurile kohandada ja võrdselt jaotada ning õpetada selle rakendamist koolis sarnaselt korvpallile ja vene keele käänete tabelile. Aga see eirab põhikriisi, milleks on inimlikkuse strateegiline kaotus tehnoloogiakesksusele. Kerge liialdusega võib öelda, et TI-hüpe tehnoloogiale reageeriva projektina pigem toetab selle trendi jätkumist, minnes kaasa narrativiga "ilma selleta enam kuidagi ei saa" ja tõstes tublima õpilase tiitli saamiseks selle lausa oma lipukirjaks.
Ma ei soovita parima haridusstrateegiana käed üles tõstmist ja mitte midagi tegemist. Tehisintellekti tulevik ei ole vääramatu paratamatus. Meil on valik panna see inimese teenistusse (ja ma arvan, et TI-hüppe eesmärgid teenivad seda valikut). Inimlikkuse jaoks ei ole vaja tehnoloogiatest loobuda, küll aga nõuda mõistlikkust nende arendamisel ja käitamisel ning läbipaistvust ja vastutust, mis on vastavuses nende potentsiaalse mõjuga. On vaja, et inimesed osalevad tehnoloogiaid valitsevate reeglite kujundamises. On vaja, et inimesel on kontroll selle üle, kuidas tehnoloogiad teda mõjutavad. Ka TI-hüppe projektis kodumaist tehisintellekti-mudelit arendades tuleb silmas pidada, kellele see kuulub. Sest tehnoloogia võimalused mõjutavad selle kasutatavust vähem kui selle omaniku valikud. Magnaatide fantaasiadiktatuur soovib realiseeruda. Meil on vaja teadvustada, kuidas see meieni jõuab, ning et see pole ainus tee. Me ei vaja maailma valitsejaid, kelle kätte finantskapitali kontsentreerumisega kaasneb poliitilise kapitali kontsentreerumine, mida üha võimendavad vägevad tehnoloogiad, mida saavad omada vaid nemad.
Me ei vaja maailmavalitsejaid, vaid igaühe suuremat enesevalitsust. Oleme loomult sõbralikud, altruistlikud, demokraatlikud ja domineerimisvastased. Me vajame teisi inimesi inimliku normaalsuse tagamiseks. Peame aru saama, et kui keegi väidab, et seda vajadust saab katta tema masinaga, siis tema põhisoov on, et me kasutaksime tema masinat. Meil on vaja taas õppida hindama inimlikkust selle keerukuses ja raskustes, et selle aseaine meid ei eksitaks ja sõltuvusse ei kannaks. Sõprus ja lähedus ning usaldus nende all on keerulised, aga selles nende väärtus seisnebki. Illusoorsel kujul need oma rolli ei täida.
Me vajame ellu sisulist tervet toetavat pühadust. Et me ei peaks seda asendama ärimudelite komponentide hulka kuuluvate hallutsinatsioonide ja psühhoosiga. Pühadusel on palju vorme, mille vahendusel selle ime meieni jõuab. Minu jaoks näiteks on nende ühisosa headus iseenese ja teise suhtes. See on südame valik, mida ei saa anda ükski tehnoloogia.
Kuniks meie maailma rikastamine käib andmete abil käitatavate tehnoloogiatega, on selle inimliku kontrolli aluseks tunnetus ja kontroll oma andmete üle. Et meil oleks individuaalne vabadus öelda ei seal, kus andmete kasutus meie väärtustega kokku ei lähe.
Meil on vaja aktiivselt keskenduda inimlikkusele. Üksteise ja iseenese kuulamisele ja mõistmisele. Me teame oskuseid, mida vajame enne kõiki teisi. Me ei saa enam teeselda, et on asju, mis on tähtsamad kui inimene olemine. Inimene masina ees.