Innovatsiooni ja moraali paradoks ehk Mehed, kas teil liimi on?

Innovatsiooni ja moraali paradoks ehk Mehed, kas teil liimi on?

Nagu tööstusrevolutsioon muutis tööjõudu ja linnastumist, nii on digirevolutsioon muutmas meie arusaama privaatsusest ja moraalist. Meie andmed on väärtuslikumad kui miski muu ja tehisaru on saamas uueks autoriteediks, millele delegeerime ka oma eetilised otsused. Kas tehnokraatide revolutsioon on ka meie revolutsioon?

Privaatsuse paradoks

Kas viimati toitu koju tellides mõtlesid sellele, mida see lihtne tehing tähendab peale selle, et toit jõuab (üldjuhul umbkeelse kulleri vahendusel) sinu juurde? Ei, ma ei pea silmas müütiliseks kujunenud CO2 jalajälje suurenemist, kuigi tõenäoliselt toimus taustal seegi. Hetkest, kui avasid toidutellimise rakenduse, käivitus andmete kogumise ja analüüsimise masinavärk, mis on parimal juhul ainult kaudselt seotud parema teenuse pakkumisega või tellimuse jõudmisega sinu asukohta. Selles mõneti paralleelses äriliinis on teised väärtused ja teised eesmärgid kui toidu ühest kohast teise liigutamine.

See pealtnäha lihtne tehing illustreerib hästi meie kompleksset suhet digitaalse privaatsusega: ühelt poolt aitavad süsteemid meil kiiremini paremaid valikuid langetada ja teisalt rikuvad need­samad süsteemid räigelt meie privaatsust. Me lepime sellega erinevatel põhjustel. Muidugi soovime lühendada tellimisele kuluvat aega (võrreldes sellega, kui pitsa tuli tellida telefonitsi, ongi kõik kiirem) ja loodame, et suurenev konkurents parandab hinna ja kvaliteedi suhet (ometi teades, et kapitalism pahatihti niimoodi ei toimi) ning paranoilisemad meist lohutavad endid mõttega, et „ma ei tee midagi, mille pärast peaks mu andmed kedagi huvitama“. Teisest küljest ei huvita meid enam paratamatuseks kujunenud andmevahetus, kus võrdsest tehingust – on ju ühel pool globaalne korporatsioon ja teisel pool tavatarbija, kelle võimalused enda eest seista on pärit eri galaktikatest – ei saa enam ammu juttugi olla, sest inimene ei suuda sellest iial võitjana välja tulla. Paralleelselt selle paratamatusega ei ole neil, kes veel ei ole IT-firmasse tööle läinud, aimugi, millise tehingu osapooled nad on või halvemal juhul – et nad üldse mingisse tehingusse peale toidu ostmise astunud on.

Seda, et tarbija on tahtmatult üks tehingu osapooltest – ja sealjuures veel kõige väärtuslikum – näitab kas või kõigile tuttavate Mastercardi ja Visa teenusportfell. Nii on näiteks Mastercardi üks tähtsatest teenustest makselahenduste pakkumise kõrval ka tarbijakäitumise andmed.1 Selle tehingu teised pooled on pangad, makse- ja müügilahenduste pakkujad, andmeanalüüsifirmad, pangakaartide väljastajad ja lõpuks ka avalik sektor.2 See tähendab, et iga kord kaardiga makstes käivitub järjekordne keskkonnaülene doomino, kus pole erilist vahet, kas maksad Selveri iseteeninduskassas või Amazonis – tehingu üks eesmärkidest on andmed.3

Privaatsus ulatub siiski kaugemale pelgalt andmete kogumisest ja analüüsimisest. Samal ajal kui Mastercard jälgib kõiki meie finantstehinguid, aitavad needsamad süsteemid ja tegutsemisviisid koos tehisaruga kaitsta meid pettuste eest, suurendavad küberturvalisust ja aitavad isegi tervise eest hoolitsemisel. Näotuvastusega, mille kurjast potentsiaalist saab hästi aimu nii Hiinas kui Ameerikas, aitab samal ajal luua pangakonto kodudiivanilt tõusmata, leitakse kadunud inimesi, lahendatakse lihtsaid kuritegusid ja peeni identiteedivargusi.

Sellises paradoksis oleme viimase 15 aastaga elama õppinud ja saame tegelikult ka hästi hakkama. Isegi kui selle hakkama saamise peamine eeldus on üha suurenev ignorantsus.

Moraalne paradoks

Suurte keelemudelite (large language models, LLM, nagu näiteks ChatGPT) kiire areng on toonud endaga lisaks võimekusele tähemärke peaaegu mõttekalt reastada, vähendada robotina koodi kirjutavate programmeerijate ridu ja toetada (andme)analüütikuid ka mõneti uued paradoksid.

Tarbija astub ka tehisaru kasutamisel tehingusse, millest tal üldjuhul erilist aimu pole. Privaatsuskadu, mis toidu tellimisel automaatselt arvele lisatakse, on tehisaru puhul aga üks väiksematest muredest – vaevalt leidub palju neid, kes arvavad, et juturobotiga jagatud info jääb ainult arvutiekraanile, või neid, kes arvavad, et tehisaru ei eksi kunagi. Kindlasti on rohkelt neidki, kes usuvad, et AI „jutt“ on tsenseeritud ja arvavad endid masina üle kavaldavat – oleme ju alles 30 aastat tagasi lahkunud tsenseeritud meediaruumist ja teame, milliste ridade vahelt mida otsida ja milliseid küsimusi esitada, et „õige“ vastus kätte saada.

Tehisaru üllatavalt hea võimekus genereerida inimlikku teksti, vastata küsimustele ja isegi luua näiliselt eimillestki originaalset sisu pildi, video, heli või tekstina, varjutab tehingu teise poole, milleks on privaatsuskadu, tsensuur ja välja mõeldud faktid (selle kohta kasutavad tehnokraadid ja tehnoloogid eufemismi hallutsineerimine). Selle uue ja huvitava võimekuse varjus peitub murettekitav tendents: suured keelemudelid on hakanud toimima omamoodi moraalimajakatena, peegeldades ja võimendades teatud eetilisi ja moraalseid seisukohti ning tühistades teisi.

Keelemudelite „moraalsus“ ei tulene mitte nende iseseisvast mõtlemisvõimest, sest seda nad ei suuda, vaid on otseselt seotud nende loojate ja treenijate väärtushinnangutega. Suurte tehnoloogia­ettevõtete arendajad, kes neid mudeleid loovad, kodeerivad – mõnikord loodetavasti ka lihtsalt rumalusest ja tahtmatult – oma maailmavaate ja eetilised tõekspidamised mudelite käitumisse. See tähendab, et kui küsime tehisarult nõu, saame alati vastuse, mis peegeldab Silicon Valley tehnokraatide ja korporatiivsete otsustajate vaateid. Lisaks kujundavad arendajad ja teadlased mudelite tööpõhimõtteid ja otsustusprotsesse, mis omakorda mõjutavad, kuidas need mudelid erinevates olukordades toimivad.

Kust saab tehisaru oma moraali?

See on nii, sest eranditult kõik LLMid genereerivad vastuseid ja uhiuut sisu, tuginedes oma koolitusandmete mustritele, mitte eetilistele tõekspidamistele või normidele. Need andmed ei ole kui deus ex machina, vaid tehakse masin­õppesüsteemidele kättesaadavaks ehk need põhinevad otseselt inimeste valikul. Kõik allikaid (raamatud, teadusartiklid, kunstiteosed, videod, veebilehed jne), kust masin infot saab, ja allikad, kust seesama masin infot võtta ei tohi (ehk välistamised) põhinevad siiani vaid ju ainult inimeste otsustel.

Esimesele andmetöötlusele järgneb keelemudeli peenhäälestamine, mille üks tehnikatest on elus kasutajate tagasiside, kus robot õpib kasutajate reageeringute põhjal oma vastuseid korrigeerima. Kui piisavalt palju tavakasutajaid ütleb, kuidas mingi konkreetne asi nende meelest on, ja kui see haakub tehisaru looja tõekspidamistega, siis kuvatakse kasutajatele edaspidi just sellist infot.

Lisaks sellele juhendavad AI-firmades elus inimesed keelemudelite käitumist: teatud väljundeid premeeritakse positiivsete ja teatud „juttu“ negatiivsete hinnetega. Nii nagu tavatarbija ei oska aimata, kuidas Bolt oma umbkeelseid kullereid ja autojuhte tasustab ja millised keerulised preemiasüsteemid nende teenuse osutamist otseselt mõjutavad, nii ei tea tavakasutaja, kuidas tehisaru oma vastuseid valib ja miks ta midagi tõe pähe serveerib. See, et mõni keelemudel võib kuvada (tema meelest) viisaka keelekasutusega inimestele „paremat“ infot, on ainult järjekordne detail.

Kolmandaks tuleb mõista, et iga LLM põhineb äril ja üldjuhul on igal ettevõttel oma kindlad reeglid ja poliitika. Kõik sisu modereerimise reeglid, millel AI koolitamised põhinevad, peegeldavad AI looja tõekspidamisi ja väärtushinnanguid. Need omakorda peegeldavad väga selgelt räniorgudes parajasti kehtivat narratiivi – maailmavaadet, mis ei pruugi olla ei hea, õige ega prevaleeriv, vaid omane ainult tehnoloogiasektori kitsale seltskonnale. Kui selle järgi peaks olema 27 sugu uus normaalsus ja loodusravi uhhuu-teadus, siis täpselt seda serveerivad dogmaatilise tõena ka LLMid. Sealjuures on nad valmis oma seisukohti tuliselt kaitsma, tuues põhjenduseks nii väljamõeldud fakte kui ka ebaloogilisi järeldusi.

Ja lõpuks on tehismõistus otseses sõltuvuses poliitilistest ja majanduslikest tõmbetuultest. Kui parajasti on AI teenust pakkuva ettevõtte koduturul võimul liberaalid, siis seda kipub peegeldama ka tema „jutt“. Kui aga valimised toovad võimule natsitervitustega vehkivad „konservatiivid“, siis võib eeldada, et üsna kiiresti muutub ka tehisaru genereeritav tekst. Et see tõesti kiiresti juhtub, näitavad OpenAI tööpõhimõtete uuringud – nende järgi on varasem vasak­liberaalsus on pärast Donald Trumpi ja Elon Muski võimule saamist asendumas vastandliku maailmavaatega.

Moraalipõhimõtete saladus

Samal ajal ei kipu AI arendajad oma klientidele liiga detailselt selgitama, millisel infol nende robot töötab, kuidas ja milliste reeglitega on seda koolitatud ja millistele narratiividele väljundid vastavad. Üldjuhul võetakse see kokku eufemismidega, millel puudub sisu. Nii ütleb näiteks OpenAI, et praegu on nende eesmärk luua mudeleid, mis on kasulikud, turvalised ja kooskõlas kasutajate vajadustega; selleks koolitavad nad keelemudeleid, mis „ei kahjusta kasutajaid“.4 Mis selle tagajärjel käsitlemata jääb või mida ja kuidas moonutatakse, ei saa ega tohi kasutaja teada, sest moraalinormid, millel see segadus põhineb, on ärisaladus.

Just nende sammudega on tehisintellekt näiliselt muutunud omamoodi moraalimajakaks, mis teab alati ja eksimatult, mida sobib elus inimesel elutu koodirea käest küsida (kas abort on õigustatud? vs. kuidas aborti läbi viia?), millist sõnavara on paslik selleks kasutada (neeger vs. mustanahaline) ja milliseid väärtushinnanguid (palestiinlaste massimõrv vs. juutide vabadus) tohib parajasti kanda nii küsimus kui vastus. Kuid teades kindlalt, et ühelgi keelemudelil ei ole oma moraalikompassi ega isegi mitte pisukest aimu sellisest kontseptsioonist, siis on tehisaru lihtsalt oma loojate moraalset (ärihuvide, poliitiliste sidemete ja kultuuriliste eelarvamuste) nägu ja see nägu ei küsi, mis on õige, vaid lähtub sellest, mis on aktsionäridele ohutu.

See on Facebooki moraal, mis eelistab kõike, mis hoiab kasutajaid nende platvormil (sõltumata inimese vaimsest tervisest) ja valeinfo levitajana „kontrollib fakte“; Google’i moraal, mis välistab Hiina kompartei kritiseerimise (kas sellepärast, et neil on seal ärihuvi?); Microsofti moraal, mis blokeerib viited Palestiina okupatsioonile (kas sellepärast, et selline on nende korporatiivpoliitika?); see on Uberi nägu, kes maksis nais­juhtidele vähem, sest nende „algoritm lihtsalt töötas nii“; ja see on ka OpenAI ­ nägu, kes tsenseeris karmilt kõike, mis riivas lääne liberaalse eliidi parajasti domineerinud tabusid (kas sellepärast, et nii oli nende meelest õigem ja moraalsem?); ja see on ka selle OpenAI nägu, mis järgmisel äriliselt sobival hetkel keerab ennast vastassuunda ja toetab konservatiivsust kui järjekordset ülimat tõde. Aga ka Hiina DeepSeeki nägu, mis räägib uiguuridest vastavalt kehtivale Hiina partei narratiivile.

Tehisaru praegusel kujul, kus see suudab infot analüüsida ennenägematult hästi, leida uusi seoseid ja pakkuda välja tõesti töötavaid lahendusi, anda asjalikku nõu ja olla ühtviisi abiks nii koduperenaisele kui tehasejuhile, on asendamatu assistendi ja virinavaba kolleegi kehastus. Kuid sellega kaasnevas üha suuremas moraaliparadoksis edukalt navigeerimiseks pole robotilt abi loota – just tema loojad ongi selle paradoksi loonud ja nemad selle igavese püsimise eest ka võitlevad.

Küll aga võib isegi nii abstraktse nähtuse juures, nagu seda on moraaliparadoks, olla abi küsimusest: kui tehnokraadid müüvad sulle revolutsiooni, siis kelle revolutsioon see on?

1 Driving efficiency and value for our customers and empowering them to solve business problems from end-to-end. Mastercard Product Catalog.

2 Knowledge Partner Mastercard, Know your enemy: Using data to tackle COVID-19. – www.globalgovernmentforum.com 17. VIII 2020.

3 Offline Purchases Onboarding. Dynamic Yield by Mastercard

4 Model Spec. OpenAI 8. V 2024.

Sirp