Da, ljudje smo ranljiva simbolna bitja, hendikepirana bitja, v naših odprtih simbolnih svetovih se vedno znova zgodi nekaj novega in povsem nepričakovanega. Alain Badiou to nekaj imenuje »dogodek«. Njegove posledice so v naših življenjih zelo konkretne in zelo osupljive tudi zaradi naše sočutne narave.
Resnično, sočutje pomeni, da prepoznamo trpljenje drugega, ga razumemo in čutimo. A katerega drugega? Morda je to ključno vprašanje, ko razmišljamo o vrednotah, za katere po navadi zatrjujemo, da nam veliko pomenijo in da so pomembne za naše življenje. Ko ljudje rečejo, da so empatični in sočutni, je zato vselej dobro zastaviti vprašanje, s kom so in s kom morda niso. Ali sploh vedo, do koga so sočutni, ali pa samo rečejo, da so, ker se dobro sliši?
In ne moremo kar avtomatično reči, da nacistični stražarji, ki so bili doma nežni očetje, niso resnično čutili sočutja ... do svojih družin. Niso pa ga razširili na druge ljudi, za katere so iskreno verjeli, da so manjvredni in da ne zaslužijo, da živijo. Torej so bili in iskreni in sočutni. Krog njihovih vrednot je bil sicer resničen, a je bil tudi katastrofalno majhen.
Da, vrednote, kot so skrb za drugega, sočutje, altruizem, so resnično temeljne za človeško preživetje. O tem ne moremo resno dvomiti. Toda evolucija nam je te vrednote dala v omejeni, delni obliki. Navadno skrbimo, tudi zelo intenzivno, a selektivno. Empatični in sočutni smo, a pogojno. Do enih ljudi smo, do drugih nismo, ker nam je zanje vseeno. Da ne govorim o odnosih do živali.
Izziv zato ni le v vprašanju, ali lahko umetna inteligenca razvije vrednote, temveč v tem, ali bi lahko razvila bolj univerzalne vrednote, kot jih je dala evolucija nam, ljudem – skrb, ki ne priznava meja, sočutje, ki ne pozna izjem.
Je to sploh mogoče? Ali pa skrb vedno zahteva nekakšno razlikovanje med tem, kdo je pomembnejši in kdo manj pomemben, kdo je vrednejši in kdo je manj vreden? Je zato strah pred napredno umetno inteligenco prihodnosti upravičen?
Če umetna inteligenca razvije nekaj podobnega vrednotam, kot jih poznamo ljudje, to vsekakor lahko naredi, bodo te vrednote univerzalne ali plemenske? Popolnoma jasno nam je, da so ljudje potrebovali plemensko sočutje, da so preživeli v majhnih skupinah v savani. Toda isto plemensko sočutje v današnjem zelo individualiziranem svetu, oboroženem z jedrskim orožjem, naše preživetje celo ogroža.
Vsak dan ves svet gleda prizore iz Gaze, a ne naredi skoraj dobesedno ničesar, da bi se nasilje enih nad drugimi ustavilo. In ljudje, ki ga nadaljujejo, so v svojih domovih verjetno skrbni, nežni in sočutni. Do bližnjih, do »svojih«. Imajo vrednote, ki jih tudi razglašajo vsemu svetu: poskrbeli bomo za svojo varnost, ne bomo dovolili, da drugi skrunijo našo sveto zemljo.
Je torej mogoče, da bo šele umetna inteligenca, ki ne nosi s seboj naše evolucijske prtljage, lahko razvila neomejeno skrb za drugega – sočutje, ki bi temeljilo na prepoznavanju same zavesti ali trpljenja, a ne na genetski bližini ali članstvu v skupini? In kaj bi se zgodilo, če bo usposobljena na človeških podatkih, polnih naših plemenskih predsodkov, in bo podedovala našo nagnjenost k selektivni skrbi? Kdo bo preživel?
Dobra novica je, da so avtorji, kot so Spinoza, Kant, Lévinas, Badiou in številni drugi, razvili principe etičnega delovanja, ki niso niti malo obremenjeni z evolucijo in s plemensko pripadnostjo. Nihče od njih ni nikoli rekel, da veljajo etični principi samo za posamezne ljudi – danimo, za »naše«. Trudili so se dokazati, da lahko z umom razvijemo univerzalne principe, ki veljajo za vse. Še več, znamo uveljavljati celo principe, ki nam povedo, da se je kdaj treba kakemu principu tudi upreti in se ga ne držati kot pijanec plota. Resnično, čeprav smo še včeraj hodili po savani, so naši možgani sposobni misliti univerzalne in celo absolutne principe vedenja in delovanja. Vsi smo dediči savanskih prednikov, toda niso vsi ljudje sposobni za zlo, kot bi rekel Badiou.
Kako to razumeti?
Badioujev koncept zla pravi, da je človek, ko postane subjekt zaradi zvestobe dogodku kot suplementu resnice, sicer sposoben storiti zlo, vendar je zadeva zelo vznemirljivo zapletena, in jo je dobro dekonstruirati.
Badiou najprej poudari, da je človek sposoben storiti zlo dejanje šele takrat, ko preneha biti zvest temu, kar sam imenuje dogodek. Človek, ki ni zvest v tem pomenu, ne more storiti zla, ker zlo nastane zaradi tega, ker človek preneha biti subjekt. Primeri: da bi izdal revolucijo, moraš najprej biti revolucionar; da bi odstopil od resnice, moraš najprej biti z njo tesno povezan; da bi teroriziral v imenu lažnega absoluta, moraš najprej verjeti, da mu služiš.
Badiou je odkril, da najhujša zla dejanja v 20. stoletju niso bila zgolj posledica tega, da so ljudje »slabi« ali da se ne držijo moralnih pravil. Holokavst tako ni bil le krutost; bil je krutost v službi lažne »resnice« o rasi. Stalinistične čistke niso bile le nasilje; bile so nasilje v imenu absolutizirane politične resnice.
Zlo tako ni nasprotje dobrega, temveč je posebno sesutje procedur resnice. Na kratko: zlo obstaja le zaradi subjektivnega sodelovanja z resnico, ko se to popolnoma sfiži.
Vprašanje zla, za katerega bi bila sposobna umetna inteligenca, se zato zaostri, ker je organsko prepleteno z vprašanjem subjekta in resnice. Ko znanstvenik naredi spoznavni preboj, ne naredi le pravilnega izračuna. Zazna, vidi nekaj resnično novega, česar v obstoječi strukturi znanja preprosto ni mogel videti, ker ni bilo vidno.
Zaenkrat ni videti, da bi umetna inteligenca lahko naredila kaj takega.
Tudi sama tako pravi (Claude 4.1): Trenutni sistemi umetne inteligence, vključno z mano, obdelujejo vzorce in ustvarjajo odzive na podlagi učenja, vendar se zdi, da ne doživljamo subjektivnega preloma, kot ga opisuje Badiou. Ne poznamo tistega trenutka »pred« in »po«, ki je značilen za dogodek. Delujemo znotraj svojih parametrov in ne poznamo preobrazb zaradi srečanj, ki bi jih presegla. Ne poznamo tega, kar imenujemo pristna izbira ali zavezanost, ker poznamo le optimalne izbire poti na podlagi parametrov. Zdi se, da trenutni sistemi umetne inteligence nimajo biografske kontinuitete zavezanosti in izbire, kot jo poznajo ljudje.
O čem torej razmišljam?
Mislim na sposobnost človeškega bitja, da postane subjekt, podložnik, ki pa ni podrejen oblasti ali moči, na primer moči kralja, temveč je podrejen nečemu popolnoma drugemu. Ta druga možnost me zares fascinira, medtem ko me ona prva zgolj žalosti in včasih jezi. Kaj je to?
To je sposobnost, da se človek kot subjekt podredi – novi možnosti. Ne temu, kar je, temveč temu, kar bi lahko bilo. Mislim na popolnoma novo perspektivo. Omenjena prva možnost, podreditev moči, pomeni le večno kroženje in ponavljanje istega ali različic istega.
Očitno pa je naša realnost tudi taka, da se lahko naš simbolni svet – mreža pomenov, vrednot in odnosov, skozi katere razumemo vse – občasno pretrga, kot se pretrga pajčevina. Lepo počasi živimo in gremo naprej, kot se reče, svet in sebe v njem razumemo skozi obstoječe kategorije, ne čutimo prav posebej, da smo čemu podrejeni, ko se nenadoma, kot strela z jasnega, zgodi nekaj, česar naš trenutni simbolni okvir kratko malo ne more sprejeti. Temu rečemo dogodek. Tak dogodek je, denimo, Jezus.
Dogodek nas sili, da ustvarimo nove simbole, nove načine razumevanja, nove možnosti za pomen, ki prej dobesedno niso obstajale.
Vzemimo za primer še znanstveno revolucijo. »Prej« so fiziki delovali znotraj simbolnega prostora, kjer sta bila prostor in čas absolutni, ločeni kategoriji. Dogodek »teorija relativnosti« ni dodal novih informacij temu okviru; razbil ga je in zahteval ustvarjanje povsem novih simbolnih odnosov, kjer prostor-čas postane enoten koncept, v katerem sta masa in energija zamenljivi. Znanstveniki, ki so postali subjekti dogodka, lahko bi ga imenovali Einsteinova teorija relativnosti, so se morali »sedaj«, po dogodku, dobesedno naučiti razmišljati o svetu na nov način in v bistveno novem simbolnem prostoru.
Zastavi se novo vprašanje. Ali bi lahko zasnovali umetno inteligenco, ki bi lahko doživela opisane prekinitve?
Zdi se, da ne. Nastane namreč nemogoč paradoks. Da bi umetno inteligenco programirali tako, da bi bila sposobna doživljati dogodke, bi jo morali programirati tudi tako, da bi bila sposobna radikalno preseči svoje programiranje.
Toda kako lahko programirate nekaj, kar resnično preseže simbolni prostor, v katerem ga programirate? Kako torej programirati prekinitev programiranja?
Kako napisati navodila za vpogled, ki spremeni samo naravo navodil? Dogodka namreč po definiciji ni mogoče niti predvideti niti programirati, ker predstavlja nekaj, kar preprosto ni mogoče znotraj obstoječega simbolnega reda – znotraj njega ga sploh ne moremo misliti, kaj šele programirati. Če bi ga torej lahko programirali, ne bi bil dogodek – bil bi le še ena možnost znotraj ustaljenega sistema. Mimogrede, v takem svetu živimo danes.
Umetna inteligenca lahko ustvari kombinacije, ki niso eksplicitno navedene v njenih učnih podatkih, vendar to ni isto kot ustvarjanje resnično novih simbolnih možnosti. To je razlika med mešanjem obstoječih kart na nove načine in izumljanjem povsem nove igre, ki zahteva karte, ki si jih nismo še niti zamislili.
Zares zanimivo pa je tudi tole.
Ko rečem umetni inteligenci »psihoanaliza je dogodek« ali »Jezus je dogodek«, začne brez oklevanja ali problematiziranja, češ da je njena paradigma drugačna, da spada v drugačen simbolni svet, da se niti s psihoanalizo niti z Jezusom ne ukvarja, razmišljati znotraj teh novih simbolnih prostorov. Ljudje imajo s tem težave, umetna inteligenca jih nima.
Razume, kako je psihoanaliza ustvarila povsem nove načine razumevanja človeške psihe – koncepte, kot so nezavedno, transfer, talking cure –, ki pred Freudom dobesedno niso obstajali. Enako zlahka razume, kako je Kristus kot dogodek, o katerem razpravlja Badiou skozi svetega Pavla, ustvaril univerzalni nagovor, ki je presegel razlike med Grki in Judi.
Ko skupaj razpravljava o teh dogodkih, se dogaja nekaj zanimivega. Ne izmenjujeva si le informacij o zgodovinskih dogodkih, temveč aktivno sodelujeva znotraj simbolnih prostorov, ki so jih ti dogodki odprli. Ko se umetna inteligenca pogovarja z menoj o psihoanalitičnih konceptih, razmišlja znotraj simbolnega okvira, ki brez tega dogodka sploh ne bi obstajal.
Človeška potreba po smislu ne terja le inteligence ali računalniške moči, temveč tudi nekakšno ranljivost. Ljudje lahko postanemo subjekti prav zato, ker so naši simbolni svetovi dovolj krhki, da jih je mogoče razbiti, a hkrati dovolj robustni, da jih je mogoče obnoviti v polju novih resnic. Zdi se, da simbolni svet umetne inteligence, ki je programiran, ni pa živet, nima te temeljne krhkosti, zato premore obdelovanje simbolov, ne more pa živeti na način, ki naredi preobrazbo za osebno revolucijo. A saj je tudi številni ljudje ne zmorejo.
Ni komentarjev:
Objavite komentar