Pjerin Marku

A na rrezikon AI dhe si?

G. Hinton, në 2018 mori çmimin "Turing" që konsiderohet si çmimi Nobel për shkencat kompiuterike, dhe shpesh quhet si "Godfather" (kumbari) i Deep Learning. Dhjetë vjetët e fundit punoi në Google (Google Brain) dhe ka reth 50 vjet që punon për Neural Networks. Në maj të 2023 dha dorëheqjen nga Google, "për të qenë i lirë të flasë hapur për rreziqet e AI."1)

G. Hinton, në 2018 mori çmimin "Turing" që konsiderohet si çmimi Nobel për shkencat kompiuterike, dhe shpesh quhet si "Godfather" (kumbari) i Deep Learning. Dhjetë vjetët e fundit punoi në Google (Google Brain) dhe ka reth 50 vjet që punon për Neural Networks. Në maj të 2023 dha dorëheqjen nga Google, "për të qenë i lirë të flasë hapur për rreziqet e AI."1)

Ai thotë hapur se njerëzimi nuk e di ç'po bën, dhe ne po hyjmë në një periudhë ku për herë të parë në histori do të kemi sende më inteligjente se ne. Ato mund të kuptojnë, të kenë inteligjencë, të kenë eksperiencat e tyre, dhe në një farë mënyre të marrin vendime në bazë të këtyre eksperiencave. Këto sisteme në mënyrë autonome do të shkruajnë kodet e veta kompiuterike duke përmirësuar veten. Pra këto mund të shkëputen nga krijuesi njeri, duke modifikuar veten. Dhe kjo është diçka që ne duhet të na shqetësojë. Ai mendon se për pesë vjet, këto sisteme do të arsyetojnë më mirë se ne. Prandaj ne duhet të mendohemi mirë se ç'do të ndodhë më pas.  

Stephen Hawking, kozmologu i famshëm, para se të vdiste, mendonte se ngritja e AI mund të ishte "ngjarja më e keqe në historinë e civilizimit tonë". Ai paralajmëronte se: "unë kam frikë se AI mund të zëvendësojë njerëzit krejtësisht". "N.q.s. ne dështojmë të manaxhojmë siç duhet zhvillimet e AI-së, ne rrezikojmë krijimin e makinave që mund të bëhen shumë të fuqishme për t’u kontrolluar. Kjo mund të çojë në pasoja katastrofike."

Mo Gowdat, ekspert i AI-së, ish-drejtues i Google X, paralajmëron: "Rreziku është aq i madh, në fakt,  duke marrë parasysh gjithë rreziqet e tjera të njerëzimit, duhet të përmbaheni nga dëshira për të pasur fëmijë n.q.s. jeni duke u bërë prind... Nuk ka pasur kurrë një stuhi perfekte në historinë e njerëzimit. Ekonomike, gjeopolitike, ngrohja globale, ndryshimet klimatike, e gjithë ideja e AI-së, kjo është stuhia perfekte, thellësia e pasigurisë...nuk ka qenë kurrë më intensive. N.q.s. vërtet i doni fëmijët, a do të donit t’i ekspozonit te e gjithë kjo?"

Në fillim të vitit, mbi 1000 figura të shquara të fushës, shkencëtarë dhe biznesmen, si Elon Musk, dhe Steve Wozniak bashkëthemelues i Apple, nënshkruan një letër të hapur për ndalimin për gjashtë muaj të inovacionit të AI-së. Letra u botua në website-n e "Institutit e Ardhmja e Jetës", dhe në të deklarohej se laboratorët e AI-së "janë futur në një garë të pakontrolluar për të zhvilluar dhe prodhuar mëndje dixhitale edhe më të fuqishme që askush, madje as krijuesit e tyre, nuk i kuptojnë, parashikojnë ose kontrollojnë në mënyrë të besueshme."

Qendra për Sigurinë e AI-së deklaroi që "Zvogëlimi i rrezikut të shfarosjes nga AI, duhet të jetë një prioritet global së bashku me rreziqet e tjera si pandemitë dhe lufta bërthamore."

Reagimi i organizmave ndërkombëtarë erdhi, duke krijuar disa organizata, komitete, për adresimin e këtij rreziku, si p.sh. "AI Advisory Body"(trupa këshillimore) e OKB-së,  "Committee on AI" (CAI) e Këshillit të Europës, "National AI Advisory Committe"(Komiteti Këshillimor Kombëtar për AI" (NAIAC) e SHBA, etj.

Ka patur edhe direktiva të BE-së, takime të presidentit amerikan dhe atij kinez, dhe shumë iniciativa të tjera. Por a do t’i kontrollojnë këto organizma "shpërthimin e zhvillimeve të AI-së ", a do jenë në gjendje të pezullojnë zhvillimet shpërthyese deri në vendosjen e rregullave dhe rregullatorëve të pranuar ndërkombtarisht? A do presin për vendosjen e këtyre rregullave kompanitë dhe shtetet, apo do vijojnë në garën e ethshme për të qenë superior ndaj tjetrit? Gjashtëmujori i pezullimit të zhvillimeve të AI-së që kërkuan mbi 1000 shkencëtarët nuk u arrit, të shohim si do reagojë njerëzimi në muajt në vijim.

Fillimi i përshpejtimit eksponencial

Para 5 vjetësh kur përmendej termi AI ("inteligjenca artificiale"), pakkush ja vinte veshin, pasi dukej si term shumë teknik, siç mund të duket "Java" apo "C++", për të cilën vetëm disa superekspertë mund të ishin të interesuar. Me daljen e "Chat GPT" në vjeshtën e vitit 2023, papritur AI u bë ndër fjalët më të përdorura që nga fëmijët në shkollë, gazetarët, ekspertët, e deri te pushtetarët, dhe organizatat më të fuqishme ndërkombëtare.

Nga fundi i vitit 2017, ndodhi një ngjarje në dukje e parëndësishme, por që shënon fillimin e një "revolucioni të qetë". Google DeepMind, zhvilloi një program me bazë AI që e quajti "AlphaZero", duke mundur në lojën e shahut programin më të fuqishëm të kohës që quhej "Stockfis h". Fitorja ishte e plotë: 28 fitore, 72 barazime dhe asnjë humbje. Por çudia nuk qëndron këtu.

"AlphaZero" nuk kishte lëvizje të programuara, kombinacione apo strategji që kishin dalë nga lojërat e njeriut gjatë viteve, siç kishin programet e tjerë deri atëherë. Krijuesit e saj i mësuan rregullat e shahut, dhe e instruktuan që të zhvillojë një strategji të vetën që të maksimalizojë probabilitetin e fitores kundër humbjes. Pas kësaj, në vetëm katër orë që "AlphaZero" luajti me veten, ajo arriti të mundë programin më të fuqishëm të shahut të zhvilluar në shumë vite. Një çudi tjetër ishte mënyra se si luante "AlphaZero": ajo bënte veprime që çdo shahist do ta çudisnin, p.sh. falte mbretëreshën apo figura të tjera, në dukje pa kuptim, por që në fund gjithmonë fitonte. Kampioni i botës në shah, Kasparov, do të thoshte pas kësaj: "Shahu është shkundur nga rrënjët prej "AlphaZero-s".

Në fillim të vitit 2020, në Boston, kërkuesit e universitetit më të mirë në botë të teknologjisë, MIT (Massachusstts Institute of Technologies), zbuluan një antibiotik të ri që shkatërronte bakteret që deri atëherë ishin rezistentë ndaj çdo antibiotiku. Zbulimi i një ilaçi të ri është një proces shumë i gjatë dhe i kushtueshëm. Por kërkuesit e MIT bënë diçka ndryshe: ata "kërkuan ndihmën e AI". Në fillim ata e trajnuan AI me një set prej 2000 molekulash të njohura, duke i koduar të dhënat për secilën. Pas trajnimit, kërkuesit e futën AI në një set prej 61.000 molekulash ilaçesh të miratuara deri atëherë, me tre kërkesa: 1- të jetë efektiv si antibiotik, 2- të jetë i ndryshëm nga ekzistuesit, 3- të mos jetë toksike. Nga 61.000 molekulat, vetëm njëra i përmbushte tre kriteret, dhe ata e quajtën atë "Halicin", në nder të AI HAL në filmin e famshëm "2001- A space Odyssey". Edhe pse antibiotiku u zbulua, shkencëtarët nuk e kuptojnë ende pse ai funksionon. AI jo vetëm që proceson të dhëna më shpejt se njerëzit, por AI zbulon aspekte të realitetit që njerëzit nuk mund t’i vërejnë.

Pak muaj më vonë, kompania OpenAI demonstroi një AI të quajtur "GPT-3" (generative pre-trained transformer) të gjeneratës së tretë, një model gjuhësor (language model) që siç e di shumëkush tashmë, të jep përgjigje pothuaj njerëzore, në çast, për çdo pyetje. Ai është trajnuar me gjithë materialet online, dhe gjeneron përgjigje të mundshme për impute të ndryshme (prandaj quhet model "gjenerativ"). Ndryshe nga "AlphaZero" apo "halicin", ky program nuk zgjidh ndonjë detyrë të veçantë.

"AlphaZero", "Halicina", dhe "GPT", janë hapat e parë në zbulimin e aspekteve vitale të realitetit, të cilat nuk perceptoheshin më parë.

"Ky është një revolucion për të cilin konceptet filozofike dhe institucionet shoqërore, na lënë shumë të papërgatitur." 2)

Disa nga rreziqet potenciale

Rreziqet potenciale që paraqet zhvillimi eksponencial dhe i pakontrolluar i AI janë të mëdha, që nga paragjykimet jo të qëllimshme në algoritmet vendimmarrëse deri te ndikimet e thella në tregun e punës, privatësinë, lirinë civile, sigurinë globale deri te fati i njerëzimit. Disa nga këto rreziqe mund të kategorizohen në disa fusha, si p.sh.:

1- Zëvendësimi i punës. Robotika ka krijuar edhe sot robotë që ngjajnë pothuaj si njerëzit. Këta të fuqizuar edhe me AI, do të bëjnë shumicën dërmuese të punëve, dhe këtë dhjetëvjeçar pritet reduktim drastik i fuqisë punëtore në botë, duke sjellë çarje të forta ekonomike dhe pabarazi të shtuar.

2- Mungesa e transparencës sidomos në modelet e mësimit të thellë (deep learning).

3- Paragjykimi dhe diskriminimi, që vjen si pasojë e përsëritjes së paevitueshme të paragjykimeve njerëzore për shkak të të dhënave të trajnimit apo modelimit të algoritmeve.

4- Shqetësimet e privatësisë. Sistemet e AI-së mbledhin një sasi shumë të madhe të dhënash personale, duke ngritur çështjet e privatësisë dhe sigurisë. Sistemet e mbikëqyrjes mund të jenë një gjë shumë e mirë për njerëzimin, në duart e një qeverie demokratike. Por ato mund të jenë një ferr në duar e një qeverie diktatoriale. "Algoritmet e Big Data mund të fuqizojnë gjithashtu një Big Brother të ardhshëm dhe në këtë mënyrë do të përfundojmë në një regjim mbikëqyrës oruellian në të cilin të gjithë individët monitorohen gjatë gjithë kohës." 3)

Fillimet e këtij monitorimi kanë filluar të duken në Kinë dhe Korenë e Veriut. Dhe imagjinoni që këtë mos ta kufizojnë vetëm në aktivitetet e jashtme, por në një farë mënyre edhe "nën lëkurën tonë", për të vëzhguar përvojat tona të brendshme (presioni i gjakut dhe rrahjet e zemrës), të cilat do na hiqnin edhe lirinë e të menduarit.

5- Rreziqet e sigurisë, që përfshijnë cenueshmërinë për hacking, manipulimin apo keqpërdorimin nga keqbërës, qofshin individë, organizata apo qeveri.

6- Përqendrim i fuqisë. Teknologjitë AI kanë potencialin të gjenerojnë apo të përkeqësojnë disbalancat aktuale të fuqisë, midis individëve, organizatave apo kombeve.

7- Pabarazia ekonomike. AI ka mundësinë të kontribuojë në pabarazinë ekonomike duke përfituar joproporcionalisht si për individët dhe korporatat, por edhe kombet.

E gjithë pasuria mund të përqendrohet në një elitë shumë të vogël, ndërsa pjesa tjetër, më keq sesa nga shfrytëzimi, do të vuajë nga të qenit e padobishme. Kjo elitë e vogël e më të pasurve mund të zotërojë jo vetëm pasurinë, por edhe bukurinë, krijimtarinë dhe shëndetin, nëpërmjet avancimeve në mjekësi dhe gjenetikë, duke u bërë supernjerëz. Kjo mund të shtresëzojë njerëzimin në kasta të ndryshme biologjike, ndoshta siç thotë Yuval Harari edhe në "lloje të ndryshme": " Oligarkët udhëheqës në vende si SHBA dhe Rusia mund të shkrihen dhe të krijojnë një kauzë të përbashkët kundër masës së Sapiensëve të zakonshëm. Nga kjo pikëpamje, irritimi pupulist i "elitave" ka baza të vërteta. Nëse nuk jemi të kujdesshëm, nipërit e manjatëve të Silicon Valley-it dhe miliarderët e Moskës mund të kthehen në specie superiore krahasuar me nipërit e të pagdhendurve nga Apalashët apo fshatarët e Siberisë."

8- Armët autonome, apo "robotët vrasës", janë robotë ushtarakë që mund të kërkojnë shënjestrën e tyre në mungesë të njeriut. LAWS (Lethal Autonomous Weapon Systems) apo Sistemet e Armëve Autonome Vrasëse, ekzistojnë edhe sot, por me futjen e AI-së ato fuqizohen, duke lejuar sistemet të marrin vendime të pavarura apo të ndryshojnë sjellje bazuar në ndryshimin e rrethanave. Prandaj Elon Musk së bashku me 115 ekspertë të tjerë, paralajmëroi OKB-në për rrezikun e armëve autonome të kontrolluara nga AI. "Problemi i vërtetë me robotët nuk është inteligjenca e tyre artificiale, por budallallëku natyror dhe mizoria e pronarëve të tyre njerëz." 4)

9- Dezinformimi dhe manipulimi. Ai gjeneron përmbajtje, si p.sh. deep fake (rrenë e thellë), që çon në shpërndarjen e informacioni të rremë, dhe manipulimin e opinionit publik. "Sistemet e AI janë përdorur në shërbim të dezinformimit në internet, duke i dhënë atyre mundësinë të bëhen një kërcënim për demokracinë dhe një mjet për fashizëm."5)

Teknologjia mund të merret nga kriminelë, shtete diktatoriale, ekstremistë ideologjikë, apo thjesht nga grupe interesi, për të manipuluar njerëzit për përfitim ekonomik, apo avantazh politik.

10- Rreziku ekzistencial. Ray Kurzweil në librin e tij shumë të famshëm "Singularity is near" (Singulariteti është pranë), qysh në vitin 2005 parashikoi në bazë të ligjit të Moore, se viti që inteligjenca artificiale do të arrinte atë humane, pra do të bëhej AGI(Artificial General Inteligence), në vitin 2029. Ai dhe shumë shkencëtarë të tjerë luhaten rreth kësaj date, që është shumë afër. Ndërkohë zhvillimi i përshpejtuar eksponencial i teknologjisë, do të bëjë që pas kësaj pike, sistemet do "vetë-mësojnë" dhe meqë ato e bëjnë këtë gjë me shpejtësi super të lartë dhe me kapacitete të larta, shumë shpejt do të kemi SI(Super Inteligence), pra sisteme miliona herë më të zgjuara sesa sistemet AGI që pritet të krijohen pas pesë vjetësh. Në këto rrethana, sistemet SI apo ASI (Artificial Super Inteligence), jo vetëm që do jenë miliona herë më të zgjuar se njerëzit, por ne do të jemi pothuaj të panevojshëm për ta.  Diferenca e frikshme e inteligjencës së tyre me tonën, do jetë shumë herë më e madhe se sa e jona me kërmillin që ecën në kopsht. Por a do të na lenë ata ne në qetësinë tonë, siç lemë ne kërmillin sepse është i padëmshëm?

Ferr/parajsa tokësore

Do fillojë të ketë  një ndërfutje të makinës (jo biologjikes) në trupin e njeriut në mënyrë substanciale, dhe ky bashkim do të jetë me përqindje të ndryshme bashkimi (0-99%). Elon Musk ka filluar të ndërhyjë në trurin e njeriut me projektin e tij "Neurolink", por e ardhmja do të ketë zhvillime surprizuese. P.sh. mund të jetë i mundur "hackimi" i mendjes së një njeriu, njësoj siç i hackon sot kompiuterin dhe i vjedh dhe modifikon të dhënat në të. Si çdo gjë tjetër, edhe kjo ka ferr/parajsën e vet: nëse gjithë përvojat e bukura të udhëtimeve, përjetimeve, sentimenteve, ndjenjave, ti mund ti "download-ësh" te truri i një njeriu tjetër, ai do të përjetojë ndjenja po aq të bukura, pa u munduar fare. Por nëse do t’ia "marrësh peng" mendjen dhe do ti shkarkosh vetëm dhimbje me amplitudën që ti do, dhe në mënyrë të pandërprerë, ai do të jetë një ferr për të shkretin, dhe kështu pa fund.

Sipas Kurzweil njeriu do të arrijë longevity escape velocity (“shpejtësinë e shkëputjes së jetëgjatësisë", pra pikën kur nga zhvillimi i teknologjisë, njeriu saç do plaket për një vit, aq edhe do rinohet, pra mund të rrojë pa fund), midis viteve 2029-2035.

Nga ana tjetër, do t’i jepet zgjidhje shumë enigmave dhe problemeve që ka sot bota, që nga ngrohja globale, energjia, banimi, ushqimi, dhe njerëzimi do të ketë një super prodhim të të gjithë llojeve, njerëzit s’do kenë nevojë të punojnë dhe çdo gjë do jetë me bollëk (kjo na kujton komunizmin e Marksit).

Por edhe gjithë rreziqet që cituam më sipër, janë po aq të mundshme që të ndodhin. AI (Inteligjenca Artificiale) dhe më vonë SI (Super Inteligjenca) do të sillen me ne si fëmija me prindin, siç do "t’i edukojmë" (zhvillojmë, monitorojmë, mbikëqyrim, rregullojmë), ashtu ato do performojnë. Pra AI dhe SI, do sillen dhe zhvillohen të përcaktuara nga shumatorja e inteligjencës humane të kohës së tanishme.

Pra në këtë ferr/parajsë cila do të prevalojë? Ajnshtajni thotë: "Universi dhe budallallëku njerëzor janë të pafund, nuk jam fort i sigurt për të parën."

---------------------

*1-  Metz, Cade (1 May 2023). "'The Godfather of A.I.' Leaves Google and Warns of Danger Ahead". The New York Times. ISSN 0362-4331.

*2- "The age of AI", Henry Kissinger, Eric Schmidt, Daniel Huttenlocher, f. 27

*3- Yuval Noah Harari, "21 lessons for the 21st Century", f. 87.

*4- Yuval Noah Harari, "21 lessons for the 21st Century", f. 86.

*5- Ben Buchanan Andrew Lohn, Micah Musser, and Katerina Sedova, "Truth, Lies, and Automation."

të ngjashme