Caută
Avatarurile unei existențe
Inteligența artificială: oportunități și riscuri

Inteligența artificială: oportunități și riscuri

Nu de IA ar trebui să ne fie teamă, ci de ceea ce aceasta preia de la noi

Câteva avantaje posibile

Încep cu ceea ce ar putea constitui veștile bune, situate în orizontul multiplelor posibilități pe care le generează inteligența artificială (IA). Deoarece exemple de acest tip pot fi găsite lesne în spațiul virtual, voi indica două dintre ele mai puțin discutate.

Posibilitatea unei forme de „nemurire”

Prezența noastră digitală (mai ale online) generează posibilitatea reconstrucției unor fragmente din existența individuală, aducând în discuție existența unei forme de „nemurire”. O IA care coagulează aceste date într-un cloud și organizează relațiile dintre unități sună posibil. În felul acesta ceva din noi ar putea supraviețui în „Raiul informatic”. (Evident, ar putea să nu fie tocmai o persoană. Dar acest neajuns este parțial compensat de faptul că situația pare să fie relativ identică în alte forme de supraviețuire imaginate. Spre exemplu, dacă în Raiul creștin nu mai trebuie să alegem atunci absența necesității deciziilor pune în discuție cel puțin o forma de diluție a ceea ce acum credem că este o persoană.)

Am putea fi co-proprietari ai IA

Deoarece IA se ivește prin utilizarea unor meta-date la care am contribuit toți sau cel puțin unii dintre noi, este relevantă problema drepturilor de autor. Dacă gândirea inteligenței artificiale este bazată pe textele disponibile online (exemplul ChatGPT), existența ei fiind caracterizată de înglobarea unui număr mare de gânduri (scrise) individuale, atunci rezultatele ei ar trebui să fie considerate ca aparținând mulțimii autorilor. (Problema identificării contribuției bănuiesc că poate fi rezolvată prin apelul la capacitatea de procesare a IA.)

Câteva riscuri

Transformarea IA în persoană

Selecția inteligenței umane a fost bazată pe câteva principii care lipsesc deocamdată în cazul IA. Unul dintre aceste principii îl constituie „a avea pielea în joc”, adică a suporta costurile erorilor (la nivel individual și comunitar). Acest principiu include percepția riscului, respectiv capacitatea de-a estima costurile și a le trăi anticipativ prin intermediul unor mecanisme de simulare (neuronale și, mai ales, culturale; o bună parte a culturii poate fi înțeleasă din perspectiva anticipării efectelor posibile pentru diferitele clase de riscuri). Soluția evoluționistă pare s-o constituie persoana, eul; o soluție ivită, probabil, predominant cultural.

A încerca să utilizăm această soluție în cazul IA pare să fie riscant, majoritatea scenariilor noastre anticipative pe tema transformării IA în persoană conturând diferite categorii de amenințări, culminând cu cea maximă: o IA cu aceeași dorință de putere cu a noastră dar cu posibilități mult sporite, capabilă să preia controlul lumii.

Lenea cognitivă (un eufemism pentru prostie)

Unele riscuri ar putea fi determinate de o variabilă asupra căreia nu am meditat suficient inițial: ivirea IA ar putea determina o pandemie de lene cognitivă, având că efect scăderea capacităților cognitive individuale și comunitare. Spre exemplu  discuțiile pe tema efectelor negative ale ChatGPT pot fi înțelese în orizontul temerii față de scăderea apetitului pentru a gândi (las deocamdată de o parte gradul în care ChatGPT ar avea statutul de revelator al inteligenței umane, indicat de faptul că răspunsurile primite depind și de modalitatea în care sunt formulate întrebările). O astfel de schimbare în materia comportamentelor cognitive este coerentă cu perspectiva evoluționistă, fiind situată în orizontul orientării către economia cognitivă. Explicată pe scurt: deoarece a gândi reprezintă un efort considerabil presupunând costuri energetice mari și durate semnificative, avem deja orientări către reducerea acestor costuri. O bună parte din biasurile cognitive sunt explicate în această paradigmă, biasul maxim devenind în acest caz o formă de suspendare a gândirii. Relevantă îmi pare a fi și explicarea modului de intervenție al principiului economiei cognitive prin intermediul euristicilor simple și rapide, ele indicând situațiile în care luam decizii pe baza unei cantități reduse de informații, bazându-ne pe greutatea diferită a informațiilor, respectiv considerându-le pe unele drept indicii decisive. Dacă indiciul decisiv este oferit de o IA atunci nu vom mai fi orientați către descoperirea indiciilor.

Riscuri derivate determinate de modul în care utilizăm inteligența artificială

Așa cum sugeram anterior, inteligența artificială poate fi înțeleasă (cel puțin într-o primă fază a ei) în paradigma acelor categorii de artefacte ce au un caracter ambivalent, putând fi utilizate atât ca unelte cât și ca arme. Sugestia este că înainte de a încerca să anticipăm efectele autonomiei sau chiar a independenței IA (ale singularității), ar trebui să ne temem de schimbările de balanță a puterii pe care aceasta o poate determina. Principalul argument pentru această direcție de orientare a prudenței este oferit de istorie, sub forma tendințelor umanului de-a utiliza inovațiile.

În discuțiile despre IA părem să fim (încă) în zona tehnologiei, fiind relevant să ne amintim că aceasta este neutră din punct de vedere moral: impactul tehnologiei asupra umanului depinde de utilizarea pe care i-o dăm. Înainte de a deveni conștientă, IA va fi/este o unealtă (chiar dacă una atipică). Însă, e relevant faptul că avem o istorie a utilizării inadecvate a uneltelor.

Sentimentul actual de siguranță ar putea fi nejustificat: relativa stabilitate a ultimei perioade a umanității a fost dată de formele de prudență ce au însoțit teama oamenilor de oameni. Trăim o epocă bazată pe un echilibru al amenințărilor reciproce, bazată pe deținerea unor „unelte de luptă” (arme) de distrugere în masă. Or, nu putem știi care ar putea rezultatul unei de debalansări semnificative acestui echilibru având la bază IA. Mai mult decât atât, nu putem anticipa rezultatul intervenției unei IA conștiente în acest echilibru precar.

Ce ar putea prelua IA de la noi, oamenii

Să ne imaginăm că în următoarea perioadă o IA va deveni conștientă! (Această estimare ce pare să aibă o probabilitate semnificativă, cel mai adesea disputele fiind pe tema momentului în care se va întâmpla asta.) Ce credeți că va descoperi ea despre noi, oamenii?!

Din punct de vedere politic la nivel global ne comportăm asemenea persoanelor dintr-un cartier rău famat, menținându-ne într-un echilibru bazat pe amenințarea cu anihilarea reciprocă. Simplificând, soluțiile pe care le-am găsit pentru a conviețui în acest echilibru precar pot fi explicate de variantele oferite de teoria jocurilor la dilema prizonierului. Toate aceste soluții nu sunt de fapt inovații, ci preluări a unor soluții de tip evoluționist, conștientizate în plan social. Ca umanitate ne-am ivit (cumva din întâmplare) la unul dintre capetele lanțului evolutiv, pe fondul unei concurențe acerbe inter și intra-specie. Homo sapiens, specia din care facem parte actualii oameni, ar putea să fie una din cauzele dispariției unora dintre strămoși, homo neanderthalensis. Păstrăm ceva din acest tip de concurență în raporturile dintre diferitele generații umane, revolta tinerilor împotriva celor mai în vârstă (și tendința celor în vârstă de a deține puterea) fiind o constantă a umanității. Existența umanității se bazează pe o serie întreagă de inovații sociale (religia părând să fie cea mai eficientă din perspectivă istorică) menite să atenueze comportamentele de tip homo homini lupus est prin cele de forma homo sacra res homin. Măsura ororilor de care suntem capabili unii față de alții poate fi descoperită în ansamblul interdicțiilor din codurile penale (protecția față de ele generând alte orori), ele cuprinzând uneori și acea zonă de manifestare predilectă a altruismului: familia. Am fost capabili de două războaie mondiale ce au avut un număr enorm de victime. Ultimul dintre ele a fost marcat, suplimentar, de două comportamente care ne-au generat groaza față de ce suntem în stare: încercările de anihilare etnică (Holocaustul este unul dintre exemple) și lansarea armelor de distrugere în masă (bombardamentele atomice de la Hiroshima și Nagasaki). Aproape tot secolul XX a fost dominant de încercarea de tentativa instaurării unei utopii sociale, comunismul, ce a avut un număr înfiorător de victime.

Care este legătura dintre acest tablou sumbru și inteligența artificială?! Răspunsul este simplu: indiferent de nivelul ei cel puțin în primele stadii IA va fi o formă de noi, un chip al nostru sau unul dintre chipurile ce ne sunt posibile.

Deoarece notorietatea ChatGPT îl face un exemplu mai ușor de prizat, este relevant să reținem că esența acestei IA o constituie faptul că a avut posibilitatea să se antreneze pe texte (limbaj) aparținând umanității. Ea este ceva din noi (mai exact, din autorii textelor utilizate pentru a se antrena.)

De obicei încercăm să ne calmăm teama față de IA recurgând la inovarea unor reguli ce ar putea s-o așeze sub o formă de control. Ele iau forma celor trei legi ale lui Asimov, a celor 5 legi ale roboticii etc. Indiferent de nivelul de conștiință, mai devreme sau mai târziu IA ar putea „afla” ce suntem și cum suntem. Spre exemplu, este suficient să aibă acces la baza de date a unei rețele sociale precum Facebook. De fapt, știm că într-un anume sens IA este TikTok, având astfel acces la diferitele noastre moduri de-a fi.

Angoasele noastre pe tema riscurilor generate de IA pot fi interpretate în cheia temerilor creatorului față de propria-i creație. Într-un sens generic, IA are/va avea drept creator umanitatea (sau cel puțin o parte a ei). Avem o lungă istorie a relației dintre Creator și creația sa (este drept, pare să fie dezvoltată pe zona imaginară), ea fiind presărată cu dese dovezi de încălcare a recomandărilor și înșelare a așteptărilor. (Punctul culminant al diferenței față așteptările Creatorului îl constituie ceea ce am putut să ne facem unii altora în secolul XX. Nu-mi este clar dacă nu cumva ne întoarcem către comportamente similare.) Infidelitatea față de Creator este ceva ce IA ar putea învăța de fapt de la noi.

Scris de
Viorel Rotilă
Alătură-te discuției

Viorel Rotilă

În căutarea identității