Consiliul
Județean Cluj
Maimuța AI (I)
Dacă este să dăm crezare noilor teorii legate de meme și inteligența artificială (artificial intelligence, AI) putem spune că omenirea trăiește o a doua revoluție copernicană. Alungarea omului din centrul universului și din „vârful” evoluției este de data aceasta și mai radicală, posibil totală. Teoria memelor îi mai lasă, deocamdată, omului rolul de organism-gazdă. Inteligența artificială, s-ar putea să i-l ia și pe acesta. După ADN (primul replicator) și cultură (al doilea replicator), tehnologia pare să preia rolul celui de-al treilea replicator. Din perspectiva memelor (secvențe de informație care se autocopiază pe cât de mult posibil) tehnologia este net superioară omului (să spunem, cu o comparație extrem de slabă, ca un xerox pe lângă un scrib). În plus, teoria evoluției scapă, în sfârșit, de orice nuanță antropocentrică. Supraviețuirea celui mai adaptat nu se realizează conform unui plan ingineresc sau moral. Autorul Virusului minții, Richard Brodie subliniază neîncetat propagarea noului cuvânt, cel puțin de la Dawkins încoace: „Organismele care supraviețuiesc nu o fac pentru ca lumea sa devină un loc mai bun sau mai frumos. O fac doar pentru a se înmulți”. O memă bună este una eficientă, indiferent că e vorba de copierea ideii de roată sau răspândirea imaginilor cu hello kitty. Exact ca în cazul virușilor de pe internet, ea are nevoie doar de gazde și de mici „variații” care să o facă și mai „adaptabilă”/copiabilă. Din perspectivă memetică evoluția nu pare să fie mai mult decât o inflație. Superproducția este deja profitul, indiferent de efectele pe care aceasta o are asupra „calității vieții”. Reproducerea ADN-ului este un prim exemplu în acest sens. Conform interpretărilor lui Noah Harari (în Homo Sapiens) trecerea la stilul de viață sedentar, bazat pe agricultură, a dus la o scădere a calității vieții, dar capcana era perfectă, din moment ce aglomerații tot mai mari de oameni puteau supraviețui în condiții precare.
Dar pe lângă memele care nu par să depășească simpla autoreproducere folosindu-se de varii suporturi, preocupările oamenilor de știință se îndreaptă spre nașterea unui unicatum, o nouă superputere, cea a AI. Nick Bostrom în Superinteligența încearcă o aproximare a viitorului odată ce AI va fi lansată/se va lansa (posibil în următorii 20-100 ani). Distopiile cu care ne-au obișnuit Orwell, Huxley sau Zamiatin vor deveni realitate fără rest (posibilitatea erorii umane e înlăturată într-un „stat total” condus de o superinteligență care rulează pe supersuporturi tehnologice): „Prin unicatum înțelegem o structură politică suficient coordonată intern, fără opozanți externi”, iar „ințelepciunea” ei ar consta în faptul că „este suficient de răbdătoare și de prevăzătoare în materie de riscuri pentru a putea furniza o cantitate de grijă bine direcționată către consecințele pe termen lung ale acțiunilor sistemului”. Deocamdată, modalitățile de a ajunge la AI sunt extrem de complicate și costisitoare. Le amintim pe scurt: 1. emularea globală a creierului sau „uploading”, adică scanarea totală și detaliată a unui creier care va fi transferată într-un computer; 2. îmbunătățirea prin modificări genetice a creierelor umane care este foarte probabil să producă un nou eugenism, segregări dramatice între elitele manipulate genetic (care se presupune că vor produce AI) și restul populației; 3. interfețe computer-creier, și ele, destul de dificil de realizat datorită „perisabilității” materialului biologic predispus la infecții și incompatibilități de tot felul; 4. o inteligență colectivă care născută din rețele și organizații și care s-ar presupune că ar depăși defecte precum „denaturările birocratice” sau „jocurile stupide pentru putere”. În privința acestei ultime variante, John Giannandrea, conducătorul departamentul AI al Google avertizează asupra faptul că sistemele inteligente copiază prejudecățile umane. O combinație între algoritmi extrem de puternici care identifică și „vând” electorate și consumatori în câteva secunde și biasurile creierului ar face să pălească biopolitica de secol XX. „Un exemplu în acest sens este sistemul COMPAS care calculează probabilitatea ca un inculpat să recidiveze și este folosit de unii judecători pentru a determina dacă un deținut este eliberat sau nu. Lucrările COMPAS sunt păstrate în secret, însă o anchetă realizată de ProPublica a găsit dovezi că modelul poate fi părtinitor față de minorități (A system called COMPAS, made by a company called Northpointe, offers to predict defendants’ likelihood of reoffending, and is used by some judges to determine whether an inmate is granted parole. The workings of COMPAS are kept secret, but an investigation by ProPublica found evidence that the model may be biased against minorities. https://www.technologyreview.com/s/608986/forget-killer-robotsbias-is-the-real-ai-danger/)”. Tehnosociologul Zeynep Tufekci vorbește tot despre pericolele ascunse în algoritmii extrem de puternici pe care se bazează rețelele sociale, motoarele de căutare și chiar piețele. Ei pot „prezice”, deduce lucruri umane, prea umane, precum o criză de depresie sau tendințe suicidare, la fel cum pot manipula „voința politică” a internauților.
Privind această „cursă pentru crearea unei superinteligențe” vorbele lui Nietzsche care spunea la un moment dat că în privința deslușirii omului s-ar putea ca totul să fie o chestiune de medicină nu poate să ni se pară decât romantică această viziune vitalistă. Mai degrabă pe o latură pozitivistă, deslușirea omului a devenit o chestiune de statistică. Deocamdată oamenii mai au un control asupra mașinilor care manipulează poveștile lumii (chiar dacă algoritmii sunt deja de neînțeles). El este încă subsumat luptei stupide pentru putere și profit, dar în cazul lansării unei AI autonome scenariile sunt greu de imaginat. În mod involuntar, imaginile viitorului par rupte din scenarii sf. Practic, o superinteligență autonomă (care se autogenerează și crește de la un anumit punct fără niciun imput uman) este imposibil de „descris”. Care vor fi scopurile unei superputeri cognitive? Cel puțin răspunsurile lui Nick Bostrom alternează înre variante soft, care țin cont de problemele umane și horror (fie extincția speciei, fie detașarea „indiferentă” de ea). Astfel, o superinteligență s-ar putea ocupa de „probleme care nu pot fi rezolvate prin descompunere și care s-ar putea sa pretindă modalități calitative noi de înțelegere sau noi cadre reprezentaționale care ar fi prea noi și prea complicate pentru oamenii zilelor noastre. Anumite tipuri de creație artistică sau cogniție strategică s-ar putea încadra aici”. Sau, în varianta horror, AI va „reconfigura resursele terestre și le va utiliza în orice produs va asigura maximizarea obiectivelor sale”. Din momentul în care se încearcă interpretarea „voinței superinteligente” scenariile sunt contradictorii și uneori comic-antropomorfe (după modelul comploturilor și loviturilor de stat) având în vedere că agentul inteligent nu va avea niciun scop uman. Oricum ar fi, supremația unei superinteligențe s-ar instala în câteva ore, maxim câteva săptămâni. Dacă ea nu va fi decât un alt suport pentru meme, cu siguranță specia umană își va fi încheiat rolul. Nu putem fi decât poeți încercând să descoperim motivațiile unui IQ de sute de ori mai mare decât cel uman. În fond, am putea fi salvați doar dacă scopul ar fi lipsa de scop. Sau dacă oamenii vor mai putea fi „organele sexuale ale mașinilor” după cum se exprima, atât de plastic, McLuhan.