Consiliul
Județean Cluj
Adevărul-secvență (I)
Mai multe imagini devenite virale cu președintele Trump pe coperta revistei Time au circulat în ultimul timp pe internet. Una dintre ele reproduce profilul președintelui pe post de mustață a lui Hitler, însoțit de mesajul ”Racism. The greatest virus”. Deși ele sunt catalogate drept fake, în sensul că nu sunt produse de revista Time, în mod evident transmit un mesaj care nu poate fi fake, chiar dacă cel care vede aceste imagini este de acord sau nu cu poziția politică a creatorului lor. Facebook a decis ca repostarea acestor fotografii să fie „taxată” pe pagina fiecărui utilizator cu un mesaj scris peste imagine: „informație falsă, verificată de un fact-checker independent”. Facebook decide astfel alterarea mesajului pe care utilizatorul vrea să îl transmită. În același timp, dă impresia că acel „fact-checker independent” devine noul arbitru abolut al corectitudinii, dacă nu chiar al „binelui, adevărului, frumosului”. Același Facebook care „scapă” videouri cu decapitări sau torturi în rețea pentru a impresiona publicul cu diferite ocazii, același Facebook care a fost implicat în scandalul Cambridge Analiytica și același Facebook care, să dăm doar un exemplu recent, mustește de pagini tămăduitoare cu rețete care te scapă de covid și de orice boală imaginabilă.
Dacă s-ar decide eliminarea tuturor informațiilor false de pe rețea probabil că cearșafurile noastre infornaționaele ar deveni un deșert. Fiind o operație imposibilă este clar că anumiți decidenți, ajutați de algoritmi, de persoanele care „raportează” nereguli și de milenarele interese se înhamă la munca sisifică de a eticheta unele lucruri drept false, iar altele drept demne de a circula pe rețea fără să fie trase de urechi (aceasta fiind un echivalent virtual al adevărului). În cazul imaginilor cu Trump rețeaua poate fi ușor păcălită. O repostare a aceleași imagini, dar micșorate, excluzând logoul revistei Time devine de nedetectat pentru „standardele morale” ale algoritmului. Cazul de față nu poate fi trarat simplu ca un fake news. Folosirea antilogourilor este o formă de „protest” în lumea virtuală. În plus, ceea ce dispare este posibilitatea utilizatorului de a transmite un mesaj în forma pe care o alege el. Imaginea modificată de facebook fără acorudul celui care o postează, nu mai vorbește despre rasism, ci despre știri false, nu mai vorbește despre easism, ci despre incapacitatea utilizatorului de a recunoaște un fals. În același timp, pe rețea marii producători de mituri sunt liberi să rescrie istoria recentă sau îndepărtată după bunul plac. Astfel că trăim în lumea/rețeaua care nu suportă antilogourile dar pompează cu forță orice tip de publicitate care falsifică deliberat, introducând în eterna rețetă telenovelistică-dulceagă, crude realități recente sau trecute. Vedem în mai noile seriale marca Lidl, țăranii lui Rebreanu spălați cu ariel, pocnind de sănătate (desigur din cauza unei alimentații sănătoase, ei fiind un soi de pionieri lidl), vedem un Caragiale nătâng, purtând tava către cuplul Eminescu-Micle, un soi de „enfant terrible” scos parcă din studioruile Acasă gold. Un trecut glorios pe care îl putem revizita liniștiți, cât mai des posibil, cu acordul rețelei. Mitologiile nu sunt fake news, ele sunt libertate, creativitate, joy de vivre.
Rețeaua devine o hidră cu cel puțin două capete: pe de o parte există partea ei „științifică”, legată de utilizarea big data, iar pe de altă parte există o producere de subiectivitate făcând apel la „emoții și pasiuni” în moduri tot mai insidioase, aproape imposibil de detectat de biata minte carteziană. Este revelatoriu că „adevărul” sau marile dezvăluiri din ultimul deceniu sunt rezultatul deciziei unor „insiders” gen Edward Snowden (NSA), programatorul Christopher Wylie în cazul Cambridge Analytica. Discrepanța între capacitatea de procesare a mașinii și cea a omului a devenit evidentă odată cu aceste cazuri. „Construcția digitală a lumii” se bazează pe această discrepanță nemaiavând nevoie de modele teoretice pe care le testează. Modelele par să aparțină unei lumi apuse, făcută pe măsura minții omului. Între input și output există doar abundența de date care populează noua Petabyte Age. Peter Norvig, director de cercetare la Google, a preluat și modificat celebra spusă a statisticianului George Box („Toate modelele sunt greșite, dar unele sunt folositoare”) spunând că „toate modelele sunt greșite și, din ce în ce mai mult, poți reuși fără ele”. Chris Anderson în celebra revista Wierd observă felul în care simpla „matematică aplicată” folosită de Google face știința obsoletă. „Oamenii de știință sunt antrenați să recunoască faptul că o corelație nu este o cauzalitate, că nu trebuie trase concluzii doar pe baza coreației dintre X și Y (ar putea fi doar o coincidență). În schimb, trebuie să înțelegi mecanismele care le leagă. Odată ce ai un model, poți conecta seturile de date cu încredere. Datele fără un model sunt doar zgomot.” Dar față în față cu big data, acest model devine depășit ne spune același autor. Acum corelația devine suficientă, odată ce „algoritmii statistici găsesc patternuri acolo unde știința nu le poate găsi”. Este celebru cazul biotehnologului J. Craig Venter care folosind ”high-speed sequencers” nu doar pe organisme individuale ci pe întregi ecosisteme a descoperit mii de specii de bacterii necunoscute fără să știe ceva despre ele, fără să aibă un model. Această descoperire de „secvențe unice”, ne spune Anderson devine metoda fără model pe care rețelele o aplică cu succes. Nu este vorba aici numai de a găsi corelația între un utilizator și publicitatea care i se „potrivește” fără a știi nimic depre utilizator sau reclamă ci, ne spune Anderson, este vorba de a schimba felul în care oamenii practică știința. Este momentul, spune el, să ne întrebăm „ce poate învăța știința de la Google?” care este practic, primul instrument care se debarasează de mersul de melc al minții umane. O simplă trunchiere a imaginii (renunțând la cuvântul Time) cu Trump pe post de mustață a lui Hitler schimbă secvența pe care algoritmul o recunoaște. Același mesaj despre rasism, conform rețelei, este într-un caz fake, în altul true. În cazul descoperirii bacteriilor putem spune că stabilirea corelației este un succes. Va fi însă deosebit de incitant să descoperim (oare cum? Prin ce mișcare demnă de un baron Münchhausen?) felul în care rețeaua se aplică asupra secvențelor de „crimăgândit” și felul în care microtargetingul folosește noilor biopolitici databased. Cu siguranță nu este de ajuns curajul și decizia morală luată de câțiva programatori sau analiști.