Consiliul
Județean Cluj
Originile inteligenței artificiale

Nu se poate înțelege „inteligența artificială” – în ceea ce este, dar și în privința capacităților, strategiilor și efectelor ei – fără a-i considera premisele. Ele se află într-o evoluție a abordării limbajului, a cercetării comunicării, a căutărilor de duplicare a funcționării minții umane și în inovații inginerești.
Azi sunt reconstituiri istorice ale „inteligenței artificiale” – exponențială rămânând cartea lui Nils J. Nilsson, The Quest for Artificial intelligence. A History of Ideas and Achivements (Cambridge University Press, 2010). Ea urmărește redarea înaintării inițiativelor, mai mult decât a biografiilor, după ce pleacă de la constatarea că „inteligența artificială este ceea ce face mașinile inteligente, iar inteligența este proprietatea ce face o existență să acționeze adecvat și prevăzător în mediul ei înconjurător” (ediția germană, AKA, Berlin, 2014, p. XI). Există grade de inteligență, dar frontierele între ele sunt greu de trasat.
La o privire retrospectivă, concentrată asupra a ceea ce a fost decisiv, delimitez însă cinci praguri ale emergenței „inteligenței artificiale”. Este vorba de: dezvoltarea analizei limbajului prin modelări ale capacităților (Chomsky); dezvoltarea teoriei comunicării și a informaticii (Wiener, Shannon); modelarea rețelei neuronale a creierului (McCulloch, Rosenblatt) și o nouă abordare a psihicului (Neisser, Anderson); convertirea în impulsuri electronice a informației și alte inginerii. În ultima instanță, „inteligența artificială” are însă origine logico-matematică. Ea nu ar fi fost posibilă fără pragul creat de evoluția logicii. Să evaluăm succint aceste praguri.
I. Ceea ce Aristotel realizase în „organonul” său, captarea unei organizări formale a gândirii după principiul „noncontradicției” și al „terțului exclus”, îi părea lui Hegel doar o logică cu valabilitate circumscrisă, convenabilă numai „intelectului” (detaliat în A. Marga, Argumentarea, EFES, Cluj-Napoca, 2006). Diferențele, divergențele, contradicțiile din realitate trebuiesc luate în seamă de logica însăși.
Nu s-a mai putut ignora ceea ce a spus Hegel, căci el a dat mijloace de a combate rămânerea la ceea ce era. Dar inițiativele în domeniul logicii gândirii umane au înaintat și pe alte căi decât cea a formalizărilor în tradiția aristotelică.
O cale a fost cercetarea limbii. Humboldt a socotit limba folosită de oameni în comunicarea curentă un fel de apriori al cunoașterii și vieții. Cunoștințele noastre ar fi organizate înainte de orice lingual – chiar geneza lor este în formele limbii. Pe urmele acestei observații, s-a ajuns treptat la lărgirea sferei propozițiilor preluate în logică, spre interogații, evaluări, propoziții normative. Odată cu John Austin, s-a distins în propoziție „locuția” – ceea ce spune o propoziție, și „ilocuția”, acțiunea ce se întreprinde cu fiecare propoziție – și s-au tematizat „actele de vorbire” ca unități elementare ale comunicării curente. Un „act de vorbire” este o exprimare într-un context al interacțiunii dintre vorbitor și interlocutor. Wittgenstein a sesizat „jocurile de limbaj” ca macrounități ale comunicării – acele constelații de „acte de vorbire” organizate și străbătute de diferite telosuri ale vieții. Cel mai recent, odată cu „pragmatica universală” a lui Habermas, avem imaginea cuprinzătoare a funcționării comunicării, ca prealabil al oricărei prestații umane: comunicarea este concepută plecând de la telosul imanent ei, obținerea înțelegerii, luând în seamă sudura continuă a comunicării cu planul metacomunicativ constituit de interacțiunile din societate care face ca odată cu cel mai simplu act de vorbire să se ridice de vorbitori patru „pretenții de validitate”: inteligibilitatea exprimării, veracitatea lor, adevărul conținutului și justețea relației dintre vorbitor și ascultător (detaliat în A. Marga, Filosofia lui Habermas, Editura Academiei Române, București, 2022). Cercetarea limbii a dus astfel în cele din urmă la teoria comunicării a zilelor noastre.
Înainte de a se ajunge, însă, la această teorie a comunicării, studiul logicii gândirii a înaintat și pe calea inițiată de George Boole. Acesta a aplicat algebra în analiza logicii, după ce a sesizat baza numerică a minții (Mathematical Analysis of Logic, 1847) și a delimitat în mișcarea cugetării cursul „valorii de adevăr”. El a făcut posibilă trecerea de la analiza „judecății” formată din subiect și predicat („Luna este planetă”), la analiza „judecăților” ca unități de gândire – ca „propoziții”, în dreptul cărora a pus chestiunea adevărului. George Boole a contribuit la dărâmarea graniței dintre logică și matematică. El a descoperit, putem spune, sursa aritmetică a conceptelor logicii.
Numeroase demersuri inovative au urmat. Charles S. Peirce a propus considerarea legăturii („este”, „sau”, „implică” etc.) din judecată ca al treilea termen al judecății și a deschis orizontul formalizării mai precise.
Cu un alt pas înainte, dar pe direcția de la logică la matematică, Frege (Begriffsschrift, 1879, și Bazele aritmeticii, 1884) a dovedit că numerele pot fi definite cu mijloacele logicii. De pildă, 2+2=4 se poate reduce la 2+(1+1)=(2+1)+1, care devine aplicare a formulei a+(b+c)= (a+b) +c. Observația care ne interesează, însă, aici este că numărul este concept ce se definește ca ecuație numerică, ce este aplicare a unei formule din logică.
Mai mult, Frege a observat că orice cuvânt, inclusiv numerele, au sens numai în propoziție. Propozițiile pot fi concepute ca ecuații („dreapta A este paralelă cu dreapta B”, ceea ce înseamnă AIIB). Frege mai adaugă distincția între semnificație și sens: 2+2=4 și 3+1=4 sunt expresii ce au aceeași semnificație, dar sensul lor este diferit. Frege va construi pe linia sensului, care este „gândul”. Gottlob Frege a spus că avem, ca oameni, capacitatea de a înțelege „idei” – un „gând”, o „idee (Gedanke)” fiind ceea ce în mintea noastră poate fi adevărat sau fals și are valabilitate transsubiectivă – și a deschis calea unei formalizări vaste a propozițiilor.
Bertrand Russell și Alfred N. Whitehead (Principia Mathematica, 1910-1913) au putut face un pas nou introducând „funcția propozițională” pentru a caracteriza „judecățile” din logica clasică și extinzând încă odată câmpul propozițiilor analizate de logică. Forma „S este P” din logica clasică devine „F(x)”, în care F este funcția și x este subiectul, iar F poate fi nu numai atribuirea, ci orice altă funcție („implicația”, „contradicția”, „incompatibilitatea” etc.). După cum obiectele pot să fie nu doar două (S și P), ci și n, încât funcția devine R (z,y,z,…n). Intervin și alte precizări ale R (relației) și ale termenilor (de pildă, trecerea la „propoziții moleculare”), încât s-a ajuns la obținerea unui tablou practic nelimitat al propozițiilor, dar și al posibilităților de derivare logică și de examinare a adevărului. Bertrand Russell a dus mai departe observația lui Georg Cantor că mulțimea tuturor mulțimilor este contradictorie (Principles of Mathematics, 1907) și a creat teoria „tipurilor logice” pentru a risipi paradoxurile ce au de fapt ca prototip „paradoxul mincinosului”.
În orice caz, optica lui Frege, Russell și Whitehead, axată pe conceperea logicii ca fel de operare cu „adevărul”, a putut fi elaborată în lărgime într-un nou sistem, care este logica simbolică. De la ea avea să plece construcția „inteligenței artificiale”, care a luat în seamă propozițiile, le-a prelucrat și a obținut derivări noi.
Și evoluția matematicii a înregistrat înnoiri în acest timp. Istoria acestei discipline duce departe în trecut, dar pentru originile logico-matematice ale „inteligenței artificiale” ne putem opri la argumentul lui Zenon împotriva mișcării: nu poți atinge un punct T căci multitudinea de puncte până acolo este numărabilă, dar infinită. Dar Bolzano (Paradoxurile infinitului, 1851) a arătat că infinitul este paradoxal doar dacă nu este lămurit destul. El a dovedit că mulțimile infinite de puncte se includ una pe alta, dar situația este paradoxală. Chestiunea a fost preluată de Georg Cantor, care a pus problema în teoria mulțimilor, întrebându-se asupra structurii mulțimii punctelor, dar s-a oprit la mulțimea numerelor algebrice. El a recurs însă la o numărare care depășește infinitul și, cu aceasta, la numerele transfinite și la mulțimi transfinite. Cu aceasta numerele întregi reale au fost extinse dincolo de ceea ce era acceptat de cultura clasică.
Între timp s-a trecut la crearea mașinilor de calcul. După ce Charles Babbage a creat primul calculator cu operare mecanică, în 1842-1843, Ada Lovelace a căutat să creeze un algoritm care face posibilă calcularea numerelor Bernoulli cu o mașină de calcul și a dat primul program de calculator scris vreodată – un program în limbaj aparte, ce permite calculul. John von Neumann avea să creeze, un secol mai târziu, prima stocare de informație. Problemele erau, în mod fericit, în epocă, puse de către cei mai mari matematicieni.
David Hilbert, de pildă, a prezentat (1900) lista cu cele 23 de probleme de rezolvat în matematică. Campionul axiomatizării cunoașterii nu putea concepe altfel lumea! Printre probleme era aceasta: „Ne oferim o ecuație diafantină cu orice număr de necunoscute și cu coeficienți întregi raționali: cerem să găsim o metodă prin care, prin intermediul unui număr finit de operații, vom putea distinge dacă ecuația este rezolvabilă în numere întregi raționale». Aceasta era celebra „problemă a deciziei (Entscheidungsproblem)” – adică o problemă ce se descompune în întrebări ce așteaptă un răspuns prin „da” sau „nu”.
La începutul anilor 1930 matematica a trecut, în orice caz, la abordarea funcțiilor calculabile. Pe scenă a urcat atunci Alan M. Turing, care a continuat cercetările lui Georg Cantor consacrate numerelor și le-a dus până la optica computerelor actuale (On computable numbers, with an application to the Entscheidungsproblem., în „Proceedings of the London Mathematical Society”, 42, 1936; A. M. Turing, Systems of logic based on ordinals. PhD thesis, Princeton University, 1938). Problema era de a găsi un algoritm care să stabilească dacă o propoziție a logicii de primul ordin – ce permite exprimarea de propoziții și deducerea de consecințe logice în virtutea relațiilor formale ce includ enunțuri, predicate, cuantificatori existențiali și universali și constante – este validă universal. Ceea ce era complet nou în demersul său era metodologia: plecând de la probleme ale computației (computabile numbers) el a imaginat mașini de calcul ce pot rezolva sarcini matematice complicate ale abordării mulțimilor.
După ce a dat celebrul studiu privind „decizia (Entscheidung)”, Alan Turing s-a ocupat de crearea unei mașini de rezolvat probleme. În 1950 a și publicat „Turing Test”, în efortul de a stabili ce poate o mașină în comparație cu mintea umană: o mașină este pusă în interacțiune cu doi oameni, dintre care unul dialoghează cu mașina, în vreme ce celălalt, aflat în cu totul alt loc, la distanță, are de stabilit dacă dialogul este aidoma dialogului uman obișnuit.
II. Inteligența artificială a apărut pe fondul unei noi abordări a comunicării, iar aceasta s-a datorat ciberneticii. În 1947 Norbert Wiener a publicat The Human Use of Human Beings. Cybernetics and Society (tipărită recent ca Mensch und Maschine, Klostermann, Frankfurt am Main, 2022), care a inaugurat noua abordare. Exista demult cea originată la Vico, dar acum era vorba de o abordare matematică, efect al abordării noi a „tehnicii de informare”.
Noțiunile lui Norbert Wiener, luate în ordine, sunt: capacitatea noastră de a elabora „scheme (Schemata)” ale lucrurilor (p.27); posibilitatea de a ordona elemente așa cum ordonăm numerele în șirul numerelor naturale (p.27); unul dintre tipurile de scheme este „informația (Nachricht)” (p.27); întrucât se transmit mesaje, acestea au anumiți purtători (p.28); detectându-i, se creează posibilitatea unei „tehnologii de informare la distanță” (p.28); se poate prelua teorema lui Fourier, după care orice mișcare între anumite granițe se poate aborda ca „sumă a vibrațiilor (Schwingungen)”, încât apare posibilitatea ca un ton musical să fie preluat ca variație de curent electric; în transmiterea de vibrații intervine „accidentul (Zufall)”, iar „entropia” este prezentă, căci procesul se supune principiul al doilea al termodinamicii (p.30); de obicei transmiterea este de la om la om, dar poate fi și de la un aparat la om (p.31); oricum, are loc un proces de „reglare (Regelung)” înăuntrul unui cerc închis, care schimbă starea sistemului (p.31), iar acest proces este studiat de cibernetică (p.32); în orice caz, sunt posibile mașini care au organe de simț ce permit informații privind starea lor (p.33), încât „conexiunea inversă” poate fi fructificată.
Norbert Wiener a plecat de la conceptul „omului ca ființă comunicativă”, prin care are în vedere în esență faptul „învățării (Lernen)”: omul petrece 40% din viața sa ca unul care învață. „De asemenea, pentru societatea umană este cu totul natural să fie construită pe învățare, analog cu faptul că o comunitate de furnici este întemeiată pe o schema moștenită. Învățarea este conform esenței ei o formă de conexiune inversă, în care schema de comportament este abgewandert prin experiența anterioară” (p.73). „Conexiunea inversă” introduce un element de comunicare în comportament.
Prin „conexiune inversă”, inclusiv în cazul mașinilor, „mijlocirea de știri”, care este miezul comunicării, sporește. Automatizarea a înaintat, însă, și înaintează folosind informația. Matematica și logica au făcut posibilă preluarea unui rol mai mare de către automatele „pur logice” (p.171), pe care le fac posibile.
”Inteligența artificială” nu ar fi fost însă posibilă fără informatică. Aceasta a fost pusă în mișcare odată cu cercetările comunicației în organisme și mașini, întreprinse de Norbert Wiener, și conceperea cugetării drept „conducere” cu „feedback” adecvat.
„Conținutul de adevăr” al diferitelor procese ale realității informaticienii l-au numit „informație”. Știm că în limbajul natural prin „informație” se înțelege cunoștință despre ceva. Claude Shannon (A Mathematical Theory of Communications, 1948), i-a dat însă o semnificație nouă, cantitativă: un mesaj e, cu probabilitatea de apariție pe, are informație asociată e, notată cu I, ce se calculează cu formula: I = logα(1/pe) = -logα(pe). Unitatea elementară a informației, „bitul”, a fost conceput ca cea mai simplă unitate la care se poate răspunde cu da/nu. Informația este astfel abstractă, se poate stabili cantitativ și permite abordarea matematică. Ea ne spune cât se înlătură din incertitudinea privind realizarea unui anumit eveniment ce are în față un evantai de posibilități. Nu are importanță aici semantica – despre ce fel de eveniment este vorba, ci doar realizarea evenimentului.
III. Reconstituind inițiativele care au dus la constituirea inteligenței artificiale nu putem să nu recunoaștem cotitura ce s-a produs în științe odată cu lingvistica generativă a lui Noam Chomsky. I-am dat o caracterizare (vezi A. Marga, Introducere în filosofia contemporană, Compania, București, 2014, pp.464-470) ca „ineism pe baze lingvistice”, considerând diverse scrieri, și m-am concentrat asupra observațiilor de bază și rezultatelor ei: un copil poate forma sau înțelege o mulțime de propoziții mai mare decât mulțimea secundelor vieții sale; diferențele de inteligență nu afectează semnificativ stăpânirea unei limbi; există o „creativitate” a limbajului ce constă în aceea că el excede mereu ceea ce ar putea fi însușit prin experiență; există o „gramatică universală” ce are baza în „funcțiuni” ancorate în natura biologică a oamenilor; ele afectează „sintaxa” limbilor, nu și „semantica” expresiilor; omul este în profunzime o „ființă sintactică”; se poate distinge între „competența lingvistică”, care înseamnă capacitatea unui vorbitor ideal de a stăpâni un sistem de reguli de generare de propoziții și este înnăscută, și „performanța lingvistică” – aplicarea acestei competențe în împrejurări de viață, ținând în esență de relația vorbitor/ascultător; se poate distinge și între „structura de suprafață” și „structura de adâncime” a enunțurilor. Noam Chomsky a argumentat că există o „faculté de langage“, care este parte a facultăţii cognitive a omului.
„Cotitura“ chomskyană a fost însă și una de metodologie și a adus o nouă „paradigmă“ în disciplinele socio-umane. Aceasta constă în construirea de sisteme formale şi cercetarea proprietăţilor lor, independent de aplicarea empirică, pentru a pătrunde în structura şi geneza unor fenomene complexe plecând de la tematizarea performanței specifice. Noam Chomsky a teoretizat „paradigma“ (Noam Chomsky, Rules and Representations, Columbia University Press, New York, 1980) și a apărat ideea abordării idealizante, construind sisteme şi cercetându-le proprietăţile, în vederea unei „explicări indirecte“ a fenomenelor observate. El a considerat că apelul la astfel de idealizări ar întruchipa un indispensabil „stil galilean“ al edificării cunoaşterii.
Tocmai această paradigmă a dus în direcția „inteligenței artificiale”. În cea mai amănunțită prezentare a ideilor sale, Noam Chomsky a plecat de la dialogul Menon, al lui Platon, în care, așa cum se știe, Socrate dovedește, prin interogarea succesivă a unei ființe fără pregătire prealabilă că omul poate fi adus la cunoașterea unor teoreme din geometrie și se trage concluzia că ceea ce numim cunoaștere este de fapt reamintire. „Problema lui Platon” a putut fi reluată sub forma: cum se face că mintea umană, ce are un contact cu lumea personal și limitat, este capabilă de atât de multe cunoștințe pe cât este? Noam Chomsky îmbrățișează răspunsul după care „unele aspecte ale cunoașterii și înțelegerii noastre sunt înnăscute, parte a înzestrării noastre biologice, determinată genetic, împreună cu elemente ale naturii noastre comune ce cauzează faptul că avem mâini și picioare mai curând decât aripi” (Noam Chomsky, Language and Problems of Knowledge, The Managua Lectures, Cambridge University Press, 1988, p.4). El își asumă, împreună cu Descartes că există un „aspect creativ al limbajului”, care face ca acesta să fie continuu inovativ. În fapt este de dat răspuns la întrebarea „cum copilul ajunge să stăpânească regulile și principiile ce constituie sistemul matur al cunoașterii limbajului” (p.15).
Răspunsul este că fiecare copil își însușește limbajul înăuntrul unui cadru conceptual deja existent. „Mintea/creierul uman este un sistem complex cu variate componente ce interacționează, una dintre ele fiind ceea ce putem numi facultatea limbajului. Acest sistem se prezintă ca fiind unic în ceea ce are esențial specia umană și comun membrilor speciei”(p.35). Astfel că schema funcționării limbajului este: date – facultatea limbajului – limbaj – expresii structurate. Limbajul este astfel unul dintre sistemele cognitive ale persoanei umane. Facultatea limbajului nu este unicul sistem cognitiv al omului și nu este rezervat doar omului – și alte specii comunică.
Dar limbajului Noam Chomsky îi aplică ideea deja tradițională a unei „gramatici universale”. Structurii astfel delimitate el îi aplică o abordare computațională.
În mod evident, Noam Chomsky plasează centrul de greutate al lingvisticii sale în ceea ce numește aspectul creativ al limbajului – capacitatea de a genera propoziții ce trece mult dincolo de ceea ce putea fi învățat de către oameni. El se desparte polemic nu numai de concepțiile behavioriste în materie, ci și de Saussure, care a preferat să opereze cu un inventar al fenomenelor lingvistice. Noam Chomsky le privește ca emergențe și se întreabă cum sunt posibile performanțele linguale. Sub acest aspect el îl ia ca punct de sprijin pe Humboldt, care a observat că la baza acestor fenomene este o „competență” ce asigură un „sistem de procese generative” (Anthony Arnove, ed., The Essential Chomsky, The Bodley Head, London, 2008, p.34). Dar amintește imediat că gramatica tradițională nu a putut valorifica această idee rămânând la o lacună „tehnică”: îi lipseau mijloacele matematice de „a exprima procese recursive! În fapt, o înțelegere reală a felului în care limbajul poate (în cuvintele lui Humboldt), <să facă infinit uz de mijloace finite> s-a dezvoltat abia în ultimii treizeci de ani, în cursul studiului în domeniul fundamentelor matematicii” (p.37). Acum este posibilă studierea proceselor creative ale limbajului cu o matematică adecvată. Ea a devenit posibilă explorând mai departe ceea ce l-a intrigat pe Galilei: faptul că cea mai mare dintre toate invențiile umane – cele 24 de litere ale alfabetului – ne permite să exprimăm nesfârșit de multe din realitate, că „discreta infinitate” exprimată de șirul numerelor naturale, că un copil poate genera mai multe propoziții decât putea învăța. Această explorare poate fi făcută cu rezultate majore fructificând ideea „generativității”, a lui Humboldt, pe fondul „revoluției cognitive” (p.287) începută în anii cincizeci, care a mutat cercetarea cunoașterii de la comportamente la „mecanismele interioare”, pe care le-a abordat cu ajutorul „principiilor computaționale”. Abia acestea pot explica „folosirea infinită a unor mijloace finite” (p.288). Această abordare avea să fie dătătoare de ton în continuare.
IV. Un prag dintre cele mai semnificative ce a permis nașterea „inteligenței artificiale” a fost evoluția neurologiei și, în mod exact, trecerea la modelări ale structurii și funcționării neuronilor biologici.
Un eseist influent, Samuel Butler a privit cu groază în 1863 eventualitatea de a se crea o mașină care ar putea gândi precum o făcea Darwin. Dar aceasta nu a descurajat căutările pe direcția mașinilor capabile să gândească. Waren McCulloch a lansat ideea unei rețele neuronale artificiale care să permită calcularea cât mai asemănătoare felului în care funcționează neuronii în creier. Alan Turing a publicat Computing Maschinery and Intelligence (1950) și a pus întrebarea: „pot mașinile să gândească?”, în care a și schițat „testul Turing” al asemănării mașinilor inteligente cu oamenii. În același an psihologul Frank Rosenblatt a conceput „perceptronul” – un aparat electronic ce voia să copieze funcționarea neuronilor biologici din creierul uman. El a sperat să formeze și să asigure rețele în acest aparat ce pot prelua prin descifrări numerice imagini din realitate. Ulterior, tot mai mulți s-au concentrat asupra perfecționării acestor rețele. Complementar s-au intensificat preocupările pentru a crea algoritmi capabili să redea imagini dintr-o mulțime stocată prin descifrare numerică. Crearea de rețele neuronale pentru mașini a devenit preocupare dominant printre cercetători. Toate marile companii de astăzi – Google, Amazon, Facebook, Baidu, Tencent, Alibaba, Nividia, Intel s-au angajat pe această direcție.
Desigur că de la început s-au conturat două direcții înăuntrul „inteligenței artificiale”. Una era preocupată de modelarea neuronală și concentrată asupra fenomenului de învățare, alta preocupată de elaborarea de mecanismele logice și concentrată asupra posibilităților de calcul. Direcțiile au luat forma „conectivismului”, care este nutrit de convingerea că inteligența este chestiune de conexiune neuronală, și forma „simbolismului”, care este convins că ea poate exprima realități (vezi Martin Ford, Herrschaft der Roboter. Wie kunstliche Intellingenz alles transformieren wird – und wie wir damit umgehen konnen, Passen, Kulmbach, 2021, pp.105-120). Cele două direcții au alternat la conducerea dezvoltării „inteligenței artificiale”, încât modelarea neuronală a revenit de fiecare dată în față. Ce a contat însă din organizarea creierului uman?
Se știe că nici o altă realitate a lumii nu întrece complexitatea creierului uman. Așa cum ne spun studiile de specialitate, acesta reunește miliarde de neuroni, care întrețin miliarde de conexiuni. În plus, fiecare neuron are propria activitate, ce constă în preluarea de informații și emiterea de semnale. Energiile care acționează sunt cel puțin două: o energie electrică și o energie chimică, care sunt fundamentale în funcționarea creierului. Un neuron constă din „nucleu” și „dendrite”, ce preiau semnale de la alți neuroni, ce au prelungiri („axioni”) ce conduc semnale spre alți neuroni, trecând prin „sinapse”. Cercetările înaintează astăzi spre a lămuri transmiterea electrochimică a semnalelor și sunt promițătoare.
Cei care se ocupă de dezvoltarea „inteligenței artificiale” încearcă din capul locului să preia matematic complexitatea funcționării neuronale. Abordarea matematică a ajuns ea însăși să se autonomizeze și să modeleze.
Continuă, însă, preocuparea de a crea „neuronul artificial” – prin imitarea componentelor și funcționării „neuronului natural”. Cheia este controlarea „axonilor” prin „ventile” încât să se poată prelua în însăși arhitectura „neuronilor artificiali” algoritmii aleși de constructorul computerului și comenzi din partea celui care îl folosește. „Învățarea” și „trainingul” de la nivelul acestor neuroni asigură funcționarea „inteligenței artificiale”.
Interesante și de semnalat sunt două fapte. Primul este acela că „neuronii artificiali” reuniți într-un computer asigură rezolvări rapide de chestiuni de complexitate pentru care oamenii ar trebui să cheltuie foarte mulți ani/persoană. Al doilea este acela că așa cum nu știm până la capăt, ca urmare a complexității organizării, cum au loc procesele din creier, nu știm nici totul despre funcționarea ansamblului neuronal artificial. Cum spune Martin Ford (p.125), el ni se prezintă ca un fel de Black Box.
Psihologul și antropologul Francisco J. Varela a semnalat cât de mult a sprijinit înțelegerea minții umane ca un proces de calcul, „inteligența artificială”. Diferența a rămas doar aceea că acest „cognitivism” se interesează și de sisteme cognitive naturale. Adepți ai „inteligenței artificiale” reduc însă convingerile, sentimentele, dorințele, proiectele la epifenomene ale calculului. Creierul este conceput ca o rețea de celule ce preia, prelucrează și transmite informații. De aceea, „inteligența artificială” este subordonată unui proiect social tehnologic (Kognitionswissenschaft- Kognitionstechnik, Suhrkamp, Frankfurt am Main, 1990, p.52), care-i comandă demersurile, ca prealabil al ei.
Rezultat al abordării rețelei neuronale a creierului cu ajutorul modelărilor computeriale a fost „psihologia cognitivă”. Ea s-a format nemijlocit din situația în care în psihologie s-a înaintat de la introspecționismul clasic, care a încercat să stabilească ce este „gândirea” umană, oarecum cartesian, adică întorcând privirea cercetătorului spre ceea ce s-ar petrece în interiorul nostru atunci când „gândim”, trecând prin experimentalismul inaugurat de Wilhelm Wundt, care punea subiecții să-și observe și să mărturisească ceea ce fac sub condiții experimentale stricte, apoi prin behaviorismul lansat de John Watson, care a explorat învățarea plecând de la cea elementară, a unor animale, pentru a capta ceea ce se petrece în psihicul uman, la cognitivism, inaugurat de Ulrich Neisser (Cognitive Psychology, 1967). Patru opțiuni sunt la baza „psihologiei cognitive”.
Prima opțiune este concentrarea asupra „inteligenței” lăsând la o parte un termen atât de înconjurat de istorie și desigur fabulații și mituri, cum este „gândirea”. Așa cum un ceasornicar caută să observe cum funcționează un ceas, tot astfel psihologul caută să stabilească cum funcționează „inteligența”, după ce se admite că „mintea umană (the human mind) este un instrument extrem de interesant care etalează adaptabilitate și inteligență remarcabile” și se propune ca psihologia să se concentreze asupra „înțelegerii (understand) mecanismului ce face posibilă o asemenea sofisticare intelectuală” (John R. Anderson, Cognitive Psychology and its Implications, W.H.Freeman and Company, New York, 1995, p.2).A doua opțiune este punerea în legătură a trei posibilități: examinarea minții pe linia performanțelor ei, privirea minții ca un procesor de informații și modelarea proceselor lăuntrice încât să se explice performanțele. A treia opțiune este crearea de programe care dau seama de funcționarea „inteligenței umane”. Se pot face analogii cu computerele cu mențiunea că nu computerele sunt excedate de complexitatea „inteligenței”, ci aceasta din urmă nu este suficient cunoscută. Psihologia cognitivă face „încercarea de a analiza cogniția ca un set de pași în care o entitate abstractă, numită informație, este procesată” (p.12).A patra opțiune este asumarea ideii că neuronii, ca sunt cea mai importantă parte a sistemului nervos, dar acest sistem nu se reduce la neuroni. „Creierul uman însuși conține în jur de 100 de miliarde de neuroni, fiecare având capacitatea de procesare a unui ca mărime aproximativ modest computer”(p.18), iar creierul ne apare astfel ca o „putere computațională” considerabilă. Astfel că, „înțelegerea punctelor tari și a slăbiciunilor sistemului nervos uman este un scop major în înțelegerea naturii cogniției umane” (p.19). Ceea ce este decisiv este faptul că informația și circulația informației poate fi descrisă cu precizie suficientă ca „activitate neuronală”.
John R. Anderson spune că „o cantitate uriașă de evidență fiziologică asupra acestor procese este accesibilă și pot fi făcute conexiuni directe între fiziologie și experiența psihologică” (p.73-74). El pune astfel psihologia în legătură strânsă cu fiziologia. Pe de altă parte, psihologia cognitivă leagă diferite manifestări de resursele de procesare de informații. „Creierul este un instrument de procesare complexă paralelă…. Nu există rațiuni să presupunem că este o singură limitare a resurselor sau că există un singur mecanism de alocare a resurselor” (p.104). „Mintea” operează și o „reconstrucție inferențială”, a realității în care se apelează la „scheme” și se regăsesc „stereotipuri culturale” (p.219). „Cunoașterea procedurală” de care dispunem ca oameni își are originea în „activitatea de rezolvare de probleme, în care un scop este descompus în subscopuri pentru care rezolvatorul dispune de operatori”, încât problema cheie este „selecția de operatori” (p.250). Oamenii folosesc mai ales „analiza mijloace-scopuri”.
V. Ingineriile au avut un rol crucial în emergența „inteligenței artificiale! Aceasta nu ar fi fost posibilă fără descoperirea posibilității de a converti o rază de lumină ce cade pe o suprafață reflectivă la vibrația vocii cuiva într-o mișcare celulară ce permite retransformarea într-o voce la capătul celălalt al instalației – acestea cu ajutorul unei celule fotovoltaice. Cum spune James Bridle (New Dark Age, Verso, London, New York, 2023, p.20), se confirmă dictonul biblic „fiat lux fiat anima”. A fost descoperirea din 1880 a lui Alexander Bell, prin care s-a dovedit că lumina poate fi purtător de sunet. Pentru prima oară lumina a fost convertită în informație.
„Inteligența artificială” nu ar fost posibilă fără avansarea aplicării calculației în noi domenii. O chestiune a fost previziunea meteorologică. Aceasta a căpătat un impuls enorm prin trecerea la calcul plecând de la asumpția că problema nu se poate rezolva înainte de a proceda la altă punere a ei, iar această punere a însemnat recursul la computație – ce reunea, de pildă, coloane pentru temperatură, viteza vântului, presiunea atmosferică etc. și numeroase corelații. Metoda era importantă – modelarea prin divizarea lumii în multe pătrate și calcularea pentru fiecare pătrat. Lipseau la început viteza computației și tehnologia calculului, dar cu timpul a venit și aceasta. Previziunea meteorologică a devenit astfel o chestiune de abordare numerică.
„Inteligența artificială” nu ar fi fost posibilă fără recursul la tehnologii de stocare a datelor. Un inginer Vanevar Bush (1945) a propus ca modalitate de a reuni datele memex-ul – un instrument cu memorie, ecran, buton de acționare, capabil să înmagazineze documente într-o manieră enciclopedică. Vladimir Zworâkin a propus legarea stocării datelor, analiza lor și previziuni. John von Neumann avea aceleași preocupări, încât împreună, cei doi au pus la punct o abordare a meteorologiei și un computer.
Progresele matematicii au mers în ultimul mai bine de un secol mână în mână cu dezvoltarea electromecanică. Treptat acest ultim aspect a fost preluat de automate, care au fost construite sub încercarea de a copia comportamentul uman.
„Inteligența artificială” nu ar fi fost posibilă fără pragul care s-a creat în domeniul ingineriei militare. Aici chestiunea care s-a pus a fost sprijinirea aviatorilor cu prelucrarea datelor privind stațiile de la sol, fluctuațiile atmosferice, evoluția vremii și asigurarea legăturilor cu puncte de la sol. Aceste preocupări au dus la formarea Internetului, pe care, prin decizia lui Ronald Reagan, a fost pus la dispoziția civililor, după decenii de rezervare de către armată. Prima componentă pusă la dispoziție a fost GPS.
„Inteligența artificială” nu ar fi fost posibilă fără inventarul cuprinzător al datelor culturii. El a fost realizat până azi de către Google, care a elaborat indexul întregii cunoașteri umane și a devenit sursa culturală la care apelează toți oamenii.
Din momentul în care s-au folosit impulsuri electrice pentru a codifica informațiile s-a putut trece la construcția de calculatoare – adică la „hardware” organizat spre a prelucra „software”. Conținuturile de gândire sunt preluate în formă matematizată și prelucrate cu ajutorul unui „hardware” ce aplică tehnologii construite după legile cunoscute. Mai nou diferența „software”-„hardware” s-a relativizat, căci se construiesc deja „hardware” cu rol de „software”.
Convertirea de cunoștințe teoretice în tehnologii și fapte de viață curentă a fost făcută de ingineri. Ei au și intervenit în a stabili opțiunile inginerești ale sistemelor de limbaj computerial, ale hardware, ale software, și a tot ceea ce presupun „mașinile inteligente”. De evoluția ingineriilor depinde azi în mare măsură transformarea în computere a cunoștințelor existente și, desigur, evoluția „inteligenței artificiale”. De oamenii dedicați reflecției, mai ales de antropologi, sociologi, filosofi depinde integrarea acestei evoluții în viața umană.
(Din volumul A. Marga, Inteligența artificială și condiția umană, în pregătire pentru publicare)