Consiliul
Județean Cluj
Filosofia inteligenței artificiale

„Inteligența artificială” reia ideea lui La Mettrie a „l’homme maschine”. Acesta își asuma că omul poate fi abordat cu succes ca mașină și că este posibilă o mașină ce copiază omul. Termen datorat lui John McCarthy (1955), „artificial intelligence” a și fost concepută ca „teorie și tehnologie a creării de mașini care învață și decid pe baza acestei învățări”. Definițiile ei urmează aceste optici – omul este mașină, iar mașina poate copia omul. Unii văd „inteligența artificială” ca parte a informaticii, alții ca tehnologie de complementare a capacităților umane, alții – capacitate a unei mașini de a imita „inteligența umană”.
„Mașinile inteligente” sunt în plină evoluție. Ele nu sunt numai computerele pe care le folosim cotidian, ci și „mașinile inteligente” care pot deja duce la descoperiri științifice și rezolvări de probleme, iar unele propun decizii. De aceea, se și vorbește de „sistemele cognitive” ale inteligenței artificiale. Ele presupun învățarea, capacitatea de a aborda „complexitatea”, aptitudinea de a lua sub control „nesiguranța” prin calcule ale probabilității – toate plecând de la analogia cu „inteligența umană” și, desigur, apelând la tehnologii și revărsându-se în tehnologii. Ținta cognitivă ce conduce dezvoltarea lor este crearea de mașini capabile să-și descrie structura, să-și controleze unele mișcări și să se adapteze la mediu. Deci mașini cu anume „conștiință”, cum sunt roboții actuali, și chiar mai mult, mașini cu oarecare „conștiință de sine”, cu care se poate întreține un „dialog”.
Trei prejudecăți se cer azi depășite. Una este aceea care reduce „inteligența artificială” la computerele cu care operăm. A doua este cea care nu observă rapiditatea dezvoltării mașinilor pe plan cognitiv. A treia crede că în curând vor fi posibile computere ce au „conștiință de sine” aidoma oamenilor.
Mai este de observat că acea cunoaștere care conduce dezvoltarea „inteligenței artificiale” este azi extrem de ramificată. La ea participă informatica, ingineria, neurologia, fiziologia, psihologia, matematica, logica, teoria comunicării, filosofia. Se și dezvoltă o seamă de teme și domenii noi: învățarea la computere; sisteme expert în diagnostic medical; recunoașterea linguală, cu trecerea unui text din scris în pronunțat sau invers; mașini de inferență logică; mașini pentru predicția de evenimente; lectura de manuscrise; robotica; preluarea de valori de către mașini. Idealul este azi a ajunge la mașini ce pot fi agenți de sine stătători în viața oamenilor.
Dacă arunci o privire în felul de a proceda al specialiștilor poți constata că ei recurg în construcția „inteligenței artificiale” la metode multiple. Este vorba de „metode de reprezentare” – de preluare de date și probleme în limbaje, naturale sau create; „metode neuronale” – de copiere a creierului uman; „metode de simulare” a cogniției umane; „metode matematice” – programarea, statistica, teoria aproximării, optimizarea, algoritmi de rezolvare; „metode logice” – folosite în derivări inductive, deductive și abductive; „metode euristice” în copierea inteligenței umane.
Deja aceste metode schimbă cunoașterea umană – începând cu descrierea „facultăților” ei, pe care Kant le lămurise convingător, iar Peirce, Husserl, Wittgenstein și Heidegger le actualizaseră. Foarte probabil, Hilary Putnam avea în vedere aceste schimbări când spunea, justificat, că în era postbelică au apărut idei noi cât în întreaga istorie anterioară a filosofiei. „Inteligența artificială” modifică înțelegerea lumii și „provoacă” filosofia. Ea schimbă cultura generală.
Este în plin avânt dezbaterea asupra a ceea ce poate și a ceea nu poate „inteligența artificială”. Mă opresc în această intervenție la argumentele ce dau tonul în discuția internațională, datorate celor mai profunzi gânditori în domeniu, și formulez argumente ale filosofiei „pragmatismului reflexiv”. Tratez apoi, într-un articol separat, intitulat Originile inteligenței artificiale, emergența acesteia, în cadrul unei lucrări sub titlul Inteligența artificială și condiția umană.
Teoria actuală a cunoașterii nu poate să nu înceapă cu apărarea tezei autonomiei funcționale a minții umane. Ea are de partea ei multe argumente, izvorâte chiar din practica cercetării de la Galilei la Einstein, Max Planck, Norbert Wiener. Hilary Putnam i-a adăugat notoriul „argument computerial”. Conform acestuia, în sistemele care au cel puţin gradul de complexitate al mașinilor capabile să dea seama de propria funcționare, care sunt „maşinile Turing”, „descrierile organizării funcţionale” sunt logic diferite de „construcţia lor structurală (fizico-chimică)” și de „descrierile modului de comportament efectiv sau potenţial” (Hilary Putnam, Mind, Language and Reality, 1975). Ceea ce înseamnă că în cazul relației dintre creierul uman și organism lucrurile stau cel puțin la fel. Funcționarea este aici atât de complexă încât se sustrage oricărei mecanici.
Complexitatea aceasta nu ar trebui însă să descurajeze modelările creierului uman și ale activității sale. El însuși inovator în lingvistică, robotică și filosofie, Hilary Putnam a reluat argumentul chomskyan, după care nu este de așteptat ca „inteligența artificială” să copieze limbajul natural, dar modelarea informatică a limbajului este corectă și de continuat. „Multe sisteme sunt prea complexe pentru noi ca să le putem prelua, să facem predicții sau să le simulăm în detalii; dar asta nu înseamnă să spunem că nu putem să căutăm modele teoretice utile ale unor astfel de sisteme” (Hilary Putnam, Renewing Philosophy, Harvard University Press, 1992, p. 17). În definitiv, operăm, de pildă, cu „științe economice”, chiar dacă nu s-a captat complexitatea economiei.
Era de observat, odată cu Hilary Putnam, noutatea formației sale: ea este condusă nu de vreo diviziune disciplinară, ci de problemele de rezolvat. La o discuție pe care am avut-o la congresul german de filosofie (Hamburg, 1991) ilustrul gânditor nu numai că relata încântat vizitele sale, cu bunicul, la locurile de baștină a familiei, în Bucovina de Nord, dar și nevoia pe care a resimțit-o de a acoperi diverse domenii în căutarea de rezolvări pentru chestiunile cunoașterii. Mai târziu, l-am revăzut pe inflexibilul practicant al religiei, la Ierusalim, unde își cumpărase un apartament din balconul căruia se vedea locul consemnat de Biblie pentru Judecata de apoi. Oricum, profilul profesional organizat în jurul problemelor de rezolvat se regăsește la creatorii „inteligenței artificiale” și a devenit cvasiregulă în universitățile inovative ale timpului nostru.
Unde este conștiința? Este întrebarea ce se pune în fața oricărei pretenții privind „mașinile inteligente”. John Searle a răspuns cel mai convingător: „Conștiința este o caracteristică a creierului la un nivel mai înalt decât acela al neuronilor individuali” (Putting Consciousness Back in the Brain. Replic…, în volumul Neuroscience & Philosophy. Brain, Mind & Language, Columbia University Press, 2003, p.99). Procesele mentale au loc în creier și sunt legate de procesele neuronale. „Conștiința constă … în procese mentale subiective, calitative, unificate ce se petrec în spațiul fizic al craniului, probabil localizate mai ales în sistemul talamocortical” (p.114). Conștiința nu e transpozabilă în nici un alt loc fără acest suport.
Poate fi socotit creierul uman un computer? Tot John Searle a argumentat: „creierul, pe cât contează operațiile sale intrinseci, nu face procesarea informației. El este un organ biologic și procesele sale specific neurobiologice cauzează forme specific de intenționalitate. În creier, în mod intrinsec, există proceese neurobiologice și uneori ele cauzează conștientizări” (Is The Brain a Digital Computer?, 1990, în același volum, p.106). Creierul nu „procesează informații” – în fapt el prelucrează date, atâtea câte pot fi stilizate ca informații, dar datele rămân mereu ceva mai mult. Ele țin de experiențe ale acțiunilor de inserare a ființei umane în condițiile mediului vieții. Creierul permite analogia cu un computer, dar este mereu mai mult.
Mulți analiști au sesizat în teorii ale cunoașterii care au vrut să derive întregul conținut al acesteia din date externe prezența tacită a cuiva care organizează în interiorul minții acele date. John Searle a acuzat o „eroare de tip homunculus (homunculus fallacy)” ca endemică modelărilor computaționale ale cogniției. Acestă eroare constă, tehnic vorbind, în aceea că un concept este explicat recursiv, adică prin conceptul însuși, fără a-l defini sau explica în prealabil. Ea este observabilă în conceperea „vederii (vision)”: se explică vederea umană reținând că lumina din exterior formează o imagine pe retină și ceva (sau cineva) plasat în creier controlează dacă aceste imagini sunt imagini pe ceva aidoma unui ecran. Asumpția este că înăuntrul creierului ar fi, metaforic vorbind, „un homunculus, adică un omuleț”, care controlează imaginile ce se derulează.
O personalitate cu bună formație în noua configurație a cunoașterii, Daniel Dennett, a formulat două argumente demne de atenție. Ele sunt îndreptate contra exaltării potențialului „inteligenței artificiale”.
Primul argument este că „inteligența artificială” este o abordare care a luat act de faptul că strategia de cercetare „bottom-up”, reprezentată de behaviorism în psihologie, nu mai dă rezultate. Nici reprezentarea prin psihologia fiziologică a semnalelor neuronale nu le mai dă. Fiind ambele excedate de complexitatea fenomenelor psihice, s-a recurs la o strategie „top-down” care a ales dintre variantele abordării cogniției pe aceasta: cum poate un sistem să îndeplinească performanța X? Or, aceasta, arată Daniel Dennett, nu este o interogare riguros empirică, ci una „inginerească (engineering)” – o „chestiune de soluție mai curând decât una de descoperire” (Brainstorms. Philosophical Essays on Mind and Psychology, The Mit Press, 1986, p.111). Este vorba, astfel, de o teoretizare „aprioristică”, ce ne poate duce la sesizarea de constrângeri, dar poate înșela cu privire la realitate.
Felul de a proceda „aprioristic” a fost repede îmbrățișat de „psihologia cognitivistă”, ai cărei adepți s-au entuziasmat de plecarea de la modelări computeriale spre psihic. Acest fel de a proceda trimite însă psihologia pe o cale ce o ține la distanță de datele empirice și antrenează patru lacune: a) componentele sistemului sunt introduse miraculos; b) se ia în mod discutabil o constrângere ca mai importantă decât altele; c) se restrânge artificial designul unui subsistem; d) se restrânge convenabil performanța unui sistem (p.112-113). „Psihologia cognitivă” își asumă că există un izomorfism între computer și creier, între nivelul neuronal și computer, dar acest izomorfism nu se poate proba. „Verisimilitudinea” programului computerial nu este același lucru cu izomorfismul.
„Inteligența artificială” și tot ceea ce se construiește pe ea reiau de fapt întrebarea „cum este cunoașterea posibilă?” într-un nou context. „Inteligența artificială este cea mai abstractă cercetare a posibilității inteligenței sau cunoașterii” (p.119). Ea împarte cu filosofia interesul pentru structuri abstracte și cu psihologia interesul pentru un sistem aparte – cel al psihicului uman. În fapt „programele inteligenței artificiale nu sunt experimente empirice, ci experimente de gândire regulate protetic prin computere” (p.117). Nu este astfel deloc sigur că „inteligența artificială” rezolvă problemele pe care le întâlnește pe traseu: „prin urmare, psihologia fără homunculi este imposibilă. Dar și psihologia cu homunculi este condamnată la circularitate sau regres infinit, încât este imposibilă” (p.122). Oricum, ea nu mai este psihologie a realității de fapt.
Al doilea argument pleacă de la teorema lui Gödel: într-un sistem de axiome consistent, de pildă, al aritmeticii numerelor naturale, sunt propoziții ce nu se pot dovedi în acel sistem. Or, computerele sunt mașini bazate pe sisteme de axiome, „mașinile Turing” recurgând deja prin construcție la exploatarea tuturor legilor cunoscute pentru a-și atinge scopul. Dar oricât ar fi de dezvoltată, „mașina Turing” are nevoie de ceva ce ține de creatorul ei. Nu are bază matematică asumpția că ea ar putea avea un scop, în înțelesul propriu al acestui termen (p.261). „Mașina Turing” depinde de intenția designerului, iar această intenție nu se transmite ca atare mașinii.
Mereu inovativul John Searle a arătat din capul locului multipla ambiguitate a termenului de „inteligență artificială”, legată de înțelegerea atât a „inteligenței” cât și a „artificialității”. El propune să se vorbească de „inteligență mentală (menthal intelligence)” și de „inteligență nonmentală (nonmental intelligence)”. Astfel că „atribuim inteligență mentală oamenilor și unor animale, atribuim inteligență nonmentală cărților și calculatoarelor” (Philosophy in a New Century, Cambridge University Press, 2008, p.57) și devenim realiști.
Interpretarea tare cu care avem de a face din partea celor care exaltă potențialul „inteligenței artificiale” este că ea ar implica procese cognitive reale. John Searle se opune acestei interpretări. Teza sa este: „Operațiile creierului cauzează conștiință ce are conținut semantic. Operațiile programelor sunt pur sintactice, iar sintaxa prin ea însăși nu constituie conștiință, nici nu este suficientă să genereze conștiință” (p.62). Ca să putem vorbi legitim de prezența „conștiinței”, aceasta ar trebui duplicată, dar ea este numai „simulată” de computer. Nici „mașinile Turing” nu pot duplica conștiința, căci sunt concepute doar sintactic. „Fenomenele mentale au o ontologie la persoana întâia în sensul că ele există efectiv doar când sunt experimentate de un agent uman sau animal” (p.64). Restul sistemelor nu ajung la procese mentale.
Lui John Searle i se datorează argumentul „Camerei Chineze (Chinese Room)”: să presupunem, analog testului „mașinii Turing”, că într-o cameră este plasat un om care nu cunoaște limba chineză. Dar acesta este dotat cu un pix, o bucată de hârtie, cu date privind simbolurile limbii chineze și instrucțiunile cu privire la ceea ce poate face cu simbolurile. Vom putea observa că persoana se comportă asemenea unuia care folosește simbolurile și regulile acestora din limba chineză fără să înțeleagă însă limba chineză. El poate folosi simboluri, dar nu trebuie să le stăpânească „semnificația”. „Întregul sistem nu are nici o cale să atașeze semantică sintaxei simbolurilor din computer” (p.59). Așa stau lucrurile cu computerele.
John Searle mai argumentează plecând de la teoria sa a „actelor de vorbire (speech acts)” și invocând unitatea propoziției. Noi formulăm propoziții în comunicare – „sentences” – pentru a performa ceva în acte de comunicare. Performativitatea este imanentă comunicării. Propoziția este o abstracție de ceea ce se performează în acte de vorbire (The unity of the proposition, 2008, în Philosophy in a New Century, p.188). Eu recurg la propoziția „părăsește, te rog sala!” pentru a performa ceva. Locuția este legată de ilocuție. Dar și invers, ilocuția este legată de reprezentarea a ceva în lume. În orice caz, vedem totdeauna obiecte doar în relații ce ne interesează. Fundamentală în propoziție nu este, așadar, „referința (reference)”, ci „satisfacția (satisfaction)”, iar „adevărul (truth)” este doar caz particular al „satisfacției” (p.192). Unitatea propoziției este dată nu de altceva decât de „starea intereselor și acțiunilor noastre (state of affairs)” ce procură satisfacție (p.193). Fapt este că în forma limbii noi putem face distincții, iar „limbajul este cel care ne permite să rupem unitatea naturală a propoziției introducând o articulare pe care forma prelingvistică nu o are” (p.192). Aceasta este o capacitate de abstracție pe care „inteligența artificială” o fructifică.
Mai este de observat că „testul Turing” abordează inteligența conform behaviorismului: ceea ce se gândește trebuie să se vadă în comportament – al oamenilor sau al computerelor. Alan Turing își asuma că un comportament exterior este un test concluziv pentru un eventual proces cognitiv ce are loc în interior. Numai că, observă John Searle, „este posibil să existe stări mentale fără a fi exprimate în comportament și este posibil să fie comportament care să nu corespundă la stări mentale” (The Turing Test: fifty-five years later, 2008, în Philosophy in a New Century, p.55). Poate exista comportament exterior fără proces cognitiv și invers. Astfel că noi putem construi mașini, dar nu le putem atribui un interior de natură mentală.
Dezbaterea filosofică de profunzime asupra „inteligenței artificiale” nu este de dată recentă. Ea a debutat cu reacțiile la apariția ciberneticii și la expansiunea logicii simbolice. Iau trei exemple.
Deja în anii cincizeci, Gotthard Gunther, a examinat cibernetica lui Norbert Wiener și a etalat două fapte de importanță majoră. Primul este acela că Norbert Wiener, spunând că informația nu este nici materie și nici energie, ci informație, a acreditat ideea unei realități nou descoperite. „Cibernetica ridică pretenția că în fenomenele proceselor de informație și de comunicare s-a descoperit o nouă componentă metafizică, ce nu se lasă redusă cu totul nici la pură obiectivitate și nici la pură subiectivitate și la care nu se ajunge nici spărgând-o și împărțind-i parția în subiect și obiect” (Das Bewusstsein der Maschinen. Eine Metaphysik der Kybernetik, 1957-1963, Klostermann, Frankfurt am Main, 2021, p.27). Gottard Gunther observă că cibernetica antrenează părăsirea logicii bivalente, legată de asumția diviziunii realității în subiectivitate și obiectivitate, și a izomorfiei dintre „gândire (Denken)” și „existență (Sein)”, cu toate implicațiile. Cibernetica infirmă existența unei structuri transcendentale, așa cum aceasta a fost acceptată, pe care o înlocuiește cu „un complex de structuri relaționale”, prin însăși realizările ei tehnice. Ea fixează însă o „nouă transcendență” – cea „a proceselor” (p.32). Logica bivalentă este privită doar ca idealizare în raport cu experiența, încât o întreagă istorie umană intră în disoluție.
Al doilea fapt este că cibernetica realizează un pas nou în tehnică – cu ea se face trecerea de la „mașina clasică-arhimedică”, ce execută operații în locul muncii în accepțiunea consacrată, la „reproducerea tehnică a creierului uman”, ce operează cu informații (p.165). S-a ajuns acolo încât nu mai sunt obiecții logico-teoretice la ideea „posibilității de a construi conștiința (nu conștiința de sine)”(p.171). „Activitatea creatoare a conștiinței umane” nu se lasă însă „duplicată”. „Funcțiile conștiinței, mecanice sau nemecanice, nu generează vreo conștiință atâta vreme cât lipsesc în continuare două lucruri decisive: în primul rând, o operativă unitate a funcțiilor și, în al doilea rând, conducerea „transcendentă” a acestei unități” (p.173). Regulile mașinilor sunt deocamdată pentru realități moarte. „Mașina de calcul constituie centrul fabricii automatice, dar ea nu va fi niciodată întreaga fabrică” (p.172). Ceea ce este decisiv!
Aceasta nu înseamnă, însă, să nu recunoaștem că, odată cu aceste mașini, o nouă realitate ontologică tehnic realizată, dar și logică și metafizică se impun. Arnold Gehlen (Der Mensch, 1950) avea dreptate că realitatea umană se lasă descrisă – excluzând conștiința – într-un sistem conceptual care nu mai operează cu distincția trup-suflet. Premisa este că omul experimentează realitatea și o înțelege numai ca ființă ce acționează asupra a ceva.
Nimeni nu a dat o descriere atât de profundă a ceea ce se petrece în cultura umanității odată cu expansiunea felului de a gândi inspirat de cibernetică, precum Heidegger. Monumentala sa scriere finală (Caietele negre, 1963-1970) o dovedește.
Heidegger spune fără ezitare că s-a intrat în „epoca Gestell-ului (Zeitalter des Gestells)”, care determină de acum destinul uman punându-l sub controlul ciberneticii (Vorlaufiges I-IV (Schwarze Hefte 1963-1970), GA 102, 2022, p.75). „Pe ce se bazează adevărul interpretării cibernetico-electromecanice a lumii? Răspunsul: în fapt pe eficiența efectelor ce sporesc mereu. Și acestea? Pe extinderea șanselor de a converti tot ceea ce poate fi captat de experiența umană în mecanisme mai complicate sau mai simple”. Ce se pierde astfel? „Jertfit nu este nimic – doar că unele nici nu mai intră în calcul – adică ceea ce nu se lasă calculat: necalculabilul (Unberechenbare)” (p.76). Care se și uită repede! Nu se mai pune vreo întrebare în privința „necalculabilului”. „Lumea mecanizată rămâne doar singură și se prezintă ca adevăr. Acesta află aprobare nelimitată la gândirea între timp mecanizată” (p.76). Până când? Indefinit, căci se instalează „credința în progresul nelimitat”, care schimbă așteptările din lume.
Cum știm, Betrand Russell a postulat separarea formalismului de cunoașterea realității și a înaintat pe această cale. În replică, Anton Dumitriu a întreprins una dintre ultimele apărări ale păstrării logicii în legătură cu adevărul accesibil prin experiența pe care o fac oamenii și vorbește de „o neînțelegere” a lui Aristotel din partea celebrului autor al capodoperei Principia Mathematica. „Această neînțelegere își are originea în pierderea contactului logicii cu realitatea și deci cu ontologia. Logica universalului, așa cum a fost concepută de Aristotel, logica esenței, a fost complet eliminată; ceea ce este anemic este ceea ce a rămas din ea în concepția acelora care au vrut să pătrundă în fondul logicii tradiționale. Logică și cunoaștere, logică și ontologie sunt intim legate în gândirea lui Aristotel; a priva logica de aceste laturi ale ei este a o reduce la ceea ce nu este. Acest lucru nu numai că a scăpat din vedere lui Russell, în ceea ce privește concepția Stagiritului, dar a fost pierdut complet pentru logica matematică” (Istoria logicii, Editura didactică și pedagogică, București, 1975,p.914-915). Anton Dumitriu se atașează lui Kurt Gödel, în a cărui vestită teoremă vede o argumentare a faptului că speranța matematicienilor de a da un sistem complet formal este iluzorie. El spune, la rândul său, că formalismul operează inevitabil cu argumentul că ceva se justifică în cunoaștere prin sine însuși.
Numai că simpla raportare a „inteligenței artificiale” la trecutul culturii nu mai este suficientă. Disciplinele care au făcut-o posibilă sunt ele însele cunoștințe competitive. În lumina lor tradiția însăși se poate înțelege mai profund (detaliat în A. Marga, Stăpânirea complexității, 2022). Sub aspecte importante, „inteligența artificială” schimbă abordarea lumii. În plus, realizările benefice, cognitive și tehnologice ale „inteligenței artificiale” se impun luate în serios.
Este de recunoscut, însă, că o „mașină inteligentă” poate însuma datele răspunsurilor la nenumărate situații, încât ea se poate comporta adecvat într-un mediu circumscris. Dar, oricât ar fi de evoluată, ea nu ajunge la o viață interioară. Ea nu are conștiință interiorizată pe baza experienței proprii de viață. Mașina își va putea asuma și regla propriul comportament în mediu, dar va depinde de cel care-i apasă butonul de pornire și alte butoane. Cu atât mai puțin ea va avea „conștiință de sine”.
În prelungirea discuției despre potențialul inteligenței artificiale, aduc aici două argumente relative la limitarea acesteia.
Primul argument l-am formulat pe baza observării cunoașterii (Andrei Marga, Argumentarea, Editura Academiei Române, 2010). El pleacă de la considerentul că se pot obține, printr-o analiză, plecând de la nivelul accesibil oricărui om, trepte ale cunoașterii: judecata; propoziția folosită în comunicarea curentă dintre oameni; ansamblul de propoziții ce poate reda diferențele, divergențele, contradicțiile realității; propoziții ca parte a „actelor de vorbire”; și, desigur, „actele de vorbire” ca părți ale „jocurilor de limbaj”; delimitarea „informației”, prelucrarea acesteia și folosirea tehnicilor digitale; operarea cu „argumente” în vederea ajungerii la „înțelegere”; privirea argumentelor din punctul de vedere al inteligibilității expresiei, veracității vorbitorului, adevărului conținutului și justeței relației celor care comunică.
Tabloul acesta ne spune că ceea ce numim cunoaștere – inclusiv cea realizată cu ajutorul „inteligenței artificiale” – pleacă de la date factuale și este de încredere. Ea se realizează azi în trepte și presupune parcurgerea lor. Pierde acela care nu se folosește de computer. Apăr însă susținerea că, înțeleasă ca asumare a întregului condițiilor vieții umane, „gândirea” este mai sus de aceste trepte (Andrei Marga, Vocația gândirii, Rao, București, 2024). Fără a se rupe de ele și fără a se reduce la vreuna! Ca efect – cultura, luată în lărgimea și bogăția ei, rămâne indispensabilă cunoașterii, fie ea și realizată cu „inteligența artificială”.
Al doilea argument este că sub anumite aspecte, deja prin construcție și funcționare, „inteligența artificială” prestează mai puțin decât „inteligența naturală”. Și ea are un prealabil care-i condiționează rezultatele. „Inteligența artificială” a plecat de la căutările de rezolvare a unei probleme tehnice:construirea de mașini aidoma minții umane, eventual cu capacități sporite. Ea a modelat mintea ca un computer, după ce originea ei este în optici logico-lingvistice. Ea a făcut loc unui concept al „informației” care asigură abordarea matematică, dar a rămas deschisă întrebarea pe cât operăm cu acest concept. Ea a aplicat o metodologie generală constând în abordarea unui obiect plecând de la un cadru apriori, computațional, dar rămâne de discutat pe cât această metodologie duce la cunoașterea lumii trăite a vieții – realitatea inevitabilă cu care ne întâlnim în cursa noastră pe pământ.
(Din volumul A.Marga, Inteligența artificială și condiția umană, în pregătire)