Anul pastoral
2023‑2024

Sinod
2021-2024

RADIO ERCIS FM
ERCIS FM
În Dieceza de Iași
Librărie on-line


comandă acum această carte prin librăria noastră virtuală
Viețile sfinților


adevăratele modele de viață se găsesc aici


 VIAȚA DIECEZEI 

© Vatican Media

Papa Francisc participă la Sesiunea G7 despre inteligența artificială (14 iunie 2024)

Un instrument fascinant și teribil

Stimate doamne, iluștri domni!

Mă adresez vouă, lideri ai Forumului Interguvernamental G7, cu o reflecție asupra efectelor inteligenței artificiale asupra viitorului omenirii.

"Sfânta Scriptură atestă că Dumnezeu a dăruit oamenilor pe Duhul său pentru ca să aibă «înțelepciune, pricepere și știință pentru tot felul de lucrări»" (Ex 35,31)[1]. Așadar, știința și tehnologia sunt produse extraordinare ale potențialului creativ al nostru, ființe umane[2].

Ei bine, tocmai din utilizarea acestui potențial creativ pe care Dumnezeu ni l-a dăruit iese în evidență inteligența artificială.

Aceasta din urmă, așa cum se știe, este un instrument extrem de puternic, folosit în foarte multe zone ale acțiunii umane: de la medicină la lumea muncii, de la cultură la domeniul comunicării, de la educație la politică. Și acum este permis să se facă ipoteza că folosirea sa va influența tot mai mult modul nostru de a trăi, relațiile noastre sociale și în viitor chiar și maniera în care concepem identitatea noastră de ființe umane[3].

Totuși, tema inteligenței artificiale este percepută adesea ca ambivalentă: pe de o parte, entuziasmează pentru posibilitățile pe care le oferă, pe de altă parte, generează teamă pentru consecințele pe care le lasă să se presimtă. În această privință se poate spune că noi toți suntem, chiar dacă în măsură diferită, străbătuți de două emoții: suntem entuziaști, când ne imaginăm progresele care pot deriva din inteligența artificială, dar, în același timp, suntem înfricoșați când constatăm pericolele inerente folosirii sale[4].

De altfel, nu putem să ne îndoim că venirea inteligenței artificiale reprezintă o adevărată revoluție cognitivă-industrială, care va contribui la crearea unui nou sistem social caracterizat de transformări epocale complexe. De exemplu, inteligența artificială ar putea permite o democratizare a accesului la știință, progresul exponențial al cercetării științifice, posibilitatea de a delega mașinilor muncile care uzează; dar, în același timp, ea ar putea aduce cu sine o nedreptate mai mare între națiuni avansate și națiuni în curs de dezvoltare, între grupuri sociale dominante și grupuri sociale oprimate, punând astfel în pericol posibilitatea unei "culturi a întâlnirii" în folosul unei "culturi a rebutului".

Însemnătatea acestor transformări complexe este desigur legată cu dezvoltarea tehnologică rapidă a inteligenței artificiale însăși.

Tocmai această avansare tehnologică viguroasă face inteligența artificială un instrument fascinant și teribil în același timp și impune o reflecție la înălțimea situației.

În această direcție probabil s-ar putea porni de la constatarea că inteligența artificială este înainte de toate un instrument. Și vine în mod spontan să se afirme că binefacerile sau daunele pe care ea le va aduce vor depinde de folosirea sa.

Acest lucru este cu siguranță adevărat, pentru că așa a fost pentru orice ustensilă construită de ființa umană încă din noaptea timpurilor.

Această capacitate a noastră de a construi ustensile, într-o cantitate și complexitate care nu are egal între ființele vii, face să vorbească despre o condiție tehno-umană: ființa umană a menținut dintotdeauna o relație cu ambientul mediată de instrumentele pe care le producea treptat. Nu este posibil să se separe istoria omului și a civilizației de istoria acestor instrumente. Cineva a voit să citească în toate acestea un soi de lipsă, un deficit, a ființei umane, ca și cum, din cauza acestei lipse, ar fi constrânsă să dea viață tehnologiei[5]. În realitate, o privire atentă și obiectivă ne arată opusul. Trăim într-o condiție de ulterioritate față de existența noastră biologică; suntem ființe dezechilibrate spre în-afara-noastră, ba chiar în mod radical deschise spre dincolo. De aici ia origine deschiderea noastră spre alții și spre Dumnezeu; de aici se naște potențialul creativ al inteligenței noastre în termeni de cultură și de frumusețe; de aici, în cele din urmă, are origine capacitatea noastră tehnică. Tehnologia este astfel o urmă a acestei ulteriorități a noastre.

Totuși, folosirea ustensilelor noastre nu este mereu îndreptată univoc spre bine. Chiar dacă ființa umană simte înăuntrul său o vocație spre dincolo și spre cunoașterea trăită ca instrument de bine în slujba fraților și a surorilor și a casei comune (cf. Gaudium et spes, 16), nu se întâmplă întotdeauna asta. Dimpotrivă, adesea, tocmai grație libertății sale radicale, omenirea a pervertit scopurile ființei sale transformându-se în dușmană a ei înseși și a planetei[6]. Aceeași soartă pot s-o aibă instrumentele tehnologice. Numai dacă va fi garantată vocația lor în slujba umanului, instrumentele tehnologice vor revela nu numai măreția și demnitatea unică a ființei umane, ci și mandatul pe care aceasta din urmă l-a primit de "a cultiva și a păzi" (cf. Gen 2,15) planeta și pe toți locuitorii săi. A vorbi despre tehnologie înseamnă a vorbi despre ce înseamnă a fi umani și, prin urmare, despre unica noastră condiție între libertate și responsabilitate, adică înseamnă a vorbi despre etică.

De fapt, atunci când înaintașii noștri au șlefuit pietre de cremene pentru a construi cuțite, le-au folosit fie pentru a tăia pielea pentru haine, fie pentru a se ucide unii pe alții. Același lucru s-ar putea spune despre alte tehnologii mult mai avansate, cum este energia produsă de fuziunea atomilor așa cum se întâmplă pe soare, care ar putea să fie utilizată desigur pentru a produce energie curată și renovabilă, dar și pentru a reduce planeta noastră într-o grămadă de cenușă.

Însă inteligența artificială este un instrument și mai complex. Aș spune că este vorba aproape de un instrument sui generis. Astfel, în timp ce folosirea unei ustensile simple (cum este cuțitul) este sub controlul ființei umane care o folosește și depinde numai de aceasta din urmă o bună folosire a sa, inteligența artificială, în schimb, se poate adapta autonom la misiunea care îi este încredințată și, dacă este proiectată cu această modalitate, să facă alegeri independente de ființa umană pentru a obține obiectivul prestabilit[7].

Merită de amintit mereu că mașina poate, în unele forme și cu aceste noi mijloace, să producă alegeri algoritmice. Ceea ce face mașina este o alegere tehnică între mai multe posibilități și se bazează ori pe criterii bine definite, ori pe inferențe statistice. În schimb, ființa umană nu numai că alege, ci în inima sa este capabilă să decidă. Decizia este un element pe care l-am putea defini mai mult strategic al unei alegeri și cere o evaluare practică. Uneori, adesea în misiunea dificilă de conducere, suntem chemați să decidem cu consecințe și asupra multor persoane. Dintotdeauna reflecția umană vorbește în această privință despre înțelepciune, phronesis din filozofia greacă și cel puțin în parte înțelepciunea din Sfânta Scriptură. În fața minunilor mașinilor, care par să știe să aleagă în manieră independentă, trebuie să ne fie foarte clar că ființei umane trebuie mereu să-i rămână decizia, și cu tonurile dramatice și urgente cu care uneori aceasta se prezintă în viața noastră. Am condamna omenirea la un viitor fără speranță, dacă am sustrage persoanelor capacitatea de a decide cu privire la ele însele și la viața lor condamnându-le să depindă de alegerile mașinilor. Avem nevoie să garantăm și să tutelăm un spațiu de control semnificativ al ființei umane asupra procesului de alegere a programelor de inteligență artificială: însăși demnitatea umană este în joc.

Tocmai asupra acestei teme permiteți-mi să insist: într-o dramă ca aceea a conflictelor armate este urgent să se regândească dezvoltarea și utilizarea de dispozitive cum sunt așa-numitele "arme letale autonome" pentru a interzice folosirea lor, începând deja de la o angajare reală și concretă pentru a introduce un control uman tot mai mare și semnificativ. Nicio mașină n-ar trebui să aleagă vreodată dacă să ia viața unei ființe umane.

În afară de asta, trebuie adăugat că folosirea bună, cel puțin a formelor avansate de inteligență artificială, nu va fi pe deplin sub controlul nici al utilizatorilor, nici al programatorilor care le-au definit scopurile originare în momentul creării lor. Și acest lucru este cu atât mai adevărat cu cât este foarte probabil ca, într-un viitor nu prea îndepărtat, programele de inteligențe artificiale vor putea comunica direct unele cu altele, pentru a îmbunătăți performance-ul lor. Și, dacă în trecut, ființele umane care au modelat ustensile simple au văzut existența lor modelată de acestea din urmă – cuțitul le-a permis să supraviețuiască în frig, dar și să dezvolte arta războiului – acum când ființele umane au modelat un instrument complex vor vedea pe acesta din urmă cum modelează și mai mult existența lor[8].

Mecanismul de bază al inteligenței artificiale

Acum aș vrea să mă opresc pe scurt asupra complexității inteligenței artificiale. În esența sa, inteligența artificială este o ustensilă desenată pentru rezolvarea unei probleme și funcționează prin intermediul unei înlănțuiri logice de operații algebrice, efectuată pe categorii de date, care sunt confruntate pentru a descoperi corelații, îmbunătățind valoarea lor statistică, grație unui proces de auto-învățare, bazată pe căutarea de date ulterioare și pe auto-modificarea procedurilor sale de calcul.

Inteligența artificială este astfel desenată pentru a rezolva probleme specifice, dar pentru cei care o folosesc este adesea irezistibilă tentația de a scoate, pornind de la soluțiile precise pe care ea le propune, deducții generale, chiar și de ordin antropologic.

Un exemplu bun este folosirea programelor desenate pentru a-i ajuta pe magistrați în deciziile referitoare la acordarea de arest la domiciliu deținuților care ispășesc o pedeapsă într-o închisoare. În acest caz, se cere inteligenței artificiale să prevadă probabilitatea de recidivă a delictului comis din partea unui condamnat pornind de la categorii prestabilite (tip de delict, comportament în închisoare, evaluare psihologică și altele), permițând inteligenței artificiale să aibă acces la categorii de date inerente vieții private a deținutului (origine etnică, nivel educativ, linie de credit și altele). Folosirea unei astfel de metodologii – care riscă uneori să delege de facto unei mașini ultimul cuvânt cu privire la destinul unei persoane – poate aduce cu sine în mod implicit referința la prejudecățile implicite în categoriile de date utilizate de inteligența artificială.

Faptul de a fi clasificat într-un anumit grup etnic sau, mai prozaic, faptul de a fi comis cu ani înainte o infracțiune minoră (de exemplu, faptul de a nu fi plătit o amendă pentru o oprire interzisă) va influența, de fapt, decizia cu privire la acordarea de arest la domiciliu. Dimpotrivă, ființa umană este mereu în evoluție și este capabilă să surprindă cu acțiunile sale, lucru de care mașina nu poate să țină cont.

Apoi trebuie afirmat că aplicații asemănătoare cu aceasta citată mai înainte vor suferi o accelerare grație faptului că programele de inteligență artificială vor fi tot mai dotate cu capacitatea de a interacționa direct cu ființele umane (chatbots), susținând conversații cu ele și stabilind raporturi de apropiere cu ele, adesea foarte plăcute și asiguratoare, deoarece aceste programe de inteligență artificială vor fi desenate pentru a învăța să răspundă, în formă personalizată, la nevoile fizice și psihologice ale ființelor umane.

A uita că inteligența artificială nu este o altă ființă umană și că ea nu poate propune principii generale, este adesea o gravă eroare care își trage originea ori din necesitatea profundă a ființelor umane de a găsi o formă stabilă de companie, ori din presupunerea lor subconștientă, adică din presupunerea că observațiile obținute printr-un mecanism de calcul sunt înzestrate cu calități de certitudine incontestabilă și universalitate neîndoielnică.

Totuși, această ipoteză este riscantă, așa cum demonstrează examinarea limitelor intrinseci ale calculului însuși. Inteligența artificială folosește operații algebrice pentru a fi efectuate conform unei secvențe logice (de exemplu, dacă valoarea lui X este mai mare decât cea a lui Y, înmulțește X cu Y; în caz contrar împarte X cu Y). Această metodă de calcul – așa-numitul "algoritm" – nu are nici obiectivitate, nici neutralitate[9]. De fapt, fiind bazat pe algebră, nu poate examina decât realități formalizate în termeni numerici[10].

În afară de asta, nu trebuie uitat că algoritmii desenați pentru a rezolva probleme foarte complexe sunt atât de sofisticați, încât este dificil pentru programatorii înșiși să înțeleagă exact cum reușesc să obțină rezultatele lor. Această tendință spre sofisticare riscă să se accelereze considerabil odată cu introducerea computerelor cuantice care nu vor funcționa cu circuite binare (semiconductori sau microcipuri), ci conform legilor, destul de complexe, ale fizicii cuantice. Pe de altă parte, introducerea continuă a microcipurilor din ce în ce mai performante a devenit deja una dintre cauzele predominării utilizării inteligenței artificiale de către puținele națiuni care sunt dotate cu aceasta.

Fie că sunt sofisticate sau nu, calitatea răspunsurilor pe care le oferă programele de inteligență artificială depind în cele din urmă de datele pe care le folosesc și de modul în care sunt structurate de acestea.

În sfârșit, îmi permit să subliniez un ultim domeniu în care se remarcă în mod clar complexitatea mecanismului așa-numitei inteligențe artificiale generative (Generative Artificial Intelligence). Nimeni nu se îndoiește că astăzi sunt la dispoziție instrumente magnifice pentru accesarea cunoștințelor care permit chiar și self-learning și self-tutoring într-o multitudine de domenii. Mulți dintre noi au fost impresionați de aplicațiile ușor disponibile online pentru a compune un text sau a produce o imagine pe orice temă sau subiect. În mod deosebit atrași de această perspectivă sunt studenții care, atunci când trebuie să pregătească lucrări, le folosesc în mod disproporționat.

Acești elevi, care sunt adesea mult mai pregătiți și obișnuiți cu utilizarea inteligenței artificiale decât profesorii lor, uită, totuși, că așa-numita inteligență artificială generativă, în sens strict, nu este tocmai "generativă". Acesta din urmă, într-adevăr, caută informații în big data și le împachetează în stilul care le este cerut. Nu dezvoltă concepte sau analize noi. Le repetă pe cele pe care le găsește, dându-le o formă atractivă. Și cu cât o noțiune sau o ipoteză se repetă mai mult, cu atât este considerată mai legitimă și mai validă. Mai mult decât "generativă", ea este, așadar, "întăritoare", în sensul că reordonează conținuturile existente, contribuind la consolidarea acestora, adesea fără a controla dacă acestea conțin erori sau preconcepții.

În acest fel, se riscă nu numai să se legitimeze fake news și să se întărească avantajul unei culturi dominante, ci să se submineze de asemenea procesul educațional aflat in nuce. Educația care ar trebui să ofere studenților posibilitatea unei reflecții autentice riscă să se reducă la o repetare a noțiunilor, care vor fi din ce în ce mai evaluate ca incontestabile, pur și simplu din cauza repropunerii lor continue[11].

A repune în centru demnitatea persoanei în vederea unei propuneri etice împărtășite

O observație mai generală trebuie adăugată acum la cele spuse deja. De fapt, sezonul inovațiilor tehnologice pe care îl trăim este însoțit de o conjunctură socială aparte și fără precedent: este din ce în ce mai ușor să se găsească acorduri pe problemele majore ale vieții sociale. Chiar și în comunitățile caracterizate printr-o anumită continuitate culturală, deseori apar dezbateri și confruntări aprinse care îngreunează producerea de reflecții politice comune, care vizează căutarea a ceea ce este bine și drept. Dincolo de complexitatea viziunilor legitime care caracterizează familia umană, apare un factor care pare să unească aceste diferite instanțe. Se înregistrează ca o pierdere sau cel puțin o eclipsă a simțului umanului și o aparentă nesemnificație a conceptului de demnitate umană[12]. Se pare că se pierde valoarea și semnificația profundă a uneia dintre categoriile fundamentale ale Occidentului: categoria de persoană umană. Și așa se face că, în această perioadă în care programele de inteligență artificială interoghează ființa umană și acțiunea sa, însăși slăbiciunea ethos-ului legată de percepția valorii și a demnității persoanei umane riscă să fie cea mai mare vulnus în implementarea și dezvoltarea acestor sisteme. De fapt, nu trebuie să uităm că nicio inovație nu este neutră. Tehnologia se naște cu un scop și, în impactul ei asupra societății umane, reprezintă întotdeauna o formă de ordine în relațiile sociale și o dispoziție de putere, care permite cuiva să desfășoare acțiuni și îi împiedică pe alții să facă altele. Această dimensiune constitutivă de putere a tehnologiei include întotdeauna, într-un mod mai mult sau mai puțin explicit, viziunea despre lume a celor care au realizat-o și au dezvoltat-o.

Acest lucru este valabil și pentru programele de inteligență artificială. Pentru ca acestea din urmă să fie instrumente pentru construirea binelui și a unui viitor mai bun, ele trebuie să fie întotdeauna orânduite spre binele fiecărei ființe umane. Trebuie să aibă o inspirație etică.

De fapt, decizia etică este aceea care ține cont nu numai rezultatele unei acțiuni, ci și de valorile aflate în joc și de îndatoririle care derivă din aceste valori. Pentru aceasta am salutat cu favoare semnarea la Roma, în 2020, a Rome Call for AI Ethics[13] și sprijinul său pentru acea formă de moderare etică a algoritmilor și a programelor de inteligență artificială pe care am numit-o "algoretică"[14]. Într-un context plural și global, în care sunt afișate și diferite sensibilități și ierarhii plurale în scalele de valori, ar părea dificil de găsit o singură ierarhie a valorilor. Dar în analiza etică putem folosi și alte tipuri de instrumente: dacă ne este greu să definim un singur set de valori globale, putem totuși să găsim principii comune cu care să facem față și să rezolvăm eventuale dileme sau conflicte ale vieții.

Din acest motiv a luat naștere Rome Call: în termenul de "algoretică" se condensează o serie de principii care se dovedesc a fi o platformă globală și plurală în măsură să găsească sprijinul culturilor, al religiilor, al organizațiilor internaționale și al marilor companii protagoniste ale acestei dezvoltări.

Politica de care este nevoie

Nu putem, așadar, ascunde riscul concret, întrucât este inerent mecanismului său fundamental, că inteligența artificială limitează viziunea despre lume la realități exprimabile în cifre și închise în categorii preambalate, excluzând aportul altor forme de adevăr și impunând modele uniforme antropologice, socio-economice și culturale. Paradigma tehnologică întrupată de inteligența artificială riscă atunci să facă loc unei paradigme mult mai periculoase, pe care am identificat-o deja cu denumirea de "paradigmă tehnocratică"[15]. Nu putem permite unui instrument așa de puternic și așa de indispensabil precum inteligența artificială să consolideze o astfel de paradigmă, ci mai degrabă trebuie să facem din inteligența artificială un bastion împotriva expansiunii sale.

Și tocmai aici este urgentă acțiunea politică, așa cum amintește enciclica Fratelli tutti. Cu siguranță, "Pentru mulți astăzi politica este un cuvânt urât și nu se poate ignora că în spatele acestui fapt există adesea erorile, corupția, ineficiența unor politicieni. La asta se adaugă strategiile care tind s-o slăbească, s-o înlocuiască cu economia sau s-o domine cu vreo ideologie. Și totuși, poate funcționa lumea fără politică? Poate găsi o cale eficace spre fraternitatea universală și pacea socială fără o politică bună?"[16].

Răspunsul nostru la aceste ultime întrebări este: nu! Politica este de folos! Vreau să reafirm în această ocazie că "în fața atâtor forme de politică meschine și orientate spre interesul imediat […], măreția politică se arată atunci când, în momente dificile, se acționează pe baza marilor principii și gândind la binele comun pe termen lung. Puterii politice îi este greu să primească această îndatorire într-un proiect de națiune și chiar mai mult într-un proiect comun pentru omenirea prezentă și viitoare"[17].

Stimate doamne, iluștri domni!

Această reflecție a mea despre efectele inteligenței artificiale asupra viitorului omenirii ne conduce astfel la considerarea importanței "politicii sănătoase" pentru a privi cu speranță și încredere la viitorul nostru. Așa cum am spus deja în altă parte, "societatea mondială are carențe structurale grave care nu se rezolvă cu petice sau soluții rapide pur și simplu ocazionale. Există lucruri care trebuie să fie schimbate cu restabiliri de fond și transformări importante. Numai o politică sănătoasă ar putea să fie călăuza sa, implicând cele mai diferite sectoare și cele mai diferite științe. În acest mod, o economie integrată într-un proiect politic, social, cultural și popular care tinde spre binele comun poate «deschide drumuri pentru oportunități diferite, care nu implică oprirea creativității umane și a visului său de progres, ci mai degrabă canalizarea acestei energii în mod nou» (Laudato si’, 191)"[18].

Acesta este tocmai cazul inteligenței artificiale. Revine fiecăruia să o folosească bine și revine politicii să creeze condițiile pentru ca o astfel de bună folosire să fie posibilă și rodnică.

Mulțumesc.

Franciscus

Traducere de pr. Mihai Pătrașcu

Note:

[1] Mesaj pentru a LVII-a Zi Mondială a Păcii din 1 ianuarie 2024, 1.

[2] Cf. ibid.

[3] Cf. ivi, 2.

[4] Această ambivalență a fost deja descoperită de Sfântul Papă Paul al VI-lea în Discursul adresat personalului de la "Centrul Automatizare Analiză Lingvistică" de la Aloysianum, din 19 iunie 1964.

[5] Cf. A. Gehlen, L’uomo. La sua natura e il suo posto nel mondo [Omul. Natura sa și locul său în lume], Milano, 1983, 43.

[6] Scrisoarea enciclică Laudato si’ (24 mai 2015), 102-114.

[7] Cf. Mesaj pentru a LVII-a Zi Mondială a Păcii din 1 ianuarie 2024, 3.

[8] Intuițiile lui Marshall McLuhan și ale lui John M. Culkin sunt deosebit de pertinente pentru consecințele folosirii inteligenței artificiale.

[9] Cf. Discurs adresat participanților la Adunarea Plenară a Academiei Pontificale pentru Viață, 28 februarie 2020.

[10] Cf. Mesaj pentru a LVII-a Zi Mondială a Păcii din 1 ianuarie 2024, 4.

[11] Cf. ivi, 3 și 7.

[12] Cf. Dicasterul pentru Doctrina Credinței, Declarația Dignitas infinita despre demnitatea umană (2 aprilie 2024).

[13] Cf. Discurs adresat participanților la Adunarea Plenară a Academiei Pontificale pentru Viață, 28 februarie 2020.

[14] Cf. Discurs adresat participanților la întâlnirea "Promoting Digital Child Dignity – From Concet to Action", 14 noiembrie 2019; Discurs adresat participanților la Adunarea Plenară a Academiei Pontificale pentru Viață, 28 februarie 2020.

[15] Pentru o expunere mai amplă, fac trimitere la scrisoarea mea enciclică Laudato si’ despre îngrijirea casei comune din 24 mai 2015.

[16] Scrisoarea enciclică Fratelli tutti despre fraternitatea și prietenia socială (3 octombrie 2020), 176.

[17] Ivi, 178.

[18] Ivi, 179.




Urmărește ercis.ro on Twitter
Caută pe site

Biblia on-line

Breviarul on-line


Liturgia Orelor
Magisteriu.ro


Documentele Bisericii
ITRC "Sf. Iosif"


Institutul Teologic Iași
Vaticannews.va


Știri din viața Bisericii
Catholica.ro


știri interne și externe
Pastoratie.ro


resurse pentru pastorație
Profamilia.ro


pastorația familiilor
SanctuarCacica.ro


Basilica Minor Cacica
Centrul de Asistență Comunitară "Sfânta Tereza de Calcutta"

Episcopia Romano-Catolică de Iași * Bd. Ștefan cel Mare și Sfânt, 26, 700064 - Iași (IS)
tel. 0232/212003 (Episcopie); 0232/212007 (Parohie); e-mail: editor@ercis.ro
design și conținut copyright 2001-2024 *  * toate drepturile rezervate * găzduit de HostX.ro * stat