|
Mesajul Sfântului Părinte Francisc pentru celebrarea celei de-a 57-a Zile Mondiale a Păcii (1 ianuarie 2024) Inteligența artificială și pacea La începutul anului nou, timp de har pe care Domnul îl dăruiește fiecăruia dintre noi, aș vrea să mă adresez poporului lui Dumnezeu, națiunilor, șefilor de stat și de guvern, reprezentanților diferitelor religii și ai societății civile, tuturor bărbaților și femeilor din timpul nostru pentru a transmite urările mele de pace. 1. Progresul științei și al tehnologiei drept cale spre pace Sfânta Scriptură atestă că Dumnezeu a dăruit oamenilor pe Duhul său ca să aibă "înțelepciune, pricepere și știință pentru tot felul de lucrări" (Ex 35,31). Inteligența este expresie a demnității dăruite nouă de Creator, care ne-a făcut după chipul și asemănarea sa (cf. Gen 1,26) și ne-a făcut în stare să răspundem la iubirea sa prin libertate și cunoaștere. Știința și tehnologia manifestă în mod deosebit această calitate în mod fundamental relațională a inteligenței umane: sunt produse extraordinare ale potențialului său creativ. În constituția pastorală Gaudium et spes, Conciliul Vatican II a reafirmat acest adevăr, declarând că "prin munca și talentul său, omul s-a străduit întotdeauna să dea o cât mai mare dezvoltare propriei vieți"[1]. Când ființele umane, "cu ajutorul tehnicii", se străduiesc așa încât pământul "să devină locuință vrednică a întregii familii umane"[2], acționează conform planului lui Dumnezeu și cooperează cu voința sa de a duce la împlinire creația și de a răspândi pacea între popoare. Și progresul științei și al tehnicii, în măsura în care contribuie la o ordine mai bună a societății umane, la creșterea libertății și a comuniunii fraterne, așadar, duce la îmbunătățirea omului și la transformarea lumii. Pe bună dreptate ne bucurăm și suntem recunoscători pentru cuceririle extraordinare ale științei și ale tehnologiei, grație cărora s-a pus remediu nenumăratelor rele care chinuiau viața umană și provocau mari suferințe. În același timp, progresele tehnico-științifice, făcând posibilă exercitarea unui control până acum inedit asupra realității, pun în mâinile omului o gamă vastă de posibilități, dintre care unele pot să reprezinte un risc pentru supraviețuire și un pericol pentru casa comună[3]. Progresele însemnate ale noilor tehnologii ale informației, în special în sfera digitală, prezintă, așadar, oportunități entuziasmante și riscuri grave, cu implicații serioase pentru urmărirea dreptății și a armoniei între popoare. De aceea este necesar să ne punem câteva întrebări urgente. Care vor fi consecințele noilor tehnologii digitale, pe termen mediu și lung? Și ce impact vor avea asupra vieții indivizilor și a societății, asupra stabilității internaționale și asupra păcii? 2. Viitorul inteligenței artificiale între promisiuni și riscuri Progresele informaticii și dezvoltarea tehnologiilor digitale în ultimele decenii au început deja să producă transformări profunde în societatea globală și în dinamicele sale. Noile instrumente digitale schimbă fața comunicațiilor, a administrației publice, a instruirii, a consumurilor, a interacțiunilor personale și a altor nenumărate aspecte ale vieții zilnice. În afară de asta, tehnologiile care folosesc o multiplicitate de algoritme pot să extragă, din urmele digitale lăsate în internet, date care permit să se controleze obiceiurile mentale și relaționale ale persoanelor în scopuri comerciale sau politice, adesea fără ca ele să știe, limitând exercitarea conștientă a libertății de alegere. De fapt, într-un spațiu ca webul, caracterizat de o supraîncărcare de informații, se poate structura fluxul de date după criterii de selectare care nu sunt mereu percepute de utilizator. Trebuie să amintim că cercetarea științifică și inovațiile tehnologice nu sunt dezlipite de realitate și "neutre"[4], ci sunt supuse influențelor culturale. Fiind activități pe deplin umane, direcțiile pe care le iau reflectă alegeri condiționate de valorile personale, sociale și culturale din fiecare epocă. Același lucru trebuie spus pentru rezultatele care urmează: ele, tocmai pentru că sunt rod al abordărilor specific umane ale lumii înconjurătoare, au mereu o dimensiune etică, strâns legată de deciziile celui care proiectează experimentarea și îndreaptă producția spre obiective particulare. Acest lucru este valabil și pentru formele de inteligență artificială. Până astăzi, nu există o definiție univocă a ei în lumea științei și a tehnologiei. Termenul însuși, intrat de acum în limbajul obișnuit, îmbrățișează o varietate de științe, teorii și tehnici menite să facă în așa fel încât mașinile să reproducă sau să imite, în funcționarea lor, capacitățile cognitive ale ființelor umane. A vorbi la plural despre "forme de inteligență" poate ajuta să se sublinieze mai ales prăpastia de neumplut care există între aceste sisteme, oricât ar fi de surprinzătoare și puternice, și persoana umană: ele sunt, în ultimă analiză, "fragmentare", în sensul că pot numai să imite sau să reproducă unele funcții ale inteligenței umane. În afară de asta, folosirea pluralului evidențiază că aceste dispozitive, foarte diferite între ele, trebuie considerate mereu ca "sisteme socio-tehnice". De fapt, impactul lor, dincolo de tehnologia de bază, depinde nu numai de proiectare, ci și de obiectivele și de interesele celui care le posedă și ale celui care le dezvoltă, precum și de situațiile în care sunt angajate. Așadar, inteligența artificială trebuie să fie înțeleasă ca o galaxie de realități diferite și nu putem presupune a priori că dezvoltarea sa aduce o contribuție benefică la viitorul omenirii și la pacea între popoare. Acest rezultat pozitiv va fi posibil numai dacă ne vom demonstra capabili să acționăm în mod responsabil și să respectăm valorile umane fundamentale cum sunt "incluziunea, transparența, siguranța, echitatea, secretul și credibilitatea"[5]. Nu este suficient nici a presupune, din partea celui care proiectează algoritmi și tehnologii digitale, o angajare de a acționa în mod etic și responsabil. Trebuie întărite sau, dacă este necesar, instituite organisme care să examineze chestiunile etice urgente și să protejeze drepturile celor care utilizează forme de inteligență artificială sau sunt influențați de ea[6]. Așadar, expansiunea imensă a tehnologiei trebuie să fie însoțită de o formare adecvată la responsabilitatea față de dezvoltarea sa. Libertatea și conviețuirea pașnică sunt amenințate atunci când ființele umane cedează în fața tentației egoismului, a interesului personal, a dorinței de profit și a setei de putere. De aceea avem datoria de a lărgi privirea și de a orienta cercetarea tehnico-științifică spre urmărirea păcii și a binelui comun, spre slujirea dezvoltării integrale a omului și a comunității[7]. Demnitatea intrinsecă a fiecărei persoane și fraternitatea care ne leagă ca membri ai unicei familii umane trebuie să stea la baza dezvoltării de noi tehnologii și să folosească criterii indiscutabile pentru a le evalua înainte de folosirea lor, în așa fel încât progresul digital să poată avea loc respectând dreptatea și să poată contribui la cauza păcii. Dezvoltările tehnologice care nu duc la o îmbunătățire a calității vieții a întregii omeniri, ci dimpotrivă agravează inegalitățile și conflictele, nu vor putea fi niciodată considerate adevărat progres[8]. Inteligența artificială va deveni tot mai importantă. Provocările pe care le pune sunt tehnice, dar și antropologice, educative, sociale și politice. De exemplu, promite o economie de trude, o producție mai eficientă, transporturi mai ușoare și piețe mai dinamice, în afară de o revoluție în procesele de adunare, organizare și verificare a datelor. Trebuie să fim conștienți de transformările rapide aflate în desfășurare și să le gestionăm în așa fel încât să se salvgardeze drepturile umane fundamentale, respectând instituțiile și legile care promovează dezvoltarea umană integrală. Inteligența artificială ar trebui să fie în slujba celui mai bun potențial uman și a celor mai înalte aspirații ale noastre, nu în competiție cu ele. 3. Tehnologia viitorului: mașini care învață singure În formele sale multiple, inteligența artificială, bazată pe tehnici de învățare automată (machine learning), deși este încă în fază de pionierat, deja introduce schimbări însemnate în țesutul societăților, exercitând o influență profundă asupra culturilor, asupra comportamentelor și asupra construirii păcii. Dezvoltări precum machine learning sau învățarea profundă (deep learning) ridică probleme care depășesc domeniile tehnologiei și ale ingineriei și au de-a face cu o înțelegere strâns legată de semnificația vieții umane, de procesele fundamentale ale cunoașterii și de capacitatea minții de a ajunge la adevăr. De exemplu, abilitatea unor dispozitive în producerea de texte coerente din punct de vedere sintactic și semantic nu este garanție de credibilitate. Se spune că pot "să halucineze", adică să genereze afirmații care la prima vedere par plauzibile, dar care, în realitate, sunt nefondate sau trădează prejudecăți. Acest lucru creează o problemă serioasă atunci când inteligența artificială este folosită în campanii de dezinformare care răspândesc știri false și duc la o neîncredere crescândă față de mijloacele de comunicare. Secretul, posesia datelor și proprietatea intelectuală sunt alte domenii în care tehnologiile în discuție comportă riscuri grave, la care se adaugă ulterioare consecințe negative legate de o folosire improprie a lor, precum discriminarea, interferența în procesele electorale, afirmarea unei societăți care supraveghează și controlează persoanele, excluziunea digitală și înăsprirea unui individualism tot mai deconectat de colectivitate. Toți acești factori riscă să alimenteze conflictele și să împiedice pacea. 4. Sensul limitei în paradigma tehnocratică Lumea noastră este prea vastă, variată și complexă pentru a fi complet cunoscută și clasificată. Mintea umană nu va putea epuiza niciodată bogăția sa, nici măcar cu ajutorul celor mai avansate algoritme. De fapt, acestea nu oferă previziuni garantate în viitor, ci numai aproximări statistice. Nu poate fi pronosticat totul, nu poate fi calculat totul; la sfârșit, "realitatea este superioară ideii"[9] și, oricât de minunată poate să fie capacitatea noastră de calcul, va exista mereu un reziduu inaccesibil care scapă oricărei tentative de măsurare. În afară de asta, marea cantitate de date analizate de inteligențele artificiale nu este în sine garanție de imparțialitate. Atunci când algoritmele extrapolează informații, riscă mereu să le deformeze, replicând nedreptățile și prejudecățile din ambientele în care ele au origine. Cu cât devin mai rapide și complexe, cu atât este mai dificil să se înțeleagă pentru ce au produs un rezultat determinat. Mașinile "inteligente" pot desfășura sarcini încredințate lor cu eficiență tot mai mare, dar scopul și semnificația operațiunilor lor vor continua să fie determinate sau abilitate de ființe umane care sunt în posesia unui propriu univers de valori. Riscul este ca acele criterii aflate la baza anumitor alegeri să devină mai puțin clare, ca responsabilitatea decizională să fie ascunsă și ca producătorii să se poată sustrage de la obligația de a acționa pentru binele comunității. Într-un anumit sens, acest lucru este favorizat de sistemul tehnocratic, care aliază economia cu tehnologia și privilegiază criteriul eficienței, tinzând să se ignore tot ceea ce nu este legat de interesele sale imediate[10]. Acest lucru trebuie să ne facă să reflectăm asupra unui aspect pe cât de decisiv este pentru dezvoltarea personală și socială, pe atât de des neglijat în mentalitatea actuală, tehnocratică și eficientistă: "sensul limitei". De fapt, ființa umană, muritoare prin definiție, crezând că depășește orice limită în virtutea tehnicii, riscă, în obsesia de a voi să controleze totul, să piardă controlul asupra sieși; în căutarea unei libertăți absolute, să cadă în spirala unei dictaturi tehnologice. A recunoaște și a accepta propria limită de creatură este pentru om condiție indispensabilă pentru a obține, sau mai bine zis, pentru a primi în dar plinătatea. În schimb, în contextul ideologic al unei paradigme tehnocratice, animat de o prezumție prometeică de autosuficiență, inegalitățile ar putea să crească fără măsură, iar cunoașterea și bogăția să se acumuleze în mâinile câtorva, cu riscuri grave pentru societățile democratice și pentru coexistența pașnică[11]. 5. Teme fierbinți pentru etică În viitor, credibilitatea celui care cere un împrumut, capacitatea unui individ la un loc de muncă, posibilitatea de recidivă a unui condamnat sau dreptul de a primi azil politic sau asistență socială ar putea să fie determinate de sisteme de inteligență artificială. Lipsa de niveluri diversificate de mediere pe care aceste sisteme le introduc este deosebit de expusă la forme de prejudecată și discriminare: erorile sistemice pot cu ușurință să se înmulțească, producând nu numai nedreptăți în fiecare caz, ci și, prin efectul de domino, adevărate forme de inegalitate socială. În afară de asta, uneori formele de inteligență artificială par în măsură să influențeze deciziile indivizilor prin opțiuni predeterminate asociate la stimuli și descurajări sau prin sisteme de reglementare a alegerilor personale bazate pe organizarea informațiilor. Aceste forme de manipulare sau de control social cer o atenție și o supervizare amănunțite și implică o responsabilitate legală clară din partea producătorilor, a celor care le folosesc și a autorităților guvernamentale. Încrederea în procese automate care clasifică indivizii, de exemplu prin folosirea exasperantă a supravegherii sau adoptarea de sisteme de credit social, ar putea avea repercusiuni profunde și asupra țesutului civil, stabilind clasificări improprii între cetățeni. Și aceste procese artificiale de clasificare ar putea duce și la conflicte de putere, neinteresând numai destinatari virtuali, ci persoane în carne și oase. Respectul fundamental față de demnitatea umană cere să se refuze ca unicitatea persoanei să fie identificată cu un ansamblu de date. Nu trebuie să se permită algoritmilor să determine modul în care să înțelegem drepturile umane, să pună deoparte valorile esențiale ale compasiunii, ale milostivirii și ale iertării sau să elimine posibilitatea ca un individ să se schimbe și să lase în urmă trecutul. În acest context, nu putem să nu luăm în considerare impactul noilor tehnologii în domeniul muncii: operațiuni care odinioară erau apanaj exclusiv al mâinii de lucru umane sunt absorbite rapid de aplicațiile industriale ale inteligenței artificiale. Și în acest caz, există riscul substanțial al unui avantaj disproporționat pentru puțini în defavoarea sărăcirii multora. Respectarea demnității muncitorilor și importanța locului de muncă pentru bunăstarea economică a persoanelor, a familiilor și a societăților, siguranța angajărilor și echitatea salariilor ar trebui să constituie o înaltă prioritate pentru comunitatea internațională, în timp ce aceste forme de tehnologie pătrund tot mai profund în locurile de muncă. 6. Vom transforma săbiile în pluguri? În aceste zile, privind lumea care ne înconjoară, nu se poate scăpa de problemele etice grave legate de sectorul armamentelor. Posibilitatea de a face operațiuni militare prin sisteme de control de departe a dus la o percepție mai mică a devastării provocate de ele și a responsabilității utilizării lor, contribuind la o abordare și mare rece și dezlipită a tragediei imense a războiului. Cercetarea asupra tehnologiilor în creștere în sectorul așa-numitelor "sisteme de arme autonome letale", inclusiv folosirea inteligenței artificiale pentru război, este un motiv grav de preocupare etică. Sistemele de arme autonome nu vor putea fi niciodată subiecți responsabili din punct de vedere moral: capacitatea umană exclusivă de judecată morală și de decizie etică este mai mult decât un ansamblu complex de algoritmi, și această capacitate nu poate fi redusă la programarea unei mașini care, oricât ar fi de "inteligentă", rămâne întotdeauna o mașină. Pentru acest motiv, este imperativ să se garanteze o supervizare umană adecvată, semnificativă și coerentă a sistemelor de arme. Nici nu putem ignora posibilitatea ca arme sofisticate să ajungă în mâini greșite, facilitând, de exemplu, atacuri teroriste sau intervenții menite să destabilizeze instituții de conducere legitime. Așadar, lumea chiar nu are nevoie ca noile tehnologii să contribuie la dezvoltarea inegală a pieței și a comerțului de arme, promovând nebunia războiului. Făcând astfel, nu numai inteligența, ci însăși inima omului va risca să devină tot mai "artificială". Cele mai avansate aplicații tehnice nu trebuie folosite pentru a facilita rezolvarea violentă a conflictelor, ci pentru a asfalta căile păcii. Într-o optică mai pozitivă, dacă inteligența artificială ar fi folosită pentru a promova dezvoltarea umană integrală, ar putea introduce inovații importante în agricultură, în instruire și în cultură, o îmbunătățire a nivelului de viață a unor întregi națiuni și popoare, creșterea fraternității umane și a prieteniei sociale. În definitiv, modul în care o folosim pentru a-i include pe cei din urmă, adică pe frații și surorile mai slabi și nevoiași, este măsura revelatoare a umanității noastre. O privire umană și dorința unui viitor mai bun pentru lumea noastră duc la necesitatea unui dialog interdisciplinar care are ca scop o dezvoltare etică a algoritmelor - algor-etica -, în care valorile să orienteze parcursurile noilor tehnologii[12]. Problemele etice ar trebui să fie luate în considerare încă de la începutul cercetării, precum și în fazele de experimentare, proiectare, producere, distribuire și comercializare. Aceasta este abordarea eticii proiectării, în care instituțiile educative și responsabilii procesului decizional au un rol esențial de desfășurat. 7. Provocări pentru educație Dezvoltarea unei tehnologii care să respecte și să slujească demnitatea umană are implicații clare pentru instituțiile educative și pentru lumea culturii. Înmulțind posibilitățile de comunicare, tehnologiile digitale au permis să se întâlnească în moduri noi. Totuși, rămâne necesitatea unei reflecții continue cu privire la tipul de relații spre care ne îndreaptă. Tinerii cresc în ambiente culturale impregnate de tehnologie și acest lucru nu poate să nu pună în discuție metodele de învățământ și formare. Educația la folosirea de forme de inteligență artificială ar trebui să tindă mai ales la promovarea gândirii critice. Este necesar ca utilizatorii de orice vârstă, dar mai ales tinerii, să dezvolte o capacitate de discernământ în folosirea de date și conținuturi adunate pe web sau produse de sisteme de inteligență artificială. Școlile, universitățile și societățile științifice sunt chemate să ajute studenții și profesioniștii să-și însușească aspectele sociale și etice ale dezvoltării și utilizării tehnologiei. Formarea pentru folosirea noilor instrumente de comunicare ar trebui să țină cont nu numai de dezinformare, de fake news, ci și de recrudescența neliniștitoare a "fricilor ancestrale […] care au știut să se ascundă și să se potențeze în spatele noilor tehnologii"[13]. Din păcate, încă o dată am ajuns să trebuim să combatem "ispita de a face o cultură a zidurilor, de a ridica ziduri pentru a împiedica întâlnirea cu alte culturi, cu alți oameni"[14] și dezvoltarea unei coexistențe pașnice și fraterne. 8. Provocări pentru dezvoltarea dreptului internațional Însemnătatea globală a inteligenței artificiale arată clar că, alături de responsabilitatea statelor suverane de a disciplina folosirea în interiorul lor, organizațiile internaționale pot desfășura un rol decisiv în ajungerea la acorduri multilaterale și în coordonarea aplicării și realizării lor[15]. În această privință, îndemn comunitatea națiunilor să lucreze unită cu scopul de a adopta un tratat internațional obligatoriu, care să reglementeze dezvoltarea și folosirea inteligenței artificiale în multiplele sale forme. Obiectivul reglementării n-ar trebui să fie, desigur, numai prevenția practicilor rele, ci și încurajarea practicilor bune, stimulând abordări noi și creative și facilitând inițiative personale și colective[16]. În definitiv, în căutarea de modele normative care să poată furniza un ghid etic dezvoltatorilor de tehnologii digitale, este indispensabil de a identifica valorile umane care ar trebui să fie la baza angajării societăților pentru a formula, a adopta și a aplica necesare cadre legislative. Munca de redactare a liniilor călăuzitoare etice pentru producerea de forme de inteligență artificială nu poate face abstracție de considerarea problemelor mai profunde referitoare la semnificația existenței umane, protejarea drepturilor umane fundamentale, urmărirea dreptății și a păcii. Acest proces de discernământ etic și juridic poate revela o ocazie prețioasă pentru o reflecție împărtășită cu privire la rolul pe care tehnologia ar trebui să-l aibă în viața noastă individuală și comunitară și la modul în care utilizarea sa poate să contribuie la crearea unei lumi mai egale și umane. Pentru acest motiv, în dezbaterile despre reglementarea inteligenței artificiale, ar trebui să se țină cont de glasul tuturor părților interesate, inclusiv al săracilor, aș marginalizaților și al altora care adesea rămân neascultați în procesele decizionale globale. * * * Sper ca această reflecție să încurajeze pentru a face în așa fel încât progresele în dezvoltarea formelor de inteligență artificială să slujească, în ultimă analiză, cauza fraternității umane și a păcii. Nu este responsabilitatea câtorva, ci a întregii familii umane. De fapt, pacea este rodul relațiilor care recunosc și primesc pe celălalt în demnitatea sa inalienabilă și al cooperării și angajării în căutarea dezvoltării integrale a tuturor persoanelor și a tuturor popoarelor. Rugăciunea mea la începutul Anului Nou este ca dezvoltarea rapidă de forme de inteligență artificială să nu mărească multele inegalități și nedreptăți prezente deja în lume, ci să contribuie pentru a pune capăt războaielor și conflictelor și pentru a alina multe forme de suferință care chinuiesc familia umană. Fie ca toți credincioșii creștini, credincioșii din diferite religii și bărbații și femeile de bunăvoință să colaboreze în armonie pentru a percepe oportunitățile și a înfrunta provocările puse de revoluția digitală și pentru a încredința generațiilor viitoare o lume mai solidară, dreaptă și pașnică. Din Vatican, 8 decembrie 2023 Franciscus Traducere de pr. Mihai Pătrașcu Note: [1] Nr. 33. [2] Ibid., 57. [3] Cf. Enciclica Laudato si’ (24 mai 2015), 104. [4] Cf. ibid., 114. [5] Audiență adresată participanților la Întâlnirea "Minerva Dialogues" (27 martie 2023). [6] Cf. ibid. [7] Cf. Mesaj adresat președintelui executiv al "World Economic Forum" la Davos-Klosters (12 ianuarie 2018). [8] Cf. Scrisoarea enciclică Laudato si’, 194; Discurs adresat participanților la Seminarul "Binele comun în era digitală" (27 septembrie 2019). [9] Exortația apostolică Evangelii gaudium (24 noiembrie 2013), 233. [10] Cf. Scrisoarea enciclică Laudato si’, 54. [11] Cf. Discurs adresat participanților la Adunarea Plenară a Academiei Pontificale pentru Viață (28 februarie 2020). [12] Cf. ibid. [13] Scrisoarea apostolică Fratelli tutti (3 octombrie 2020), 27. [14] Cf. ibid. [15] Cf. ibid., 170-175. [16] Cf. Scrisoarea enciclică Laudato si’, 177. lecturi: 2.
|
|
Episcopia Romano-Catolică de Iași * Bd. Ștefan cel Mare și Sfânt, 26, 700064 - Iași (IS) tel. 0232/212003 (Episcopie); 0232/212007 (Parohie); e-mail: editor@ercis.ro design și conținut copyright 2001-2024 * * toate drepturile rezervate * găzduit de HostX.ro * stat |