![]() |
![]() |
![]() |
|
Mesajul Sfântului Părinte Leon al XIV-lea
Protejarea vocilor și chipurilor umane Iubiți frați și surori! Chipul și vocea sunt trăsături unice, distinctive, ale fiecărei persoane; manifestă propria identitate irepetabilă și sunt elementul constitutiv al fiecărei întâlniri. Anticii știau bine acest lucru. Astfel, pentru a defini persoana umană, grecii antici foloseau cuvântul "chip" (prós?pon), care etimologic indică ceea ce se află în fața privirii, locul prezenței și al relației. Termenul latin persona (din per-sonare) include în schimb sunetul: nu un sunet oarecare, ci vocea inconfundabilă a cuiva. Chipul și vocea sunt sacre. Ne-au fost dăruite de Dumnezeu, care ne-a creat după chipul și asemănarea sa, chemându-ne la viață cu Cuvântul pe care el însuși ni l-a adresat; un Cuvânt care a răsunat mai întâi de-a lungul secolelor în vocile profeților, apoi s-a întrupat la plinirea timpurilor. Acest Cuvânt – această comunicare pe care Dumnezeu o face despre sine însuși – am putut să-l ascultăm și să-l vedem și direct (cf. 1In 1,1-3), pentru că s-a făcut cunoscut în vocea și în Chipul lui Isus, Fiul lui Dumnezeu. Din momentul creației sale, Dumnezeu l-a voit pe om ca interlocutor al său și, așa cum spune Sfântul Grigore de Nyssa[1], i-a imprimat pe chip o reflexie a iubirii divine, pentru ca acesta să poată trăi pe deplin propria umanitate prin iubire. A păstra chipurile și vocile umane înseamnă, așadar, a păstra această pecete, această reflexie de neșters a iubirii lui Dumnezeu. Nu suntem o specie alcătuită din algoritmi biochimici, definiți dinainte. Fiecare dintre noi are o vocație de neînlocuit și inimitabilă care izvorăște din viață și se manifestă tocmai în comunicarea cu ceilalți. Tehnologia digitală, dacă nu reușim să ne protejăm, riscă în schimb să modifice radical unii dintre pilonii fundamentali ai civilizației umane, pe care uneori îi considerăm de la sine înțeleși. Prin simularea vocilor și chipurilor umane, a înțelepciunii și cunoașterii, a conștientizării și responsabilității, a empatiei și prieteniei, sistemele cunoscute sub numele de inteligență artificială nu numai că interferează în ecosistemele informaționale, ci invadează și cel mai profund nivel al comunicării, acela al raportului dintre persoane umane. Prin urmare, provocarea nu este tehnologică, ci antropologică. Protejarea fețelor și a vocilor înseamnă, în ultimă instanță, a ne proteja pe noi înșine. A îmbrățișa oportunitățile oferite de tehnologia digitală și inteligența artificială cu curaj, determinare și discernământ nu înseamnă a ascunde de noi înșine problemele critice, opacitățile, riscurile. A nu renunța la propria gândire Există de mult timp dovezi multiple care arată că algoritmii concepuți pentru a maximiza implicarea pe rețelele de socializare – profitabilă pentru platforme – recompensează emoțiile rapide și penalizează în schimb exprimări umane care au mai mare nevoie de timp, cum ar fi efortul de a înțelege și reflecția. Prin limitarea grupurilor de oameni în bule de consens ușor și indignare ușoară, acești algoritmi slăbesc capacitatea de ascultare și de gândire critică și cresc polarizarea socială. La aceasta s-a adăugat apoi o dependență naivă și necritică de inteligența artificială ca "prietenă" omniscientă, distribuitoare a tuturor informațiilor, arhivă a tuturor amintirilor, "oracol" al tuturor sfaturilor. Toate acestea pot eroda și mai mult capacitatea noastră de a gândi în mod analitic și creativ, de a înțelege semnificațiile, de a distinge între sintaxă și semantică. Deși IA poate oferi sprijin și asistență în gestionarea sarcinilor de comunicare, evitarea efortului propriei noastre gândiri, mulțumindu-ne cu compilarea statistică artificială, riscă să ne erodeze abilitățile cognitive, emoționale și comunicative pe termen lung. În ultimii ani, sistemele de inteligență artificială au preluat din ce în ce mai mult controlul asupra producției de texte, muzică și videoclipuri. O mare parte din industria creativă umană riscă astfel să fie demontată și înlocuită cu eticheta "Powered by AI", transformând persoanele în simpli consumatori pasivi de gânduri negândite, de produse anonime, fără paternitate, fără iubire. În timp ce capodoperele geniului uman în muzică, artă și literatură sunt reduse la simple terenuri de antrenament pentru mașini. Totuși, problema care ne preocupă nu este ce reușește sau va reuși să facă mașina, ci ce putem și vom putea face noi, crescând în umanitate și cunoaștere, cu o utilizare înțeleaptă a unor instrumente atât de puternice aflate la dispoziția noastră. Oamenii au fost întotdeauna tentați să își însușească roadele cunoașterii fără efortul de implicare, cercetare și responsabilitate personală. Renunțarea la procesul creativ și predarea propriilor funcții mentale și a propriei imaginații mașinilor înseamnă totuși să îngropăm talanții pe care i-am primit în scopul de a crește ca oameni în relație cu Dumnezeu și cu ceilalți. Înseamnă să ascundem chipul nostru și să reducem la tăcere vocea noastră. A fi sau a ne preface: Simularea relațiilor și a realității Pe măsură ce parcurgem fluxurile noastre de informații (feed), devine tot mai dificil să înțelegem dacă interacționăm cu alte ființe umane sau cu "bot" [boți] sau "virtual influencers" [influenceri virtuali]. Intervențiile opace ale acestor agenți automatizați influențează dezbaterile publice și alegerile oamenilor. Chatboții bazați pe modele lingvistice mari (LLM), în special, se dovedesc surprinzător de eficienți în convingerea ascunsă, printr-o optimizare continuă a interacțiunii personalizate. Structura dialogică și adaptivă, mimetică, a acestor modele lingvistice este capabilă să imite sentimentele umane și, astfel, să simuleze o relație. Această antropomorfizare, care poate fi chiar amuzantă, este și înșelătoare, mai ales pentru cei mai vulnerabili. Deoarece chatboții făcuți excesiv de "afectuoși", pe lângă faptul că sunt mereu prezenți și disponibili, pot deveni arhitecți ascunși ai stărilor noastre emoționale și, astfel, pot invada și ocupa sfera intimității persoanelor. Tehnologia care exploatează nevoia noastră de relație poate avea nu numai consecințe dureroase asupra destinului indivizilor, ci poate deteriora și structura socială, culturală și politică a societăților. Acest lucru se întâmplă atunci când înlocuim relațiile cu ceilalți cu cele cu inteligențe artificiale antrenate să ne catalogheze gândurile și astfel să construim o lume de oglinzi în jurul nostru, unde totul este făcut "după chipul și asemănarea noastră". În acest fel, ne permitem să fim jefuiți de oportunitatea de a-l întâlni pe celălalt, care este întotdeauna diferit de noi și cu care putem și trebuie să învățăm să interacționăm. Fără a îmbrățișa alteritatea, nu poate exista nici relație, nici prietenie. O altă provocare majoră pe care o prezintă aceste sisteme emergente este cea a distorsiunii (în engleză bias), care duce la dobândirea și transmiterea unei percepții alterate a realității. Modelele de IA sunt modelate de viziunea asupra lumii a celor care le construiesc și pot, la rândul lor, impune moduri de gândire prin replicarea stereotipurilor și a prejudecăților prezente în datele pe care le utilizează. Lipsa de transparență în proiectarea algoritmilor, coroborată cu reprezentarea socială inadecvată a datelor, tinde să ne prindă în rețele care ne manipulează gândurile și perpetuează și adâncesc inegalitățile și nedreptățile sociale existente. Riscul este mare. Puterea simulării este de așa natură încât IA ne poate chiar amăgi prin fabricarea de "realități" paralele, însușindu-și chipurile noastre și vocile noastre. Suntem cufundați într-o multidimensionalitate, unde devine tot mai dificil să distingem realitatea de ficțiune. La aceasta se adaugă problema inexactității. Sistemele care prezintă probabilitatea statistică drept cunoștințe ne oferă, de fapt, în cel mai bun caz, aproximări ale adevărului, care uneori sunt pur și simplu "halucinații". Lipsa verificării surselor, combinată cu criza din jurnalismul de teren, care necesită colectarea și verificarea constantă a informațiilor la locul evenimentelor, poate crea un teren și mai fertil pentru dezinformare, provocând un sentiment tot mai mare de neîncredere, rătăcire și insecuritate. O alianță posibilă În spatele acestei enorme forțe invizibile care ne implică pe toți, există numai o mână de companii, cele ai căror fondatori au fost prezentați recent drept creatorii "persoanei anului 2025", și anume arhitecții inteligenței artificiale. Acest lucru ridică îngrijorări semnificative cu privire la controlul oligopolistic al sistemelor algoritmice și de inteligență artificială capabile să orienteze subtil comportamentele și chiar să rescrie istoria umană – inclusiv istoria Bisericii – adesea fără ca noi să fim cu adevărat conștienți de acest lucru. Provocarea care ne așteaptă nu este să oprim inovația digitală, ci să o ghidăm, să fim conștienți de caracterul său ambivalent. Depinde de fiecare dintre noi să ne ridicăm vocea în apărarea persoanelor umane, astfel încât să putem integra cu adevărat aceste instrumente ca aliați. Această alianță este posibilă, dar trebuie să fie fondată pe trei piloni: responsabilitate, cooperare și educație. În primul rând, responsabilitatea. În funcție de rol, aceasta poate fi definită ca onestitate, transparență, curaj, capacitate de viziune, datorie de a împărtăși cunoștințe, dreptul de a fi informat. Dar, în general, nimeni nu poate scăpa de propria responsabilitate în fața viitorului pe care îl construim. Pentru cei aflați la cârma platformelor online, aceasta înseamnă să se asigure că propriile strategii de afaceri nu sunt ghidate numai de maximizarea profitului, ci și de o viziune clarvăzătoare care ține cont de binele comun, în același mod în care fiecare dintre ei are grijă de bunăstarea copiilor săi. Creatorilor și dezvoltatorilor de modele de inteligență artificială le este cerută transparență și responsabilitate social în ceea ce privește principiile de proiectare și sistemele de moderare care stau la baza algoritmilor și modelelor dezvoltate, pentru a favoriza un consimțământ informat din partea utilizatorilor. Aceeași responsabilitate este impusă și legislatorilor naționali și autorităților de reglementare supranaționale, care sunt responsabili de asigurarea respectului pentru demnitatea umană. O reglementare adecvată poate proteja persoanele de o legătură emoțională față de chatboți și poate limita răspândirea conținuturilor false, manipulatoare sau înșelătoare, păstrând integritatea informației împotriva simulărilor înșelătoare. Companiile de mass-media și de comunicare, la rândul lor, nu pot permite ca algoritmii hotărâți să câștige bătălia pentru câteva secunde suplimentare de atenție cu orice preț să prevaleze asupra loialității lor față de valorile lor profesionale, care vizează căutarea adevărului. Încrederea publică se câștigă prin acuratețe și transparență, nu prin urmărirea oricărui tip de implicare. Conținuturile generate sau manipulate de inteligența artificială trebuie să fie clar semnalizate și distinse de conținuturile create de persoane. Paternitatea și proprietatea suverană asupra muncii jurnaliștilor și a altor creatori de conținut trebuie protejate. Informația este un bun public. Un serviciu public constructiv și semnificativ nu se bazează pe opacitate, ci pe transparența surselor, pe includerea subiecților implicați și pe un standard ridicat de calitate. Suntem cu toții chemați să cooperăm. Niciun sector nu poate aborda singur provocarea de a stimula inovația digitală și guvernanța IA. Prin urmare, trebuie create mecanisme de salvgardare. Toate părțile interesate – de la industria tehnologică la legislatori, de la companii creative la lumea academică, de la artiști la jurnaliști, la educatori – trebuie să fie implicate în construirea și implementarea unei cetățenii digitale conștiente și responsabile. Acest lucru este ceea ce își propune educația să realizeze: să sporim capacitățile noastre personale de reflecție critică, să evaluăm credibilitatea surselor și potențialele interese din spatele selecției informațiilor care ajung la noi, să înțelegem mecanismele psihologice care le activează, să permitem familiilor, comunităților și asociațiilor noastre să elaboreze criterii practice pentru o cultură a comunicării mai sănătoasă și mai responsabilă. Tocmai din acest motiv, este tot mai urgentă introducerea în sistemele educaționale la toate nivelurile și a alfabetizării în domeniul mass-media, al informației și al inteligenței artificiale, pe care unele instituții civile o promovează deja. Fiind catolici, putem și trebuie să aducem contribuția noastră la asigurarea faptului că persoanele – mai ales tinerii – dobândesc capacitatea de gândire critică și cresc în libertate spiritului. În afară de asta, această alfabetizare ar trebui integrată în inițiative mai ample de educație permanentă, ajungând și la persoanele în vârstă și la membrii marginalizați ai societății, care adesea se simt excluși și neputincioși în fața rapidelor schimbări tehnologice. Alfabetizarea în domeniul mass-media, al informației și al inteligenței artificiale (IA) va ajuta pe toți să evite adaptarea la deriva antropomorfizantă a acestor sisteme, ci, în schimb, să le trateze ca pe niște instrumente, să utilizeze întotdeauna o validare externă a surselor furnizate de sistemele de IA – care pot fi inexacte sau incorecte – și să-și protejeze confidențialitatea și datele prin înțelegerea parametrilor de securitate și a opțiunilor de soluționare a litigiilor. Este important să îi educăm pe ceilalți și să ne educăm despre cum utilizăm IA în mod intenționat și, în acest context, să protejăm propria imagine (fotografiile și audio), propriul chip și propria voce, pentru a evita ca să fie utilizate pentru a crea conținuturi și comportamente dăunătoare, cum ar fi frauda digitală, hărțuirea cibernetică și deepfake-urile care încalcă viața privată și intimitatea peroanelor fără consimțământul lor. Așa cum revoluția industrială a necesitat alfabetizare de bază pentru a permite persoanelor să răspundă la noutăți, tot așa și revoluția digitală necesită alfabetizare digitală (împreună cu educație umanistă și culturală) pentru a înțelege cum algoritmii ne modelează percepția asupra realității, cum funcționează prejudecățile IA, ce mecanisme dictează apariția anumitor conținuturi în fluxurile noastre de informații (feed), care sunt și cum se pot schimba fundamente și modele economice ale economiei IA. Avem nevoie de chip și de voce pentru a exprima din nou persoana. Avem nevoie să protejăm darul comunicării ca fiind cel mai profund adevăr al omului, spre care trebuie să fie călăuzită și fiecare inovație tehnologică. Oferind aceste reflecții, le mulțumesc tuturor celor care lucrează pentru atingerea obiectivelor schițate aici și îi binecuvântez din inimă pe toți cei care lucrează pentru binele comun cu mijloacele de comunicare. Din Vatican, 24 ianuarie 2026, comemorarea Sfântului Francisc de Sales. LEO PP. XIV Traducere de pr. Mihai Pătrașcu Notă: [1] "Faptul de a fi creat după chipul lui Dumnezeu înseamnă că omul, din momentul creării sale, a fost imprimat cu un caracter regal […]. Dumnezeu este iubire și izvorul iubirii: Creatorul divin a așezat și această trăsătură pe chipul nostru, astfel încât prin iubire – o reflectare a iubirii divine – ființa umană să recunoască și să manifeste demnitatea naturii sale și asemănarea sa cu Creatorul său" (cf. Sfântul Grigore de Nyssa, Crearea omului: PG 44, 137).
|
|
![]() |
Episcopia Romano-Catolică de Iași * Bd. Ștefan cel Mare și Sfânt, 26, 700064 - Iași (IS) tel. 0232/212003 (Episcopie); 0232/212007 (Parohie); e-mail: editor@ercis.ro design și conținut copyright 2001-2026 * * toate drepturile rezervate * găzduit de HostX.ro * stat | ![]() |