![]() |
![]() |
![]() |
![]() |
![]() |
![]() ![]()
|
![]() |
![]() |
![]() |
![]()
Mesajul Sfântului Părinte Francisc pentru celebrarea celei de-a 57-a Zile Mondiale a Păcii (1 ianuarie 2024) Inteligenţa artificială şi pacea La începutul anului nou, timp de har pe care Domnul îl dăruieşte fiecăruia dintre noi, aş vrea să mă adresez poporului lui Dumnezeu, naţiunilor, şefilor de stat şi de guvern, reprezentanţilor diferitelor religii şi ai societăţii civile, tuturor bărbaţilor şi femeilor din timpul nostru pentru a transmite urările mele de pace. 1. Progresul ştiinţei şi al tehnologiei drept cale spre pace Sfânta Scriptură atestă că Dumnezeu a dăruit oamenilor pe Duhul său ca să aibă "înţelepciune, pricepere şi ştiinţă pentru tot felul de lucrări" (Ex 35,31). Inteligenţa este expresie a demnităţii dăruite nouă de Creator, care ne-a făcut după chipul şi asemănarea sa (cf. Gen 1,26) şi ne-a făcut în stare să răspundem la iubirea sa prin libertate şi cunoaştere. Ştiinţa şi tehnologia manifestă în mod deosebit această calitate în mod fundamental relaţională a inteligenţei umane: sunt produse extraordinare ale potenţialului său creativ. În constituţia pastorală Gaudium et spes, Conciliul Vatican II a reafirmat acest adevăr, declarând că "prin munca şi talentul său, omul s-a străduit întotdeauna să dea o cât mai mare dezvoltare propriei vieţi"[1]. Când fiinţele umane, "cu ajutorul tehnicii", se străduiesc aşa încât pământul "să devină locuinţă vrednică a întregii familii umane"[2], acţionează conform planului lui Dumnezeu şi cooperează cu voinţa sa de a duce la împlinire creaţia şi de a răspândi pacea între popoare. Şi progresul ştiinţei şi al tehnicii, în măsura în care contribuie la o ordine mai bună a societăţii umane, la creşterea libertăţii şi a comuniunii fraterne, aşadar, duce la îmbunătăţirea omului şi la transformarea lumii. Pe bună dreptate ne bucurăm şi suntem recunoscători pentru cuceririle extraordinare ale ştiinţei şi ale tehnologiei, graţie cărora s-a pus remediu nenumăratelor rele care chinuiau viaţa umană şi provocau mari suferinţe. În acelaşi timp, progresele tehnico-ştiinţifice, făcând posibilă exercitarea unui control până acum inedit asupra realităţii, pun în mâinile omului o gamă vastă de posibilităţi, dintre care unele pot să reprezinte un risc pentru supravieţuire şi un pericol pentru casa comună[3]. Progresele însemnate ale noilor tehnologii ale informaţiei, în special în sfera digitală, prezintă, aşadar, oportunităţi entuziasmante şi riscuri grave, cu implicaţii serioase pentru urmărirea dreptăţii şi a armoniei între popoare. De aceea este necesar să ne punem câteva întrebări urgente. Care vor fi consecinţele noilor tehnologii digitale, pe termen mediu şi lung? Şi ce impact vor avea asupra vieţii indivizilor şi a societăţii, asupra stabilităţii internaţionale şi asupra păcii? 2. Viitorul inteligenţei artificiale între promisiuni şi riscuri Progresele informaticii şi dezvoltarea tehnologiilor digitale în ultimele decenii au început deja să producă transformări profunde în societatea globală şi în dinamicele sale. Noile instrumente digitale schimbă faţa comunicaţiilor, a administraţiei publice, a instruirii, a consumurilor, a interacţiunilor personale şi a altor nenumărate aspecte ale vieţii zilnice. În afară de asta, tehnologiile care folosesc o multiplicitate de algoritme pot să extragă, din urmele digitale lăsate în internet, date care permit să se controleze obiceiurile mentale şi relaţionale ale persoanelor în scopuri comerciale sau politice, adesea fără ca ele să ştie, limitând exercitarea conştientă a libertăţii de alegere. De fapt, într-un spaţiu ca webul, caracterizat de o supraîncărcare de informaţii, se poate structura fluxul de date după criterii de selectare care nu sunt mereu percepute de utilizator. Trebuie să amintim că cercetarea ştiinţifică şi inovaţiile tehnologice nu sunt dezlipite de realitate şi "neutre"[4], ci sunt supuse influenţelor culturale. Fiind activităţi pe deplin umane, direcţiile pe care le iau reflectă alegeri condiţionate de valorile personale, sociale şi culturale din fiecare epocă. Acelaşi lucru trebuie spus pentru rezultatele care urmează: ele, tocmai pentru că sunt rod al abordărilor specific umane ale lumii înconjurătoare, au mereu o dimensiune etică, strâns legată de deciziile celui care proiectează experimentarea şi îndreaptă producţia spre obiective particulare. Acest lucru este valabil şi pentru formele de inteligenţă artificială. Până astăzi, nu există o definiţie univocă a ei în lumea ştiinţei şi a tehnologiei. Termenul însuşi, intrat de acum în limbajul obişnuit, îmbrăţişează o varietate de ştiinţe, teorii şi tehnici menite să facă în aşa fel încât maşinile să reproducă sau să imite, în funcţionarea lor, capacităţile cognitive ale fiinţelor umane. A vorbi la plural despre "forme de inteligenţă" poate ajuta să se sublinieze mai ales prăpastia de neumplut care există între aceste sisteme, oricât ar fi de surprinzătoare şi puternice, şi persoana umană: ele sunt, în ultimă analiză, "fragmentare", în sensul că pot numai să imite sau să reproducă unele funcţii ale inteligenţei umane. În afară de asta, folosirea pluralului evidenţiază că aceste dispozitive, foarte diferite între ele, trebuie considerate mereu ca "sisteme socio-tehnice". De fapt, impactul lor, dincolo de tehnologia de bază, depinde nu numai de proiectare, ci şi de obiectivele şi de interesele celui care le posedă şi ale celui care le dezvoltă, precum şi de situaţiile în care sunt angajate. Aşadar, inteligenţa artificială trebuie să fie înţeleasă ca o galaxie de realităţi diferite şi nu putem presupune a priori că dezvoltarea sa aduce o contribuţie benefică la viitorul omenirii şi la pacea între popoare. Acest rezultat pozitiv va fi posibil numai dacă ne vom demonstra capabili să acţionăm în mod responsabil şi să respectăm valorile umane fundamentale cum sunt "incluziunea, transparenţa, siguranţa, echitatea, secretul şi credibilitatea"[5]. Nu este suficient nici a presupune, din partea celui care proiectează algoritmi şi tehnologii digitale, o angajare de a acţiona în mod etic şi responsabil. Trebuie întărite sau, dacă este necesar, instituite organisme care să examineze chestiunile etice urgente şi să protejeze drepturile celor care utilizează forme de inteligenţă artificială sau sunt influenţaţi de ea[6]. Aşadar, expansiunea imensă a tehnologiei trebuie să fie însoţită de o formare adecvată la responsabilitatea faţă de dezvoltarea sa. Libertatea şi convieţuirea paşnică sunt ameninţate atunci când fiinţele umane cedează în faţa tentaţiei egoismului, a interesului personal, a dorinţei de profit şi a setei de putere. De aceea avem datoria de a lărgi privirea şi de a orienta cercetarea tehnico-ştiinţifică spre urmărirea păcii şi a binelui comun, spre slujirea dezvoltării integrale a omului şi a comunităţii[7]. Demnitatea intrinsecă a fiecărei persoane şi fraternitatea care ne leagă ca membri ai unicei familii umane trebuie să stea la baza dezvoltării de noi tehnologii şi să folosească criterii indiscutabile pentru a le evalua înainte de folosirea lor, în aşa fel încât progresul digital să poată avea loc respectând dreptatea şi să poată contribui la cauza păcii. Dezvoltările tehnologice care nu duc la o îmbunătăţire a calităţii vieţii a întregii omeniri, ci dimpotrivă agravează inegalităţile şi conflictele, nu vor putea fi niciodată considerate adevărat progres[8]. Inteligenţa artificială va deveni tot mai importantă. Provocările pe care le pune sunt tehnice, dar şi antropologice, educative, sociale şi politice. De exemplu, promite o economie de trude, o producţie mai eficientă, transporturi mai uşoare şi pieţe mai dinamice, în afară de o revoluţie în procesele de adunare, organizare şi verificare a datelor. Trebuie să fim conştienţi de transformările rapide aflate în desfăşurare şi să le gestionăm în aşa fel încât să se salvgardeze drepturile umane fundamentale, respectând instituţiile şi legile care promovează dezvoltarea umană integrală. Inteligenţa artificială ar trebui să fie în slujba celui mai bun potenţial uman şi a celor mai înalte aspiraţii ale noastre, nu în competiţie cu ele. 3. Tehnologia viitorului: maşini care învaţă singure În formele sale multiple, inteligenţa artificială, bazată pe tehnici de învăţare automată (machine learning), deşi este încă în fază de pionierat, deja introduce schimbări însemnate în ţesutul societăţilor, exercitând o influenţă profundă asupra culturilor, asupra comportamentelor şi asupra construirii păcii. Dezvoltări precum machine learning sau învăţarea profundă (deep learning) ridică probleme care depăşesc domeniile tehnologiei şi ale ingineriei şi au de-a face cu o înţelegere strâns legată de semnificaţia vieţii umane, de procesele fundamentale ale cunoaşterii şi de capacitatea minţii de a ajunge la adevăr. De exemplu, abilitatea unor dispozitive în producerea de texte coerente din punct de vedere sintactic şi semantic nu este garanţie de credibilitate. Se spune că pot "să halucineze", adică să genereze afirmaţii care la prima vedere par plauzibile, dar care, în realitate, sunt nefondate sau trădează prejudecăţi. Acest lucru creează o problemă serioasă atunci când inteligenţa artificială este folosită în campanii de dezinformare care răspândesc ştiri false şi duc la o neîncredere crescândă faţă de mijloacele de comunicare. Secretul, posesia datelor şi proprietatea intelectuală sunt alte domenii în care tehnologiile în discuţie comportă riscuri grave, la care se adaugă ulterioare consecinţe negative legate de o folosire improprie a lor, precum discriminarea, interferenţa în procesele electorale, afirmarea unei societăţi care supraveghează şi controlează persoanele, excluziunea digitală şi înăsprirea unui individualism tot mai deconectat de colectivitate. Toţi aceşti factori riscă să alimenteze conflictele şi să împiedice pacea. 4. Sensul limitei în paradigma tehnocratică Lumea noastră este prea vastă, variată şi complexă pentru a fi complet cunoscută şi clasificată. Mintea umană nu va putea epuiza niciodată bogăţia sa, nici măcar cu ajutorul celor mai avansate algoritme. De fapt, acestea nu oferă previziuni garantate în viitor, ci numai aproximări statistice. Nu poate fi pronosticat totul, nu poate fi calculat totul; la sfârşit, "realitatea este superioară ideii"[9] şi, oricât de minunată poate să fie capacitatea noastră de calcul, va exista mereu un reziduu inaccesibil care scapă oricărei tentative de măsurare. În afară de asta, marea cantitate de date analizate de inteligenţele artificiale nu este în sine garanţie de imparţialitate. Atunci când algoritmele extrapolează informaţii, riscă mereu să le deformeze, replicând nedreptăţile şi prejudecăţile din ambientele în care ele au origine. Cu cât devin mai rapide şi complexe, cu atât este mai dificil să se înţeleagă pentru ce au produs un rezultat determinat. Maşinile "inteligente" pot desfăşura sarcini încredinţate lor cu eficienţă tot mai mare, dar scopul şi semnificaţia operaţiunilor lor vor continua să fie determinate sau abilitate de fiinţe umane care sunt în posesia unui propriu univers de valori. Riscul este ca acele criterii aflate la baza anumitor alegeri să devină mai puţin clare, ca responsabilitatea decizională să fie ascunsă şi ca producătorii să se poată sustrage de la obligaţia de a acţiona pentru binele comunităţii. Într-un anumit sens, acest lucru este favorizat de sistemul tehnocratic, care aliază economia cu tehnologia şi privilegiază criteriul eficienţei, tinzând să se ignore tot ceea ce nu este legat de interesele sale imediate[10]. Acest lucru trebuie să ne facă să reflectăm asupra unui aspect pe cât de decisiv este pentru dezvoltarea personală şi socială, pe atât de des neglijat în mentalitatea actuală, tehnocratică şi eficientistă: "sensul limitei". De fapt, fiinţa umană, muritoare prin definiţie, crezând că depăşeşte orice limită în virtutea tehnicii, riscă, în obsesia de a voi să controleze totul, să piardă controlul asupra sieşi; în căutarea unei libertăţi absolute, să cadă în spirala unei dictaturi tehnologice. A recunoaşte şi a accepta propria limită de creatură este pentru om condiţie indispensabilă pentru a obţine, sau mai bine zis, pentru a primi în dar plinătatea. În schimb, în contextul ideologic al unei paradigme tehnocratice, animat de o prezumţie prometeică de autosuficienţă, inegalităţile ar putea să crească fără măsură, iar cunoaşterea şi bogăţia să se acumuleze în mâinile câtorva, cu riscuri grave pentru societăţile democratice şi pentru coexistenţa paşnică[11]. 5. Teme fierbinţi pentru etică În viitor, credibilitatea celui care cere un împrumut, capacitatea unui individ la un loc de muncă, posibilitatea de recidivă a unui condamnat sau dreptul de a primi azil politic sau asistenţă socială ar putea să fie determinate de sisteme de inteligenţă artificială. Lipsa de niveluri diversificate de mediere pe care aceste sisteme le introduc este deosebit de expusă la forme de prejudecată şi discriminare: erorile sistemice pot cu uşurinţă să se înmulţească, producând nu numai nedreptăţi în fiecare caz, ci şi, prin efectul de domino, adevărate forme de inegalitate socială. În afară de asta, uneori formele de inteligenţă artificială par în măsură să influenţeze deciziile indivizilor prin opţiuni predeterminate asociate la stimuli şi descurajări sau prin sisteme de reglementare a alegerilor personale bazate pe organizarea informaţiilor. Aceste forme de manipulare sau de control social cer o atenţie şi o supervizare amănunţite şi implică o responsabilitate legală clară din partea producătorilor, a celor care le folosesc şi a autorităţilor guvernamentale. Încrederea în procese automate care clasifică indivizii, de exemplu prin folosirea exasperantă a supravegherii sau adoptarea de sisteme de credit social, ar putea avea repercusiuni profunde şi asupra ţesutului civil, stabilind clasificări improprii între cetăţeni. Şi aceste procese artificiale de clasificare ar putea duce şi la conflicte de putere, neinteresând numai destinatari virtuali, ci persoane în carne şi oase. Respectul fundamental faţă de demnitatea umană cere să se refuze ca unicitatea persoanei să fie identificată cu un ansamblu de date. Nu trebuie să se permită algoritmilor să determine modul în care să înţelegem drepturile umane, să pună deoparte valorile esenţiale ale compasiunii, ale milostivirii şi ale iertării sau să elimine posibilitatea ca un individ să se schimbe şi să lase în urmă trecutul. În acest context, nu putem să nu luăm în considerare impactul noilor tehnologii în domeniul muncii: operaţiuni care odinioară erau apanaj exclusiv al mâinii de lucru umane sunt absorbite rapid de aplicaţiile industriale ale inteligenţei artificiale. Şi în acest caz, există riscul substanţial al unui avantaj disproporţionat pentru puţini în defavoarea sărăcirii multora. Respectarea demnităţii muncitorilor şi importanţa locului de muncă pentru bunăstarea economică a persoanelor, a familiilor şi a societăţilor, siguranţa angajărilor şi echitatea salariilor ar trebui să constituie o înaltă prioritate pentru comunitatea internaţională, în timp ce aceste forme de tehnologie pătrund tot mai profund în locurile de muncă. 6. Vom transforma săbiile în pluguri? În aceste zile, privind lumea care ne înconjoară, nu se poate scăpa de problemele etice grave legate de sectorul armamentelor. Posibilitatea de a face operaţiuni militare prin sisteme de control de departe a dus la o percepţie mai mică a devastării provocate de ele şi a responsabilităţii utilizării lor, contribuind la o abordare şi mare rece şi dezlipită a tragediei imense a războiului. Cercetarea asupra tehnologiilor în creştere în sectorul aşa-numitelor "sisteme de arme autonome letale", inclusiv folosirea inteligenţei artificiale pentru război, este un motiv grav de preocupare etică. Sistemele de arme autonome nu vor putea fi niciodată subiecţi responsabili din punct de vedere moral: capacitatea umană exclusivă de judecată morală şi de decizie etică este mai mult decât un ansamblu complex de algoritmi, şi această capacitate nu poate fi redusă la programarea unei maşini care, oricât ar fi de "inteligentă", rămâne întotdeauna o maşină. Pentru acest motiv, este imperativ să se garanteze o supervizare umană adecvată, semnificativă şi coerentă a sistemelor de arme. Nici nu putem ignora posibilitatea ca arme sofisticate să ajungă în mâini greşite, facilitând, de exemplu, atacuri teroriste sau intervenţii menite să destabilizeze instituţii de conducere legitime. Aşadar, lumea chiar nu are nevoie ca noile tehnologii să contribuie la dezvoltarea inegală a pieţei şi a comerţului de arme, promovând nebunia războiului. Făcând astfel, nu numai inteligenţa, ci însăşi inima omului va risca să devină tot mai "artificială". Cele mai avansate aplicaţii tehnice nu trebuie folosite pentru a facilita rezolvarea violentă a conflictelor, ci pentru a asfalta căile păcii. Într-o optică mai pozitivă, dacă inteligenţa artificială ar fi folosită pentru a promova dezvoltarea umană integrală, ar putea introduce inovaţii importante în agricultură, în instruire şi în cultură, o îmbunătăţire a nivelului de viaţă a unor întregi naţiuni şi popoare, creşterea fraternităţii umane şi a prieteniei sociale. În definitiv, modul în care o folosim pentru a-i include pe cei din urmă, adică pe fraţii şi surorile mai slabi şi nevoiaşi, este măsura revelatoare a umanităţii noastre. O privire umană şi dorinţa unui viitor mai bun pentru lumea noastră duc la necesitatea unui dialog interdisciplinar care are ca scop o dezvoltare etică a algoritmelor - algor-etica -, în care valorile să orienteze parcursurile noilor tehnologii[12]. Problemele etice ar trebui să fie luate în considerare încă de la începutul cercetării, precum şi în fazele de experimentare, proiectare, producere, distribuire şi comercializare. Aceasta este abordarea eticii proiectării, în care instituţiile educative şi responsabilii procesului decizional au un rol esenţial de desfăşurat. 7. Provocări pentru educaţie Dezvoltarea unei tehnologii care să respecte şi să slujească demnitatea umană are implicaţii clare pentru instituţiile educative şi pentru lumea culturii. Înmulţind posibilităţile de comunicare, tehnologiile digitale au permis să se întâlnească în moduri noi. Totuşi, rămâne necesitatea unei reflecţii continue cu privire la tipul de relaţii spre care ne îndreaptă. Tinerii cresc în ambiente culturale impregnate de tehnologie şi acest lucru nu poate să nu pună în discuţie metodele de învăţământ şi formare. Educaţia la folosirea de forme de inteligenţă artificială ar trebui să tindă mai ales la promovarea gândirii critice. Este necesar ca utilizatorii de orice vârstă, dar mai ales tinerii, să dezvolte o capacitate de discernământ în folosirea de date şi conţinuturi adunate pe web sau produse de sisteme de inteligenţă artificială. Şcolile, universităţile şi societăţile ştiinţifice sunt chemate să ajute studenţii şi profesioniştii să-şi însuşească aspectele sociale şi etice ale dezvoltării şi utilizării tehnologiei. Formarea pentru folosirea noilor instrumente de comunicare ar trebui să ţină cont nu numai de dezinformare, de fake news, ci şi de recrudescenţa neliniştitoare a "fricilor ancestrale […] care au ştiut să se ascundă şi să se potenţeze în spatele noilor tehnologii"[13]. Din păcate, încă o dată am ajuns să trebuim să combatem "ispita de a face o cultură a zidurilor, de a ridica ziduri pentru a împiedica întâlnirea cu alte culturi, cu alţi oameni"[14] şi dezvoltarea unei coexistenţe paşnice şi fraterne. 8. Provocări pentru dezvoltarea dreptului internaţional Însemnătatea globală a inteligenţei artificiale arată clar că, alături de responsabilitatea statelor suverane de a disciplina folosirea în interiorul lor, organizaţiile internaţionale pot desfăşura un rol decisiv în ajungerea la acorduri multilaterale şi în coordonarea aplicării şi realizării lor[15]. În această privinţă, îndemn comunitatea naţiunilor să lucreze unită cu scopul de a adopta un tratat internaţional obligatoriu, care să reglementeze dezvoltarea şi folosirea inteligenţei artificiale în multiplele sale forme. Obiectivul reglementării n-ar trebui să fie, desigur, numai prevenţia practicilor rele, ci şi încurajarea practicilor bune, stimulând abordări noi şi creative şi facilitând iniţiative personale şi colective[16]. În definitiv, în căutarea de modele normative care să poată furniza un ghid etic dezvoltatorilor de tehnologii digitale, este indispensabil de a identifica valorile umane care ar trebui să fie la baza angajării societăţilor pentru a formula, a adopta şi a aplica necesare cadre legislative. Munca de redactare a liniilor călăuzitoare etice pentru producerea de forme de inteligenţă artificială nu poate face abstracţie de considerarea problemelor mai profunde referitoare la semnificaţia existenţei umane, protejarea drepturilor umane fundamentale, urmărirea dreptăţii şi a păcii. Acest proces de discernământ etic şi juridic poate revela o ocazie preţioasă pentru o reflecţie împărtăşită cu privire la rolul pe care tehnologia ar trebui să-l aibă în viaţa noastă individuală şi comunitară şi la modul în care utilizarea sa poate să contribuie la crearea unei lumi mai egale şi umane. Pentru acest motiv, în dezbaterile despre reglementarea inteligenţei artificiale, ar trebui să se ţină cont de glasul tuturor părţilor interesate, inclusiv al săracilor, aş marginalizaţilor şi al altora care adesea rămân neascultaţi în procesele decizionale globale. * * * Sper ca această reflecţie să încurajeze pentru a face în aşa fel încât progresele în dezvoltarea formelor de inteligenţă artificială să slujească, în ultimă analiză, cauza fraternităţii umane şi a păcii. Nu este responsabilitatea câtorva, ci a întregii familii umane. De fapt, pacea este rodul relaţiilor care recunosc şi primesc pe celălalt în demnitatea sa inalienabilă şi al cooperării şi angajării în căutarea dezvoltării integrale a tuturor persoanelor şi a tuturor popoarelor. Rugăciunea mea la începutul Anului Nou este ca dezvoltarea rapidă de forme de inteligenţă artificială să nu mărească multele inegalităţi şi nedreptăţi prezente deja în lume, ci să contribuie pentru a pune capăt războaielor şi conflictelor şi pentru a alina multe forme de suferinţă care chinuiesc familia umană. Fie ca toţi credincioşii creştini, credincioşii din diferite religii şi bărbaţii şi femeile de bunăvoinţă să colaboreze în armonie pentru a percepe oportunităţile şi a înfrunta provocările puse de revoluţia digitală şi pentru a încredinţa generaţiilor viitoare o lume mai solidară, dreaptă şi paşnică. Din Vatican, 8 decembrie 2023 Franciscus Traducere de pr. Mihai Pătraşcu Note: [1] Nr. 33. [2] Ibid., 57. [3] Cf. Enciclica Laudato si’ (24 mai 2015), 104. [4] Cf. ibid., 114. [5] Audienţă adresată participanţilor la Întâlnirea "Minerva Dialogues" (27 martie 2023). [6] Cf. ibid. [7] Cf. Mesaj adresat preşedintelui executiv al "World Economic Forum" la Davos-Klosters (12 ianuarie 2018). [8] Cf. Scrisoarea enciclică Laudato si’, 194; Discurs adresat participanţilor la Seminarul "Binele comun în era digitală" (27 septembrie 2019). [9] Exortaţia apostolică Evangelii gaudium (24 noiembrie 2013), 233. [10] Cf. Scrisoarea enciclică Laudato si’, 54. [11] Cf. Discurs adresat participanţilor la Adunarea Plenară a Academiei Pontificale pentru Viaţă (28 februarie 2020). [12] Cf. ibid. [13] Scrisoarea apostolică Fratelli tutti (3 octombrie 2020), 27. [14] Cf. ibid. [15] Cf. ibid., 170-175. [16] Cf. Scrisoarea enciclică Laudato si’, 177. lecturi: 2.
|
![]() |
![]() |
![]() |
![]() ![]()
|
![]() |
![]() |
![]() |
Episcopia Romano-Catolică de Iaşi * Bd. Ştefan cel Mare şi Sfânt, 26, 700064-Iaşi (IS) tel. 0232/212003 (Episcopie); 0232/212007 (Parohie); e-mail: editor@ercis.ro design şi conţinut copyright 2001-2025 * ![]() | ![]() |