NA 57. ŚWIATOWY DZIEŃ POKOJU
1 STYCZNIA 2024 R.
Sztuczna inteligencja i pokój
Na początku Nowego Roku, czasu łaski, który Pan daje każdemu z nas, chciałbym zwrócić się do Ludu Bożego, narodów, głów państw i rządów, przedstawicieli różnych religii i społeczeństwa obywatelskiego oraz wszystkich mężczyzn i kobiet naszych czasów, aby złożyć najlepsze życzenia pokoju.
1. Postęp nauki i technologii jako droga do pokoju
Pismo Święte zaświadcza, że Bóg dał ludziom swego Ducha, aby posiadali
„mądrość, rozum, wiedzę i znajomość wszelkiego rzemiosła” (Wj 35,
31). Rozum jest wyrazem godności nadanej nam przez Stwórcę, który stworzył nas
na swój obraz i podobieństwo (por. Rdz 1, 26) i umożliwił nam
odpowiadanie na Jego miłość poprzez wolność i poznanie. Nauka i technologia w
szczególny sposób ukazują tę fundamentalnie relacyjną właściwość ludzkiego
rozumu: są one niezwykłymi wytworami jego potencjału twórczego.
W Konstytucji duszpasterskiej Gaudium et spes, Sobór
Watykański II potwierdził tę prawdę, oświadczając, że „człowiek zawsze starał
się dynamiczniej rozwijać swoje życie dzięki własnej pracy i uzdolnieniom
duchowym” [1].
Kiedy ludzie, „za pomocą środków technicznych”, dążą do tego, aby ziemia
„stawała się mieszkaniem godnym całej rodziny ludzkiej" [2],
działają zgodnie z planem Boga i współpracują z Jego wolą, aby dokończyć dzieło
stworzenia i szerzyć pokój między narodami. Także postęp nauki i techniki, o
ile przyczynia się do lepszego porządku społeczności ludzkiej, do rozwoju
wolności i braterskiej komunii, prowadzi w ten sposób do udoskonalenia
człowieka i przemiany świata.
Słusznie cieszymy się i jesteśmy wdzięczni za niezwykłe zdobycze nauki i
techniki, dzięki którym zażegnano niezliczone bolączki, które trapiły ludzkie
życie i powodowały wielkie cierpienia. Jednocześnie postęp
technologiczno-naukowy, umożliwiając sprawowanie niespotykanej dotąd kontroli
nad rzeczywistością, oddaje w ludzkie ręce szeroki wachlarz możliwości, z
których pewne mogą stanowić zagrożenie dla ludzkiego przetrwania i
niebezpieczeństwo dla wspólnego domu [3].
Znaczący postęp nowych technologii informacyjnych, zwłaszcza w sferze
cyfrowej, stwarza zatem fascynujące szanse i poważne zagrożenia, z ogromnymi
konsekwencjami dla dążenia do sprawiedliwości i zgody między ludźmi. Należy
zatem zadać kilka pilnych pytań. Jakie będą średnio- i długoterminowe
konsekwencje nowych technologii cyfrowych? I jaki wpływ będą one miały na życie
jednostek i społeczeństwa, na międzynarodową stabilność i pokój?
2. Przyszłość sztucznej inteligencji między obietnicami a
zagrożeniami
Postęp w informatyce i rozwój technologii cyfrowych, w minionych dekadach,
już zaczęły powodować głębokie przemiany w globalnym społeczeństwie i jego
dynamice. Nowe narzędzia cyfrowe zmieniają oblicze komunikacji, administracji
publicznej, edukacji, konsumpcji, interakcji osobistych i niezliczonych innych
aspektów codziennego życia.
Ponadto, technologie wykorzystujące różnorodne algorytmy mogą wydobywać z
cyfrowych śladów pozostawionych w Internecie dane, które
pozwalają kontrolować nawyki mentalne i relacyjne ludzi w celach komercyjnych
lub politycznych, często bez ich wiedzy, ograniczając ich świadome korzystanie
z wolności wyboru. Rzeczywiście, w przestrzeni takiej jak sieć,
charakteryzującej się nadmiarem informacji, mogą one kształtować przepływ
danych zgodnie z kryteriami wyboru, które nie zawsze są zauważane przez
użytkownika.
Musimy pamiętać, że badania naukowe i innowacje technologiczne nie są
oderwane od rzeczywistości i „neutralne” [4],
lecz podlegają wpływom kulturowym. Jako że, są one w pełni działaniami
ludzkimi, to obierane przez nie kierunki odzwierciedlają wybory uwarunkowane
wartościami osobistymi, społecznymi i kulturowymi każdej epoki. Odnosi się to
także do osiąganych przez nie rezultatów: właśnie dlatego, że są one wynikiem
specyficznie ludzkiego podejścia do otaczającego świata, zawsze mają wymiar
etyczny, ściśle związany z decyzjami tych, którzy projektują eksperymenty i
ukierunkowują produkcję ku określonym celom.
Dotyczy to również form sztucznej inteligencji. Jak dotąd, w świecie nauki
i technologii nie ma jednoznacznej jej definicji. Sam termin, który wszedł już
do języka potocznego, obejmuje różnorodność nauk, teorii i technik mających na
celu sprawienie, by maszyny odtwarzały lub naśladowały w swoim działaniu
zdolności poznawcze istot ludzkich. Mówienie w liczbie mnogiej o „formach
inteligencji” może pomóc podkreślić nade wszystko niemożliwą do pokonania
rozbieżność istniejącą między tymi systemami, niezależnie od tego, jak
niesamowite i potężne mogą one być, a osobą ludzką: są one w ostatecznym
rachunku „fragmentaryczne” w tym sensie, że mogą naśladować lub odtwarzać tylko
niektóre funkcje ludzkiej inteligencji. Użycie liczby mnogiej podkreśla
również, że te urządzenia, bardzo różniące się między sobą, powinny być zawsze
traktowane jako „systemy socjotechniczne”. Istotnie, ich wpływ, niezależnie od
technologii podstawowej, zależy nie tylko od ich zaprojektowania, lecz także od
celów i interesów tych, którzy je posiadają, i tych, którzy je rozwijają, a
także od sytuacji, w jakich są używane.
Sztuczna inteligencja musi być zatem rozumiana jako plejada różnych
rzeczywistości i nie możemy zakładać a priori, że jej rozwój
wniesie dobroczynny wkład dla przyszłości ludzkości i dla pokoju między
narodami. Taki pozytywny skutek będzie możliwy tylko wtedy, gdy okażemy się
zdolni do odpowiedzialnego działania i poszanowania podstawowych wartości
ludzkich, takich jak „inkluzywność, transparencja, bezpieczeństwo,
bezstronność, poufność i rzetelność” [5].
Nie wystarczy również zakładać, że osoby projektujące algorytmy i
technologie cyfrowe będą działać w sposób etyczny i odpowiedzialny. Konieczne
jest wzmocnienie lub, w razie potrzeby, utworzenie organów, powołanych do
badania pojawiających się kwestii etycznych i ochrony praw osób korzystających
z form sztucznej inteligencji lub znajdujących się pod ich wpływem [6].
Ogromnej ekspansji technologii musi zatem towarzyszyć stosowna formacja w
zakresie odpowiedzialności za jej rozwój. Wolność i pokojowe współistnienie są
zagrożone wówczas, gdy ludzie ulegają pokusie egoizmu, korzyści osobistej,
żądzy zysku i pragnienia władzy. Mamy zatem obowiązek poszerzyć nasze
spojrzenie i ukierunkować badania techniczno-naukowe na dążenie do pokoju i
dobra wspólnego, w służbie integralnego rozwoju człowieka i wspólnoty [7].
Przyrodzona godność każdej osoby i braterstwo, które łączy nas jako
członków jednej rodziny ludzkiej, muszą leżeć u podstaw rozwoju nowych
technologii i służyć jako bezdyskusyjne kryteria ich oceny przed ich
wykorzystaniem, tak aby postęp cyfrowy mógł odbywać się z poszanowaniem
sprawiedliwości i przyczyniać się do sprawy pokoju. Rozwój technologiczny,
który nie prowadzi do poprawy jakości życia całej ludzkości, a wręcz
przeciwnie, pogłębia nierówności i konflikty, nigdy nie może być uznany za
prawdziwy postęp [8].
Sztuczna inteligencja będzie zyskiwać na znaczeniu. Wyzwania jakie stawia
mają charakter techniczny, ale także antropologiczny, edukacyjny, społeczny i
polityczny. Obiecuje ona na przykład oszczędność nakładów pracy, bardziej
wydajną produkcję, sprawniejszy transport i bardziej dynamiczne rynki, a także
rewolucję w gromadzeniu, organizacji i procesach weryfikacji danych. Musimy być
świadomi zachodzących gwałtownych przemian i zarządzać nimi w sposób, który
chroni podstawowe prawa człowieka, z poszanowaniem instytucji i przepisów,
które promują jego integralny rozwój. Sztuczna inteligencja powinna służyć
najlepszemu ludzkiemu potencjałowi i naszym najbardziej wzniosłym aspiracjom, a
nie z nimi konkurować.
3. Technologia przyszłości: maszyny, które same się uczą
W swoich różnorodnych formach sztuczna inteligencja, oparta na technikach
uczenia automatycznego (machine learning), choć wciąż znajduje się na
etapie pionierskim, już wprowadza znaczące zmiany w tkance społeczeństw,
wywierając głęboki wpływ na kultury, zachowania społeczne i budowanie pokoju.
Rozwój, taki jak machine learning lub głębokie uczenie
(deep learning), rodzi pytania, które wykraczają poza sferę technologii
i inżynierii, i mają związek ze zrozumieniem, ściśle połączonym z sensem
ludzkiego życia, podstawowymi procesami poznawczymi i zdolnością umysłu do
dotarcia do prawdy.
Na przykład, zdolność niektórych urządzeń do tworzenia spójnych składniowo
i semantycznie tekstów nie jest gwarancją rzetelności. Mówi się, że są one w
stanie „oszałamiać”, to znaczy generować stwierdzenia, które na pierwszy rzut
oka wydają się wiarygodne, ale w rzeczywistości są bezpodstawne lub zdradzają
uprzedzenia. Stanowi to poważny problem, gdy sztuczna inteligencja jest
wykorzystywana w kampaniach dezinformacyjnych, które rozpowszechniają fałszywe
wiadomości i prowadzą do rosnącej nieufności wobec środków przekazu. Poufność,
posiadanie danych i własność intelektualna to inne obszary, w których omawiane
technologie stwarzają poważne zagrożenia, do których dochodzą dalsze negatywne
konsekwencje ich niewłaściwego wykorzystania, takie jak: dyskryminacja,
ingerencja w procesy wyborcze, szerzenie się modelu społeczeństwa, które
monitoruje i kontroluje ludzi, wykluczenie cyfrowe, i pogłębianie się
indywidualizmu coraz bardziej oderwanego od zbiorowości. Wszystkie te czynniki
mogą podsycać konflikty i utrudniać pokój.
4. Znaczenie ograniczeń w paradygmacie technokratycznym
Nasz świat jest zbyt rozległy, różnorodny i złożony, by można go było w
pełni poznać i sklasyfikować. Ludzki umysł nigdy nie będzie w stanie wyczerpać
jego bogactwa, nawet z pomocą najbardziej zaawansowanych algorytmów. Nie
oferują one bowiem gwarantowanych prognoz przyszłości, a jedynie statystyczne
przybliżenia. Nie wszystko można przewidzieć, nie wszystko można obliczyć; w
końcu „rzeczywistość przewyższa ideę” [9] i
bez względu na to, jak wspaniałe mogą być nasze zdolności obliczeniowe, zawsze
pozostanie niedostępna reszta, która wymyka się wszelkim próbom kwantyfikacji.
Ponadto duża ilość danych analizowanych przez sztuczne inteligencje nie
jest sama w sobie gwarancją bezstronności. Kiedy algorytmy ekstrapolują
informacje, zawsze istnieje ryzyko, że je wypaczą, powielając
niesprawiedliwości i uprzedzenia środowisk, z których pochodzą. Im bardziej
stają się szybsze i złożone, tym trudniej zrozumieć, dlaczego wyprodukowały
określony rezultat.
Maszyny inteligentne mogą wykonywać przypisane im zadania z coraz większą
wydajnością, ale cel i znaczenie ich działań będą nadal określane lub
umożliwiane przez ludzi posiadających własny świat wartości. Istnieje ryzyko,
że kryteria stojące za niektórymi wyborami staną się mniej jasne, że
odpowiedzialność za podejmowanie decyzji zostanie ukryta, a producenci mogą
uchylać się od obowiązku działania dla dobra wspólnoty. W pewnym sensie sprzyja
temu system technokratyczny, który sprzymierza ekonomię z technologią i nadaje
przywilej dla kryterium wydajności, ignorując wszystko, co nie jest związane z
jego doraźnymi korzyściami [10].
Powinno to nas skłonić do refleksji nad aspektem, który jest bardzo często
pomijany w dzisiejszej mentalności technokratycznej i wydajnościowej, jako
decydujący dla rozwoju osobistego i społecznego: „poczucie ograniczeń”. Istocie
ludzkiej, z definicji śmiertelnej, gdy myśli o przekroczeniu, dzięki
technologii, wszelkich ograniczeń, grozi, iż będąc ogarniętą obsesją
kontrolowania wszystkiego, utraci kontrolę nad sobą; w poszukiwaniu absolutnej
wolności, wpadnie w spiralę dyktatury technologicznej. Rozpoznanie i
zaakceptowanie własnej ograniczoności jako stworzenia, jest dla człowieka
niezbędnym warunkiem osiągnięcia pełni, a raczej przyjęcia jej w darze.
Natomiast w ideologicznym kontekście paradygmatu technokratycznego, ożywionego
prometejskim założeniem samowystarczalności, nierówności mogą rosnąć
nieproporcjonalnie, a wiedza i bogactwo gromadzić się w rękach nielicznych, z
poważnym zagrożeniem dla społeczeństw demokratycznych i pokojowego
współistnienia [11].
5. Gorące tematy dla etyki
W przyszłości, wiarygodność osoby ubiegającej się o kredyt, przydatność
danej osoby do pracy, prawdopodobieństwo recydywy osoby skazanej, lub prawo do
otrzymania azylu politycznego, lub pomocy społecznej, mogą być determinowane
przez systemy sztucznej inteligencji. Brak zróżnicowanych poziomów mediacji,
które wprowadzają te systemy, jest szczególnie narażony na formy uprzedzeń i
dyskryminacji: błędy systemowe mogą się łatwo mnożyć, powodując nie tylko
niesprawiedliwość w indywidualnych przypadkach, ale także, poprzez efekt
domina, rzeczywiste formy nierówności społecznej.
Co więcej, czasami formy sztucznej inteligencji wydają się zdolne do
wpływania na decyzje jednostek, poprzez z góry określone opcje związane z
bodźcami i środkami odstraszającymi lub poprzez systemy regulujące osobiste
wybory w oparciu o organizację informacji. Te formy manipulacji lub kontroli
społecznej wymagają uwagi i starannego nadzoru, oraz pociągają za sobą wyraźną
odpowiedzialność prawną ze strony producentów, tych, którzy je stosują, oraz
władz rządowych.
Poleganie na procesach automatycznych, które kategoryzują jednostki, na
przykład poprzez wszechobecne wykorzystanie nadzoru lub przyjęcie systemów
kredytu społecznego, może mieć również głębokie reperkusje dla tkanki
obywatelskiej, ustanawiając niewłaściwe klasyfikacje wśród obywateli. Te
sztuczne procesy klasyfikacji mogą również prowadzić do konfliktów władzy,
ponieważ dotyczą nie tylko odbiorców wirtualnych, ale także osób z krwi i
kości. Fundamentalny szacunek dla godności ludzkiej postuluje odrzucenie tego,
aby utożsamiano wyjątkowość osoby ze zbiorem danych. Nie można pozwolić
algorytmom: określać sposobu, w jaki rozumiemy prawa człowieka, odkładać na bok
podstawowych wartości współczucia, miłosierdzia i przebaczenia lub eliminować
możliwość, aby jednostka się zmieniła i pozostawiła przeszłość za sobą.
W tym kontekście nie możemy nie rozważyć wpływu nowych technologii w sferze
zatrudnienia: prace, które kiedyś były wyłączną domeną siły roboczej, są szybko
wchłaniane przez przemysłowe zastosowania sztucznej inteligencji. Również w tym
przypadku istnieje znaczne ryzyko nieproporcjonalnej przewagi nielicznych,
kosztem zubożenia wielu. Poszanowanie godności pracowników i znaczenie
zatrudnienia dla dobrobytu ekonomicznego osób, rodzin i społeczeństw,
bezpieczeństwo pracy i sprawiedliwe płace, powinny być wysokim priorytetem dla
wspólnoty międzynarodowej, ponieważ te formy technologii przenikają coraz
głębiej do miejsc pracy.
6. Czy przekujemy miecze na lemiesze?
W dzisiejszych czasach, patrząc na otaczający nas świat, nie sposób uciec
od poważnych kwestii etycznych związanych z przemysłem zbrojeniowym. Możliwość
prowadzenia operacji wojskowych za pomocą systemów zdalnie sterowanych
doprowadziła do zmniejszenia percepcji zniszczeń, jakie one powodują i
odpowiedzialności za ich użycie, przyczyniając się do jeszcze zimniejszego i
bardziej oderwanego podejścia do ogromnej tragedii wojny. Badania nad nowymi
technologiami w dziedzinie tak zwanych „śmiercionośnych autonomicznych systemów
uzbrojenia”, w tym nad wykorzystaniem wojennym sztucznej inteligencji, stanowią
poważny problem etyczny. Autonomiczne systemy uzbrojenia nigdy nie mogą być
podmiotami odpowiedzialnymi moralnie: unikalna ludzka zdolność do moralnej
oceny i etycznego podejmowania decyzji jest czymś więcej niż złożonym zestawem
algorytmów, a zdolności tej nie można sprowadzać do programowania maszyny,
która, choć „inteligentna”, nadal jest maszyną. Z tego powodu konieczne jest
zapewnienie odpowiedniego, znaczącego i spójnego ludzkiego nadzoru nad
systemami uzbrojenia.
Nie możemy również lekceważyć potencjalnego ryzyka, że wyrafinowana broń
wpadnie w niepowołane ręce, ułatwiając na przykład ataki terrorystyczne lub
ingerencje mające na celu destabilizację prawowitych instytucji rządowych.
Krótko mówiąc, świat naprawdę nie potrzebuje nowych technologii
przyczyniających się do nieuczciwego rozwoju rynku i handlu bronią, promujących
szaleństwo wojny. Czyniąc w ten sposób, nie tylko inteligencja, ale samo serce
człowieka będzie narażone na ryzyko, że stanie się coraz bardziej „sztuczne”.
Najbardziej zaawansowane aplikacje techniczne nie powinny być wykorzystywane do
ułatwiania brutalnego rozwiązywania konfliktów, lecz do przygotowywania drogi
do pokoju.
Z bardziej pozytywnej perspektywy, gdyby sztuczna inteligencja została
wykorzystana do promowania integralnego rozwoju człowieka, mogłaby wprowadzić
znaczące innowacje w rolnictwie, edukacji i kulturze, poprawić standardy życia
całych narodów i ludów oraz przyczynić się do wzrostu ludzkiego braterstwa i
przyjaźni społecznej. Ostatecznie, to, w jaki sposób wykorzystamy ją do
włączenia najmniejszych, czyli naszych najsłabszych i najbardziej
potrzebujących braci i sióstr, jest miarą ukazującą nasze człowieczeństwo.
Ludzkie spojrzenie i pragnienie lepszej przyszłości dla naszego świata
prowadzą do potrzeby interdyscyplinarnego dialogu, mającego na celu etyczny
rozwój algorytmów – algor-etykę – w którym wartości
kierowałyby drogami nowych technologii [12].
Kwestie etyczne powinny być brane pod uwagę od samego początku badań, a także
na etapie testowania, projektowania, produkcji, dystrybucji i wprowadzenia na
rynek. Jest to podejście etyki projektowania, w którym instytucje edukacyjne i
decydenci mają do odegrania istotną rolę.
7. Wyzwania dla edukacji
Rozwój technologii, która szanuje i służy ludzkiej godności, ma wyraźne
implikacje dla instytucji edukacyjnych i świata kultury. Zwielokrotniając
możliwości komunikacji, technologie cyfrowe umożliwiły spotkania na nowe
sposoby. Istnieje jednak potrzeba stałej refleksji nad rodzajem relacji, do
których nas kierują. Młodzi dorastają w środowiskach kulturowych przenikniętych
technologią, co nie może nie budzić wątpliwości w zakresie metod nauczania i
formacji.
Edukacja w zakresie korzystania z form sztucznej inteligencji powinna mieć
na celu przede wszystkim promowanie krytycznego myślenia. Konieczne jest, aby
użytkownicy w każdym wieku, a zwłaszcza ludzie młodzi, rozwijali umiejętność
świadomego i wnikliwego korzystania z danych i treści gromadzonych w sieci lub
tworzonych przez systemy sztucznej inteligencji. Szkoły, uniwersytety i
towarzystwa naukowe są wezwane do pomocy studentom i profesjonalistom w
uwzględnieniu społecznych i etycznych aspektów rozwoju i wykorzystania
technologii.
Formacja, w zakresie korzystania z nowych narzędzi komunikacji, powinna
uwzględniać nie tylko dezinformację, fałszywe wiadomości (tzw. fake
news), ale także niepokojące odradzanie się „dawnych obaw, które [...]
potrafiły się ukryć i umocnić swoją pozycję za nowymi technologiami” [13].
Niestety, po raz kolejny musimy walczyć z „pokusą tworzenia kultury murów,
wznoszenia murów [...], aby uniemożliwić [...] spotkanie z innymi kulturami, z
innymi ludźmi” [14],oraz
rozwój pokojowego i braterskiego współistnienia.
8. Wyzwania dla rozwoju prawa międzynarodowego
Globalny zasięg sztucznej inteligencji jasno pokazuje, że oprócz
odpowiedzialności suwerennych państw za regulowanie jej wykorzystania we
własnym kraju, decydującą rolę w zawieraniu porozumień wielostronnych oraz
koordynowaniu ich stosowania i wdrażania mogą odegrać organizacje
międzynarodowe [15].
W związku z tym, zachęcam Wspólnotę Narodów, aby – zjednoczona – pracowała w
celu przyjęcia wiążącego traktatu międzynarodowego, regulującego rozwój i
wykorzystanie sztucznej inteligencji w jej różnorodnych formach. Celem
regulacji powinno być, oczywiście, nie tylko zapobieganie złym praktykom, ale
także zachęcanie do dobrych praktyk, stymulowanie nowych i kreatywnych
koncepcji oraz ułatwianie inicjatyw osobistych i zbiorowych [16].
W ostatecznym rachunku, w poszukiwaniu modeli regulacyjnych, które mogłyby
zapewnić twórcom technologii cyfrowych pewien przewodnik etyczny, konieczne
jest wskazanie ludzkich wartości, które powinny leżeć u podstaw wysiłków
społeczeństw na rzecz sformułowania, przyjęcia i zastosowania niezbędnych ram
prawnych. Prace redakcyjne nad wytycznymi w zakresie etyki, dotyczącymi
produkcji form sztucznej inteligencji, nie mogą pomijać głębszych kwestii
odnoszących się do sensu ludzkiego istnienia, ochrony podstawowych praw
człowieka oraz dążenia do sprawiedliwości i pokoju. Ten proces etycznego i
prawnego rozeznania może okazać się cenną okazją do wspólnej refleksji nad
rolą, jaką technologia powinna odgrywać w naszym życiu indywidualnym i
wspólnotowym, oraz w jaki sposób jej wykorzystanie może przyczynić się do
stworzenia bardziej sprawiedliwego i humanitarnego świata. Z tego powodu, w
debatach na temat regulacji sztucznej inteligencji powinny być brane pod uwagę
głosy wszystkich zainteresowanych stron, w tym ubogich, wykluczonych i innych,
którzy często pozostają nieusłyszani w globalnych procesach decyzyjnych.
* * *
Mam nadzieję, że ta refleksja zachęci, do uczynienia wszystkiego, aby
postępy w rozwoju form sztucznej inteligencji w ostateczności służyły sprawie
ludzkiego braterstwa i pokoju. Nie jest to odpowiedzialność nielicznych, lecz
całej rodziny ludzkiej. Pokój jest bowiem owocem relacji, które uznają i
akceptują drugiego człowieka w jego niezbywalnej godności, a także owocem
współpracy i zaangażowania w dążeniu do integralnego rozwoju wszystkich osób i
wszystkich narodów.
Na początku Nowego Roku modlę się, aby szybki rozwój form sztucznej
inteligencji nie powiększył zbyt wielu nierówności i niesprawiedliwości już
obecnych na świecie, ale przyczynił się do zakończenia wojen i konfliktów oraz
złagodzenia wielu form cierpienia, które dotykają rodzinę ludzką. Oby
chrześcijanie, wyznawcy różnych religii, oraz mężczyźni i kobiety dobrej woli,
zgodnie współpracowali, żeby wykorzystać szanse i sprostać wyzwaniom stawianym
przez rewolucję cyfrową, oraz przekazać przyszłym pokoleniom bardziej
solidarny, sprawiedliwy i pokojowy świat.
Watykan, 8 grudnia 2023 r.
FRANCISZEK
[1] Sobór Wat. II, Konstytucja duszp. o
Kościele w świecie współczesnym, Gaudium et spes, 33.
[2] Tamże, 57.
[3] Por. Enc. Laudato
si' (24 maja 2015), 104.
[5] Udienza ai partecipanti all’Incontro “Minerva Dialogues” (27
marzo 2023).
[6] Por. tamże.
[7] Por. Messaggio
al Presidente Esecutivo del “World Economic Forum” a Davos-Klosters (12 gennaio 2018).
[8] Por. Enc. Laudato
si', 194; Discorso ai partecipanti al Seminario “Il bene comune
nell’era digitale” (27 settembre 2019).
[9] Adhort. apost. Evangelii
gaudium (24 listopada 2013), 233.
[10] Por. Enc. Laudato
si', 54.
[11] Por. Discorso ai partecipanti alla Plenaria della Pontificia
Accademia per la Vita (28 febbraio 2020).
[12] Por. tamże.
[13] Enc. Fratelli tutti (3
października 2020), 27.
[16] Por. Enc. Laudato si', 177.
Komentarze
Prześlij komentarz
Nieustanne potrzeby??? Nieustająca Pomoc!!!
Witamy u Mamy!!!