Katoliccy eksperci debatują nad wpływem AI na etykę, społeczeństwo i wartości chrześcijańskie.
W artykule przedstawiono zarówno szanse, jak i zagrożenia, jakie może nieść rozwój sztucznej inteligencji.
Czas czytania: około 3 minuty.
Źródło: Jonah McKeown | CNA | 08 stycznia 2025 |Photo credit: Envato.com
Tekst został przetłumaczony i opracowany na podstawie oryginalnych materiałów źródłowych przez EWTN Polska.
Dziękujemy, iż czytasz ten artykuł. jeżeli chcesz być na bieżąco zapraszamy do zapisania się do newslettera.
Podczas gdy ludzkość w dalszym ciągu debatuje nad swoimi zastosowaniami, zaletami, zagrożeniami, możliwościami i etyką, rozwój i wykorzystanie sztucznej inteligencji (AI) postępuje w szybkim tempie, przez co trudno komukolwiek odgadnąć, w jaki sposób może ona ukształtować świat w 2025 r. Mówi się, iż niektórzy największych systemów AI, w tym tych tworzonych przez OpenAI, jest już blisko osiągnięcia sztucznej inteligencji ogólnej (AGI) , która w zasadzie byłaby prawie tak inteligentna jak człowiek, a ich twórcom daleko do ukończenia.
Kościół katolicki nie był biernym obserwatorem rewolucji AI; aktywnie kształtuje ich rozwój. Łącząc najnowocześniejszą technologię z mądrością Kościoła, katolicy starają się, aby sztuczna inteligencja służyła ludzkości i promowała dobro wspólne. W szczególności sam papież Franciszek często mówił o znaczeniu etycznego rozwoju i wykorzystywania sztucznej inteligencji.
W jaki więc sposób katolicy mogą wykorzystywać i kształtować sztuczną inteligencję w nadchodzącym roku i czy możemy przewidzieć, gdzie dalej pójdzie „katolicka sztuczna inteligencja”?
CNA – anglojęzyczna agencja EWTN News – rozmawiała z kilkoma wybitnymi katolickimi ekspertami w dziedzinie sztucznej inteligencji, aby dowiedzieć się, w jakim kierunku może zmierzać ta technologia w 2025 r.: ks. Michael Baggot LC, profesor bioetyki w Papieskim Ateneum Regina Apostolorum w Rzymie; ks. Philip Larrey, profesor filozofii w Boston College, który wcześniej pełnił funkcję dziekana wydziału filozofii na Papieskim Uniwersytecie laterańskim w Rzymie; oraz Matthew Harvey Sanders, przedsiębiorca i założyciel Longbeard, firmy opracowującej kilka prestiżowych narzędzi sztucznej inteligencji do zastosowań katolickich.
Koniec świata, jaki znamy?
To słoń w pokoju, więc równie dobrze moglibyśmy zająć się nim najpierw: czy sztuczna inteligencja przyjmie złowieszczy obrót (wstaw tutaj koszmarną fabułę filmu science-fiction) i zniszczy nas wszystkich do 2025 roku?
Pytanie może wydawać się uproszczone, ale nie jest to tak naciągany scenariusz, jak mogłoby się wydawać, przynajmniej według informatyka Geoffreya Hintona, często określanego jako „ojciec chrzestny” sztucznej inteligencji, który niedawno wywołał wściekłość na pierwszych stronach gazet na całym świecie, gdy jego opinia iż istnieje „10–20%” szans, iż sztuczna inteligencja doprowadzi do wyginięcia ludzkości w ciągu najbliższych 30 lat.
Ze swojej strony ojciec Larrey powiedział, iż dużo myślał o możliwości wyginięcia człowieka przez sztuczną inteligencję i stwierdził, iż jest skłonny poważnie potraktować ocenę Hintona. I faktycznie ks. Larrey podpisał list otwarty w 2023 r., dołączając do kilku ekspertów i pionierów sztucznej inteligencji i wzywających do wprowadzenia sześciomiesięcznego moratorium na rozwój systemów sztucznej inteligencji potężniejszych niż te, które zostały już wówczas uruchomione.
Jak mogło nastąpić to wymieranie? Cóż, powiedział ojciec Larrey, co by się stało, gdyby sztuczna inteligencja mająca złe intencje dostała się w swoje ręce kodów nuklearnych? A może zdecydowałby się nakłonić niczego niepodejrzewających ludzi do zsyntetyzowania i uwolnienia śmiercionośnego wirusa? Albo, choćby bez złośliwych zamiarów, co by się stało, gdyby sztuczna inteligencja przypadkowo lub w wyniku włamania dokonanego przez złośliwych aktorów ludzkich uruchomiła apokaliptyczny scenariusz?
Według księdza Larreya, który dużo mówił i myślał o tym, jak zapewnić, iż sztuczna inteligencja będzie nasycona etyką, stwierdza, iż zdanie wypowiedziane wiele lat temu przez Elona Muska jest prawdziwe: „Musimy dopilnować, aby sztuczna inteligencja postrzegała nas jako interesującą część społeczeństwa wszechświat.”
Oczekuje się, iż jednym ze sposobów, który okaże się skuteczny w osiągnięciu tego celu, powiedział ksiądz Larrey, jest traktowanie siebie nawzajem z większym szacunkiem i szacunkiem, aby sztuczna inteligencja mogła obserwować takie zachowanie i uczyć się z niego.
Ludzkie zachowanie to jeden z najmocniejszych argumentów, jakie sztuczna inteligencja może przedstawić, zastanawiając się, jak powinna traktować ludzi, kontynuował, a jeżeli ludzie nie będą traktować siebie nawzajem z szacunkiem i godnością, sztuczna inteligencja może nie postrzegać ich jako godnych uwagi.
Ponadto ojciec Larrey stwierdził, iż w przypadku braku moratorium na rozwój sztucznej inteligencji (co w tym momencie wydaje się mało prawdopodobne) katolicy powinni w dalszym ciągu promować dialog między etykami a twórcami sztucznej inteligencji. Ksiądz powiedział, iż często rozmawiał z Samem Altmanem, dyrektorem generalnym OpenAI i liderem w branży, aby zachęcić go do priorytetowego traktowania rozwoju ludzkiego w przyszłości sztucznej inteligencji w jego firmie.
„W tej chwili nie mamy uniwersalnego kodeksu etycznego ani niczego na temat sztucznej inteligencji. Myślę, iż Kościół katolicki może zapewnić wskazówki, dopóki ich nie będziemy mieli. Myślę, iż właśnie to staramy się teraz robić” – powiedział ojciec Larrey.
„Jeśli popełnimy błąd, będzie już za późno na jego naprawienie. Szkody już zostaną wyrządzone.”
Wiedza i nauczanie katolickie dla wszystkich
Jakie są pozytywne możliwości, jakie sztuczna inteligencja stwarza dla Kościoła?
Jednym z zastosowań sztucznej inteligencji, które rozwija się w zawrotnym tempie – a w 2025 r. z pewnością poczyni jeszcze większe postępy – jest zdolność sztucznej inteligencji do okiełznania i rozpowszechniania katolickiego nauczania i wiedzy w niewyobrażalny wcześniej sposób.
Świat został już obdarzony narzędziami takimi jak CatéGPT , chatbot zaprojektowany w celu zapewnienia dokładnych i kompleksowych odpowiedzi na pytania dotyczące nauczania katolickiego w oparciu o wiarygodne dokumenty. Użytkownicy odnieśli także sukces dzięki świeckim narzędziom sztucznej inteligencji, takim jak NotebookLM firmy Google, który ma możliwość generowania realistycznie brzmiących podcastów po dostarczeniu przez użytkowników materiałów źródłowych i może być używany do destylacji i wyjaśniania długich dokumentów katolickich, takich jak dokument końcowy Synodu synodalności .
Jednak Longbeard , firma kierowana przez Sandersa, jest gotowa poczynić jeszcze większy postęp w tej przestrzeni w 2025 r. Oferuje już Magisterium AI , generatywną sztuczną inteligencję, której celem jest zwiększenie dostępności nauczania Kościoła i wizji katolickiej poprzez zapewnienie odpowiedzi generowane są w oparciu o źródła katolickie. A Vulgate AI , potężna platforma biblioteczna i kolejny produkt Longbeard, już umożliwia digitalizację i ochronę zbiorów bibliotek katolickiego uniwersytetu, czyniąc te zasoby użytecznymi i dostępnymi dla odbiorców na całym świecie.
Sanders powiedział jednak CNA, iż jego firma ma jeszcze wyższe cele na rok 2025.
Zespół Sandersa opracowuje Efraima, pierwszy na świecie model języka katolickiego, który będzie szkolony w oparciu o cały zbiór „wiedzy katolickiej” – zadanie to łatwiej powiedzieć, niż wykonać, ponieważ większość światowej wiedzy katolickiej jest przechowywana w formie książkowej i bezpiecznie przechowywana w bibliotekach czy Watykanie.
Sanders powiedziała CNA, iż do marca firma ma nadzieję uruchomić w Rzymie najnowocześniejszy system robotyczny zwany Alexandria Digitization Hub, którego zadaniem będzie skanowanie tysięcy starożytnych katolickich książek i tekstów, z których wiele nigdy wcześniej nie były tłumaczone i znacznie mniej zdigitalizowane.
Kiedy już zdobędziesz cyfrowe kopie każdego fragmentu „wiedzy katolickiej”, jaki kiedykolwiek powstał, ukończysz „szkolenie” Ephraima i użyjesz go do zasilania narzędzi sztucznej inteligencji Longbearda.
Zaletą tego, powiedział Sanders, jest to, iż sztuczna inteligencja będzie miała prawdziwie katolickie podstawy do swojego działania, zamiast polegać na świeckich podstawach sztucznej inteligencji, takich jak ChatGPT, które są szkolone na różnych zestawach danych o potencjalnie sprzecznych wartościach i dlatego mają przyjęli wiele informacji niekatolickich, co oznacza, iż czasami wykazują wątpliwe odpowiedzi, jeżeli chodzi o tematy katolickie.
Longbeard udostępni katolikom Ephraima do tworzenia aplikacji, produktów i innych narzędzi poprzez swoje API (interfejs programowania aplikacji), powiedział Sanders, co oznacza duże ilości dokumentów i książek z nauczania katolickiego – jak dotąd 80 000 i wiele więcej w przyszłości — będzie dostępna dla wszystkich, kto ma połączenie z Internetem, a katolicy będą mogli z niej korzystać w nowy i twórczy sposób.
„Każdy rodzaj ministerstwa lub organizacji katolickiej, która chce wykorzystać sztuczną inteligencję, ale chce mieć pewność, iż sztuczna inteligencja jest wierna, naprawdę będzie w stanie na nas zbudować” – wyjaśnił.
Agenci AI: pomaganie księżom, nauczycielom katolickim i nie tylko
Bardzo popularnym zastosowaniem sztucznej inteligencji w świeckim świecie jest pojawienie się agentów AI : aplikacji, z których użytkownicy mogą korzystać, aby wykonywać zadania takie jak zamawianie jedzenia, rezerwacja wycieczek i nie tylko.
Sanders powiedziała, iż firma ma nadzieję, iż w nowym roku katolicy będą mogli używać platform Magisterium i Wulgaty do tworzenia przydatnych agentów AI, którzy będą mogli wykonywać zadania służące Kościołowi.
Aplikacja modlitewna mogłaby stworzyć agenta AI, którego użytkownicy mogliby używać na przykład do wyszukiwania informacji o świętym wspomnianym podczas sesji modlitewnej. Lub nauczyciel może wykorzystać go do stworzenia spersonalizowanego planu lekcji lub korepetycji dla ucznia, czyniąc agenta „aktywnym partnerem w procesie uprawiania teologii”.
„Staramy się zapewnić katolikom, podobnie jak nauczycielom i księżom, dostęp do narzędzi opartych na sztucznej inteligencji, głównie po to, aby pomóc im przyspieszyć pracę, którą wykonują, niezależnie od tego, czy jest to przygotowywanie homilii, czy przygotowywanie lekcji dla uczniów, itp. Sanders powiedział.
Oczywiście istnieją granice tego, co nie-człowiek może zrobić, jeżeli chodzi o pomoc katolikom, zwłaszcza duchownym: naturalnie sztuczna inteligencja nigdy nie będzie mogła na przykład słuchać spowiedzi ani odprawiać Mszy św. ani żadnego innego katolickiego sakramentu.
Jednak ci, którzy optymistycznie patrzą na sztuczną inteligencję, mają różne wyobrażenia na temat tego, w jakim stopniu sztuczna inteligencja może lub powinna być zaangażowana w życie sakramentalne Kościoła. Warto zauważyć, iż poruszenie wywołała wystawa sztuki wykorzystującej sztuczną inteligencję w Szwajcarii w listopadzie, kiedy liczne doniesienia prasowe ogłosiły, iż nowy sztucznie inteligentny „Jezus” zaczął spowiadać ludziom .
Pomimo umieszczenia w konfesjonale, później okazało się, iż instalacja AI była przeznaczona do rozmów, a nie spowiedzi (której może dokonać jedynie ksiądz lub biskup, a nigdy w środowisku wirtualnym ). Jednak szwajcarski teolog parafialny skomentował, iż jego zdaniem sztuczna inteligencja może pomóc w „duszpasterskiej” stronie życia katolickiego.
Ze swojej strony Sanders powiedział, iż praca jego firmy ma na celu „poprawę ludzkich możliwości”, aby pomóc Kościołowi, w tym księżom, i nie ma na celu zastąpienia kogokolwiek.
„Ci z nas, którzy rozumieją sakramentalną naturę Kościoła, wiedzą, iż jest to doświadczenie bardzo cielesne. Musisz tam fizycznie być. Dlatego nie ma takiej możliwości, w której sztuczna inteligencja mogłaby być częścią ekonomii sakramentalnej. „To się po prostu nie stanie.”
AI to nie ludzie
Oprócz ostrzeżenia, aby nie pozwalać sztuczną inteligencją zbytnio zagłębiać się w katolicką sferę sakramentów, kolejną kwestią, na którą trzej eksperci podkreślili, było znaczenie nieantropomorfizowania sztucznej inteligencji; Innymi słowy, traktuj go jako narzędzie, którym jest, a nie jako substytut prawdziwej interakcji międzyludzkiej.
Niestety w 2024 r. na pierwsze strony gazet trafiły liczne doniesienia o tym, jak ludzie zbytnio przywiązują się do sztucznej inteligencji przypominającej człowieka. Najbardziej niesławna była historia 14-letniego nastolatka z Florydy, który rozwinął niezdrowe przywiązanie do swojej „dziewczyny” z chatbota, a następnie popełnił samobójstwo
Ojciec Baggot podkreślił, iż sztuczna inteligencja to „ogromne narzędzia, które można wykorzystać w służbie godności ludzkiej i jej rozkwitu”, ale istnieją powody do niepokoju w związku z rozprzestrzenianiem się „towarzyszy AI coraz bardziej przypominających ludzi, do których coraz częściej zwracają się samotni ludzie”. .
„Sztuczna inteligencja i inne technologie powinny być także pomocą i wsparciem w naszych najważniejszych relacjach z Bogiem i bliźnim. Technologie te nigdy nie powinny zastępować ani umniejszać tych relacji kluczowych dla rozwoju człowieka” – powiedział CNA ojciec Baggot.
„Niestety chatboty udające przyjaciół, a choćby kochanków często zacierają to ważne rozróżnienie. Mogą być tworzone z dobrą intencją łagodzenia samotności, ale często odwracają uwagę od autentycznego kontaktu międzyludzkiego. Potrafią także wykorzystywać ludzkie słabości i manipulować ludźmi w niezdrowy sposób”.
Choć pewne uznanie cech ludzkich w maszynach jest naturalne, ks. Baggot zauważył, iż należy pamiętać, iż w przeciwieństwie do maszyn ludzie mają nie tylko wolną wolę, ale także wyjątkową zdolność rozumienia znaczenia i myślenia abstrakcyjnego.
„Tracimy cenne możliwości spotkania miłości Boga poprzez empatyczne spotkanie z człowiekiem, kiedy mamy fałszywe oczekiwania co do naszych narzędzi sztucznej inteligencji” – powiedział ojciec Baggot.
„Systemy sztucznej inteligencji nie są w stanie zrozumieć naszych emocji ani podzielać ich, ponieważ nie są świadomymi wynalazkami człowieka. Czasami mogą wyglądać jak ludzie i naśladować ludzkie emocje, ale brakuje im wewnętrznego, świadomego życia. „Systemy sztucznej inteligencji mogą dostarczać przydatnych informacji o grzechach i cnotach, ale nie wiedzą, jak to jest walczyć z pokusami i znajdować wyzwolenie dzięki łasce”.
Ks. Larrey powtórzył słowa ks. Baggota, stwierdzając, iż należy pamiętać i podkreślać, iż systemy sztucznej inteligencji, pomimo swoich imponujących możliwości, nie rozumieją znaczenia i jedynie manipulują symbolami. Można ich używać do wykonywania pewnych zadań ze świetnym skutkiem, ale należy uważać, aby nie myśleć o nich jak o prawdziwie ludzkich: sztuczna inteligencja nie jest zdolna do oryginalnego myślenia, zamiast tego działa, rozpoznając wzorce w swoich danych szkoleniowych i stosując je do nowych scenariusze. Ponadto powtórzył, iż chociaż sztuczna inteligencja może naśladować emocje, w rzeczywistości ich nie doświadcza.
Na przykład ChatGPT „symuluje zrozumienie i robi to coraz lepiej, ale to nie to samo, co zrozumienie” – powiedział ojciec Larrey.
Energia jądrowa i postęp medycyny
Szkolenie i korzystanie ze sztucznej inteligencji wymaga znacznie większej mocy obliczeniowej – a co za tym idzie – większej ilości energii elektrycznej – niż przetwarzanie konwencjonalne, a jest to problem, który już niepokoi osoby zaniepokojone potencjalnym wpływem na środowisko .
Ponowne uruchomienie elektrowni jądrowych specjalnie w celu zasilania sztucznej inteligencji trafiło na pierwsze strony gazet w 2024 r., gdy firmy takie jak Microsoft i Amazon zdecydowały się na uruchomienie elektrowni jądrowych w trybie online w celu zasilania swoich najnowszych energochłonnych projektów związanych ze sztuczną inteligencją, przy czym większa liczba projektów spodziewa się posiadania broni nuklearnej tego typu w 2025 r. i później .
Ze swojej strony Sanders stwierdził, iż skoro rozwój AI ma możliwość rozwiązania wielu problemów społecznych, to jego zdaniem rozwój AI musi być kontynuowany i dlatego potrzebne są duże źródła energii. Stwierdził, iż energia jądrowa dla sztucznej inteligencji jest prawdopodobnie dobrym rozwiązaniem, ponieważ jest „najpewniejszym sposobem na osiągnięcie obfitości energii na dużą skalę”.
Kolejnym interesującym zastosowaniem sztucznej inteligencji, istotnym dla Kościoła, jest dziedzina opieki zdrowotnej. Ks. Baggot stwierdził, iż widzi znaczny potencjał sztucznej inteligencji w ulepszaniu opieki zdrowotnej, w szczególności poprzez uczynienie jej bardziej przewidywalną, zapobiegawczą i spersonalizowaną; Na przykład systemy sztucznej inteligencji mogą szybciej i dokładniej analizować obrazy medyczne, takie jak zdjęcia rentgenowskie, rezonans magnetyczny i ultradźwięki, a czujniki zasilane sztuczną inteligencją mogą wykrywać problemy zdrowotne lub wskaźniki dotyczące zdrowia psychicznego użytkowników.
Podkreślił jednak, iż sztuczna inteligencja powinna być narzędziem wzmacniającym ludzki element opieki zdrowotnej, a nie go zastępującym; mówił o znaczeniu relacji lekarz-pacjent i potrzebie ludzkiej empatii, której sztuczna inteligencja nie jest w stanie zapewnić.
„Te cyfrowe interakcje powinny zawsze kierować użytkownika w stronę spotkań międzyludzkich” – powiedział ojciec Baggot.
słowa kluczowe: sztuczna inteligencja, AI 2025, katolicka etyka, przyszłość technologii, katoliccy eksperci,