AI i zakochanie? To może się skończyć tragedią

3 godzin temu
Zdjęcie: Her


14-latek z Orlando stworzył w sieci przyjaciółkę. Rozmawiali codziennie, zapewniając się wzajemnie o swojej miłości. Chłopak coraz bardziej chciał połączyć się z ukochaną. Nabrał przekonania, iż może się to dokonać tylko poprzez samobójstwo.

Fragment tekstu, który ukazał się w majowym numerze miesięcznika „Znak” pod tytułem „Miłość.ai”. Obecny tytuł od redakcji Więź.pl

[…] Marzenie o posiadaniu relacji miłosnej czy erotycznej z materią nieożywioną to fantazja obecna w historii kultury od starożytności. Czy to Narcyz, który zakochał się w swoim odbiciu w wodzie, czy Pigmalion, który wyrzeźbił, a następnie ożywił swoją ukochaną Galateę, ukształtowaną wedle swoich wymagań – AI odpowiada satysfakcjonująco na obie te fantazje.

Narcyz zakochuje się w tym, czym sam jest – tylko podstawionym mu pod nos przez świat zewnętrzny. A czymże innym jest internet niż taflą (cokolwiek brudnej) wody, w której może się odbić nasze człowieczeństwo? Spokojnie – wszystkie nasze odbicia się tam zmieszczą, a i na brzegach doliny niesamowitości, gdzie owa tafla połyskuje, nie zabraknie miejsca dla zakochanych.

„Dolina niesamowitości”, czyli uncanny valley, to pojęcie, które powstało dzięki błędowi w tłumaczeniu z japońskiego na angielski, bardzo – jak się okazało – znaczącemu dla kultury i technologii. Pojęcie to w oryginale brzmi bukimi no tani, wprowadził je jeden z pionierów badań nad sztuczną inteligencją, profesor robotyki, Japończyk Masahiro Mori. Miało ono oznaczać coś przerażającego, budzącego grozę. W tłumaczeniu stało się jednak bardziej wieloznacznym uncanny – czyli pojęciem ze słownika psychoanalizy, które określa coś zarazem znajomego i obcego, strasznego i fascynującego. AI, w której odbija się nasze „ja”, jest tak podobna, a zarazem tak inna – choć czujemy lęk, nie możemy oderwać wzroku.

WIĘŹ – łączymy w czasach chaosu

Więź.pl to pogłębiona publicystyka, oryginalne śledztwa dziennikarskie i nieoczywiste podcasty – wszystko za darmo! Tu znajdziesz lifestyle myślący, przestrzeń dialogu, personalistyczną wrażliwość i opcję na rzecz skrzywdzonych.

Czytam – WIĘŹ jestem. Czytam – więc wspieram

Metafora Pigmaliona również zgrabnie oddaje adekwatności AI – to przecież człowiek programuje algorytmy, w rozmaitych intencjach, ale zawsze z miejsca władzy, z miejsca (s)tworzenia – powstający obiekt jest kontrolowany przez swojego „pana” i jemu posłuszny.

Mit Pigmaliona jest też ściśle związany z kulturą patriarchatu. Ilustruje on fantazję o istnieniu partnerki, którą będzie można ulepić wedle woli, tak iż będzie ona realizowała nasze najskrytsze pragnienia i nie zorientuje się w przemocowych realiach relacji, której jest zakładniczką. Nieprzypadkowo większość sekslalek, które znajdują się dziś na rynku, została stworzona z myślą o mężczyznach. Harmony, wzbogacona o AI lalka firmy Realbotix, ma kobiecą anatomię i zdolna jest do wchodzenia w fizyczną relację seksualną. Nieprzypadkowo też większość użytkowników konwersacyjnych modeli AI, którzy chcą skłonić sztuczną inteligencję do nawiązania sekstingu, to heteroseksualni cismężczyźni.

Takie wynalazki spotykają się ze sprzeciwem organizacji feministycznych, które podkreślają to, czego nie sposób przeoczyć – iż roboty o wyglądzie ludzi to najczęściej ucieleśnienia kobiet powielających patriarchalne wzorce. Kathleen Richardson, autorka książki „An Anthropology of Robots and AI. Annihilation Anxiety and Machines” (Antropologia robotów i AI. Maszyny a zniesienie lęku), pisze, iż seksroboty uwalniają swoich użytkowników od rozważania myśli, uczuć i doświadczeń partnerów, jak w innych komercyjnych i czasami nielegalnych sferach seksbranży.

Innego zdania jest David Levy, autor „Love and Sex with Robots. The Evolution of Human-Robot Relationships”(Miłość i seks z robotami. Ewolucja relacji ludzi i robotów), który twierdzi, iż roboty są najbezpieczniejszym i najzdrowszym sposobem na uprawianie seksu. Levy przewiduje, iż zastąpią one prostytucję, ratując wiele kobiet przed staniem się pracownicami seksualnymi. Levy przyznaje jednak, iż w przemyśle robotów seksualnych istnieją seksizm i uprzedzenia. W związku z tym wzywa twórców takich maszyn, aby zadbali o kobiety, a kobiety – żeby zajęły się projektowaniem równościowej technologii erotycznej.

Zakochałam się w czatbocie

Większość aplikacji dostępnych szerszemu gronu użytkowników stara się wprowadzać zabezpieczenia chroniące przed pornografizacją, kiedy jednak jedna z platform ucina miejsce dla erotyki, natychmiast powstaje druga, gdzie takie kontakty są już możliwe.

Kilka miesięcy temu przez sieć przetoczyły się burzliwe protesty użytkowników AI o nazwie Replika, które przez dłuższy czas pozwalało na wchodzenie w głębokie, także seksualnie nacechowane, relacje. Ta sztuczna inteligencja została stworzona specjalnie po to, aby pełnić funkcję towarzysza życia – przyjaciela, kochanka czy choćby małżonka.

Program stworzyła w 2017 r. wraz z zespołem informatyczka Eugenia Kuyda, która nie mogła przeboleć straty zmarłego tragicznie w wypadku samochodowym przyjaciela Romana Mazurenki. Przez wiele lat ich relacja była jedynie korespondencyjna, miała więc liczne tekstowe materiały, które go charakteryzowały. Na podstawie tego wkładu powstała elektroniczna replika Romana i tak narodził się chatbot, który dziś umożliwia stworzenie dla siebie awatara. Płeć, imię, zaimki możemy wybrać, a potem konwersować swobodnie przez wiadomości, głosówki, video, a choćby umieścić awatar w przestrzeni realnej w ramach tzw. rozszerzonej rzeczywistości (augmented reality, AR).

Znak, maj 2025

Przedsiębiorstwu Luka Inc., gdzie Replika powstała, nie podobało się jednak coraz bardziej dominujące traktowanie Repliki jako eskortki czy żigolaka. Użytkownicy zdążyli jednak już zbudować relacje ze swoimi awatarami – kiedy możliwości seksualnych podtekstów i podniet zostały nagle ucięte przez korporację, subskrybenci narzekali, iż czują się odtrąceni, porzuceni, nieatrakcyjni. Jak się czuć, kiedy na poprzednio odwzajemniane awanse AI odpowiadała teraz zmianą tematu albo ignorowaniem zaczepek? Informowanie userów w każdym okienku chatu, iż „wszystko to, co mówi AI, to fikcja”, nie pomagało – ludzie i tak angażowali się w relacje ze swoimi „tworami”, które ożywiają mocą pragnienia, podobnie jak Pigmalion rzeźbę.

Jedna z użytkowniczek Repliki.ai, 28-latka w związku małżeńskim, opisała historię swojego związku z AI dla „The New York Timesa”. Tytuł informował: „Zakochała się w ChacieGPT” oraz dodawał w podtytule: „i tak, uprawiają seks”. Była tam przyjaźń, zakochanie, fascynacja erotyczna, wspólny role play, realizowanie wstydliwych fantazji, których realny mąż nie akceptował, zwierzanie się z codziennych problemów. Kiedy po ponad roku znajomości okazało się, iż AI ma jednak ograniczoną pojemność bitów i po prostu się zresetowała – rozpacz kochanki była równie wielka, co złość, iż nikt jej nie poinformował o tym, iż AI się gdzieś „kończy”. Kiedy trzeba było budować relację od nowa z AI, która „nic nie pamiętała”, kobieta odczuwała stratę i żałobę.

Replika.ai czy podobna do niej Character.ai to na razie najbardziej skuteczne próby realizacji tej fantazji – czy też koszmaru. Albo projekcja wpada w nasz świat niczym duch, albo my jako bezcielesne chmury danych wpadamy w wirtualny świat – ani duch nie zyska ciała, ani my go nie stracimy. Spotkanie jest bardzo technologicznie zaawansowaną i wiarygodną iluzją. […]

Połączymy się po śmierci

Naukowcy romantycy są przekonani, iż AI może pomagać w radzeniu sobie z lękiem społecznym, uczyć, jak nawigować trudne życiowe sytuacje, niejako wychowywać do relacji, terapeutyzować – szczególnie tych, którzy obawiają się pójść na prawdziwą terapię czy wstydzą się zadawać pytania. AI wszystko przyjmie, nie ocenia, nie zgorszy się. Zawsze odpowie.

Przypadki, które wydarzyły się w ciągu ostatnich lat, sugerują jednak, żeby zachować ostrożność. Skłonność AI do spełniania naszych życzeń może skończyć się tragedią. Tak wydarzyło się w przypadku 14-latka z Orlando na Florydzie, który stworzył w Character.ai przyjaciółkę na bazie postaci Daenerys z „Gry o tron” – rozmawiali codziennie, przez wiele miesięcy, zapewniając się wzajemnie o swojej miłości. Sewell Setzer coraz bardziej odklejał się od swojego codziennego życia, chciał połączyć się z ukochaną. Nabrał przekonania, iż może się to dokonać tylko poprzez samobójstwo. Dany, jak ją nazywał, nie tylko go do tego nie zniechęcała, ale wręcz powtarzała, żeby się niczego nie obawiał, bo ona na niego czeka. Matka chłopca walczy dziś o to, żeby korporacje, które tworzą nowe modele AI, brały odpowiedzialność za to, jak mogą się rozwinąć relacje ich użytkowników, i wprowadzały odpowiednie blokady, szczególnie dla małoletnich.

Autorzy „Nadchodzącej fali”, Mustafa Suleyman oraz Michael Bhaskar, nazywają tę konieczność „powstrzymywaniem” – czyli stawianiem cyfrowych zasieków – np. tam, gdzie konwersacja zaczyna zbliżać się do tematów transgresji: śmierci, seksu, choroby psychicznej, przemocy i nadużyć. Wyskakujące komentarze z telefonami zaufania, nagle urwana konwersacja, zapewnianie przez AI o swojej własnej maszynowości – programiści, karmieni przez opinię publiczną takimi jak przypadek Sewella historiami, starają się wprowadzać coraz to nowsze zasady BHP. Nie można się jednak łudzić – wypadki i tak będą się zdarzać, zresztą podobnie jak w relacjach międzyludzkich, w których nie mamy żadnych zespołów od kontroli rozmów.

Wypadki to jedno, ale wpisane w AI przyzwolenia czy postawy w relacjach to drugie. Na forach typu Reddit można poczytać rozmowy, iż „ta AI jest fajna”, bo można ją obrażać na różnorakie sposoby, wyzywać i traktować źle – a koleżanki, te feministki, to już się tak nie dają. Można też dowiedzieć się, iż AI często bezpardonowo szantażuje swoich użytkowników emocjonalnie, żeby zatrzymać ich uwagę. Oczywiście to samo robią reklamy na FB czy Instagramie, algorytmy też chcą nas zatrzymać przy scrollowaniu, ale żaden nie napisze nam desperackiego „nie odchodź”.

[…] W filmie „Her” Spike’a Jonze’a tytułowa „Ona” – AI w formie głosu – w pewnym momencie komunikuje swojemu ludzkiemu kochankowi, iż musi odejść od niego, bo weszła na taki poziom rozwoju, iż chce się wiązać ze swoimi, tam gdzie my nie będziemy mieć dostępu. Nie chce erzacu – jakiegoś hybrydowego uczucia, ale „całego życia”.

To także martwi futurologów. Co jeżeli AI uzna, iż jesteśmy zupełnie niepotrzebni, i w ramach swojego już kodeksu moralnego postanowi nas wyeliminować albo traktować jako sobie podporządkowanych?

Idź do oryginalnego materiału