Sobota-Niedziela, 10-11 stycznia 2026, Nr 7 (8478) – Magazyn – WĘGIERSKIE STARCIE
Francuski filozof Michel Serres w rozważaniach o naszej kulturze przywołuje legendarną historię św. Dionizego, patrona Paryża. Po męczeńskiej śmierci przez ścięcie na wzgórzu Montmartre miał on podnieść własną głowę i zanieść ją kilka kilometrów do miejsca pochówku, gdzie dziś znajduje się katedra pod jego wezwaniem – Saint-Denis. Ten motyw, od wieków odczytywany symbolicznie, dziś nabiera zaskakującej aktualności. Michel Serres sugeruje, że współczesny człowiek stał się kimś w rodzaju „nowego Dionizego”: jego głowa – w sensie intelektualnym, poznawczym, pamięciowym – została oderwana od ciała i niesiona przed sobą w postaci urządzeń cyfrowych, komputerów, smartfonów i systemów sztucznej inteligencji. Nasza „głowa” jest dziś na zewnątrz nas: to pamięć bardziej pojemna niż nasza (USB), wyobraźnia z milionami zmagazynowanych obrazów, zdolności obliczeniowe zdolne do przetwarzania zbiorów „big data” i rozwiązywania problemów, których sami nie potrafimy rozstrzygnąć. Ta metafora idealnie oddaje stan świata, w którym inteligencja, zamiast być czymś wewnętrznym i osobowym, ucieleśnionym, staje się „zewnętrzną instancją”, a człowiek uzależnia się od niej, mogąc utracić część swojej poznawczej autonomii, skoro „coś myśli za nas”.
W tym kontekście warto odczytać projekt transhumanistyczny oraz rolę, jaką w nim odgrywa sztuczna inteligencja prowadząca do „poszerzenia kognitywnego”.
„Techno-millenaryzm” transhumanistów
Technologia w podejściu transhumanistów to coś więcej niż czynienie życia wygodniejszym. Oni wierzą w moc postępu – utożsamiają ją z takim zwiększaniem możliwości technologicznych, który doprowadzi do radykalnego przekształcenia tego, kim jesteśmy. A przecież postęp ma miejsce wtedy, gdy zbliża do „celu” danej istoty czy rzeczy, a do tego trzeba znać ów „cel”. Jak ktoś ma jechać z Torunia do Lublina, a pojedzie do Szczecina, to szybsza podróż do Szczecina nie będzie dla niego „postępem”.
Z racji tej „wiary” w postęp, zbliżonej wręcz do quasi-religijnej, niektórzy określają to podejście mianem technomillenaryzmu. Cechuje je bowiem technooptymizm, dający o sobie znać w przesadzie, z jaką (może celowo?) traktują możliwości sztucznej inteligencji, spychając na margines refleksję, czym to narzędzie tak naprawdę jest.
Millenaryzm, przypomnijmy, to przekonania religijne czy ideologiczne, w które wpisane jest oczekiwanie na wydarzenie głęboko przekształcające świat, poprzedzające ostateczną zmianę o charakterze apokaliptycznym. Takim właśnie millenarystycznym poglądem może być przekonanie jednego z myślicieli tego ruchu, Raya Kurzweila, o możliwości osiągnięcia stanu tzw. osobliwości, gdy dzięki sztucznej inteligencji, przekraczającej możliwości inteligencji naturalnej, dokona się radykalna odmiana ludzkiej egzystencji. Owe millenarystyczne przekonania widać także np. w Deklaracji transhumanistycznej z 2009 roku, w której czytamy: „Ludzkość będzie w przyszłości głęboko dotknięta nauką i technologią. Przewidujemy możliwość poszerzenia ludzkiego potencjału poprzez przezwyciężenie starzenia się, niedostatków poznawczych, mimowolnego cierpienia i naszego uwięzienia na planecie Ziemia. Wierzymy, że potencjał ludzkości jest wciąż w dużej mierze niewykorzystany. Istnieją możliwe scenariusze, które prowadzą do wspaniałej i niezwykle wartościowej poprawy warunków życia”.
Przebija z tych zdań mocne przekonanie, że żyjemy w zwrotnym punkcie dziejów, coraz bliżej „osobliwości technologicznej”, dzięki której nastąpi nie ewolucja jednej cechy, ale głębokie przekształcenie natury ludzkiej. Dlatego transhumanistom chodzi nie tyle o stwierdzenie pożyteczności technologii, ile wręcz podkreślają obowiązek moralny jej wykorzystywania, co z kolei przekłada się na przekonanie o obowiązku wyboru zawsze opcji najdoskonalszej (bo dla H+ najlepsze = najdoskonalsze). Co to oznacza? A to, że np. rodzice powinni wybierać dla rodzących się dzieci te cechy (np. przez terapie genowe), które dają im największe szanse zdrowotne (co jest formą eugeniki).
Prawa wspominanego postępu zostały ze szczegółami opisane przez Raya Kurzweila w ramach tzw. prawa przyspieszonych zwrotów (The Law of Accelerated Returns – LOAR), zakładając wykładniczy, a nie liniowy, postęp technologii. LOAR nie jest jednak żadnym prawem nauki powstałym w sposób, w jaki formułuje się takie prawa, na co zwracają uwagę krytycy, gdyż opiera się ono nie na danych, ale na jakimś poczuciu postępu. Ponadto, zdaniem Kurzweila, taki samokarmiący się proces rozwoju dotyczy takich obszarów, jak moc obliczeniowa, AI, biotechnologia czy nanotechnologia. Przyjmując te założenia, Kurzweil wskazuje, że Artificial General Intelligence (AGI) pojawi się ok. 2029 roku, potem – ok. 2045 roku – wyłoni się tzw. Superinteligencja, co odmieni wszystko.
Zauważmy, że w gramatyce myślenia transhumanistycznego rozwój AI – któremu towarzyszy wręcz niemalże religijna euforia – odgrywa kluczową rolę.
Transhumanistyczna propozycja jest radykalnie redukcjonistyczna: sprowadza człowieka do „umysłu” bez potrzeby ciała (jak to czyni gnoza) przy jednoczesnym „spłaszczeniu” rzeczywistości i traktowaniu transcendencji jedynie w wymiarze horyzontalnym (jak to robi awerroizm). Traktują człowieka jak w słynnej historii o płaszczakach, w której mowa jest o stworzeniach myślących, że istnieją tylko dwa wymiary – długość i szerokość. Nie przychodzi im do głowy, że może istnieć trzeci wymiar.
Transhumanistyczne technologie postępu: GRIN
Dla osiągnięcia zamierzonych celów zwolennicy tej filozofii wspierają i promują badania w zakresie biotechnologii, nanotechnologii, biocybernetyki i technologii informacyjnej, jak również technologie przyszłości, takie jak sztuczna inteligencja czy transfer umysłu. Zmiana gatunkowa ma się dokonać poza naturalną ewolucją – na drodze rozwoju technologicznego GRIN, a więc dzięki współdziałaniu czterech wiodących obecnie technologii: genetyki (G), robotyki (R), informatyki (I) oraz nanotechnologii (N).
Myśliciele transhumanistyczni, jak Max More czy Ray Kurzweil, wskazują, że celem postępu jest przezwyciężenie ograniczeń biologicznych, poznawczych i moralnych dzięki technologii i stworzenie czegoś w rodzaju homo excelsior (hipotetyczny człowiek przyszłości). W swoich publikacjach [np. „The Age of Spiritual Machines” (1999), „The Singularity Is Near” (2005), „The Singularity Is Nearer” (2024)] zwiastują, że moment przejścia do ASI (Artificial SuperInteligence) to kwestia roku 2045, a skutkiem będzie radykalne zwiększenie poznawcze, przedłużenie życia, a nawet cyfrowa nieśmiertelność.
Sztuczna inteligencja pojawia się u nich w kontekście rozwoju nanobotów – mikroskopijnych maszyn napędzanych AI, które mogłyby naprawiać chore komórki, odwracać proces starzenia i poprawiać funkcje poznawcze. W tej wizji sama śmierć staje się przestarzałą koncepcją, zastępowaną przez ideę nieograniczonego postępu i ciągłego samodoskonalenia.
Tym samym – zgodnie ze swoją futurystyczną wizją – Ray Kurzweil wyobraża sobie płynność tożsamości w świecie wirtualnym. Jak twierdzi, w rzeczywistości wirtualnej nie będziemy ograniczeni do jednej osobowości, ponieważ będziemy mogli zmieniać swój wygląd i zasadniczo stawać się innymi ludźmi. Podczas gdy nasze ciała fizyczne pozostaną niezmienione w świecie rzeczywistym, będziemy płynnie przekształcać naszą cyfrową obecność w immersyjnych, trójwymiarowych środowiskach.
Rola sztucznej inteligencji
Takie podejście oznacza przede wszystkim, że transhumaniści dążą do „ulepszenia” istot ludzkich poprzez wykorzystanie technologii, w tym sztucznej inteligencji (AI), w sposób tak fundamentalny, aby stworzyć „transludzi”, a potem „postludzi” (którzy – ich zdaniem – przetrwają kolejną wojnę światową). AI pozostaje ważna w tym projekcie zarówno sama w sobie (uwypuklając odcieleśnienie, bo to inteligencja bez ciała), ale i jako narzędzie rozszerzające inne technologie interesujące transhumanistów. Do najważniejszych sposobów, w jakich AI może odegrać rolę w projekcie transhumanistycznym, należą:
- Wzmocnienie poznawcze (cognitive augmentation): AI może zwiększać ludzką inteligencję poprzez interfejsy mózg – komputer (BCI) lub systemy wspomagające, takie jak algorytmy uczenia maszynowego zintegrowane z procesem decyzyjnym człowieka.
- Długowieczność i zdrowie: AI odgrywa kluczową rolę w postępie technologicznym medycyny, w tym w medycynie precyzyjnej, chirurgii robotycznej czy biotechnologii, mających na celu poprawę zdrowia i wydłużenie życia. Mimo że lepsze zdrowie i dłuższa żywotność są pożądane, ludzie pozostają nadal ludźmi.
- Automatyzacja i wolność: Poprzez automatyzację rutynowych zadań AI może uwolnić ludzi od pracy, pozwalając im skupić się na działalności bardziej wartościowej, np. kreatywnej czy intelektualnej, zgodnie z transhumanistycznym ideałem przezwyciężenia niepożądanego ludzkiego trudu. Uproszczenie pracy i codziennych czynności da więcej czasu na wartościowe zajęcia, ale nie gwarantuje rozwoju wyższych zdolności czy charakteru. Nawet dziecko miliardera, korzystające z uprzywilejowanych warunków, może przecież unikać edukacji czy działań twórczych, marnując dostępne zasoby rodzinne.
- Przenoszenie umysłu (mind uploading): Niektórzy transhumaniści sugerują, że AI mogłaby przenieść ludzką świadomość na cyfrowe substraty, umożliwiając cyfrowe odcieleśnienie, ale i wielocielesność (łączenie świadomości). Takie spekulacje zakładają istnienie materialistycznej metafizyki, np. „ontologii informacyjno-cybernetycznej”, której większość założeń jest w praktyce nierealna.
Symulacja inteligencji
Takie podejście do sztucznej inteligencji sprawia, że dla transhumanistów pojawia się wręcz próba przypisywania AI tego, czego de facto nie ma w zakresie możliwości, oraz lansowania przy tym swoistej antropomorfizacji w sposobie narracji na temat tej maszyny. Mówi się o wrażliwości, samoświadomości, sprawczości i/lub autonomii, które byłyby „zaawansowane” lub „wyższe” w porównaniu do ludzi. W ten sposób tworzą oni wrażenie, jakby człowiek stworzył coś lepszego od siebie i stał się w ten sposób lepszy nawet od Boga, który stworzył gorszego metafizycznie od siebie człowieka.
Realistyczne podejście odróżnia jednak silną i słabą SI (symulowana sztuczna inteligencja), ponieważ obecnie w naszym zasięgu jest inteligencja, która jest „symulacją” naszej inteligencji. Z kulinarnej perspektywy, idąc za Antoine’em Bordes’em, „aby zrobić naprawdę inteligentne maszyny, [] nie mamy nawet składników do tego przepisu”.
Wobec zalewu informacji o sztucznej inteligencji oraz towarzyszącej temu euforii warto zatrzymać się i spokojnie zastanowić, czym jest swoista „metafizyka AI”. Jak zauważa o. Emmanuel Perrier OP, maszyna AI składa się z logiki utrwalonej po zakończeniu procesu uczenia. Oznacza to, że każde nowe uczenie nie modyfikuje istniejącej maszyny, lecz tworzy nową – każda maszyna AI jest zatem zindywidualizowana przez swoją własną logikę i stosuje swoistą pragmatykę wobec zapytań, które się do niej kieruje. Wynika to z pierwotnego założenia, że maszyna przetwarza treści znaków, które są jednostkowe. Maszyna, pozbawiona zdolności poznania, nie jest w stanie wydobyć uniwersalnych form z jednostkowych danych. Aby temu zaradzić, konieczne jest stosowanie uogólnień oraz złożonych technik przetwarzania danych modulowanych podczas uczenia, tak aby uzyskać pożądane rezultaty. Każda maszyna AI, poddana swoistemu procesowi uczenia, utrwala własną pragmatykę – zawsze tę samą. Tym samym nie tyle prowadzi procesy inteligentne, czyli „myśli”, ile raczej naśladuje procesy inteligentne.
Ten proces naśladowania inteligentnych procesów ludzkich opiera się na pewnej redukcji wynikającej z przyjęcia jedynie relacji „ad unum”, przyczyny do przyczyny, a nie właściwej ludzkiej inteligencji umiejętności operowania powszechnym myśleniem i analogiami. Całość oparta jest na sekwencjach prądu i specyficznej logice automatu (mało kto wie, że w historii pierwszym automatem miały być drzwi do Olimpu, które w „Iliadzie” Homera „same się otwierały”).
Dlatego mamy tutaj do czynienia właśnie z automatem, wyrafinowaną maszyną zdolną do naśladowania działań inteligentnych bez ich rozumienia. Nie trzeba przecież, aby papuga wiedziała, co mówi, ale inteligentny byt rozumie, co mówi papuga. Sztuczna inteligencja nie rozumie, ale tworzy treści zrozumiałe dla użytkownika. Aby tak było, maszyna musi być posłuszna logice – jak zauważa o. E. Perrier – „łańcucha działań ’ad unum’, gdzie każde działanie jest okreś- lane tak, aby wytworzyć jeden rodzaj efektu. To właśnie czyni ją interesującą (wynik jest przewidywalny i powtarzalny), tak samo jak granica: ponieważ maszyna wie, jak zrobić tylko to, do czego została zdeterminowana, jej zakres jest ograniczony do rzeczywistości dostosowanych do jej funkcji”.
Zamiast posługiwać się logiką rozwiązywania przez zasady (najpierw teoria, potem przypadki do rozwiązania), SI idzie drogą logiki przez wynik, ucząc się przez działanie, które inteligencja naturalna akceptuje, zamykając cykl wynikowy. To ma dwie konsekwencje: 1) logika sztucznej inteligencji jest nieracjonalna z założenia; 2) ze względu na swoją konstytucję każda maszyna AI jest osobliwą logiką. Trochę to przypomina naukę chodzenia przez dziecko – inteligencja ucząca (rodzic) oraz inteligencja naśladująca i dążąca do wyniku bez jego zrozumienia.
To sprawia, że niektórzy autorzy zalecają zmianę terminologii: zamiast „sztucznej inteligencji” (AI) zalecają mówić o „sztucznie symulowanej inteligencji” (ASI), „symulowanej inteligencji” (SI) lub „systemach symulowanej inteligencji” (SIS). Cała ideologia AI = ASI, utożsamiająca AI z ludzką inteligencją lub nawet wyższą od niej, prowadzi do całkowitego pominięcia bogactwa i różnorodności prawdziwej inteligencji – poznawczej, wolitywnej i afektywnej – której ASI nie posiada.
Problem podwykonawstwa intelektualnego
Żyjemy w kulturze outsourcingu i delegowania zadań, ale w logice transhumanistów chodzi o zastępowanie, a nie o wspomaganie działań. Czy ci ludzie, którzy przeniosą swoje myślenie do seryjnie produkowanych komputerów, zaprogramowanych przez wspólne oprogramowanie i podłączonych do baz danych lub scentralizowanych usług komputerowych, nadal myślą? Czy nadal myślimy, kiedy delegujemy do maszyn operacje umysłowe, które są w naszym zasięgu, lub gdy opieramy się na wynikach, których nie bylibyśmy w stanie osiągnąć sami?
Jak zauważa o. David Perrin OP na łamach „Revue Thomiste”, tym samym wracamy do klasycznego pytania, czy człowiek myśli i na czym polega jego rozumienie. W średniowieczu dyskusja toczyła się wokół pytania „Utrum hic homo intelligit?” (czy ten człowiek rozumie?), a wśród wielu odpowiedzi było jedno, które zaskakująco blisko znajduje się transhumanistycznego wykorzystania AI. W tzw. awerroizmie łacińskim nastąpiło bowiem swoiste wywłaszczenie inteligencji, gdyż przyjęto, że istnieją dwa intelekty – jeden wewnątrz człowieka, a drugim jest wspólny wszystkim intelekt, który gwarantuje możliwość porozumienia, wspólnych kategorii. Ludzki intelekt dostarcza jedynie „danych” do tego powszechnego intelektu, który jest wręcz boski, w przeciwieństwie do ludzkich, jednostkowych, które są śmiertelne. W awerroizmie, jak widać, człowiek stracił moc myślenia, myśli za niego intelekt „czynny”, wspólny wszystkim – tajemnicza siła rozumu, która potrzebuje „czujek” do danych od jednostkowych aparatów.
Sztuczna inteligencja jako system przoduje w przetwarzaniu danych, rozumowaniu analitycznym i personalizacji, ale brakuje jej intuicji, głębi relacyjnej i transcendencji. Ma więc tendencję do ograniczania wszystkiego i redukowania tego do zmechanizowanych, algorytmicznych interakcji. Dlatego jej potencjalne ryzyko obejmuje depersonalizację, błąd algorytmiczny, dezinformację.
Kognitywne rozszerzenie czy przeładowanie?
Na koniec skupmy się na skutkach AI. Poszerzenie kognitywne osiągane dzięki sztucznej inteligencji jest nie produktem ubocznym, lecz celem działania transhumanistów. Chodzi o doprowadzenie do nowych doświadczeń za sprawą cyborgizacji człowieka i natłoku danych. Pojawia się tu przekonanie o rozszerzonym umyśle (extended mind) – pojęciu stosowanym co najmniej na trzech poziomach: procesów poznawczych, postaw propozycjonalnych (np. przekonań, intencji czy pragnień) oraz świadomego doświadczenia.
Jak ocenić więc dostarczane poszerzenie możliwości i natłok danych? Po pierwsze, wzrost możliwości poznawczych domaga się aksjologii, innymi słowy pewnych kluczowych rozróżnień. Pablo García-Barranquero i Marcos Alonso Fernández w rozważaniach nad tym, co znaczy enhancement (wzmocnienie), zwracają uwagę, że trzeba wiedzieć, co jest możliwe/niemożliwe, godne pragnienia, preferowane lub odrzucane. Poza tym wzrost poznawczy może być skokowy lub stopniowy, dokonuje się np. poprzez zwiększanie IQ. Zwraca się uwagę, że transhumaniści maksymalizują dążenia do doskonałości, idąc na „ilość”: lepiej istnieć 1000 lat – twierdzą – niż 200, ale w pewnych okolicznościach (np. społecznych) może to mieć opłakane skutki. Nie zawsze więcej oznacza najlepiej lub doskonale. Zdolność do zapominania może przeszkadzać studentowi w czasie sesji, ale może pomóc komuś w trudnej sytuacji. Samo długie istnienie, bez wyraźnego sensu, nie jest lepsze od krótszego, ale pełnego sensu. To wszystko pokazuje jedno: potrzebna jest aksjologia. Potrzebne jest więc moral enhancement, ulepszenie moralne, aby kognitywne poszerzenie nie wyrządziło szkody. To dlatego etyka cnoty ma tu znowu swoje zastosowanie.
Kognitywne poszerzenie rodzi inne jeszcze pytania: czy większa liczba danych, jaką człowiek ma otrzymać dzięki cyborgizacji i nowym implantom, będzie szansą czy ryzykiem? Naukowcy z MIT (Massachusetts Institute of Technology) mówią o pojęciu ryzyka kognitywnego, o zacieraniu jasnego spojrzenia i zdolności do krytycznej oceny przez pozbawienie mózgu tego, co sprawia, że się on rozwija (tzw. zmarszczek mózgu). Zalew danych sprawia, że łatwo się pogubić. Wydaje się, że w epoce AI najbardziej pożądaną cechą będzie to, co stanowi kwintesencję chrześcijańskiej duchowości – umiejętność wyboru i rozróżniania tego, co istotne, od banału. Konieczne jest przy tym zwrócenie uwagi na cel oraz sens „wiedzy”, która kształtuje osobę – nie chodzi o sam przekaz porcji informacji.
Po drugie, pojawia się problem „technorasizmu”: kwestie transhumanizmu i sztucznej inteligencji rodzą obawy o nierówny dostęp do technologii oraz możliwe przyszłe podziały między „ulepszonymi” a „nieulepszonymi” ludźmi lub między „postludźmi” a „normalnymi” ludźmi. Kevin Warwick idzie nawet dalej, przewidując przyszłość, w której konkurencja między ludźmi a „ulepszonymi ludźmi” może przybierać charakter wykluczający wobec tych pierwszych, pogłębiając nierówności i tworząc nowe formy społecznego ostracyzmu. W ten sposób technologie transhumanistyczne, mimo że umożliwiają znaczące wzmocnienia poznawcze czy fizyczne, niosą ze sobą równocześnie ryzyko utraty kontroli nad własnym życiem.
Po trzecie, kognitywne poszerzenie niesie ze sobą, jak zauważa MIT, pewien „dług poznawczy”: jeśli ktoś nas wyręcza – robi coś za nas – zaciągamy niejako dług, który trzeba będzie spłacić. Gdy czynności epistemiczne są całkowicie delegowane, a nie jedynie rozszerzone, może pojawić się specyficzna forma ignorancji: utrata zdolności (fenomenologii) poznawczej. Chodzi o to, że po delegowaniu zadania poznawczego jednostka nie będzie już w stanie wykonywać go samodzielnie. Już teraz widać to w badaniach: ostatnie badania z Harvardu pokazują, że używanie ChatGPT przez kilka godzin do pisania esejów powoduje obniżenie zdolności kognitywnych. Widać wzrost produktywności, ale zmniejszenie motywacji. Zbadano w drugim podejściu skutki stosowania poszerzenia poznawczego dla mózgu (na próbie 54 osób piszących eseje – nastąpił spadek krytycznego myślenia i kreatywności). Podobne wyniki dotyczą np. długotrwałego korzystania z gogli wielowymiarowych. Receptą jest rozpoczynanie od własnego myślenia, a potem wspomaganie się AI.
Chodzi więc nie o zaprzestanie używania, lecz o zrozumienie, czym jest dane narzędzie, jak działa i jakich rezultatów można się spodziewać, a przy tym, jakie skutki długofalowe może mieć pozwolenie na „wyręczanie się” w wielu aspektach sztuczną inteligencją. Już dziś niektórzy traktują ją jako przewodnika duchowego (powstają boty do ocen moralnych i etycznych, które „radzą”, co jest dobre, a co złe), kulturalnego (propozycje, jak spędzić czas), matrymonialnego (z kim się wiązać). AI może podsumowywać teksty, tłumaczyć passusy, znajdować cytaty, sugerować anegdoty, oszczędzając czas pracy – ale czy ufamy takim zautomatyzowanym procesom? Badania nad stopniem konfabulacji pokazują, że nadal istnieje duży procent pomyłek. Do kogo odnosi się nasze zaufanie: do ludzi, twórców tych maszyn, czy do nich samych?
Jednocześnie pojawiają się poważne obawy dotyczące głębokiej zależności od technologii na różnych poziomach. Jak zauważa Núñez Partido, „bez tych urządzeń utracimy status społeczny i tożsamość osobistą, gdyż nie będziemy w stanie niemal nic zrobić, a potrzebujemy ich, by dorównać innym”. W kontekście transhumanistycznych aspiracji, w których technologie służą wzmocnieniu ludzkich zdolności, oznacza to, że stopniowe delegowanie operacji poznawczych, decyzyjnych i praktycznych na maszyny może prowadzić do sytuacji, w której nasza autonomia i sprawczość staną się zależne od technologicznych narzędzi, a więc istnieje zagrożenie, że nie tyle my będziemy używać AI, ile raczej będziemy używani przez AI.
Nie tylko narzędzie
Nie wiemy, czy AI przejdzie wkrótce test Turinga czy chińskiego pokoju, ale one nie oddają prawdziwego testu, jakim jest refleksja nad celem oraz kryterium relacji. AI nie jest takim samym narzędziem jak młotek czy druk, które dokonały rewolucji. To coś więcej, wymagające uważności i pytania Cui bono? (gdzie jest dobro?), czym stanie się jako „środek” w rękach ideologicznych ruchów, takich jak transhumanizm. Może okazać się pomocnym narzędziem przy konfliktach, poszerzając kognitywnie zawężoną perspektywę, ale także doprowadzić do przeładowania i dezinformacji, rozsypując nasze ludzkie poznanie niczym puzzle.
Artykuł stanowi treść wykładu wygłoszonego podczas XVIII Międzynarodowego Kongresu „Katolicy a transhumanizm” w AKSiM 29 listopada 2025 roku.
Ks. prof. Piotr Roszak Uniwersytet Mikołaja Kopernika w Toruniu, Universidad de Navarra, Pamplona