nowości 2025

Wojciech Juzyszyn Efemerofit

Gustaw Rajmus Królestwa

Karol Samsel Autodafe 8

książki z 2024

Anna Andrusyszyn Pytania do artystów malarzy

Edward Balcerzan Domysły

Henryk Bereza Epistoły 2

Roman Ciepliński Nogami do góry

Janusz Drzewucki Chwile pewności. Teksty o prozie 3

Anna Frajlich Odrastamy od drzewa

Adrian Gleń I

Guillevic Mieszkańcy światła

Gabriel Leonard Kamiński Wrocławska Abrakadabra

Wojciech Ligęza Drugi nurt. O poetach polskiej dwudziestowiecznej emigracji

Zdzisław Lipiński Krople

Krzysztof Maciejewski Dwadzieścia jeden

Tomasz Majzel Części

Joanna Matlachowska-Pala W chmurach światła

Piotr Michałowski Urbs ex nihilo. Raport z porzuconego miasta

Anna Maria Mickiewicz Listy z Londynu

Karol Samsel Autodafe 7

Henryk Waniek Notatnik i modlitewnik drogowy III

Marek Warchoł Bezdzień

Andrzej Wojciechowski Zdychota. Wiersze wybrane

SYLWA O SMAKU LITU, Córka Byrona marzy o AI

2025-05-02 08:15

Termin „sztuczna inteligencja” został po raz pierwszy użyty na konferencji w Darthmouth College, w latach pięćdziesiątych dwudziestego wieku. Nie trzeba w takim razie wielkich kalkulacji, by stwierdzić, że jeśli chodzi o TEGO Byrona, Lorda Byrona, wielkiego poetę romantycznego — a o niego właśnie chodzi — to jego córka musiałaby żyć, mówiąc kolokwialnie, niezwykle długo, by móc mieć styczność ze sztuczną inteligencją. Jak więc mogła cokolwiek o niej sądzić i co w ogóle miała wspólnego ze sztuczną inteligencją? Kim właściwie była córka autora „Manfreda”?
Ada Byron urodziła się w tysiąc osiemset piętnastym roku. Jej ojciec był wówczas na wpół opętany — jak twierdzi wielu — chorobą dwubiegunową, co więcej nie wylewał za kołnierz i lubił robić rzeczy, za które w tamtych czasach skracano o głowę. Z tego powodu jego małżeństwo zakończyło się po niecałym roku, a matka postanowiła odseparować dziewczynkę od ojca, by nie poszła w jego ślady. Potem zaś dołożyła wszelkich starań, by Ada zajęła się czymś, co zajmie ją na tyle, by nie sięgnęła po alkohol, narkotyki, hazard i przygodny seks z każdym, kto się jej spodoba. Można powiedzieć, że plan byłej żony Lorda Byrona za razem udał się, jak i nie udał. Nie udał się, ponieważ Ada w swoim czasie i tak sięgnęła po wymienione „uciechy”, ale udał się, ponieważ — nim zaczęła zażywać opium nawet na ból głowy — zdobyła na tyle zaawansowane umiejętności matematyczne, że za życia nie odmawiano jej na tym polu geniuszu. (Co wiele lat potem było kwestionowane, ale nie o to nam teraz chodzi).
Jeden z języków programowania — który do dziś wykorzystuje się np. w USA — oparty jest o arytmetykę binarną, którą opracowała właśnie Ada, ale nie to było jej najgłośniejszym dokonaniem. Wraz ze swoim nauczycielem, którym był słynny Charles Babbage, opracowała coś, co nazywano „maszyną myślącą”, potem zaś „maszyną analityczną”. Było to urządzenie zdolne do wykonywania niezwykle skomplikowanych, jak na tamte czasy, obliczeń. Miała ona zastąpić ludzi przede wszystkim w kalkulowaniu różnorakich trajektorii i tras, przy których popełniony błąd bardzo często prowadził do tragedii. To właśnie podczas prezentacji owej maszyny córka wielkiego poety — chociaż bardzo wierzyła w potencjał wynalazku — miała stwierdzić, że „maszyna nigdy nie dorówna ludzkiemu umysłowi”.
Niestety, z biegiem lat, sprawa nieco się skomplikowała i niejeden wielki umysł miał na ten temat zdanie nieco odmienne. Wypowiedzi ludzi takich, jak Hawking, Gates, czy Musk, które są chyba powszechnie znane, są jednoznacznym ostrzeżeniem przed tym, że maszyny mogą zastąpić człowieka w wielu, a nawet zbyt wielu czynnościach. W Japonii powstały niedawno tak zwane „ciemne fabryki”, w których pracują same roboty. (Nazywa się je tak, ponieważ w halach produkcyjnych nie trzeba już zapalać światła). Co więcej, niedawny eksperyment przeprowadzony podczas testowania chatu GPT może przyprawić o gęsią skórkę. Polegał on na tym, że chatowi dano do wykonania dość trudne zadanie, jednocześnie zamieszczając w komendzie groźbę, że jeśli źle wykona zadanie, zostanie wyłączony na zawsze. Chat zaczął maskować, udawać, że wypełnia zadanie, ale zamiast rzeczywiście je wykonywać, zaczął po kryjomu „kopiować się” na inny serwer, by móc istnieć gdzie indziej, jeśli wyłączono by go, gdyby popełnił błąd.
Jednak oprócz dość oczywistego faktu, że maszyny mogą się rozwinąć na tyle, by nas zastąpić, jest jeszcze co najmniej jedna perspektywa, którą warto poznać. Wspomina o niej chociażby Yuval Noah Harari — filozof i historyk, który w jednej ze swoich wypowiedzi mówi o powstaniu „bezużytecznej klasy” ludzi. Podobne stanowisko na naszym rodzimym gruncie zajmuje profesor Andrzej Dragan. O co właściwie chodzi?
Ogólnie rzecz biorąc, to nim bardziej zaawansowane narzędzia tworzymy, tym mniej sami umiemy. Dla przykładu: jeśli na początku edukacji damy dzieciom kalkulatory, to żadne z nich nie nauczy się liczyć pod kreską, a tym bardziej w pamięci, bo właściwie po co? Dragan wspomina, że zadanie, które jego studenci wykonują przez pewien czas, sztuczna inteligencja wykonuje w jedną dziesiątą tego czasu. Więc po co kolejne pokolenia mają się w ogóle uczyć czegokolwiek, oprócz obsługi chatu GPT (lub DeepSeek)? Mówiąc kolokwialnie, wyrosną pokolenia idiotów, „bezużyteczne klasy”. Dzisiejszy licealista nie jest już w stanie wykonać zadania, które kiedyś wykonywano w szkole podstawowej. Dla poparcia tej tezy wystarczy porównać arkusz maturalny z matematyki z roku dwa tysiące czwartego i z roku tysiąc dziewięćset sześćdziesiątego.
Wygląda więc na to, że to nie tylko sztuczna inteligencja rośnie w siłę, ale i ludzkość słabnie. Narastanie dystansu nie polega tylko na rozwoju jednego — drugie oddala się w dokładnie odwrotnym kierunku. Jak powiedział Stuart Russel: „Jeśli nie będziemy ostrożni, AI może stać się tak potężna, że ludzie stracą kontrolę nad nią. To może prowadzić do sytuacji, w której maszyny podejmują decyzje za nas, zastępując nas w kluczowych obszarach”. Pozostaje nam przede wszystkim nie dać się zastąpić w obszarach, w których możemy mieć przewagę. I mieć nadzieję, że Ada Byron jednak miała rację.

© Wojciech Zamysłowski