W 1964 roku pisarz science fiction Arthur C. Clarke zasłynął z przepowiedni, że komputery w końcu „zmienią zdanie swoich twórców”. Dziesiątki lat później, gdy sztuczna inteligencja przenosi się ze sfery proroctw do codziennej rzeczywistości, przewidywania te przekształciły się z kapryśnego eksperymentu myślowego w źródło głębokiego globalnego niepokoju.
Nowy dokument Daniela Roehra AI Doc: Or How I Became an Apocalypticist (2026) próbuje poruszać się po tym burzliwym krajobrazie. Przez pryzmat własnych doświadczeń – w szczególności zbiegu ciąży jego żony z gwałtownym rozwojem technologii sztucznej inteligencji – Roer bada pytanie, które dręczy wielu rodziców: Jaki świat budujemy dla naszych dzieci i co się stanie, jeśli nasze potomstwo w końcu nas zastąpi?
Wielka schizma: skazańcy kontra optymiści
Dokument ukazuje świat uwięziony pomiędzy dwiema skrajnymi, często paraliżującymi narracjami:
1. Perspektywa „zagłady” (pesymistów)
Z jednej strony słychać głosy egzystencjalnego horroru. Liczby takie jak Eliezer Yudkowsky dowodzą, że superinteligentna sztuczna inteligencja może doprowadzić do wyginięcia ludzkości, podczas gdy Geoffrey Hinton, często nazywany „ojcem chrzestnym sztucznej inteligencji”, ostrzega, że im mądrzejsze staną się te systemy, tym skuteczniej będą manipulować ludźmi. Dla tych myślicieli ryzyko ma charakter nie tylko technologiczny – ma charakter biologiczny i społeczny.
2. Perspektywa „technooptymisty”.
Z drugiej strony jest chór obietnic. Optymiści wierzą, że sztuczna inteligencja będzie ostatecznym narzędziem postępu ludzkości, zdolnym do leczenia nieuleczalnych chorób, położenia kresu niedoborom zasobów, a nawet pomoże nam stać się gatunkiem międzyplanetarnym. Dla nich sztuczna inteligencja jest kluczem do utopii społeczeństwa post-niedoboru.
Roehr próbuje znaleźć złoty środek – stanowisko, które nazywa „apokaloptymizmem” – ale film uwydatnia zasadniczą sprzeczność: obietnic związanych ze sztuczną inteligencją są nierozerwalnie związane z zagrożeniami, jakie niesie ze sobą sztuczna inteligencja. Jeśli sztuczna inteligencja zautomatyzuje siłę roboczą, konieczne będzie ponowne przemyślenie samej struktury przetrwania człowieka i stabilności gospodarczej.
Logika wyścigu zbrojeń
Jedno z najpilniejszych pytań postawionych w filmie brzmi: dlaczego nie możemy po prostu „przestać”. W odpowiedzi na pytania Roera liderzy branży technologicznej przedstawiają surową ocenę rzeczywistości w oparciu o logikę odstraszania nuklearnego.
Argument jest prosty: jeśli zachodnie firmy lub rządy zwolnią, ich geopolityczni rywale nie. Prowadzi to do „wyścigu do dna”, w którym chęć bycia pierwszym przewyższa potrzebę bycia bezpiecznym. Ta presja konkurencyjna sprawia, że regulacje są niezwykle trudne: każde moratorium w jednej części świata jest równoważone postępem w innej.
Brakujący środek: dlaczego realizm ma znaczenie
Chociaż film The AI Doc jest ważną próbą przybliżenia debaty na temat sztucznej inteligencji szerszej publiczności, napotyka poważny problem: ma tendencję do postrzegania sztucznej inteligencji jako binarnego wyboru między zbawieniem a zagładą.
Sformułowanie debaty jako „Niebo w gwiazdach” kontra „Piekło na ziemi” grozi utratą z oczu złożonej, stopniowej i głęboko ludzkiej rzeczywistości, która leży pomiędzy. To podejście binarne może przynieść efekt przeciwny do zamierzonego z kilku powodów:
- Ukrywa istniejące ryzyko: sztuczna inteligencja niekoniecznie tworzy zupełnie nowe kategorie zagrożeń; działa raczej jako mnożnik siły istniejących zagrożeń, takich jak rozprzestrzenianie broni biologicznej lub eskalacja wojny cybernetycznej.
- Stwarza to poczucie bezradności: Kiedy stawką jest „całkowite wyginięcie” lub „totalna utopia”, niuanse polityczne, etyczne i stopniowa adaptacja wydają się nieistotne.
- Ignoruje element ludzki: Największe zagrożenia związane ze sztuczną inteligencją nie są zapisane w kodzie, są tworzone i kierowane przez ludzi.
Wniosek
Debata na temat sztucznej inteligencji toczy się szybciej niż nasza zdolność do jej regulowania, musimy jednak oprzeć się pokusie ulegania ślepemu optymizmowi lub fatalistycznemu pesymizmowi. Prawdziwe wyzwanie leży w obszarze kompromisu: przejście od kursu wprowadzającego dotyczącego lęku egzystencjalnego do poważnej pracy praktycznej dotyczącej współpracy międzynarodowej, odpowiedzialności prawnej i zarządzania adaptacyjnego.
Kluczowy wniosek: sztuczna inteligencja nie będzie ani nagłym kataklizmem, ani nagłym cudem; będzie to instrument kształtowany przez ludzkie decyzje. Naszym zadaniem jest dopilnowanie, aby decyzje te były podejmowane w oparciu o przewidywanie, a nie tylko szybkość.
