Autonomiczna broń to zagrożenie dla ludzkości. Można zastopować jej rozwój, o co apelują największe umysły na Ziemi, m.in. Elon Musk czy Stephen Hawking. Jeszcze nie jest za późno.
Od autonomicznych samochodów po seksboty, ludzkość krok po kroku jest przejmowana przez roboty. Nieunikniony marsz maszyn prowadzi do apokaliptycznych wizji świata, w którym to sztuczna inteligencja dyktuje warunki. Jakie byłyby tego skutki można zobaczyć w trylogii „Matrix”, „Terminatorach” czy „Odysei kosmicznej” Kubricka. Twórcy filmów science-fiction uwielbiają tematykę konfliktu człowieka z maszyną, bo to po prostu dobrze się sprzedaje. Niepokojące jest jednak to, że coraz bardziej ufamy maszynom, powierzając im własne życie i podejmowanie elementarnych decyzji.
Robo sapiens
Dzisiaj maszyna/robot/komputer lub – jakkolwiek inaczej nazwany układ elektroniczny zdolny do analizy przyczynowo-skutkowej zdarzenia – może coraz więcej. Za kilka lat prawdopodobnie wszyscy będziemy podróżować autonomicznymi samochodami, a precyzyjne operacje chirurgiczne (mimo, iż pod okiem lekarzy) będą wykonywane przez roboty.
Jeszcze niebezpieczniejszą wizję szykuje nam segment militariów. Oto bowiem za kilka lat w armiach całego świata mogą pojawić się roboty, które same decydują o wybieranych celach. Na podstawie prostej analizy systemu „swój-obcy” albo będą przyjazne, albo będą eliminować cele. Coś na kształt wizji z najnowszej odsłony „RoboCopa” z Garym Oldmanem i Michaelem Keatonem. Nie jest jeszcze za późno, by temu zapobiec. Ostatnio takiej wizji przeciwstawiło się spore grono sławnych ludzi, takich jak Stephen Hawking, Elon Musk, Noam Chomsky czy Steve Wozniak. Ponad 1000 osób ze świata nauki i technologii podpisało się pod otwartym listem, którego pełną treść można przeczytać tutaj.
Naukowcy wyrazili swoje zaniepokojenie tworzeniem automatycznych maszyn, które są w stanie samodzielnie wybierać i eliminować cele. To zagrożenie dla całej ludzkiej cywilizacji.
Kałasznikowy jutra
List organizacji Future of Life został zaprezentowany 27 lipca podczas Międzynarodowej Konferencji dotyczącej Sztucznej Inteligencji, która odbyła się w Buenos Aires. Możemy w nim przeczytać m.in.:
Kluczową kwestią dla człowieka współczesnego jest to, czy rozpoczynać globalny wyścig zbrojeń AI, czy zapobiegać jego startowi. Jeżeli jakakolwiek potęga militarna popycha do przodu rozwój broni AI, globalny wyścig zbrojeń jest praktycznie nieunikniony, a punkt końcowy tego toru technologicznego jest oczywisty: broń autonomiczna stanie się kałasznikowami jutra.
Naukowcy przekonują, że broń autonomiczna może być trzecią rewolucją zbrojeniową, zaraz po prochu i broni jądrowej. Zasadnicze pytanie krąży wokół jednego tematu: czy powinniśmy pozwolić, by stała się ona faktem?
Zwolennicy autonomicznej broni przekonują, że obniżyłaby ona koszty działań zaczepnych i liczbę ofiar w konfliktach zbrojnych. Tak jak autonomiczny samochód porusza się po wytyczonej trasie na podstawie odczytów z wielu różnych czujników i danych satelitarnych, tak wyposażony w jakąś formę samoświadomości dron, decyzję o eliminacji celu podejmie na podstawie suchych faktów. Jeżeli w pobliżu będą cywile (zaawansowany system „swój-wróg”) misja zostanie wstrzymana. Przynajmniej tak być powinno w teorii.
Nowa forma terroryzmu
Ale istnieją także poważne zagrożenia płynące z wykorzystania autonomicznej broni. Ponieważ raz opracowany algorytm, prawdopodobnie byłby powielany wielokrotnie w różnych systemach, terroryści mieliby ułatwione zadanie. Przecież wystarczy uprowadzić odpowiednio mądrego naukowca, który opracuje niszczycielskie systemy dla przestępców. Brzmi to jak scenariusz z podrzędnego filmu akcji, ale taki scenariusz może powtórzyć się w prawdziwym życiu.
Broń autonomiczna nie jest jak broń jądrowa, która wymaga do działania drogocennych i często trudnych do zdobycia surowców. Dzięki temu byłaby ona dużo tańsza, co może być zarówno wadą, jak i zaletą. Naukowcy sprzeciwiają się zastosowaniu AI do rozwoju broni, aczkolwiek są zdania, że sama sztuczna inteligencja przyniesie ludzkości wiele pożytku. Dobrze podsumowuje to inny fragment wspomnianego listu:
Broń autonomiczna jest idealna do takich zadań jak zabójstwa, destabilizacje narodów, panowanie nad populacjami i selektywna eliminacja konkretnych grup etnicznych. Dlatego uważamy, że wojskowe zastosowanie AI nie byłoby korzystne dla ludzkości.
Niektóre odnośniki na stronie to linki reklamowe.