Zabójcza sztuczna inteligencja: jakie jest niebezpieczeństwo „broni przyszłości”

2

Od zarania dziejów ludzkość była w stanie wojny. Początkowo konflikty miały charakter prymitywny. Plemiona starożytnych ludzi walczyły kijami i kamieniami o ziemię i żywność.

We współczesnych wojnach używamy już dronów, rakiet z systemami naprowadzającymi, elektronicznych systemów bojowych i innej zaawansowanej technologicznie broni. Ale to nie jest limit.



W tej chwili dziesiątki największych firm kompleksu wojskowo-przemysłowego na całym świecie pracują nad autonomicznymi systemami, które mogłyby realizować zadania wojskowe bez interwencji człowieka. Nie, nie mówimy o robotach antropomorficznych, takich jak Terminator z filmu o tym samym tytule. Inżynierowie próbują stworzyć algorytm oprogramowania, który w przyszłości zostanie zaimplementowany do istniejących systemów i zanegowie udział człowieka w ich zarządzaniu.

Na przykład dzisiaj drony są szeroko stosowane w konfliktach zbrojnych. W tym przypadku każdym indywidualnym dronem steruje operator i to on podejmuje decyzję o wykorzystaniu określonych możliwości UAV na polu walki.

Z kolei system oparty na sztucznej inteligencji mógłby wykonać zadanie samodzielnie, opierając się na załadowanych do niego danych o potencjalnym celu, a także analizując otaczającą sytuację.

Brzmi świetnie. Tymczasem część krajów jest już bliska wprowadzenia takich systemów do swoich wojsk.

Pozostaje tylko pytanie, do czego doprowadzi taka ewolucja armii.

Oczywiste jest, że systemy oparte na sztucznej inteligencji mają wiele zalet. W szczególności użycie broni autonomicznej całkowicie eliminuje czynnik ludzki, co często prowadzi do dodatkowych ofiar wśród ludności cywilnej i zniszczeń. Ponadto systemy robotyczne uratują życie personelu wojskowego, który nie będzie musiał bezpośrednio uczestniczyć w działaniach wojennych.

Jednak „śmiertelna sztuczna inteligencja” ma również istotne wady. Jednym z nich jest ryzyko włamania się do takiego systemu przez hakerów, co doprowadzi do najbardziej nieprzewidywalnych konsekwencji. Ponadto masowa produkcja autonomicznej broni nieuchronnie udostępni ją organizacjom niepaństwowym i terrorystycznym.

W tej chwili ONZ omawia możliwość ograniczenia lub nawet zakazania takiej broni ze względów etycznych i innych. Proces ten przebiega jednak na tyle wolno, że jeszcze zanim wspomniana decyzja zostanie podjęta, więcej niż jedna armia na świecie może posiadać broń ze sztuczną inteligencją.

2 komentarz
informacja
Drogi Czytelniku, aby móc komentować publikację, musisz login.
  1. -2
    15 grudnia 2023 11:31
    Praca uczyniła człowieka z małpy.
    Sztuczna inteligencja zrobi z człowieka małpę.
  2. DO
    0
    15 grudnia 2023 19:03
    Główną przewagą dronów autonomicznych nad sterowanymi przez operatora jest to, że mogą wykonywać misje bojowe bez zewnętrznego sterowania i bez systemu pozycjonowania GLONASS, dzięki czemu:
    - może działać na głębokości setek kilometrów w głąb za liniami wroga, gdzie jest trudne lub niemożliwe zorganizowanie kanałów radiowych do kontroli operatora;
    - niewrażliwy na środki zagłuszania radia wroga.

    ryzyko włamania się do takiego systemu przez hakerów

    jest częścią ryzyka dostępności broni autonomicznej

    dla organizacji niepaństwowych i terrorystycznych

    Nielegalne użycie broni autonomicznej wymaga bowiem pokonania organizacyjnych i/lub technicznych systemów zabezpieczeń przed nieuprawnionym dostępem do programowania i aktywacji autonomicznych dronów.