Laboratoria.net
|
Zamknij X
|
Do jakiego więc stopnia roboty wojskowe powinny być autonomiczne? Christina Hess w artykule „Czy roboty zabójcy mogą być etycznie usprawiedliwione?”, podała przykład amerykańskich żołnierzy, którzy dostrzegli w Afganistanie grupę uzbrojonych talibów, ale mimo to nie zaatakowali. Powodem był fakt, iż bojownicy nieśli trumnę na pogrzeb. Jak przygotować robota na tak nieprzewidywalną sytuację? „Gdyby przecież zaprogramować roboty, by wstrzymać atak, gdy nieprzyjaciel niesie trumnę, to wówczas wróg zawsze by taką miał, aby uniknąć ataku” – zauważa Hess w argumentacji, która tylko na pozór wydaje się absurdalna. Argument, iż w przyszłości powstaną jeszcze bardziej zaawansowane maszyny, które będą się same uczyć, wcale nie uspokaja. Czy bezpieczniejszy jest bowiem „głupi” robot bojowy, który popełnia błędy, czy robot zaawansowany i stale się uczący, którego zachowania nie sposób do końca przewidzieć?
Granice nieomylności
Prócz naukowców problemem coraz częściej zajmują się też etycy, filozofowie i prawnicy. Na konferencji naukowej w 2008 r., o wymownym tytule „Etyka autonomicznych systemów wojskowych”, padło pytanie: Czy roboty mogą popełniać zbrodnie wojenne? Dla niektórych ekspertów takie pytanie jest absurdalne – robot to narzędzie, a za konsekwencje jego użycia odpowiedzialność ponosi sprawca. Innymi słowy, za morderstwo młotkiem winny jest nie młotek, ale człowiek, który zdecydował się użyć go w taki, a nie inny sposób.
Ale z autonomicznymi robotami sprawa może być mniej jednoznaczna – młotek nie jest samodzielny, a robot może być. Nie jest już tylko bezwolnym narzędziem, lecz staje się sprawcą kształtującym rzeczywistość. Jak podczas konferencji stwierdził jeden z ekspertów, „zbliżamy się do punktu, w którym prawo będzie musiało się zmienić. Trzeba będzie przyjąć do wiadomości, że odpowiedzialność za działania będzie od teraz spoczywać również na maszynach”. W dyskusję włączył się wtedy przedstawiciel brytyjskiego Ministerstwa Obrony, który dodał, że kwestie prawne można obejść. „Trzeba po prostu ograniczyć sytuacje, w których autonomiczny robot mógłby być narażony na złamanie prawa”. A jeżeli już dojdzie do pomyłki, to – zdaniem zwolenników – trudno, bowiem ludzie na wojnie przecież też popełniają błędy. Tak jak Amerykanie, którzy w 2008 r. pomyłkowo zbombardowali afgańskie wesele (37 ofiar), Niemcy, którzy pomylili talibów z cywilami (90 ofiar), czy Polacy, którzy ostrzelali wioskę (6 ofiar). Dlaczego więc od maszyn należałoby oczekiwać stuprocentowej nieomylności?
Niektórzy zwracają uwagę, że nawet jeśli robot popełni zbrodnię wojenną w wyniku swojej autonomicznej decyzji, to nie będzie można obarczyć za to winą człowieka, tak samo jak nie obarcza się odpowiedzialnością dowódcy żołnierza, który z własnej woli i bez rozkazu popełnił zbrodnię na polu walki. Taki pogląd, podobnie jak cała dyskusja na temat „wolności” robotów bojowych i zakresu ich swobody działania sprawiają, że przybywa zwolenników jednoznacznych rozwiązań. Mieszcząca się w Londynie pozarządowa organizacja „Landmine Action” (prowadząca kampanię na rzecz zakazania min przeciwpiechotnych i amunicji kasetowej) wezwała już społeczność międzynarodową do opracowania traktatu, który zdelegalizuje autonomiczne roboty bojowe. – Jesteśmy przekonani, że to człowiek, a nie maszyna, powinien decydować o użyciu broni – sądzi Richard Moyes z „Landmine Action”. – Nie chcemy, aby to roboty same uznawały, kto jest nieprzyjacielem, a kto nie – dodał. Human Rights Watch uważa, iż autonomiczne systemy broni to prosty krok na drodze do dehumanizacji wojny i tym samym wzywa do całkowitego zakazania bojowych robotów, które mogłyby działać samodzielnie, bez ingerencji człowieka. W 2013 r. Christof Heynes, specjalny sprawozdawca ONZ, wezwał do wstrzymania prac nad autonomicznymi systemami wojskowymi do czasu stworzenia odpowiednich regulacji prawnych.
Obawy te przemawiają do części naukowców. – Nie powinniśmy używać autonomicznych robotów bojowych, dopóki te naprawdę dobrze nie będą potrafiły odróżnić żołnierza od cywila – uważa Sharkey – a to nigdy nie będzie możliwe.
Więcej niż toster
Przedstawione powyżej dylematy nie są li tylko filozoficzną dyskusją; coraz bardziej dotyczą życia codziennego. Zwiększająca się autonomiczność robotów wojskowych to fakt. Ten proces trwa już od wielu lat. Wystarczy wspomnieć wykorzystywane od lat osiemdziesiątych przez amerykańską marynarkę wojenną systemy pokładowe „Aegis”, które mogą działać bez ingerencji człowieka. W 1988 r. system taki autonomicznie zidentyfikował cywilny samolot pasażerski Iran Air jako irański myśliwiec F-14. Chociaż załoga miała podejrzenie, że obiekt jest maszyną cywilną, oparto się na ocenie systemu „Aegis”. W katastrofie zginęło 290 osób.
Korea Południowa do monitorowania granicy ze swym nieprzewidywalnym sąsiadem z północy używa robotów SGR-A1 mogących otwierać ogień bez konieczności autoryzacji ze strony człowieka. Amerykanie na swych okrętach mają zbliżony system Phalanx. W wielu regionach na świecie, chociażby na Bliskim Wschodzie, latają setki bezzałogowców, które mogą działać niemal zupełnie autonomicznie, a udział człowieka jest bardzo ograniczony. Izraelski system przeciwrakietowy Iron Dome w pewnych sytuacjach sam odpala rakiety, nie czekając na decyzję człowieka.
O tym, że roboty odmienią przyszłe pole walki, jest przekonany Sharkey, a także Arkin, który stwierdził, że pomysły badaczy mogą znaleźć zastosowanie „może jeszcze nie w kolejnej wojnie, ale już w następnej – tak”. Gdyby wojskowi poważnie o tym nie myśleli, nie finansowaliby przecież badań Rona Arkina. Świadczy o tym też kierunek innych prowadzonych obecnie studiów. Pentagon już poprosił o rozpoczęcie prac nad systemem rozróżniania osób, które „współpracują” i „odmawiają współpracy” z robotem.
W 2006 r. opracowano raport o możliwości stworzenia autonomicznego systemu, który sam będzie mógł podjąć decyzję o zaatakowaniu nieprzyjaciela. Rok wcześniej amerykańskie dowództwo przygotowało prognozę, w której zapisano, że już za 20 lat „inteligentne” roboty staną się normą na polu walki. Trend jest więc wyraźny i to jedynie kwestia czasu, kiedy na froncie pojawi się w pełni samodzielny robot bojowy. Jedynie od nas – ludzi – zależy, czy będzie on wyposażony tylko w broń, czy również w namiastkę moralności.
25 maja 2018 roku zacznie obowiązywać Rozporządzenie Parlamentu Europejskiego i Rady (UE) 2016/679 z dnia 27 kwietnia 2016 r (RODO). Potrzebujemy Twojej zgody na przetwarzanie Twoich danych osobowych przechowywanych w plikach cookies. Poniżej znajdziesz pełny zakres informacji na ten temat.
Zgadzam się na przechowywanie na urządzeniu, z którego korzystam tzw. plików cookies oraz na przetwarzanie moich danych osobowych pozostawianych w czasie korzystania przeze mnie ze strony internetowej Laboratoria.net w celach marketingowych, w tym na profilowanie i w celach analitycznych.
Administratorami Twoich danych będziemy my: Portal Laboratoria.net z siedzibą w Krakowie (Grupa INTS ul. Czerwone Maki 55/25 30-392 Kraków).
Chodzi o dane osobowe, które są zbierane w ramach korzystania przez Ciebie z naszych usług w tym zapisywanych w plikach cookies.
Przetwarzamy te dane w celach opisanych w polityce prywatności, między innymi aby:
dopasować treści stron i ich tematykę, w tym tematykę ukazujących się tam materiałów do Twoich zainteresowań,
dokonywać pomiarów, które pozwalają nam udoskonalać nasze usługi i sprawić, że będą maksymalnie odpowiadać Twoim potrzebom,
pokazywać Ci reklamy dopasowane do Twoich potrzeb i zainteresowań.
Zgodnie z obowiązującym prawem Twoje dane możemy przekazywać podmiotom przetwarzającym je na nasze zlecenie, np. agencjom marketingowym, podwykonawcom naszych usług oraz podmiotom uprawnionym do uzyskania danych na podstawie obowiązującego prawa np. sądom lub organom ścigania – oczywiście tylko gdy wystąpią z żądaniem w oparciu o stosowną podstawę prawną.
Masz między innymi prawo do żądania dostępu do danych, sprostowania, usunięcia lub ograniczenia ich przetwarzania. Możesz także wycofać zgodę na przetwarzanie danych osobowych, zgłosić sprzeciw oraz skorzystać z innych praw.
Każde przetwarzanie Twoich danych musi być oparte na właściwej, zgodnej z obowiązującymi przepisami, podstawie prawnej. Podstawą prawną przetwarzania Twoich danych w celu świadczenia usług, w tym dopasowywania ich do Twoich zainteresowań, analizowania ich i udoskonalania oraz zapewniania ich bezpieczeństwa jest niezbędność do wykonania umów o ich świadczenie (tymi umowami są zazwyczaj regulaminy lub podobne dokumenty dostępne w usługach, z których korzystasz). Taką podstawą prawną dla pomiarów statystycznych i marketingu własnego administratorów jest tzw. uzasadniony interes administratora. Przetwarzanie Twoich danych w celach marketingowych podmiotów trzecich będzie odbywać się na podstawie Twojej dobrowolnej zgody.
Dlatego też proszę zaznacz przycisk "zgadzam się" jeżeli zgadzasz się na przetwarzanie Twoich danych osobowych zbieranych w ramach korzystania przez ze mnie z portalu *Laboratoria.net, udostępnianych zarówno w wersji "desktop", jak i "mobile", w tym także zbieranych w tzw. plikach cookies. Wyrażenie zgody jest dobrowolne i możesz ją w dowolnym momencie wycofać.
Więcej w naszej POLITYCE PRYWATNOŚCI