Akceptuję
W ramach naszej witryny stosujemy pliki cookies w celu świadczenia państwu usług na najwyższym poziomie, w tym w sposób dostosowany do indywidualnych potrzeb. Korzystanie z witryny bez zmiany ustawień dotyczących cookies oznacza, że będą one zamieszczone w Państwa urządzeniu końcowym. Możecie Państwo dokonać w każdym czasie zmiany ustawień dotyczących cookies. Więcej szczegółów w naszej Polityce Prywatności

Zamknij X
Hala
Strona główna Felieton
Dodatkowy u góry
Labro na dole

Kuzyni Terminatora


Do jakiego więc stopnia roboty wojskowe powinny być autonomiczne? Christina Hess w artykule „Czy ­roboty zabójcy mogą być etycznie usprawiedliwione?”, podała przykład amerykańskich żołnierzy, którzy dostrzegli w Afganistanie grupę uzbrojonych talibów, ale mimo to nie zaatakowali. Powodem był fakt, iż bojownicy nieśli trumnę na pogrzeb. Jak przygotować robota na tak nieprzewidywalną sytuację? „Gdyby przecież zaprogramować roboty, by wstrzymać atak, gdy nieprzyjaciel niesie trumnę, to wówczas wróg zawsze by taką miał, aby uniknąć ataku” – zauważa Hess w argumentacji, która tylko na pozór wydaje się absurdalna. Argument, iż w przyszłości powstaną jeszcze bardziej zaawansowane maszyny, które będą się same uczyć, wcale nie uspokaja. Czy bezpieczniejszy jest bowiem „głupi” robot bojowy, który popełnia błędy, czy robot zaawansowany i stale się uczący, którego zachowania nie sposób do końca przewidzieć?

Granice nieomylności

Prócz naukowców problemem coraz częściej zajmują się też etycy, filozofowie i prawnicy. Na konferencji naukowej w 2008 r., o wymownym tytule „Etyka autonomicznych systemów wojskowych”, padło pytanie: Czy roboty mogą popełniać zbrodnie wojenne? Dla niektórych ekspertów takie pytanie jest absurdalne – robot to narzędzie, a za konsekwencje jego użycia odpowiedzialność ponosi sprawca. Innymi słowy, za morderstwo młotkiem winny jest nie młotek, ale człowiek, który zdecydował się użyć go w taki, a nie inny sposób.

Ale z autonomicznymi robotami sprawa może być mniej jednoznaczna – młotek nie jest samodzielny, a robot może być. Nie jest już tylko bezwolnym narzędziem, lecz staje się sprawcą kształtującym rzeczywistość. Jak podczas konferencji stwierdził jeden z ekspertów, „zbliżamy się do punktu, w którym prawo będzie musiało się zmienić. Trzeba będzie przyjąć do wiadomości, że odpowiedzialność za działania będzie od teraz spoczywać również na maszynach”. W dyskusję włączył się wtedy przedstawiciel brytyjskiego Ministerstwa Obrony, który dodał, że kwestie prawne można obejść. „Trzeba po prostu ograniczyć sytuacje, w których autonomiczny robot mógłby być narażony na złamanie prawa”. A jeżeli już dojdzie do pomyłki, to – zdaniem zwolenników – trudno, bowiem ludzie na wojnie przecież też popełniają błędy. Tak jak Amerykanie, którzy w 2008 r. pomyłkowo zbombardowali afgańskie wesele (37 ofiar), Niemcy, którzy pomylili talibów z cywilami (90 ofiar), czy Polacy, którzy ostrzelali wioskę (6 ofiar). Dlaczego więc od maszyn należałoby oczekiwać stuprocentowej nieomylności?

Niektórzy zwracają uwagę, że nawet jeśli robot popełni zbrodnię wojenną w wyniku swojej autonomicznej decyzji, to nie będzie można obarczyć za to winą człowieka, tak samo jak nie obarcza się odpowiedzialnością dowódcy żołnierza, który z własnej woli i bez rozkazu popełnił zbrodnię na polu walki. Taki pogląd, podobnie jak cała dyskusja na temat „wolności” robotów bojowych i zakresu ich swobody działania sprawiają, że przybywa zwolenników jednoznacznych rozwiązań. Mieszcząca się w Londynie pozarządowa organizacja „Landmine Action” (prowadząca kampanię na rzecz zakazania min przeciwpiechotnych i amunicji kasetowej) wezwała już społeczność międzynarodową do opracowania traktatu, który zdelegalizuje autonomiczne roboty bojowe. – Jesteśmy przekonani, że to człowiek, a nie maszyna, powinien decydować o użyciu broni – sądzi Richard Moyes z „Landmine Action”. – Nie chcemy, aby to roboty same uznawały, kto jest nieprzyjacielem, a kto nie – dodał. Human Rights Watch uważa, iż autonomiczne systemy broni to prosty krok na drodze do dehumanizacji wojny i tym samym wzywa do całkowitego zakazania bojowych robotów, które mogłyby działać samodzielnie, bez ingerencji człowieka. W 2013 r. Christof Heynes, specjalny sprawozdawca ONZ, wezwał do wstrzymania prac nad autonomicznymi systemami wojskowymi do czasu stworzenia odpowiednich regulacji prawnych.

Obawy te przemawiają do części naukowców. – Nie powinniśmy używać autonomicznych robotów bojowych, dopóki te naprawdę dobrze nie będą potrafiły odróżnić żołnierza od cywila – uważa Sharkey – a to nigdy nie będzie możliwe.

Więcej niż toster

Przedstawione powyżej dylematy nie są li tylko filozoficzną dyskusją; coraz bardziej dotyczą życia codziennego. Zwiększająca się autonomiczność robotów wojskowych to fakt. Ten proces trwa już od wielu lat. Wystarczy wspomnieć wykorzystywane od lat osiemdziesiątych przez amerykańską marynarkę wojenną systemy pokładowe „Aegis”, które mogą działać bez ingerencji człowieka. W 1988 r. system taki autonomicznie zidentyfikował cywilny samolot pasażerski Iran Air jako irański myśliwiec F-14. Chociaż załoga miała podejrzenie, że obiekt jest maszyną cywilną, oparto się na ocenie systemu „Aegis”. W katastrofie zginęło 290 osób.

Korea Południowa do monitorowania granicy ze swym nieprzewidywalnym sąsiadem z północy używa robotów SGR-A1 mogących otwierać ogień bez konieczności autoryzacji ze strony człowieka. Amerykanie na swych okrętach mają zbliżony system Phalanx. W wielu regionach na świecie, chociażby na Bliskim Wschodzie, latają setki bezzałogowców, które mogą działać niemal zupełnie autonomicznie, a udział człowieka jest bardzo ograniczony. Izraelski system przeciwrakietowy Iron Dome w pewnych sytuacjach sam odpala rakiety, nie czekając na decyzję człowieka.

O tym, że roboty odmienią przyszłe pole walki, jest przekonany Sharkey, a także Arkin, który stwierdził, że pomysły badaczy mogą znaleźć zastosowanie „może jeszcze nie w kolejnej wojnie, ale już w następnej – tak”. Gdyby wojskowi poważnie o tym nie myśleli, nie finansowaliby przecież badań Rona Arkina. Świadczy o tym też kierunek innych prowadzonych obecnie studiów. Pentagon już poprosił o rozpoczęcie prac nad systemem rozróżniania osób, które „współpracują” i „odmawiają ­współpracy” z robotem.

W 2006 r. opracowano raport o możliwości stworzenia autonomicznego systemu, który sam będzie mógł podjąć decyzję o zaatakowaniu nieprzyjaciela. Rok wcześniej amerykańskie dowództwo przygotowało prognozę, w której zapisano, że już za 20 lat „inteligentne” roboty staną się normą na polu walki. Trend jest więc wyraźny i to jedynie kwestia czasu, kiedy na froncie pojawi się w pełni samodzielny robot bojowy. Jedynie od nas – ludzi – zależy, czy będzie on wyposażony tylko w broń, czy również w namiastkę moralności.

Więcej w miesięczniku „Wiedza i Życie" nr 06/2015 »

Autor:
Robert Czulda

Tagi: maszyna, darpa, pole walki, robot
Drukuj PDF
wstecz Podziel się ze znajomymi

Informacje dnia: PCI Days 2025 - Targi dla Przemysłu Farmaceutycznego i Kosmetycznego Nie tylko szczepienia przeciw HPV ważne w prewencji raka szyjki macicy Jak skutecznie poradzić sobie z bezsennością Naukowcy stworzyli beton z dodatkiem wody słonej zamiast słodkiej Nie trzymajmy dzieci pod kloszem z tematem śmierci Dużo światła w nocy może prowadzić do przedwczesnej śmierci PCI Days 2025 - Targi dla Przemysłu Farmaceutycznego i Kosmetycznego Nie tylko szczepienia przeciw HPV ważne w prewencji raka szyjki macicy Jak skutecznie poradzić sobie z bezsennością Naukowcy stworzyli beton z dodatkiem wody słonej zamiast słodkiej Nie trzymajmy dzieci pod kloszem z tematem śmierci Dużo światła w nocy może prowadzić do przedwczesnej śmierci PCI Days 2025 - Targi dla Przemysłu Farmaceutycznego i Kosmetycznego Nie tylko szczepienia przeciw HPV ważne w prewencji raka szyjki macicy Jak skutecznie poradzić sobie z bezsennością Naukowcy stworzyli beton z dodatkiem wody słonej zamiast słodkiej Nie trzymajmy dzieci pod kloszem z tematem śmierci Dużo światła w nocy może prowadzić do przedwczesnej śmierci

Partnerzy

GoldenLine Fundacja Kobiety Nauki Job24 Obywatele Nauki NeuroSkoki Portal MaterialyInzynierskie.pl Uni Gdansk MULTITRAIN I MULTITRAIN II Nauki przyrodnicze KOŁO INZYNIERÓW PB ICHF PAN FUNDACJA JWP NEURONAUKA Mlodym Okiem Polski Instytut Rozwoju Biznesu Analityka Nauka w Polsce CITTRU - Centrum Innowacji, Transferu Technologii i Rozwoju Uniwersytetu Akademia PAN Chemia i Biznes Farmacom Świat Chemii Forum Akademickie Biotechnologia     Bioszkolenia Geodezja Instytut Lotnictwa EuroLab

Szanowny Czytelniku!

 
25 maja 2018 roku zacznie obowiązywać Rozporządzenie Parlamentu Europejskiego i Rady (UE) 2016/679 z dnia 27 kwietnia 2016 r (RODO). Potrzebujemy Twojej zgody na przetwarzanie Twoich danych osobowych przechowywanych w plikach cookies. Poniżej znajdziesz pełny zakres informacji na ten temat.
 
Zgadzam się na przechowywanie na urządzeniu, z którego korzystam tzw. plików cookies oraz na przetwarzanie moich danych osobowych pozostawianych w czasie korzystania przeze mnie ze strony internetowej Laboratoria.net w celach marketingowych, w tym na profilowanie i w celach analitycznych.

Kto będzie administratorem Twoich danych?

Administratorami Twoich danych będziemy my: Portal Laboratoria.net z siedzibą w Krakowie (Grupa INTS ul. Czerwone Maki 55/25 30-392 Kraków).

O jakich danych mówimy?

Chodzi o dane osobowe, które są zbierane w ramach korzystania przez Ciebie z naszych usług w tym zapisywanych w plikach cookies.

Dlaczego chcemy przetwarzać Twoje dane?

Przetwarzamy te dane w celach opisanych w polityce prywatności, między innymi aby:

Komu możemy przekazać dane?

Zgodnie z obowiązującym prawem Twoje dane możemy przekazywać podmiotom przetwarzającym je na nasze zlecenie, np. agencjom marketingowym, podwykonawcom naszych usług oraz podmiotom uprawnionym do uzyskania danych na podstawie obowiązującego prawa np. sądom lub organom ścigania – oczywiście tylko gdy wystąpią z żądaniem w oparciu o stosowną podstawę prawną.

Jakie masz prawa w stosunku do Twoich danych?

Masz między innymi prawo do żądania dostępu do danych, sprostowania, usunięcia lub ograniczenia ich przetwarzania. Możesz także wycofać zgodę na przetwarzanie danych osobowych, zgłosić sprzeciw oraz skorzystać z innych praw.

Jakie są podstawy prawne przetwarzania Twoich danych?

Każde przetwarzanie Twoich danych musi być oparte na właściwej, zgodnej z obowiązującymi przepisami, podstawie prawnej. Podstawą prawną przetwarzania Twoich danych w celu świadczenia usług, w tym dopasowywania ich do Twoich zainteresowań, analizowania ich i udoskonalania oraz zapewniania ich bezpieczeństwa jest niezbędność do wykonania umów o ich świadczenie (tymi umowami są zazwyczaj regulaminy lub podobne dokumenty dostępne w usługach, z których korzystasz). Taką podstawą prawną dla pomiarów statystycznych i marketingu własnego administratorów jest tzw. uzasadniony interes administratora. Przetwarzanie Twoich danych w celach marketingowych podmiotów trzecich będzie odbywać się na podstawie Twojej dobrowolnej zgody.

Dlatego też proszę zaznacz przycisk "zgadzam się" jeżeli zgadzasz się na przetwarzanie Twoich danych osobowych zbieranych w ramach korzystania przez ze mnie z portalu *Laboratoria.net, udostępnianych zarówno w wersji "desktop", jak i "mobile", w tym także zbieranych w tzw. plikach cookies. Wyrażenie zgody jest dobrowolne i możesz ją w dowolnym momencie wycofać.
 
Więcej w naszej POLITYCE PRYWATNOŚCI
 

Newsletter

Zawsze aktualne informacje