Akceptuję
W ramach naszej witryny stosujemy pliki cookies w celu świadczenia państwu usług na najwyższym poziomie, w tym w sposób dostosowany do indywidualnych potrzeb. Korzystanie z witryny bez zmiany ustawień dotyczących cookies oznacza, że będą one zamieszczone w Państwa urządzeniu końcowym. Możecie Państwo dokonać w każdym czasie zmiany ustawień dotyczących cookies. Więcej szczegółów w naszej Polityce Prywatności

Zamknij X
Hala

Naukowy styl życia

Nauka i biznes

Strona główna Informacje
Dodatkowy u góry
Labro na dole

Sztuczna Inteligencja - lepsze życie czy kontrola ludzi?

Systemy SI (sztucznej inteligencji) coraz lepiej radzą sobie z kolejnymi dziedzinami, czasami nawet lepiej niż ludzie. Niektórzy twierdzą, że to duże zagrożenie, że niebawem komputery nas zdominują lub ludzie połączą z SI swoje mózgi. O szansach i zagrożeniach związanych z SI opowiada dr inż. Krzysztof Walas z Instytutu Robotyki i Inteligencji Maszynowej Politechniki Poznańskiej.

PAP Nauka w Polsce: Elon Musk przestrzegł właśnie, że za pięć lat sztuczna inteligencja stanie się sprytniejsza od ludzi. Od tego momentu ma zacząć rozwijać się wykładniczo w takim tempie, że za nią nie nadążymy. Czy to możliwe?

Krzysztof Walas: Myślę, że taki scenariusz jest możliwy i większość osób taki bieg wydarzeń przewiduje. Różnice dotyczą jednak czasu, kiedy to nastąpi, czy będzie to za kilka czy za kilkadziesiąt lat. W tej kwestii toczy się spór i to już nie tylko w środowisku naukowym, ale także w biznesie, który coraz częściej ze sztucznej inteligencji korzysta.

PAP Nauka w Polsce: Czy takie systemy nie napotkają na jakieś ograniczenia, np. związane z poborem energii czy możliwościami sprzętu? Skoro biologia z jakiegoś powodu nie rozwinęła mózgu bardziej, może elektroniczne systemy też nie będą mogły tego zrobić? Z drugiej strony wytwory natury np. nie latają w kosmos, a rakiety tak...

Krzysztof Walas: Może potrzebne będą nowe architektury procesorów. Wiele mówi się teraz o komputerach kwantowych, które całkowicie zmieniłyby paradygmat obliczeń. Może wręcz się okazać, że na obecne komputery - procesory, pamięci, twarde dyski będziemy patrzeć trochę tak, jak dzisiaj patrzymy na niektóre wytwory techniki z początku XX wieku. Zmiana może być totalna. Na przykład bariery energetyczne mogą okazać się zupełnie inne, niż dzisiaj nam się wydaje.

PAP Nauka w Polsce: Tylko że inteligencja to jeszcze nie to samo, co świadomość. Nie wiadomo tak naprawdę, czym ona jest i jak SI będzie bez niej sobie radzić. Psychologia wskazuje jednak, że niska samoświadomość raczej prowadzi do kłopotów i destrukcyjnych działań.

Krzysztof Walas: Debata na temat świadomości SI mogłaby trwać kilka dni. To złożone, filozoficzne zagadnienie. Samo zdefiniowanie świadomości jest problematyczne, bo skąd wiemy, czy ktoś jest świadomy, czy nie. Jak to teraz odnieść do maszyny? Naukowcy spierają się, na którym etapie biologiczne organizmy mogą stać się świadome. Przeniesienie tego sporu na sztuczne byty jest jeszcze bardzie karkołomne.

PAP Nauka w Polsce: Świadoma, czy nie, SI może zagrażać - mówią niektórzy. Na razie jednak sztuczna inteligencja rozpoznaje twarze, uczy się stawiać diagnozy medyczne, prowadzić samochód. Dużych niebezpieczeństw tutaj nie widać.

Krzysztof Walas: Możemy już teraz obserwować, że SI w niektórych wąskich dziedzinach już nas przerasta, bo bardzo dobrze operuje dużymi zbiorami danych. Takie programy mają jednak bardzo specyficzne, ograniczone zadania. Specjaliści debatują natomiast nad tym, czy może powstać system, który będzie posiadał ogólną inteligencję (ang. General Intelligence) i co się stanie, gdy taki system będzie inteligentniejszy od ludzi - czy będzie nam zagrażał.

PAP Nauka w Polsce: Pytanie tylko - jak? Przecież raczej nie pozwolimy mu decydować o odpaleniu głowic jądrowych, jak to miało miejsce w „Terminatorze”.

Krzysztof Walas: Sztuczna inteligencja już teraz podejmuje pewne decyzje o naszym życiu, choć możemy nie zdawać sobie z tego sprawy. Na przykład często decyduje, czy ktoś dostanie kredyt w banku. Systemy SI, na podstawie zachowań naszych i innych ludzi, rekomendują nam film, który może chcielibyśmy obejrzeć, wybierają dla nas wiadomości czy polecają zakupy. W samochodach, takich jak np. Tesla, wiele decyzji podejmuje autopilot. Jeśli pozwoli się SI uczyć od przypadkowych ludzi, może zacząć zachowywać się nieprzyjaźnie. Tak było z chatbotem, czyli programem do konwersacji, którego jedną z implementacji przedstawił Microsoft. Firma go odłączyła, ponieważ od użytkowników nauczył się np. rasizmu. W internecie jest np. wiele hejtu. Co by było gdyby jakiś inteligentny system uczył się interakcji z ludźmi analizując wyłącznie internetowe fora?

PAP Nauka w Polsce: No tak, ale te zagrożenia nie wydają się poważne. Chatbot to nie dostęp do broni, czy innych narzędzi, którymi inteligentne komputery mogłyby zaszkodzić ludziom.

Krzysztof Walas: Widzę tutaj dwie możliwości. Po pierwsze, takie systemy mogą mocno wpływać na ludzi środkami niefizycznymi. Mogłyby nimi manipulować np. z pomocą mediów społecznościowych, nawet na masową skalę. W ten sposób mogłyby np. nakłaniać ich do nienawiści choćby do sąsiadów czy innej grupy etnicznej. Wyobraźmy sobie taką sytuację w kraju, gdzie dostęp do broni jest łatwy. Sprytny program mógłby teoretycznie tak niektórych ludzi zmanipulować, aby zrobili coś złego. Komputer może nie mieć dostępu np. do broni, ale do ludzi, którzy się nią posługują.

PAP Nauka w Polsce: A druga opcja?

Krzysztof Walas: Druga opcja dotyczy już działań fizycznych, przez podłączone do sieci roboty. Z pomocą internetu można by w nich np. zmienić algorytmy i takie maszyny mogłyby zrobić coś, co zaszkodziłoby ludziom. Sam czasami myślę o tym, że gdyby całkowicie autonomiczny samochód mnie porwał, nie mógłbym nic zrobić. Oczywiście, kreślę tutaj czarne scenariusze. Mówimy o na razie teoretycznych, ale możliwych zagrożeniach.

PAP Nauka w Polsce: Superinteligentne komputery mogłyby teoretycznie robić różne rzeczy, m.in. dlatego, że byśmy za nimi mentalnie nie nadążali. Wspomniany już Elon Musk twierdzi, że aby temu zapobiec, sami powinniśmy podłączyć się z pomocą chipów do sztucznej inteligencji. Mają do tego służyć takie układy, jak stworzony przez jego firmę Neuralink.

Krzysztof Walas: W pewnym sensie na co dzień jesteśmy podłączeni do komputera, tylko bardzo wolnym łączem - klawiaturą. Różnica między tym a korzystaniem z wszczepianego chipa będzie taka, jak między chodzeniem na piechotę, a jazdą samochodem czy pociągiem. Przepływ informacji będzie dużo szybszy.

PAP Nauka w Polsce: To z jednej strony może oznaczać łatwy dostęp do zasobów sztucznej inteligencji i komputerów w ogóle, ale z drugiej strony - większą możliwość manipulacji człowiekiem. Tym bardziej, że takie chipy miałyby nawet regulować wydzielanie niektórych hormonów.

Krzysztof Walas: Zgadza się. Pierwotne struktury mózgu człowieka reagują szybciej niż wyższe, odpowiadające za racjonalne myślenie, bo ewolucyjnie powstały wcześniej. Odpowiadają one m.in. za tzw. reakcję walki lub ucieczki. Ponieważ tak silnie i szybko działają, ludzie często pod wpływem emocji robią coś, czego potem żałują i przepraszają. Oddziaływanie na poziom hormonów wpływałoby na te ośrodki i teoretycznie mogłoby więc być potencjalnie niebezpieczne.

PAP Nauka w Polsce: Możemy, jako ludzkość się jakoś zabezpieczyć?

Krzysztof Walas: Mówimy o zagrożeniach, ale pamiętajmy, że SI to przede wszystkim bardzo użyteczne narzędzie. Trzeba tylko odpowiednio się nim posługiwać. Na przykład w Unii Europejskiej powstaje kodeks etyczny regulujący rozwijanie SI. Stawia nas to trochę w gorszej pozycji na rynku niż np. USA czy Chiny, ale to chyba właściwe postępowanie.

PAP Nauka w Polsce: Czyli sztuczną inteligencję trzeba dobrze wychować?

Krzysztof Walas: Są takie pomysły, że należy uczyć ją etycznych rzeczy, pokazywać jej wybory prowadzące do szczęścia, dobra. Wtedy, nawet gdy przerośnie ludzi możliwościami, może nagrodą będzie dla niej praca na rzecz dobra ludzkości, a nie coś innego, co mogłoby nam zaszkodzić.

PAP Nauka w Polsce: Nawet wtedy jednak moglibyśmy się znaleźć w jakiejś mierze pod jej kontrolą. To się zwykle ludziom nie podoba.

Krzysztof Walas: Mogłoby tak się stać, choć można by tak pokierować jej rozwojem, aby była dla ludzi systemem usługowym, doradczym.

PAP Nauka w Polsce: Czy takie założenia da się tak skutecznie wprowadzić w życie, że żaden groźny system się nie wymknie spod kontroli?

Krzysztof Walas: Może to być trudne, co pokazuje historia różnych badań medycznych. Są ludzie, którzy dochodzą do wniosku, że jak coś da się zrobić, to oni to zrobią, nie zważając na etykę danego przedsięwzięcia. Podsumowując myślę, że powstrzymanie się od rozwoju sztucznej inteligencji nie jest możliwe, bo musiałby to zrobić cały świat, tak aby żaden kraj, czy korporacja nie zdobyły strategicznej przewagi, tylko dlatego, że nie powstrzymały się od badań. Jednak ważne jest, aby już teraz intensywnie pracować nad implikacjami zastosowań.


Źródło: pap.pl


Drukuj PDF
wstecz Podziel się ze znajomymi

Recenzje




Informacje dnia: Biologia przystosowała człowieka do przeżywania sytuacji stresowych Wiadomo, jak niektóre bakterie rozkładają plastik Sztuczna inteligencja badając oczy, oceni ryzyko chorób serca Szczepionka przeciwko wirusowi HPV Całe “okablowanie” mózgu muszki opisane Dzięki pracy noblistów AI stała się jedną z najważniejszych technologii Biologia przystosowała człowieka do przeżywania sytuacji stresowych Wiadomo, jak niektóre bakterie rozkładają plastik Sztuczna inteligencja badając oczy, oceni ryzyko chorób serca Szczepionka przeciwko wirusowi HPV Całe “okablowanie” mózgu muszki opisane Dzięki pracy noblistów AI stała się jedną z najważniejszych technologii Biologia przystosowała człowieka do przeżywania sytuacji stresowych Wiadomo, jak niektóre bakterie rozkładają plastik Sztuczna inteligencja badając oczy, oceni ryzyko chorób serca Szczepionka przeciwko wirusowi HPV Całe “okablowanie” mózgu muszki opisane Dzięki pracy noblistów AI stała się jedną z najważniejszych technologii

Partnerzy

GoldenLine Fundacja Kobiety Nauki Job24 Obywatele Nauki NeuroSkoki Portal MaterialyInzynierskie.pl Uni Gdansk MULTITRAIN I MULTITRAIN II Nauki przyrodnicze KOŁO INZYNIERÓW PB ICHF PAN FUNDACJA JWP NEURONAUKA Mlodym Okiem Polski Instytut Rozwoju Biznesu Analityka Nauka w Polsce CITTRU - Centrum Innowacji, Transferu Technologii i Rozwoju Uniwersytetu Akademia PAN Chemia i Biznes Farmacom Świat Chemii Forum Akademickie Biotechnologia     Bioszkolenia Geodezja Instytut Lotnictwa EuroLab

Szanowny Czytelniku!

 
25 maja 2018 roku zacznie obowiązywać Rozporządzenie Parlamentu Europejskiego i Rady (UE) 2016/679 z dnia 27 kwietnia 2016 r (RODO). Potrzebujemy Twojej zgody na przetwarzanie Twoich danych osobowych przechowywanych w plikach cookies. Poniżej znajdziesz pełny zakres informacji na ten temat.
 
Zgadzam się na przechowywanie na urządzeniu, z którego korzystam tzw. plików cookies oraz na przetwarzanie moich danych osobowych pozostawianych w czasie korzystania przeze mnie ze strony internetowej Laboratoria.net w celach marketingowych, w tym na profilowanie i w celach analitycznych.

Kto będzie administratorem Twoich danych?

Administratorami Twoich danych będziemy my: Portal Laboratoria.net z siedzibą w Krakowie (Grupa INTS ul. Czerwone Maki 55/25 30-392 Kraków).

O jakich danych mówimy?

Chodzi o dane osobowe, które są zbierane w ramach korzystania przez Ciebie z naszych usług w tym zapisywanych w plikach cookies.

Dlaczego chcemy przetwarzać Twoje dane?

Przetwarzamy te dane w celach opisanych w polityce prywatności, między innymi aby:

Komu możemy przekazać dane?

Zgodnie z obowiązującym prawem Twoje dane możemy przekazywać podmiotom przetwarzającym je na nasze zlecenie, np. agencjom marketingowym, podwykonawcom naszych usług oraz podmiotom uprawnionym do uzyskania danych na podstawie obowiązującego prawa np. sądom lub organom ścigania – oczywiście tylko gdy wystąpią z żądaniem w oparciu o stosowną podstawę prawną.

Jakie masz prawa w stosunku do Twoich danych?

Masz między innymi prawo do żądania dostępu do danych, sprostowania, usunięcia lub ograniczenia ich przetwarzania. Możesz także wycofać zgodę na przetwarzanie danych osobowych, zgłosić sprzeciw oraz skorzystać z innych praw.

Jakie są podstawy prawne przetwarzania Twoich danych?

Każde przetwarzanie Twoich danych musi być oparte na właściwej, zgodnej z obowiązującymi przepisami, podstawie prawnej. Podstawą prawną przetwarzania Twoich danych w celu świadczenia usług, w tym dopasowywania ich do Twoich zainteresowań, analizowania ich i udoskonalania oraz zapewniania ich bezpieczeństwa jest niezbędność do wykonania umów o ich świadczenie (tymi umowami są zazwyczaj regulaminy lub podobne dokumenty dostępne w usługach, z których korzystasz). Taką podstawą prawną dla pomiarów statystycznych i marketingu własnego administratorów jest tzw. uzasadniony interes administratora. Przetwarzanie Twoich danych w celach marketingowych podmiotów trzecich będzie odbywać się na podstawie Twojej dobrowolnej zgody.

Dlatego też proszę zaznacz przycisk "zgadzam się" jeżeli zgadzasz się na przetwarzanie Twoich danych osobowych zbieranych w ramach korzystania przez ze mnie z portalu *Laboratoria.net, udostępnianych zarówno w wersji "desktop", jak i "mobile", w tym także zbieranych w tzw. plikach cookies. Wyrażenie zgody jest dobrowolne i możesz ją w dowolnym momencie wycofać.
 
Więcej w naszej POLITYCE PRYWATNOŚCI
 

Newsletter

Zawsze aktualne informacje