Biologia przystosowała człowieka do przeżywania sytuacji stresowych
Doświadczenie powodzi wiąże się z ogromnym stresem.
Laboratoria.net
|
Zamknij X
|
Systemy SI (sztucznej inteligencji) coraz lepiej radzą sobie z kolejnymi dziedzinami, czasami nawet lepiej niż ludzie. Niektórzy twierdzą, że to duże zagrożenie, że niebawem komputery nas zdominują lub ludzie połączą z SI swoje mózgi. O szansach i zagrożeniach związanych z SI opowiada dr inż. Krzysztof Walas z Instytutu Robotyki i Inteligencji Maszynowej Politechniki Poznańskiej.
PAP Nauka w Polsce: Elon Musk przestrzegł właśnie, że za pięć lat sztuczna inteligencja stanie się sprytniejsza od ludzi. Od tego momentu ma zacząć rozwijać się wykładniczo w takim tempie, że za nią nie nadążymy. Czy to możliwe?
Krzysztof Walas: Myślę, że taki scenariusz jest możliwy i większość osób taki bieg wydarzeń przewiduje. Różnice dotyczą jednak czasu, kiedy to nastąpi, czy będzie to za kilka czy za kilkadziesiąt lat. W tej kwestii toczy się spór i to już nie tylko w środowisku naukowym, ale także w biznesie, który coraz częściej ze sztucznej inteligencji korzysta.
PAP Nauka w Polsce: Czy takie systemy nie napotkają na jakieś ograniczenia, np. związane z poborem energii czy możliwościami sprzętu? Skoro biologia z jakiegoś powodu nie rozwinęła mózgu bardziej, może elektroniczne systemy też nie będą mogły tego zrobić? Z drugiej strony wytwory natury np. nie latają w kosmos, a rakiety tak...
Krzysztof Walas: Może potrzebne będą nowe architektury procesorów. Wiele mówi się teraz o komputerach kwantowych, które całkowicie zmieniłyby paradygmat obliczeń. Może wręcz się okazać, że na obecne komputery - procesory, pamięci, twarde dyski będziemy patrzeć trochę tak, jak dzisiaj patrzymy na niektóre wytwory techniki z początku XX wieku. Zmiana może być totalna. Na przykład bariery energetyczne mogą okazać się zupełnie inne, niż dzisiaj nam się wydaje.
PAP Nauka w Polsce: Tylko że inteligencja to jeszcze nie to samo, co świadomość. Nie wiadomo tak naprawdę, czym ona jest i jak SI będzie bez niej sobie radzić. Psychologia wskazuje jednak, że niska samoświadomość raczej prowadzi do kłopotów i destrukcyjnych działań.
Krzysztof Walas: Debata na temat świadomości SI mogłaby trwać kilka dni. To złożone, filozoficzne zagadnienie. Samo zdefiniowanie świadomości jest problematyczne, bo skąd wiemy, czy ktoś jest świadomy, czy nie. Jak to teraz odnieść do maszyny? Naukowcy spierają się, na którym etapie biologiczne organizmy mogą stać się świadome. Przeniesienie tego sporu na sztuczne byty jest jeszcze bardzie karkołomne.
PAP Nauka w Polsce: Świadoma, czy nie, SI może zagrażać - mówią niektórzy. Na razie jednak sztuczna inteligencja rozpoznaje twarze, uczy się stawiać diagnozy medyczne, prowadzić samochód. Dużych niebezpieczeństw tutaj nie widać.
Krzysztof Walas: Możemy już teraz obserwować, że SI w niektórych wąskich dziedzinach już nas przerasta, bo bardzo dobrze operuje dużymi zbiorami danych. Takie programy mają jednak bardzo specyficzne, ograniczone zadania. Specjaliści debatują natomiast nad tym, czy może powstać system, który będzie posiadał ogólną inteligencję (ang. General Intelligence) i co się stanie, gdy taki system będzie inteligentniejszy od ludzi - czy będzie nam zagrażał.
PAP Nauka w Polsce: Pytanie tylko - jak? Przecież raczej nie pozwolimy mu decydować o odpaleniu głowic jądrowych, jak to miało miejsce w „Terminatorze”.
Krzysztof Walas: Sztuczna inteligencja już teraz podejmuje pewne decyzje o naszym życiu, choć możemy nie zdawać sobie z tego sprawy. Na przykład często decyduje, czy ktoś dostanie kredyt w banku. Systemy SI, na podstawie zachowań naszych i innych ludzi, rekomendują nam film, który może chcielibyśmy obejrzeć, wybierają dla nas wiadomości czy polecają zakupy. W samochodach, takich jak np. Tesla, wiele decyzji podejmuje autopilot. Jeśli pozwoli się SI uczyć od przypadkowych ludzi, może zacząć zachowywać się nieprzyjaźnie. Tak było z chatbotem, czyli programem do konwersacji, którego jedną z implementacji przedstawił Microsoft. Firma go odłączyła, ponieważ od użytkowników nauczył się np. rasizmu. W internecie jest np. wiele hejtu. Co by było gdyby jakiś inteligentny system uczył się interakcji z ludźmi analizując wyłącznie internetowe fora?
PAP Nauka w Polsce: No tak, ale te zagrożenia nie wydają się poważne. Chatbot to nie dostęp do broni, czy innych narzędzi, którymi inteligentne komputery mogłyby zaszkodzić ludziom.
Krzysztof Walas: Widzę tutaj dwie możliwości. Po pierwsze, takie systemy mogą mocno wpływać na ludzi środkami niefizycznymi. Mogłyby nimi manipulować np. z pomocą mediów społecznościowych, nawet na masową skalę. W ten sposób mogłyby np. nakłaniać ich do nienawiści choćby do sąsiadów czy innej grupy etnicznej. Wyobraźmy sobie taką sytuację w kraju, gdzie dostęp do broni jest łatwy. Sprytny program mógłby teoretycznie tak niektórych ludzi zmanipulować, aby zrobili coś złego. Komputer może nie mieć dostępu np. do broni, ale do ludzi, którzy się nią posługują.
PAP Nauka w Polsce: A druga opcja?
Krzysztof Walas: Druga opcja dotyczy już działań fizycznych, przez podłączone do sieci roboty. Z pomocą internetu można by w nich np. zmienić algorytmy i takie maszyny mogłyby zrobić coś, co zaszkodziłoby ludziom. Sam czasami myślę o tym, że gdyby całkowicie autonomiczny samochód mnie porwał, nie mógłbym nic zrobić. Oczywiście, kreślę tutaj czarne scenariusze. Mówimy o na razie teoretycznych, ale możliwych zagrożeniach.
PAP Nauka w Polsce: Superinteligentne komputery mogłyby teoretycznie robić różne rzeczy, m.in. dlatego, że byśmy za nimi mentalnie nie nadążali. Wspomniany już Elon Musk twierdzi, że aby temu zapobiec, sami powinniśmy podłączyć się z pomocą chipów do sztucznej inteligencji. Mają do tego służyć takie układy, jak stworzony przez jego firmę Neuralink.
Krzysztof Walas: W pewnym sensie na co dzień jesteśmy podłączeni do komputera, tylko bardzo wolnym łączem - klawiaturą. Różnica między tym a korzystaniem z wszczepianego chipa będzie taka, jak między chodzeniem na piechotę, a jazdą samochodem czy pociągiem. Przepływ informacji będzie dużo szybszy.
PAP Nauka w Polsce: To z jednej strony może oznaczać łatwy dostęp do zasobów sztucznej inteligencji i komputerów w ogóle, ale z drugiej strony - większą możliwość manipulacji człowiekiem. Tym bardziej, że takie chipy miałyby nawet regulować wydzielanie niektórych hormonów.
Krzysztof Walas: Zgadza się. Pierwotne struktury mózgu człowieka reagują szybciej niż wyższe, odpowiadające za racjonalne myślenie, bo ewolucyjnie powstały wcześniej. Odpowiadają one m.in. za tzw. reakcję walki lub ucieczki. Ponieważ tak silnie i szybko działają, ludzie często pod wpływem emocji robią coś, czego potem żałują i przepraszają. Oddziaływanie na poziom hormonów wpływałoby na te ośrodki i teoretycznie mogłoby więc być potencjalnie niebezpieczne.
PAP Nauka w Polsce: Możemy, jako ludzkość się jakoś zabezpieczyć?
Krzysztof Walas: Mówimy o zagrożeniach, ale pamiętajmy, że SI to przede wszystkim bardzo użyteczne narzędzie. Trzeba tylko odpowiednio się nim posługiwać. Na przykład w Unii Europejskiej powstaje kodeks etyczny regulujący rozwijanie SI. Stawia nas to trochę w gorszej pozycji na rynku niż np. USA czy Chiny, ale to chyba właściwe postępowanie.
PAP Nauka w Polsce: Czyli sztuczną inteligencję trzeba dobrze wychować?
Krzysztof Walas: Są takie pomysły, że należy uczyć ją etycznych rzeczy, pokazywać jej wybory prowadzące do szczęścia, dobra. Wtedy, nawet gdy przerośnie ludzi możliwościami, może nagrodą będzie dla niej praca na rzecz dobra ludzkości, a nie coś innego, co mogłoby nam zaszkodzić.
PAP Nauka w Polsce: Nawet wtedy jednak moglibyśmy się znaleźć w jakiejś mierze pod jej kontrolą. To się zwykle ludziom nie podoba.
Krzysztof Walas: Mogłoby tak się stać, choć można by tak pokierować jej rozwojem, aby była dla ludzi systemem usługowym, doradczym.
PAP Nauka w Polsce: Czy takie założenia da się tak skutecznie wprowadzić w życie, że żaden groźny system się nie wymknie spod kontroli?
Krzysztof Walas: Może to być trudne, co pokazuje historia różnych badań medycznych. Są ludzie, którzy dochodzą do wniosku, że jak coś da się zrobić, to oni to zrobią, nie zważając na etykę danego przedsięwzięcia. Podsumowując myślę, że powstrzymanie się od rozwoju sztucznej inteligencji nie jest możliwe, bo musiałby to zrobić cały świat, tak aby żaden kraj, czy korporacja nie zdobyły strategicznej przewagi, tylko dlatego, że nie powstrzymały się od badań. Jednak ważne jest, aby już teraz intensywnie pracować nad implikacjami zastosowań.
Doświadczenie powodzi wiąże się z ogromnym stresem.
Odkrycie może pomóc w opracowaniu nowych metod.
Ta metoda daje nadzieję na zmianę sposobu, w jaki zarządzamy chorobami.
A Polak ma publikację w “Nature”, bo… grał w grę.
Wyniki badań nad nią - przełomowe dla ludzkości.
25 maja 2018 roku zacznie obowiązywać Rozporządzenie Parlamentu Europejskiego i Rady (UE) 2016/679 z dnia 27 kwietnia 2016 r (RODO). Potrzebujemy Twojej zgody na przetwarzanie Twoich danych osobowych przechowywanych w plikach cookies. Poniżej znajdziesz pełny zakres informacji na ten temat.
Zgadzam się na przechowywanie na urządzeniu, z którego korzystam tzw. plików cookies oraz na przetwarzanie moich danych osobowych pozostawianych w czasie korzystania przeze mnie ze strony internetowej Laboratoria.net w celach marketingowych, w tym na profilowanie i w celach analitycznych.
Administratorami Twoich danych będziemy my: Portal Laboratoria.net z siedzibą w Krakowie (Grupa INTS ul. Czerwone Maki 55/25 30-392 Kraków).
Chodzi o dane osobowe, które są zbierane w ramach korzystania przez Ciebie z naszych usług w tym zapisywanych w plikach cookies.
Przetwarzamy te dane w celach opisanych w polityce prywatności, między innymi aby:
dopasować treści stron i ich tematykę, w tym tematykę ukazujących się tam materiałów do Twoich zainteresowań,
dokonywać pomiarów, które pozwalają nam udoskonalać nasze usługi i sprawić, że będą maksymalnie odpowiadać Twoim potrzebom,
pokazywać Ci reklamy dopasowane do Twoich potrzeb i zainteresowań.
Zgodnie z obowiązującym prawem Twoje dane możemy przekazywać podmiotom przetwarzającym je na nasze zlecenie, np. agencjom marketingowym, podwykonawcom naszych usług oraz podmiotom uprawnionym do uzyskania danych na podstawie obowiązującego prawa np. sądom lub organom ścigania – oczywiście tylko gdy wystąpią z żądaniem w oparciu o stosowną podstawę prawną.
Masz między innymi prawo do żądania dostępu do danych, sprostowania, usunięcia lub ograniczenia ich przetwarzania. Możesz także wycofać zgodę na przetwarzanie danych osobowych, zgłosić sprzeciw oraz skorzystać z innych praw.
Każde przetwarzanie Twoich danych musi być oparte na właściwej, zgodnej z obowiązującymi przepisami, podstawie prawnej. Podstawą prawną przetwarzania Twoich danych w celu świadczenia usług, w tym dopasowywania ich do Twoich zainteresowań, analizowania ich i udoskonalania oraz zapewniania ich bezpieczeństwa jest niezbędność do wykonania umów o ich świadczenie (tymi umowami są zazwyczaj regulaminy lub podobne dokumenty dostępne w usługach, z których korzystasz). Taką podstawą prawną dla pomiarów statystycznych i marketingu własnego administratorów jest tzw. uzasadniony interes administratora. Przetwarzanie Twoich danych w celach marketingowych podmiotów trzecich będzie odbywać się na podstawie Twojej dobrowolnej zgody.
Dlatego też proszę zaznacz przycisk "zgadzam się" jeżeli zgadzasz się na przetwarzanie Twoich danych osobowych zbieranych w ramach korzystania przez ze mnie z portalu *Laboratoria.net, udostępnianych zarówno w wersji "desktop", jak i "mobile", w tym także zbieranych w tzw. plikach cookies. Wyrażenie zgody jest dobrowolne i możesz ją w dowolnym momencie wycofać.
Więcej w naszej POLITYCE PRYWATNOŚCI
Recenzje