Akceptuję
W ramach naszej witryny stosujemy pliki cookies w celu świadczenia państwu usług na najwyższym poziomie, w tym w sposób dostosowany do indywidualnych potrzeb. Korzystanie z witryny bez zmiany ustawień dotyczących cookies oznacza, że będą one zamieszczone w Państwa urządzeniu końcowym. Możecie Państwo dokonać w każdym czasie zmiany ustawień dotyczących cookies. Więcej szczegółów w naszej Polityce Prywatności

Zamknij X
Labro glowna
Strona główna Przemysł
Dodatkowy u góry
Labro na dole

Dzień dobry, mówi komputer

Coraz częściej sekretarki i asystentów wyręczają inteligentne komputery. O tzw. cyfrowych asystentach i chatbotach opowiada Przemysław Buczkowski, ekspert w dziedzinie uczenia maszynowego z Ośrodka Przetwarzania Informacji - Państwowego Instytutu Badawczego.

Nauka w Polsce: Z komputerem można coraz częściej rozmawiać podobnie, jak z człowiekiem. Co potrafią komunikujące się z człowiekiem inteligentne aplikacje?

Przemysław Buczkowski: Największe możliwości mają asystenci osobiści, tacy jak Siri, Google Assistant czy Alexa. Potrafią robić dosyć spektakularne rzeczy. Integrują się na przykład z domowymi urządzeniami – światłem, otwieraniem garażu, bramą i całą masą różnorodnych akcesoriów. Potrafią stworzyć w naszym kalendarzu przypomnienie czy też wydarzenie. Mogą rozpocząć dla nas połączenie telefoniczne ze znajomym lub wysłać podyktowanego im SMS-a. Można również poprosić asystenta o włączenie ulubionej muzyki. Google pracuje obecnie nad rozwiązaniem o nazwie Duplex, które pozwolą asystentowi zadzwonić w naszym imieniu do restauracji lub fryzjera i zarezerwować stolik czy wizytę. Cała interakcja z tego typu rozwiązaniami zachodzi za pomocą najbardziej naturalnego dla człowieka interfejsu – języka naturalnego.

NwP: Jednocześnie, coraz więcej firm i instytucji wprowadza na swoich stronach www tzw. chatboty – podobnie działające programy, z którymi porozumiewamy się za pomocą klawiatury...

PB: Systemy udające człowieka, komunikujące się za pomocą słowa pisanego, powstawały już w latach 60. Pierwszy taki program, po którym pozostał ślad, stworzono w 1966 roku. Nosił nazwę Eliza i udawał psychoterapeutkę. Kiedy się do niego pisało, odpowiadał tak, aby sprawić wrażenie, że słucha. Działał jednak w bardzo prosty sposób, bez żadnej sztucznej inteligencji. Po prostu miał wpisane dziesiątki różnych reguł. Na przykład jedna z nich mogła być taka, że kiedy w tekście pojawiło się słowo „mama”, to odpowiadał: „Chciałabym dowiedzieć się więcej o twojej rodzinie”.

NwP: Dzisiaj jednak tego rodzaju programy działają zupełnie inaczej...

PB: Teraz wkroczyły algorytmy sztucznej inteligencji – wyrafinowane oprogramowanie, które rozpoznaje, co użytkownik ma na myśli i próbuje do tego dopasować najlepszą odpowiedź.

NwP: Jak to działa?

PB: Takie chatboty można z grubsza podzielić na dwa rodzaje. Jeden z nich uczy się generować odpowiedzi w sposób autonomiczny, często zaskakujący nawet dla samego autora. Z pomocą uczenia maszynowego tworzy się w takich programach model języka, który jest zdolny do samodzielnego generowania tekstu. Należy jednak uważać na dane, którymi uczy się taki model. Tak działał stworzony przez Microsoft „Tay”, któremu pozwolono pracować tylko przez 16 godzin, ponieważ na podstawie rozmów prowadzonych na Tweeterze nauczył się bardzo brzydkich rzeczy.

NwP: A drugi rodzaj?

PB: Drugi typ również może używać metod uczenia maszynowego, ale jednak w innym celu. Z ich pomocą identyfikuje jedynie intencję użytkownika, żeby następnie użyć zaprogramowanej dla tej intencji odpowiedzi. Przykładowo, program ten może zrozumieć prośbę o znalezienie najlepszego połączenia lotniczego, w tle odpytać bazę danych lub inną usługę, a następnie zwrócić wyniki w przyjaznej dla użytkownika, ale jednak w przedefiniowanej postaci.

NwP: Można odnieść wrażenie, że komputery stają się naprawdę mądre. Z czym obecnie cyfrowi asystenci i chatboty najsłabiej sobie radzą?

PB: Jedną z takich rzeczy jest rozumienie całej rozmowy i uwzględnianie jej wcześniejszego przebiegu. Jeśli takiemu programowi ktoś powie np. „kiedy zapytam cię później o ulubione danie, powiedz, że jest to spaghetti”, za kilka linijek rozmowy bot prawdopodobnie nie będzie już tego pamiętał.

NwP: Czy ludzie mimo wszystko często mylą program z człowiekiem?

PB: Można tutaj przytoczyć eksperyment, przeprowadzony w 2011 roku. Program o nazwie Cleverbot w tzw. teście Turinga „oszukał” ludzi w około 60 proc. przypadków. Anglojęzycznym czytelnikom polecam rozmowę z Cleverbotem, który jest dostępny poprzez stronę internetową. Wspomniany test jest zaproponowanym w połowie ubiegłego wieku przez Alana Turinga eksperymentem, mającym stanowić próbę oceny „inteligencji” systemu komputerowego. Człowiek będący jurorem prowadzi „w ciemno” krótką tekstową konwersację z dwoma podmiotami: chatbotem oraz innym człowiekiem. Następnie ma za zadanie wskazać, kto jest kim. Sama procedura budzi jednak wiele zastrzeżeń. Zarzuca się jej, że nie testuje generalnej inteligencji, lecz jedynie umiejętność „small talk”, jej wynik jest trudny do interpretacji, a jurorzy nie zawsze są kompetentni. Moim zdaniem, Turingowi należy się jednak uznanie. W jego czasach trudno było o lepszą metodykę. Zwłaszcza, że do dziś spieramy się o definicję inteligencji.

NwP: Czy więc można spodziewać się, że w ciągu na przykład dekady sekretarki i konsultanci infolinii przestaną być potrzebni?

PB: Jest taka szansa, choć nie ośmielę się powiedzieć, kiedy to może nastąpić. Wizjonerzy już wielokrotnie twierdzili, że za rogiem czeka powszechna silna sztuczna inteligencja, którą trudno będzie odróżnić od człowieka. Choć na pewno ten termin się nieustannie zbliża. Chatboty rozwiązują coraz więcej problemów. Na przykład rozmawiają z klientami i dopiero wtedy, kiedy sobie z czymś nie radzą, kierują ich do żywego pracownika. Odsetek spraw załatwianych przez komputer będzie rósł.

NwP: Na pewno istnieją też zagrożenia...

PB: Chatboty mogą ułatwiać niektóre przestępcze ataki. Przykładowo, istnieje znana od dawna metoda o nazwie "nigeryjski szwindel". Użytkownik dostaje informacje od kogoś, kto rzekomo odziedziczył duży majątek i szuka pomocy w przeniesieniu pieniędzy za granicę. Jeśli część osób odpowie na taką wiadomość, przestępcy muszą z nim porozmawiać, aby sfinalizować oszustwo. Może to za nich zrobić chatbot. Inna metoda polega na tym, że ktoś włamuje się na konta użytkowników mediów społecznościowych. W przypadku wielu kont można to zrobić, stosując łatwo dostępną listę najpopularniejszych haseł. Oszust może potem podszyć się pod właścicieli takich kont z pomocą chatbota i masowo prosić ich znajomych o pożyczenie pieniędzy.

NwP: Będziemy zatem potrzebowali programów do wykrywania chatbotów?

PB: Tak, może to się okazać potrzebne. Możemy sobie wyobrazić programy rozpowszechniające tzw. fałszywe wiadomości (ang. fake news) za pomocą czatów czy komentarzy. Sztuczna inteligencja coraz lepiej samodzielnie generuje nowe treści, obok tekstowych mogą to być również obrazy czy wideo. Przykładem tego ostatniego jest popularne ostatnio narzędzie deepfake, które potrafi podmienić twarz aktora na dowolną inną. Takie modele generujące treść często wykorzystują sztuczne sieci neuronowe typu GAN, w których dwie „podsieci” próbują się nawzajem pokonać. Pierwsza, zwana generatorem, próbuje wygenerować treść, a druga, zwana dyskryminatorem, próbuje zgadnąć, czy patrzy na treść prawdziwą, czy wygenerowaną. W ten sposób podczas uczenia obie stają się z czasem coraz lepsze. Mamy zatem do czynienia ze swoistym wyścigiem zbrojeń i – o ile daje to nadzieję na obronę przed zalewem Internetu złośliwą treścią – należy zakładać, że programy rozpoznające generowaną treść nie będą miały stuprocentowej skuteczności. Może to spowodować przemiany społeczne, które w tej chwili są trudne do przewidzenia.


Źródło: pap.pl


Drukuj PDF
wstecz Podziel się ze znajomymi

Informacje dnia: W Polsce żyje miasto ludzi uratowanych dzięki przeszczepom szpiku Popularny lek na tarczycę może mieć związek z zanikiem kości W ostatnich 60 latach światowa produkcja żywności stale rosła Sztuczna inteligencja niesie zagrożenia dla rynku pracy Program naprawczy dla NCBR IChF PAN z grantem KE W Polsce żyje miasto ludzi uratowanych dzięki przeszczepom szpiku Popularny lek na tarczycę może mieć związek z zanikiem kości W ostatnich 60 latach światowa produkcja żywności stale rosła Sztuczna inteligencja niesie zagrożenia dla rynku pracy Program naprawczy dla NCBR IChF PAN z grantem KE W Polsce żyje miasto ludzi uratowanych dzięki przeszczepom szpiku Popularny lek na tarczycę może mieć związek z zanikiem kości W ostatnich 60 latach światowa produkcja żywności stale rosła Sztuczna inteligencja niesie zagrożenia dla rynku pracy Program naprawczy dla NCBR IChF PAN z grantem KE

Partnerzy

GoldenLine Fundacja Kobiety Nauki Job24 Obywatele Nauki NeuroSkoki Portal MaterialyInzynierskie.pl Uni Gdansk MULTITRAIN I MULTITRAIN II Nauki przyrodnicze KOŁO INZYNIERÓW PB ICHF PAN FUNDACJA JWP NEURONAUKA Mlodym Okiem Polski Instytut Rozwoju Biznesu Analityka Nauka w Polsce CITTRU - Centrum Innowacji, Transferu Technologii i Rozwoju Uniwersytetu Akademia PAN Chemia i Biznes Farmacom Świat Chemii Forum Akademickie Biotechnologia     Bioszkolenia Geodezja Instytut Lotnictwa EuroLab

Szanowny Czytelniku!

 
25 maja 2018 roku zacznie obowiązywać Rozporządzenie Parlamentu Europejskiego i Rady (UE) 2016/679 z dnia 27 kwietnia 2016 r (RODO). Potrzebujemy Twojej zgody na przetwarzanie Twoich danych osobowych przechowywanych w plikach cookies. Poniżej znajdziesz pełny zakres informacji na ten temat.
 
Zgadzam się na przechowywanie na urządzeniu, z którego korzystam tzw. plików cookies oraz na przetwarzanie moich danych osobowych pozostawianych w czasie korzystania przeze mnie ze strony internetowej Laboratoria.net w celach marketingowych, w tym na profilowanie i w celach analitycznych.

Kto będzie administratorem Twoich danych?

Administratorami Twoich danych będziemy my: Portal Laboratoria.net z siedzibą w Krakowie (Grupa INTS ul. Czerwone Maki 55/25 30-392 Kraków).

O jakich danych mówimy?

Chodzi o dane osobowe, które są zbierane w ramach korzystania przez Ciebie z naszych usług w tym zapisywanych w plikach cookies.

Dlaczego chcemy przetwarzać Twoje dane?

Przetwarzamy te dane w celach opisanych w polityce prywatności, między innymi aby:

Komu możemy przekazać dane?

Zgodnie z obowiązującym prawem Twoje dane możemy przekazywać podmiotom przetwarzającym je na nasze zlecenie, np. agencjom marketingowym, podwykonawcom naszych usług oraz podmiotom uprawnionym do uzyskania danych na podstawie obowiązującego prawa np. sądom lub organom ścigania – oczywiście tylko gdy wystąpią z żądaniem w oparciu o stosowną podstawę prawną.

Jakie masz prawa w stosunku do Twoich danych?

Masz między innymi prawo do żądania dostępu do danych, sprostowania, usunięcia lub ograniczenia ich przetwarzania. Możesz także wycofać zgodę na przetwarzanie danych osobowych, zgłosić sprzeciw oraz skorzystać z innych praw.

Jakie są podstawy prawne przetwarzania Twoich danych?

Każde przetwarzanie Twoich danych musi być oparte na właściwej, zgodnej z obowiązującymi przepisami, podstawie prawnej. Podstawą prawną przetwarzania Twoich danych w celu świadczenia usług, w tym dopasowywania ich do Twoich zainteresowań, analizowania ich i udoskonalania oraz zapewniania ich bezpieczeństwa jest niezbędność do wykonania umów o ich świadczenie (tymi umowami są zazwyczaj regulaminy lub podobne dokumenty dostępne w usługach, z których korzystasz). Taką podstawą prawną dla pomiarów statystycznych i marketingu własnego administratorów jest tzw. uzasadniony interes administratora. Przetwarzanie Twoich danych w celach marketingowych podmiotów trzecich będzie odbywać się na podstawie Twojej dobrowolnej zgody.

Dlatego też proszę zaznacz przycisk "zgadzam się" jeżeli zgadzasz się na przetwarzanie Twoich danych osobowych zbieranych w ramach korzystania przez ze mnie z portalu *Laboratoria.net, udostępnianych zarówno w wersji "desktop", jak i "mobile", w tym także zbieranych w tzw. plikach cookies. Wyrażenie zgody jest dobrowolne i możesz ją w dowolnym momencie wycofać.
 
Więcej w naszej POLITYCE PRYWATNOŚCI
 

Newsletter

Zawsze aktualne informacje