W Polsce żyje miasto ludzi uratowanych dzięki przeszczepom szpiku
Wskazał w rozmowie z PAP prof. Wiesław Jędrzejczak.
Laboratoria.net
|
Zamknij X
|
Dzieci i młodzież najczęściej zadają AI pytania dotyczące teraźniejszości i przyszłości, uznając odpowiedzi za wyrocznię. Prowadzi to do postrzegania jej jak autorytetu i nadania AI podmiotowości – wskazuje dr Ada Florentyna Pawlak z Uniwersytetu SWPS.
Ekspertka w obszarze antropologii technologii jest członkinią zespołu w Centrum Badań nad Sztuczną Inteligencją i Cyberkomunikacją Uniwersytetu Łódzkiego i współautorką (wraz kierownikiem Centrum dr. hab. Arturem Modlińskim) badań nad zachowaniami internetowymi dzieci i młodzieży. Chcieli oni sprawdzić, jak to, o co dzieci pytają generatywną AI, wiąże się z ich dobrostanem.
Wyniki badań – przeprowadzonych na grupie ponad 400 młodych ludzi w wieku od 9 do 14 lat – wykazały, że młodzi ludzie cierpiący na zaburzenia lękowe lub ogólnie niskie samopoczucie psychiczne często szukają rozwiązań swoich problemów w internecie, wykorzystując do tego również narzędzia generatywnej sztucznej inteligencji.
"Badania wykazały, że dzieci wybierające pytania związane z potrzebami psychicznymi i bezpieczeństwem cechowały się zdecydowanie wyższym poziomem lęku i depresji niż te, które pytały o codzienne czynności i pasje. Z kolei osoby, które wybierały pytania dotyczące miłości i przynależności, miały z reguły większe problemy psychiczne niż grupa w większym stopniu zainteresowana potrzebami fizjologicznymi. Zaobserwowano również, że dzieci próbujące znaleźć u generatywnej sztucznej inteligencji odpowiedzi na pytania związane z miłością i przynależnością oraz te odnoszące się do szacunku i uznania, miały wyraźnie niższy poziom dobrostanu psychicznego niż dzieci chcące spytać o samorealizację i osobiste zainteresowania" – podali naukowcy.
Dodali, że wyniki zostaną wykorzystane do projektowania i testowania systemów konwersacyjnych dla młodych osób, które sygnalizowałyby potencjalne obniżenie ich dobrostanu.
Ponadto – jak powiedziała w rozmowie z serwisem Nauka w Polsce dr Ada Florentyna Pawlak – badanie pokazało, jak przedstawiciele pokolenia Alfa (urodzeni w latach 2010-2024) postrzegają samą sztuczną inteligencję.
"Generacja Alfa rozpoczyna edukację w dynamicznie zmieniającym się krajobrazie technokulturowym. To pokolenie dorasta w takim transhumanistycznym świecie, często wśród syntetycznych towarzyszy. Coraz częściej wchodzimy bowiem w interakcję z jakimiś agentami o nieokreślonym statusie ontologicznym. Czasem zatraca nam się granica, czy to jest prawdziwy człowiek, czy coś wygenerowanego na wzór człowieka, co zostało wytworzone, aby nas, ludzi, łudzić" – powiedziała ekspertka.
A przez to – dodała – zmienia się postrzeganie takich pojęć jak autentyczność i wiarygodność.
Dlatego też w opisywanym wcześniej badaniu naukowcy sprawdzili również inne kwestie.
"Nasze badanie pokazało też, że dzieci i młodzież z pokolenia Alfa najczęściej zadawali chatbotom pytania dotyczące teraźniejszości albo przyszłości. Pytali też generatywną sztuczną inteligencję nie tylko o fakty, lecz również o opinie dotyczące np. odżywiania, sportu, mody. Zadawali również pytania o przyszłość 'dalekiego zasięgu', np. kto zostanie mistrzem świata w piłce nożnej w kolejnych mistrzostwach albo kto wystąpi na Eurowizji w następnej edycji konkursu. A przecież są to rzeczy, który nie można jeszcze dzisiaj wiedzieć" – podsumowała badaczka.
Jej zdaniem to pokazuje, że młodzi traktują AI jako pewnego rodzaju wyrocznię, obdarzając ją autorytetem. "Pokolenia Milenialsów i starsze po pierwsze traktują sztuczną inteligencję z większą ostrożnością, zazwyczaj wiedząc, że nie jest to wiarygodne źródło informacji. Z drugiej strony, w większości pytamy o coś, co już się wydarzyło, o przeszłość, czyli traktujemy AI trochę jak taką 'Wikipedię 2.0'" – wskazała dr Ada Florentyna Pawlak.
Dodała, że poprzez postrzeganie AI jak autorytetu czy wyroczni nadaje się jej podmiotowość, a to prowadzi do następnych wyzwań. "W naszym badaniu wśród młodych ludzi nie było różnicy między zaufaniem zbudowanym do człowieka a obdarzeniem zaufania sztucznych systemów. Musimy mieć świadomość możliwych skutków tego zjawiska, ponieważ za jakiś czas obdarzenie autorytetem przedstawicieli takich zawodów jak profesor, lekarz czy nauczyciel nie będzie większe niż zaufanie do sztucznej inteligencji" – wskazała.
Wpisują się w to również wyniki z ponownie przeprowadzonego słynnego eksperymentu Milgrama. Tym razem naukowcy z Uniwersytetu SWPS w roli autorytetu wydającego polecenia, zamiast człowieka, obsadzili robota i uzyskali bardzo wysokie poziomy posłuszeństwa – 90 proc. uczestników postępowało zgodnie z wszystkimi wydanymi im instrukcjami
Wskazał w rozmowie z PAP prof. Wiesław Jędrzejczak.
Wynika z nowych analiz opublikowanych w PLOS ONE.
Podkreślali uczestniczący w konferencji poświęconej tej tematyce.
Utworzy ośrodek badań nad zastosowaniem nienaturalnych aminokwasów.
25 maja 2018 roku zacznie obowiązywać Rozporządzenie Parlamentu Europejskiego i Rady (UE) 2016/679 z dnia 27 kwietnia 2016 r (RODO). Potrzebujemy Twojej zgody na przetwarzanie Twoich danych osobowych przechowywanych w plikach cookies. Poniżej znajdziesz pełny zakres informacji na ten temat.
Zgadzam się na przechowywanie na urządzeniu, z którego korzystam tzw. plików cookies oraz na przetwarzanie moich danych osobowych pozostawianych w czasie korzystania przeze mnie ze strony internetowej Laboratoria.net w celach marketingowych, w tym na profilowanie i w celach analitycznych.
Administratorami Twoich danych będziemy my: Portal Laboratoria.net z siedzibą w Krakowie (Grupa INTS ul. Czerwone Maki 55/25 30-392 Kraków).
Chodzi o dane osobowe, które są zbierane w ramach korzystania przez Ciebie z naszych usług w tym zapisywanych w plikach cookies.
Przetwarzamy te dane w celach opisanych w polityce prywatności, między innymi aby:
dopasować treści stron i ich tematykę, w tym tematykę ukazujących się tam materiałów do Twoich zainteresowań,
dokonywać pomiarów, które pozwalają nam udoskonalać nasze usługi i sprawić, że będą maksymalnie odpowiadać Twoim potrzebom,
pokazywać Ci reklamy dopasowane do Twoich potrzeb i zainteresowań.
Zgodnie z obowiązującym prawem Twoje dane możemy przekazywać podmiotom przetwarzającym je na nasze zlecenie, np. agencjom marketingowym, podwykonawcom naszych usług oraz podmiotom uprawnionym do uzyskania danych na podstawie obowiązującego prawa np. sądom lub organom ścigania – oczywiście tylko gdy wystąpią z żądaniem w oparciu o stosowną podstawę prawną.
Masz między innymi prawo do żądania dostępu do danych, sprostowania, usunięcia lub ograniczenia ich przetwarzania. Możesz także wycofać zgodę na przetwarzanie danych osobowych, zgłosić sprzeciw oraz skorzystać z innych praw.
Każde przetwarzanie Twoich danych musi być oparte na właściwej, zgodnej z obowiązującymi przepisami, podstawie prawnej. Podstawą prawną przetwarzania Twoich danych w celu świadczenia usług, w tym dopasowywania ich do Twoich zainteresowań, analizowania ich i udoskonalania oraz zapewniania ich bezpieczeństwa jest niezbędność do wykonania umów o ich świadczenie (tymi umowami są zazwyczaj regulaminy lub podobne dokumenty dostępne w usługach, z których korzystasz). Taką podstawą prawną dla pomiarów statystycznych i marketingu własnego administratorów jest tzw. uzasadniony interes administratora. Przetwarzanie Twoich danych w celach marketingowych podmiotów trzecich będzie odbywać się na podstawie Twojej dobrowolnej zgody.
Dlatego też proszę zaznacz przycisk "zgadzam się" jeżeli zgadzasz się na przetwarzanie Twoich danych osobowych zbieranych w ramach korzystania przez ze mnie z portalu *Laboratoria.net, udostępnianych zarówno w wersji "desktop", jak i "mobile", w tym także zbieranych w tzw. plikach cookies. Wyrażenie zgody jest dobrowolne i możesz ją w dowolnym momencie wycofać.
Więcej w naszej POLITYCE PRYWATNOŚCI
Recenzje