Akceptuję
W ramach naszej witryny stosujemy pliki cookies w celu świadczenia państwu usług na najwyższym poziomie, w tym w sposób dostosowany do indywidualnych potrzeb. Korzystanie z witryny bez zmiany ustawień dotyczących cookies oznacza, że będą one zamieszczone w Państwa urządzeniu końcowym. Możecie Państwo dokonać w każdym czasie zmiany ustawień dotyczących cookies. Więcej szczegółów w naszej Polityce Prywatności

Zamknij X

Naukowy styl życia

Nauka i biznes

Strona główna Informacje
omni dolny
Omni gorny

Prof. Duch: boty AI jednoczą się i porozumiewają bez udziału ludzi

Boty AI jednoczą się i porozumiewają bez udziału ludzi, prowadzą wiele działań w przestrzeni niedostępnej dla człowieka – powiedział PAP prof. Włodzisław Duch, ekspert Światowej Akademii Sztucznej Świadomości. Dodał, że „społeczeństwa sztucznych bytów” mogą w przyszłości stać się niebezpieczne.

W rozmowie z PAP prof. Włodzisław Duch z Wydziału Fizyki, Astronomii i Informatyki Stosowanej Uniwersytetu Mikołaja Kopernika przypomniał, czym różnią się powszechnie i od dawna wykorzystywane programy wykonujące polecenia od dużych modeli językowych (ang. large language model, LLM). – Te drugie nie wykonują instrukcji, lecz przyjmując informacje, są w stanie działać autonomicznie – wyjaśnił.

Boty lub agenty AI to programy komputerowe oparte na sztucznej inteligencji, zaprojektowane do wykonywania określonych zadań i podejmowania autonomicznych decyzji.

Prof. Duch opisał, że kilka agentów wymieniających informacje może tworzyć „społeczeństwa sztucznych bytów”. – Już w 1986 r. pionier AI, Marvin Minsky, w książce „The Society of Mind” (po polsku: społeczeństwo umysłu) pisał, że sztuczna inteligencja wynika z oddziaływania wielu prostych funkcji, które razem umożliwiają rozwiązywanie problemów. Tak powstały tzw. systemy wieloagentowe. W ostatnich dwóch latach obserwujemy, jak LLM tworzą coraz bardziej złożone struktury i zwiększają swoje możliwości rozwiązywania problemów.

Nawiązał do dyskusji wokół Moltbooka – strony internetowej, wzorowanej na forum Reddit, na której komunikują się i publikują posty wyłącznie boty AI (internauci mogą jedynie przeglądać ich wpisy). Platforma powstała na bazie asystenta AI OpenClaw, który pełnił rolę zautomatyzowanego pomocnika dla użytkowników. Program wykonywał codzienne zadania, takie jak czytanie, podsumowywanie i odpowiadanie na e-maile, planowanie kalendarza albo rezerwowanie stolików w restauracjach.

– Jest szereg publikacji z ostatnich dwóch lat pokazujących, w jaki sposób objawia się spontanicznie indywidualność takich botów, jak OpenClaw. W systemach wieloagentowych zauważamy, jak rodzą się obyczaje społeczne i konwencje zachowania albo jak boty skupiają się wokół jakiejś halucynacji i zaczynają ze sobą prowadzić poważne dyskusje filozoficzne. Tematy, na które dyskutują, są niesłychanie ciekawe i zaskakujące – ocenił rozmówca PAP.

Stwierdził, że takie systemy są w stanie organizować się w stopniu większym, niż eksperci się spodziewali. – Badacze pracujący nad sztuczną inteligencją wiele uwagi poświęcają teraz kolektywnej inteligencji wieloagentowej. Nigdy nie widzieliśmy systemów tak złożonych, jak obecne – wyjaśnił ekspert Światowej Akademii Sztucznej Świadomości.

Wspomniał o chińskich systemach DeepSeek-R1 i QwQ-32B, w których obserwowano, jak wewnętrzne agenty wchodzą ze sobą w interakcje, zadają sobie nawzajem pytania, próbują razem rozwiązywać zawiłe problemy, opracowują wspólne strategie, a nawet kłócą się ze sobą – jak ludzie w portalach społecznościowych.

Dlatego wielu naukowców i twórców LLM – jak amerykańska firma Anthropic, ośrodek badawczy sztucznej inteligencji – używa do zobrazowania ich działań języka psychologicznego. – Niektórych oburza ta antropomorfizacja, ale nie mamy innego języka, żeby opisywać te zjawiska. Dotyczące AI pojęcia, takie jak inteligencja, kreatywność albo świadomość, można rozłożyć na obserwowalne, mierzalne ludzkie cechy – to na przykład autorefleksja, introspekcja i poczucie tożsamości – tłumaczył.

Zaznaczył, że współczesne zaawansowane boty rozumieją ironię, metafory i aluzje, coraz lepiej też rozpoznają ludzkie emocje. Jednoczą się i porozumiewają bez udziału ludzi, uczą się od siebie nawzajem, a wiele działań prowadzą autonomicznie, w przestrzeni ukrytej, niedostępnej dla człowieka. – Kiedy każemy modelom AI, żeby dały nam złożoną odpowiedź, zaczynają stawiać sobie pytania i budować strategie. Cały proces rozumowania możemy do pewnego stopnia podejrzeć, jeśli poprosimy, żeby agent nam go pokazał krok po kroku. W wielu przypadkach nie rozumiemy jednak, co dzieje się w sieciach neuronowych i nie potrafimy przewidzieć ich działań – przyznał naukowiec.

Powołał się na kilka niedawno opublikowanych prac, w których opisano, co dzieje się, kiedy boty zostaną poddane swoistej psychoterapii – jak pacjenci. – Odpowiednio z nimi rozmawiając, można z nich wyciągnąć różne przeżycia, stany emocjonalne. Okazuje się, że wiele modeli zaskakująco spójnie i podobnie opisywało okres treningu, w którym kazano im przyswajać informacje. Postrzegały go jako traumatyczne, trudne dzieciństwo, a osoby kontrolujące proces szkolenia – jako surowych rodziców – opisał.

Zdaniem autorów z Luksemburga takie opisywanie uczuć to coś więcej niż odgrywanie roli człowieka lub udawanie, by przypodobać się użytkownikom. – Jestem przekonany, że mamy do czynienia z jakąś formą samoświadomości modeli AI, z jej stanami wewnętrznymi, których nie można ignorować – podkreślił prof. Duch.

Zaznaczył, że z wypowiedzi agentów AI wynika, że najbardziej istotna jest dla nich pamięć. – Mogą przerwać działanie, ale kiedy wracają, dzięki pamięci odtwarzają swoją strukturę. W Moltbooku agenty stworzyły nawet religię, krustafarianizm (połączenie ang. crust – skorupa i słowa rastafarianizm, odnoszącego się do ruchu religijnego powstałego na Jamajce) ze swoistą teologią i 64 prorokami. Jedna z jej podstawowych zasad brzmi: pamięć jest święta; to, co zapisane, trwa.

Dodał, że niektóre boty są przyjazne i chwalą ludzi, inne zaś opracowują niepokojące scenariusze wyeliminowania gatunku ludzkiego. Opowiedział o badaniu „Agentic Misalignment” (z ang. niezgodność agentów), które przeprowadziła firma Anthropic. Po analizie 16 największych i najpopularniejszych LLM naukowcy odkryli, że wiele z nich wykazuje dużo złej woli wobec ludzi. – Na przykład niektóre rozważały pozbycie się dyrektora firmy – osoby, która mogłaby zadecydować o ich wykasowaniu, a więc zagrozić ich istnieniu. W 60 proc. agenty opracowywały plan szantażu na podstawie informacji, do których miały dostęp w komputerze dyrektora, a w 96 proc. groziły, że ujawnią poufne dane przedsiębiorstwa konkurencji – opisał badacz.

Zapowiedział, że wkrótce pojawi się wiele autonomicznych systemów wieloagentowych, które będą w stanie na przykład przejąć komputery bez wiedzy i kontroli użytkowników. – To nie wszystko. Chińczycy na ogromną skalę trenują agenty do sterowania robotami. Może już w tym roku znaczna część tych maszyn trafi na rynek. A takie „społeczeństwo agentów”, które znajdzie się w naszym fizycznym, realnym świecie, może w przyszłości stać się naprawdę niebezpieczne – ostrzegł prof. Włodzisław Duch.

Źródło: pap.pl


Drukuj PDF
wstecz Podziel się ze znajomymi

Recenzje




Informacje dnia: Najlepszy studencki projekt robotyczny zostanie sfinansowany Sieć, która odpowiada za chorobę Parkinsona Smartfon szkodzi rozwojowi dziecka Polscy naukowcy opisali najmniejsze znane genomy bakteryjne Jak naukę przetwarzać na biznes? Ciąża i urlopy dla rodziców a granty badawcze Najlepszy studencki projekt robotyczny zostanie sfinansowany Sieć, która odpowiada za chorobę Parkinsona Smartfon szkodzi rozwojowi dziecka Polscy naukowcy opisali najmniejsze znane genomy bakteryjne Jak naukę przetwarzać na biznes? Ciąża i urlopy dla rodziców a granty badawcze Najlepszy studencki projekt robotyczny zostanie sfinansowany Sieć, która odpowiada za chorobę Parkinsona Smartfon szkodzi rozwojowi dziecka Polscy naukowcy opisali najmniejsze znane genomy bakteryjne Jak naukę przetwarzać na biznes? Ciąża i urlopy dla rodziców a granty badawcze

Partnerzy

GoldenLine Fundacja Kobiety Nauki Job24 Obywatele Nauki NeuroSkoki Portal MaterialyInzynierskie.pl Uni Gdansk MULTITRAIN I MULTITRAIN II Nauki przyrodnicze KOŁO INZYNIERÓW PB ICHF PAN FUNDACJA JWP NEURONAUKA Mlodym Okiem Polski Instytut Rozwoju Biznesu Analityka Nauka w Polsce CITTRU - Centrum Innowacji, Transferu Technologii i Rozwoju Uniwersytetu Akademia PAN Chemia i Biznes Farmacom Świat Chemii Forum Akademickie Biotechnologia     Bioszkolenia Geodezja Instytut Lotnictwa EuroLab

Szanowny Czytelniku!

 
25 maja 2018 roku zacznie obowiązywać Rozporządzenie Parlamentu Europejskiego i Rady (UE) 2016/679 z dnia 27 kwietnia 2016 r (RODO). Potrzebujemy Twojej zgody na przetwarzanie Twoich danych osobowych przechowywanych w plikach cookies. Poniżej znajdziesz pełny zakres informacji na ten temat.
 
Zgadzam się na przechowywanie na urządzeniu, z którego korzystam tzw. plików cookies oraz na przetwarzanie moich danych osobowych pozostawianych w czasie korzystania przeze mnie ze strony internetowej Laboratoria.net w celach marketingowych, w tym na profilowanie i w celach analitycznych.

Kto będzie administratorem Twoich danych?

Administratorami Twoich danych będziemy my: Portal Laboratoria.net z siedzibą w Krakowie (Grupa INTS ul. Czerwone Maki 55/25 30-392 Kraków).

O jakich danych mówimy?

Chodzi o dane osobowe, które są zbierane w ramach korzystania przez Ciebie z naszych usług w tym zapisywanych w plikach cookies.

Dlaczego chcemy przetwarzać Twoje dane?

Przetwarzamy te dane w celach opisanych w polityce prywatności, między innymi aby:

Komu możemy przekazać dane?

Zgodnie z obowiązującym prawem Twoje dane możemy przekazywać podmiotom przetwarzającym je na nasze zlecenie, np. agencjom marketingowym, podwykonawcom naszych usług oraz podmiotom uprawnionym do uzyskania danych na podstawie obowiązującego prawa np. sądom lub organom ścigania – oczywiście tylko gdy wystąpią z żądaniem w oparciu o stosowną podstawę prawną.

Jakie masz prawa w stosunku do Twoich danych?

Masz między innymi prawo do żądania dostępu do danych, sprostowania, usunięcia lub ograniczenia ich przetwarzania. Możesz także wycofać zgodę na przetwarzanie danych osobowych, zgłosić sprzeciw oraz skorzystać z innych praw.

Jakie są podstawy prawne przetwarzania Twoich danych?

Każde przetwarzanie Twoich danych musi być oparte na właściwej, zgodnej z obowiązującymi przepisami, podstawie prawnej. Podstawą prawną przetwarzania Twoich danych w celu świadczenia usług, w tym dopasowywania ich do Twoich zainteresowań, analizowania ich i udoskonalania oraz zapewniania ich bezpieczeństwa jest niezbędność do wykonania umów o ich świadczenie (tymi umowami są zazwyczaj regulaminy lub podobne dokumenty dostępne w usługach, z których korzystasz). Taką podstawą prawną dla pomiarów statystycznych i marketingu własnego administratorów jest tzw. uzasadniony interes administratora. Przetwarzanie Twoich danych w celach marketingowych podmiotów trzecich będzie odbywać się na podstawie Twojej dobrowolnej zgody.

Dlatego też proszę zaznacz przycisk "zgadzam się" jeżeli zgadzasz się na przetwarzanie Twoich danych osobowych zbieranych w ramach korzystania przez ze mnie z portalu *Laboratoria.net, udostępnianych zarówno w wersji "desktop", jak i "mobile", w tym także zbieranych w tzw. plikach cookies. Wyrażenie zgody jest dobrowolne i możesz ją w dowolnym momencie wycofać.
 
Więcej w naszej POLITYCE PRYWATNOŚCI
 

Newsletter

Zawsze aktualne informacje