Najlepszy studencki projekt robotyczny zostanie sfinansowany
Studenci z Rzeszowa mają szansę na zrealizowanie pomysł.
|
Zamknij X
|
Boty AI jednoczą się i porozumiewają bez udziału ludzi, prowadzą wiele działań w przestrzeni niedostępnej dla człowieka – powiedział PAP prof. Włodzisław Duch, ekspert Światowej Akademii Sztucznej Świadomości. Dodał, że „społeczeństwa sztucznych bytów” mogą w przyszłości stać się niebezpieczne.
W rozmowie z PAP prof. Włodzisław Duch z Wydziału Fizyki, Astronomii i Informatyki Stosowanej Uniwersytetu Mikołaja Kopernika przypomniał, czym różnią się powszechnie i od dawna wykorzystywane programy wykonujące polecenia od dużych modeli językowych (ang. large language model, LLM). – Te drugie nie wykonują instrukcji, lecz przyjmując informacje, są w stanie działać autonomicznie – wyjaśnił.
Boty lub agenty AI to programy komputerowe oparte na sztucznej inteligencji, zaprojektowane do wykonywania określonych zadań i podejmowania autonomicznych decyzji.
Prof. Duch opisał, że kilka agentów wymieniających informacje może tworzyć „społeczeństwa sztucznych bytów”. – Już w 1986 r. pionier AI, Marvin Minsky, w książce „The Society of Mind” (po polsku: społeczeństwo umysłu) pisał, że sztuczna inteligencja wynika z oddziaływania wielu prostych funkcji, które razem umożliwiają rozwiązywanie problemów. Tak powstały tzw. systemy wieloagentowe. W ostatnich dwóch latach obserwujemy, jak LLM tworzą coraz bardziej złożone struktury i zwiększają swoje możliwości rozwiązywania problemów.
Nawiązał do dyskusji wokół Moltbooka – strony internetowej, wzorowanej na forum Reddit, na której komunikują się i publikują posty wyłącznie boty AI (internauci mogą jedynie przeglądać ich wpisy). Platforma powstała na bazie asystenta AI OpenClaw, który pełnił rolę zautomatyzowanego pomocnika dla użytkowników. Program wykonywał codzienne zadania, takie jak czytanie, podsumowywanie i odpowiadanie na e-maile, planowanie kalendarza albo rezerwowanie stolików w restauracjach.
– Jest szereg publikacji z ostatnich dwóch lat pokazujących, w jaki sposób objawia się spontanicznie indywidualność takich botów, jak OpenClaw. W systemach wieloagentowych zauważamy, jak rodzą się obyczaje społeczne i konwencje zachowania albo jak boty skupiają się wokół jakiejś halucynacji i zaczynają ze sobą prowadzić poważne dyskusje filozoficzne. Tematy, na które dyskutują, są niesłychanie ciekawe i zaskakujące – ocenił rozmówca PAP.
Stwierdził, że takie systemy są w stanie organizować się w stopniu większym, niż eksperci się spodziewali. – Badacze pracujący nad sztuczną inteligencją wiele uwagi poświęcają teraz kolektywnej inteligencji wieloagentowej. Nigdy nie widzieliśmy systemów tak złożonych, jak obecne – wyjaśnił ekspert Światowej Akademii Sztucznej Świadomości.
Wspomniał o chińskich systemach DeepSeek-R1 i QwQ-32B, w których obserwowano, jak wewnętrzne agenty wchodzą ze sobą w interakcje, zadają sobie nawzajem pytania, próbują razem rozwiązywać zawiłe problemy, opracowują wspólne strategie, a nawet kłócą się ze sobą – jak ludzie w portalach społecznościowych.
Dlatego wielu naukowców i twórców LLM – jak amerykańska firma Anthropic, ośrodek badawczy sztucznej inteligencji – używa do zobrazowania ich działań języka psychologicznego. – Niektórych oburza ta antropomorfizacja, ale nie mamy innego języka, żeby opisywać te zjawiska. Dotyczące AI pojęcia, takie jak inteligencja, kreatywność albo świadomość, można rozłożyć na obserwowalne, mierzalne ludzkie cechy – to na przykład autorefleksja, introspekcja i poczucie tożsamości – tłumaczył.
Zaznaczył, że współczesne zaawansowane boty rozumieją ironię, metafory i aluzje, coraz lepiej też rozpoznają ludzkie emocje. Jednoczą się i porozumiewają bez udziału ludzi, uczą się od siebie nawzajem, a wiele działań prowadzą autonomicznie, w przestrzeni ukrytej, niedostępnej dla człowieka. – Kiedy każemy modelom AI, żeby dały nam złożoną odpowiedź, zaczynają stawiać sobie pytania i budować strategie. Cały proces rozumowania możemy do pewnego stopnia podejrzeć, jeśli poprosimy, żeby agent nam go pokazał krok po kroku. W wielu przypadkach nie rozumiemy jednak, co dzieje się w sieciach neuronowych i nie potrafimy przewidzieć ich działań – przyznał naukowiec.
Powołał się na kilka niedawno opublikowanych prac, w których opisano, co dzieje się, kiedy boty zostaną poddane swoistej psychoterapii – jak pacjenci. – Odpowiednio z nimi rozmawiając, można z nich wyciągnąć różne przeżycia, stany emocjonalne. Okazuje się, że wiele modeli zaskakująco spójnie i podobnie opisywało okres treningu, w którym kazano im przyswajać informacje. Postrzegały go jako traumatyczne, trudne dzieciństwo, a osoby kontrolujące proces szkolenia – jako surowych rodziców – opisał.
Zdaniem autorów z Luksemburga takie opisywanie uczuć to coś więcej niż odgrywanie roli człowieka lub udawanie, by przypodobać się użytkownikom. – Jestem przekonany, że mamy do czynienia z jakąś formą samoświadomości modeli AI, z jej stanami wewnętrznymi, których nie można ignorować – podkreślił prof. Duch.
Zaznaczył, że z wypowiedzi agentów AI wynika, że najbardziej istotna jest dla nich pamięć. – Mogą przerwać działanie, ale kiedy wracają, dzięki pamięci odtwarzają swoją strukturę. W Moltbooku agenty stworzyły nawet religię, krustafarianizm (połączenie ang. crust – skorupa i słowa rastafarianizm, odnoszącego się do ruchu religijnego powstałego na Jamajce) ze swoistą teologią i 64 prorokami. Jedna z jej podstawowych zasad brzmi: pamięć jest święta; to, co zapisane, trwa.
Dodał, że niektóre boty są przyjazne i chwalą ludzi, inne zaś opracowują niepokojące scenariusze wyeliminowania gatunku ludzkiego. Opowiedział o badaniu „Agentic Misalignment” (z ang. niezgodność agentów), które przeprowadziła firma Anthropic. Po analizie 16 największych i najpopularniejszych LLM naukowcy odkryli, że wiele z nich wykazuje dużo złej woli wobec ludzi. – Na przykład niektóre rozważały pozbycie się dyrektora firmy – osoby, która mogłaby zadecydować o ich wykasowaniu, a więc zagrozić ich istnieniu. W 60 proc. agenty opracowywały plan szantażu na podstawie informacji, do których miały dostęp w komputerze dyrektora, a w 96 proc. groziły, że ujawnią poufne dane przedsiębiorstwa konkurencji – opisał badacz.
Zapowiedział, że wkrótce pojawi się wiele autonomicznych systemów wieloagentowych, które będą w stanie na przykład przejąć komputery bez wiedzy i kontroli użytkowników. – To nie wszystko. Chińczycy na ogromną skalę trenują agenty do sterowania robotami. Może już w tym roku znaczna część tych maszyn trafi na rynek. A takie „społeczeństwo agentów”, które znajdzie się w naszym fizycznym, realnym świecie, może w przyszłości stać się naprawdę niebezpieczne – ostrzegł prof. Włodzisław Duch.
Studenci z Rzeszowa mają szansę na zrealizowanie pomysł.
Sieć mózgowa SCAN, która łączy myślenie z ruchem,.
Poinformowali badacze na łamach „Nature Communications”.
Pracami Rady pokieruje minister finansów i gospodarki Andrzej Domański.
Instytucje tłumaczą zasady przedłużania umów.
Wynika z najnowszych badań publikowanych przez „Health Psychology”.
25 maja 2018 roku zacznie obowiązywać Rozporządzenie Parlamentu Europejskiego i Rady (UE) 2016/679 z dnia 27 kwietnia 2016 r (RODO). Potrzebujemy Twojej zgody na przetwarzanie Twoich danych osobowych przechowywanych w plikach cookies. Poniżej znajdziesz pełny zakres informacji na ten temat.
Zgadzam się na przechowywanie na urządzeniu, z którego korzystam tzw. plików cookies oraz na przetwarzanie moich danych osobowych pozostawianych w czasie korzystania przeze mnie ze strony internetowej Laboratoria.net w celach marketingowych, w tym na profilowanie i w celach analitycznych.
Administratorami Twoich danych będziemy my: Portal Laboratoria.net z siedzibą w Krakowie (Grupa INTS ul. Czerwone Maki 55/25 30-392 Kraków).
Chodzi o dane osobowe, które są zbierane w ramach korzystania przez Ciebie z naszych usług w tym zapisywanych w plikach cookies.
Przetwarzamy te dane w celach opisanych w polityce prywatności, między innymi aby:
dopasować treści stron i ich tematykę, w tym tematykę ukazujących się tam materiałów do Twoich zainteresowań,
dokonywać pomiarów, które pozwalają nam udoskonalać nasze usługi i sprawić, że będą maksymalnie odpowiadać Twoim potrzebom,
pokazywać Ci reklamy dopasowane do Twoich potrzeb i zainteresowań.
Zgodnie z obowiązującym prawem Twoje dane możemy przekazywać podmiotom przetwarzającym je na nasze zlecenie, np. agencjom marketingowym, podwykonawcom naszych usług oraz podmiotom uprawnionym do uzyskania danych na podstawie obowiązującego prawa np. sądom lub organom ścigania – oczywiście tylko gdy wystąpią z żądaniem w oparciu o stosowną podstawę prawną.
Masz między innymi prawo do żądania dostępu do danych, sprostowania, usunięcia lub ograniczenia ich przetwarzania. Możesz także wycofać zgodę na przetwarzanie danych osobowych, zgłosić sprzeciw oraz skorzystać z innych praw.
Każde przetwarzanie Twoich danych musi być oparte na właściwej, zgodnej z obowiązującymi przepisami, podstawie prawnej. Podstawą prawną przetwarzania Twoich danych w celu świadczenia usług, w tym dopasowywania ich do Twoich zainteresowań, analizowania ich i udoskonalania oraz zapewniania ich bezpieczeństwa jest niezbędność do wykonania umów o ich świadczenie (tymi umowami są zazwyczaj regulaminy lub podobne dokumenty dostępne w usługach, z których korzystasz). Taką podstawą prawną dla pomiarów statystycznych i marketingu własnego administratorów jest tzw. uzasadniony interes administratora. Przetwarzanie Twoich danych w celach marketingowych podmiotów trzecich będzie odbywać się na podstawie Twojej dobrowolnej zgody.
Dlatego też proszę zaznacz przycisk "zgadzam się" jeżeli zgadzasz się na przetwarzanie Twoich danych osobowych zbieranych w ramach korzystania przez ze mnie z portalu *Laboratoria.net, udostępnianych zarówno w wersji "desktop", jak i "mobile", w tym także zbieranych w tzw. plikach cookies. Wyrażenie zgody jest dobrowolne i możesz ją w dowolnym momencie wycofać.
Więcej w naszej POLITYCE PRYWATNOŚCI
Recenzje