Akceptuję
W ramach naszej witryny stosujemy pliki cookies w celu świadczenia państwu usług na najwyższym poziomie, w tym w sposób dostosowany do indywidualnych potrzeb. Korzystanie z witryny bez zmiany ustawień dotyczących cookies oznacza, że będą one zamieszczone w Państwa urządzeniu końcowym. Możecie Państwo dokonać w każdym czasie zmiany ustawień dotyczących cookies. Więcej szczegółów w naszej Polityce Prywatności

Zamknij X
Dygestorium

Naukowy styl życia

Nauka i biznes

Strona główna Informacje
Dodatkowy u góry
Labro na dole

Moralna sztuczna inteligencja odległa

 

Tworzenie moralnej sztucznej inteligencji jest nadal odległą wizją, bo wciąż nie ma ona samoświadomości - zauważył w rozmowie z PAP ekspert grupy roboczej ds. sztucznej inteligencji przy Kancelarii Prezesa Rady Ministrów Maciej Chojnowski.

Wraz z gwałtownym rozwojem sztucznej inteligencji (SI) w ostatnich latach, eksperci i naukowcy zwracają uwagę na problemy etyczne związane z jej użytkowaniem. Dlatego coraz częściej dyskutuje się na temat wprowadzenia odpowiednich wytycznych.

"Nie jest możliwe nauczenie sztucznej inteligencji zachowań etycznych i moralności, bo ciągle nie jest ona samoświadoma. Nadal nam do tego momentu daleko - to jest science-fiction" - ocenił w rozmowie z PAP dyrektor programowy i współtwórca Centrum Etyki Technologii w Instytucie Humanites oraz członek grupy roboczej ds. sztucznej inteligencji przy KPRM, Maciej Chojnowski.

"Dlatego, gdy mówimy o etyce sztucznej inteligencji, należy pamiętać o tym, że nie mamy na myśli zaprogramowania etyki w maszynach czy wyposażenia robotów w moralność, ale stworzenie takich reguł, takich wskazówek, które pozwoliłyby osobom rozwijającym te systemy robić to w sposób odpowiedzialny" - dodał Chojnowski.

Ekspert zwrócił uwagę na to, że istnieje ścisły związek między etyką a prawem dotyczącym SI. "Ważną rolą etyki sztucznej inteligencji będzie dostarczanie konkretnych narzędzi umożliwiających realizację wymogów zapisanych w prawie" - zaznaczył Chojnowski.

Zapytany o to, czy w Europie obowiązują jakieś regulacje dotyczące SI, zwrócił uwagę na przykład na RODO - Ogólne rozporządzenie o ochronie danych.

"RODO może dotyczyć także SI, bo korzysta ona z dużych zbiorów danych. To podstawa uczenia maszynowego, które jest dominującą formą współczesnej SI" - zauważył.

Chojnowski powiedział, że zasadniczym aktem prawnym, który będzie dotyczył SI będzie AI Act (z ang. Artificial Intelligence). To rozporządzenie o sztucznej inteligencji zostało zaproponowane przez Komisję Europejską w kwietniu 2021 r. Chodzi o stworzenie wspólnych ram regulacyjnych i prawnych dla sztucznej inteligencji. Swoim zakresem obejmuje wszystkie sektory (z wyjątkiem wojska) i wszystkie rodzaje sztucznej inteligencji.

Projekt KE ma być odpowiedzią na ryzyka generowane przez określone zastosowania sztucznej inteligencji za pomocą zestawu uzupełniających się, proporcjonalnych i elastycznych przepisów. Zaproponowane ramy prawne dotyczące sztucznej inteligencji proponują podejście oparte na czterech różnych poziomach ryzyka: ryzyko niedopuszczalne, ryzyko wysokie, ryzyko ograniczone i ryzyko minimalne.

"Okazało się, że zapisy w tym dokumencie należy zmodyfikować w związku z szybkim postępem prac nad SI i pojawieniem się SI ogólnego zastosowania (ang. general purpose AI), jak np. Chat GPT. Ze względu na wielorakie, trudne do przewidzenia zastosowania, może być to narzędzie niebezpieczne" - zaznaczył Chojnowski. Chat GPT opracowała amerykańska firma OpenAI. Służy m.in. do tworzenia odpowiedzi na pytanie lub polecenia wprowadzane przez użytkownika. Potrafi też wykonać bardziej złożone zadania, na przykład napisać opowiadanie lub fragment kodu, czyli programu.

Ekspert zapytany o prace w interdyscyplinarnym gronie ekspertów działającym w ramach grupy roboczej ds. sztucznej inteligencji przy KPRM w zakresie etyki powiedział, że są one zgodne z koncepcją SI godnej zaufania (ang. Trustworthy AI). Wypracowała ją grupa robocza powołana przez Komisję Europejską. Wśród wytycznych napisano, że systemy SI należy opracowywać, wdrażać i wykorzystywać w sposób zgodny z następującymi zasadami etycznymi: poszanowaniem autonomii człowieka, zapobieganiem szkodom, zapewnieniem sprawiedliwości i możliwości wyjaśnienia ich działania.

"Pracujemy m.in. nad rekomendacjami dotyczącymi etycznego zastosowania AI w sektorze publicznym, by korzystano z tego typu narzędzi w sposób świadomy i odpowiedzialny" - podkreślił.

Zwrócił uwagę na to, że zgodnie z polityką rozwoju SI w Polsce, sektor publiczny ma do odegrania w dziedzinie wdrażania SI rolę wzorcotwórczą.

"Właśnie podsumowujemy nasze prace i rozpoczynamy przygotowywanie raportu, który będzie zawierał zarys podstawowych problemów. Będą tam opisane narzędzia i wskazania" - zapewnił.

Dodał, że w przypadku wytycznych z zakresu etyki chodzi m.in. o zapewnienie przewodniej i nadzorczej roli człowieka w przypadku systemów SI. "Człowiek nie może zostać zdominowany przez maszyny, musi móc nimi ostatecznie zarządzać" - wyjaśnił.

Nie tylko w Europie eksperci zastanawiają się nad kontrolą SI. Szef Google Sundar Pichai przyznał w wywiadzie udzielonym w kwietniu telewizji CBS, że pożądane byłoby stworzenia dla SI globalnych ram regulacyjnych, podobnych do Układu o nierozprzestrzenianiu broni jądrowej. Chojnowski komentując tę wypowiedź stwierdził: "Poszczególne jurysdykcje będą tworzyć swoje rozwiązania. Uważam, że Europa ma do odegrania rolę pioniera, który wytyczy szlaki dla innych".

Źródło: pap.pl


Drukuj PDF
wstecz Podziel się ze znajomymi

Recenzje




Informacje dnia: Ekrany dotykowe bez problematycznego indu Świat atomów i cząsteczek Żyjemy w czasach multitożsamości Dlaczego Polki rzadziej jedzą mięso niż Polacy? Co 3 osoba dorosła zagrożona chorobami z powodu braku ruchu Cynk może pomóc chronić uprawy przed zmianami klimatu Ekrany dotykowe bez problematycznego indu Świat atomów i cząsteczek Żyjemy w czasach multitożsamości Dlaczego Polki rzadziej jedzą mięso niż Polacy? Co 3 osoba dorosła zagrożona chorobami z powodu braku ruchu Cynk może pomóc chronić uprawy przed zmianami klimatu Ekrany dotykowe bez problematycznego indu Świat atomów i cząsteczek Żyjemy w czasach multitożsamości Dlaczego Polki rzadziej jedzą mięso niż Polacy? Co 3 osoba dorosła zagrożona chorobami z powodu braku ruchu Cynk może pomóc chronić uprawy przed zmianami klimatu

Partnerzy

GoldenLine Fundacja Kobiety Nauki Job24 Obywatele Nauki NeuroSkoki Portal MaterialyInzynierskie.pl Uni Gdansk MULTITRAIN I MULTITRAIN II Nauki przyrodnicze KOŁO INZYNIERÓW PB ICHF PAN FUNDACJA JWP NEURONAUKA Mlodym Okiem Polski Instytut Rozwoju Biznesu Analityka Nauka w Polsce CITTRU - Centrum Innowacji, Transferu Technologii i Rozwoju Uniwersytetu Akademia PAN Chemia i Biznes Farmacom Świat Chemii Forum Akademickie Biotechnologia     Bioszkolenia Geodezja Instytut Lotnictwa EuroLab

Szanowny Czytelniku!

 
25 maja 2018 roku zacznie obowiązywać Rozporządzenie Parlamentu Europejskiego i Rady (UE) 2016/679 z dnia 27 kwietnia 2016 r (RODO). Potrzebujemy Twojej zgody na przetwarzanie Twoich danych osobowych przechowywanych w plikach cookies. Poniżej znajdziesz pełny zakres informacji na ten temat.
 
Zgadzam się na przechowywanie na urządzeniu, z którego korzystam tzw. plików cookies oraz na przetwarzanie moich danych osobowych pozostawianych w czasie korzystania przeze mnie ze strony internetowej Laboratoria.net w celach marketingowych, w tym na profilowanie i w celach analitycznych.

Kto będzie administratorem Twoich danych?

Administratorami Twoich danych będziemy my: Portal Laboratoria.net z siedzibą w Krakowie (Grupa INTS ul. Czerwone Maki 55/25 30-392 Kraków).

O jakich danych mówimy?

Chodzi o dane osobowe, które są zbierane w ramach korzystania przez Ciebie z naszych usług w tym zapisywanych w plikach cookies.

Dlaczego chcemy przetwarzać Twoje dane?

Przetwarzamy te dane w celach opisanych w polityce prywatności, między innymi aby:

Komu możemy przekazać dane?

Zgodnie z obowiązującym prawem Twoje dane możemy przekazywać podmiotom przetwarzającym je na nasze zlecenie, np. agencjom marketingowym, podwykonawcom naszych usług oraz podmiotom uprawnionym do uzyskania danych na podstawie obowiązującego prawa np. sądom lub organom ścigania – oczywiście tylko gdy wystąpią z żądaniem w oparciu o stosowną podstawę prawną.

Jakie masz prawa w stosunku do Twoich danych?

Masz między innymi prawo do żądania dostępu do danych, sprostowania, usunięcia lub ograniczenia ich przetwarzania. Możesz także wycofać zgodę na przetwarzanie danych osobowych, zgłosić sprzeciw oraz skorzystać z innych praw.

Jakie są podstawy prawne przetwarzania Twoich danych?

Każde przetwarzanie Twoich danych musi być oparte na właściwej, zgodnej z obowiązującymi przepisami, podstawie prawnej. Podstawą prawną przetwarzania Twoich danych w celu świadczenia usług, w tym dopasowywania ich do Twoich zainteresowań, analizowania ich i udoskonalania oraz zapewniania ich bezpieczeństwa jest niezbędność do wykonania umów o ich świadczenie (tymi umowami są zazwyczaj regulaminy lub podobne dokumenty dostępne w usługach, z których korzystasz). Taką podstawą prawną dla pomiarów statystycznych i marketingu własnego administratorów jest tzw. uzasadniony interes administratora. Przetwarzanie Twoich danych w celach marketingowych podmiotów trzecich będzie odbywać się na podstawie Twojej dobrowolnej zgody.

Dlatego też proszę zaznacz przycisk "zgadzam się" jeżeli zgadzasz się na przetwarzanie Twoich danych osobowych zbieranych w ramach korzystania przez ze mnie z portalu *Laboratoria.net, udostępnianych zarówno w wersji "desktop", jak i "mobile", w tym także zbieranych w tzw. plikach cookies. Wyrażenie zgody jest dobrowolne i możesz ją w dowolnym momencie wycofać.
 
Więcej w naszej POLITYCE PRYWATNOŚCI
 

Newsletter

Zawsze aktualne informacje