Poniedziałek, 23 grudnia 2024 r. 
REKLAMA

Sztuczna inteligencja coraz bardziej autonomiczna. Co z bezpieczeństwem ludzi?

Data publikacji: 12 sierpnia 2018 r. 16:12
Ostatnia aktualizacja: 06 września 2018 r. 21:16
Sztuczna inteligencja coraz bardziej autonomiczna. Co z bezpieczeństwem ludzi?
 

Trwa wyścig zbrojeń w zakresie sztucznej inteligencji. Europa, aby dogonić USA i Chiny – potentatów na tym polu – planuje rocznie wydać na SI niemal 20 mld euro. Upowszechnienie rozwiązań bazujących na sztucznej inteligencji, w tym m.in. robotów, to jednak nie tylko korzyści, lecz także poważne zagrożenia. Obok cyberataków czy kradzieży danych sztuczna inteligencja mogłaby zostać wykorzystana do inwigilacji i propagandy. Autonomiczne roboty mogłyby też zostać wykorzystane jako śmiercionośna broń. Potrzebne jest stworzenie odpowiednich ram prawnych, które będą regulowały odpowiedzialność za SI i kwestie etyczne – podkreślają eksperci.

– Prawo dotyczące sztucznej inteligencji powinno regulować dwa znaczące obszary: z jednej strony kwestie odpowiedzialności za działania sztucznej inteligencji, a z drugiej kwestie etyczne, czyli w jaki sposób sztuczna inteligencja ma się zachowywać, żeby w którymś momencie nie zaczęła krzywdzić człowieka czy ludzkości – mówi dr Agnieszka Besiekierska, szefowa Praktyki Digitalizacji Biznesu Kancelarii Noerr.

Największymi światowymi potęgami w zakresie sztucznej inteligencji są Stany Zjednoczone i Chiny, które wydają na nią najwięcej. SI w przyszłości może stanowić o przewadze gospodarczej poszczególnych krajów. Europa na tym polu zostawała w tyle – w dużej mierze dlatego, że kraje rywalizowały ze sobą, zamiast współtworzyć nowe rozwiązania. Ma się to jednak zmienić. Unia Europejska zapowiada aktywizację działań w obszarze sztucznej inteligencji, co roku na ten cel ma trafiać 20 mld euro. Na tle potęg to wciąż niewiele – raport Digital Poland „Przegląd strategii rozwoju sztucznej inteligencji na świecie” podaje, że Chiny na rozwój AI w 2017 roku wydadzą 28 mld dol. W USA tylko na jawne badania nad SI rząd wydał w 2016 roku 1,2 mld dol., a dodatkowe 30 mld stanowiły inwestycje sektora prywatnego. 

– W Europie jest kładziony nacisk z jednej strony na wspieranie rozwoju sztucznej inteligencji poprzez nadanie pewnych ram prawnych, swego rodzaju bodźców do rozwoju sztucznej inteligencji – takim obszarem będą regulacje dotyczące danych osobowych, danych nieosobowych i własności do danych nieosobowych – a z drugiej strony jest też kwestia zapewnienia odpowiednich ram bezpieczeństwa dla nas samych, żeby sztuczna inteligencja w którymś momencie nam nie zagroziła – mówi dr Agnieszka Besiekierska.

Jak podkreślają eksperci, wydatki to jedno, ale równie istotne jest stworzenie odpowiednich ram prawnych dla rozwoju SI.

– To są kwestie etyczne związane z użyciem sztucznej inteligencji, ale również zupełnie przyziemna kwestia odpowiedzialności, z jaką mamy do czynienia przy użyciu zwykłego pojazdu czy innej maszyny. Nowe rozwiązania różnią się od tradycyjnych technologii, bo tutaj wpływ człowieka na działania maszyny będzie w którymś momencie mniejszy, będzie on duży na etapie tworzenia rozwiązania, ale stopniowo będzie malał, bo ideą jest to, żeby to maszyna przejęła działania, zaczęła samodzielnie działać, a nawet podejmować decyzje – tłumaczy Agnieszka Besiekierska.

Raport „Złowrogie wykorzystanie sztucznej inteligencji” wskazuje, że ryzykiem w rozwoju SI jest możliwość jej użycia w złej wierze. Zagrożenia pojawiające się w sferze cyfrowej to np. kradzież danych i cyberataki. Potrzebne są też przepisy, które będą regulowały dane nieosobowe, równie istotne dla rozwoju sztucznej inteligencji. Zagrożenia są także natury politycznej i fizycznej. Dyktatorzy mogliby wykorzystywać SI do inwigilacji i dezinformacji, w czarnym scenariuszu – sztuczna inteligencja mogłaby zidentyfikować wrogów danego systemu i uwięzić ich, zanim podejmą jakiekolwiek działania.

– Nie jesteśmy w tej chwili w 100 proc. gotowi na najnowsze rozwiązania, np. na autonomiczne samochody. Odpowiedzi ze strony prawa są wciąż przygotowywane zarówno w odniesieniu do Polski, lecz przede wszystkim Europy i innych państw świata. W tej chwili korzystając z dotychczasowych rozwiązań prawnych, ocena niektórych sytuacji nie jest jednoznaczna ze względu na to, że one powstawały jeszcze w warunkach, kiedy rozwiązania sztucznej inteligencji nie istniały – ocenia prawniczka.

Militarne roboty już są wykorzystywane, są to m.in. autonomiczne drony. W strefie zdemilitaryzowanej na granicy Korei Północnej i Południowej funkcjonuje działko typu Sentry Gun, które za pomocą wbudowanych czujników wykrywa, automatycznie namierza i likwiduje cel. Chińczycy zaś opracowują bezzałogowe łodzie podwodne wspierane sztuczną inteligencją. Pierwsze takie łodzie mogą wypłynąć już w 2020 r.

Autonomiczne roboty militarne mogłyby być wykorzystywane także do fizycznej eliminacji przeciwników. Już teraz 160 największych organizacji świata oraz ponad 2,4 tys. naukowców i ludzi związanych z branżą technologiczną podpisało petycję przeciwko robotom-zabójcom.

Według analityków światowy rynek sztucznej inteligencji do 2025 roku osiągnie wartość 190 mld dol. Obecnie jego wartość szacowana jest na ok. 21,5 mld dol. Rynek militarnych robotów do 2022 r. ma osiągnąć wartość 29 mld dol.

Źródło: Newseria

Fot. freeimages

REKLAMA
REKLAMA

Komentarze

pipi
2018-08-12 21:46:56
- robią testy na sztuczną inteligencję w Polsce.... Przed trzema tygodniami L.Wałęsa chciał fuchę klawisza gdy "totalna" wygra wybory, aby wsadzić do pierdla J.Kaczyńskiego. Przed tygodniem "sztuczna inteligencja" napisała list; "Bracie Kaczyński" - jeszcze długo jajogłowi muszą popracować nad "wsadem".

Dodaj komentarz

HEJT STOP
0 / 500


REKLAMA
REKLAMA
REKLAMA