Strona korzysta z plików cookies w celu realizacji usług i zgodnie z Polityką Plików Cookies.

Aktualne wydanie

Polecamy

Obowiązki i odpowiedzialność administratora danych osobowych w świetle rodo

Obowiązki i odpowiedzialność administratora danych osobowych w świetle rodo
 

Tomasz Banyś (red.), Agnieszka Grzelak, Mirosław Gumularz, Katarzyna Witkowska-Nowakowska

Cena: 128,00 zł

Zamów

Polecamy

Mitologia rodo – konfrontacja z najczęstszymi błędami i absurdami

Mitologia rodo – konfrontacja z najczęstszymi błędami i absurdami
 

Aleksandra Zomerska, Robert Brodzik, Michał Kluska

Cena: 128,00 zł

Zamów

Sztuczna inteligencja wysokiego ryzyka

21-09-2021 Autor: Aleksandra Przegalińska, Marlena Sakowska-Baryła

O ryzyku dotyczącym sztucznej inteligencji mówi się w wielu kontekstach, my porozmawialiśmy na ten temat z prof. Aleksandrą Przegalińską, rektorką Akademii Leona Koźmińskiego oraz Senior Research Fellow American Institute for Economic Research.

 

Czy sztuczna inteligencja jest w ogóle wysokiego ryzyka?

Inwestycja w sztuczną inteligencję jest podróżą w nieznane, nie wiadomo, czy przyniesie jakieś korzyści, wprowadzi jakąś niezwykłą wręcz segmentację klienta. Czy to jest technologia, która po prostu niewiele da, a my zainwestujemy w nią bardzo dużo.

W tym sensie sztuczna inteligencja jest wysokiego ryzyka, ale nie tylko. Niesie za sobą także konsekwencje etyczne, czy system algorytmiczny może podejmować decyzje zwłaszcza w kluczowych sprawach, dotyczących różnych aspektów naszego życia.

Jest jeszcze straszenie sztuczną inteligencją, w tym utratą miejsc pracy. Dzisiaj większość takich szanowanych instytucji jak OECD wskazuje dosyć wyraźnie, że tej pracy z powodu podaży sztucznej inteligencji będzie przybywać dla ludzi. Oczywiście będzie grupa zawodów, które stracą na rozwoju sztucznej inteligencji, nie mam co do tego wątpliwości.

Sztuczna inteligencja może być wykorzystywana do różnego rodzaju manipulacji, które widzieliśmy przy okazji afery Cambridge Analytica. Jest tzw. technologią generalną – General Purpose Technology, będzie zatem prześwietlać wiele sfer naszego życia. Niektóre systemy sztucznej inteligencji nie są dla nas jasne, jeśli chodzi o to, jak przetwarzają informacje. Są czarnymi skrzynkami.

Jeśli myślimy o stosowaniu sztucznej inteligencji w systemie sądowniczym albo finansowym, to sztuczna inteligencja miałaby podejmować lub współpodejmować decyzje dotyczące tego, kto trafi do więzienia lub kto dostanie kredyt. Istnieją już bardzo ostrożne pilotaże takiego wykorzystywania technologii. Komisja Europejska wychodzi naprzeciw tego typu problemom.

Mam prawo do informacji, jakie decyzje zaciążyły na tym, że ja jednak kredytu nie dostaję. Systemy sztucznej inteligencji nie dadzą mi takiej odpowiedzi.

Tych systemów algorytmicznych jest bardzo dużo. I one zaczynają współpodejmować istotne z punktu widzenia naszego życia decyzje. Dlatego sztuczna inteligencja jest określona jako technologia wysokiego ryzyka.

 

Czy wykrywanie stanu emocjonalnego w przypadku sztucznej inteligencji, tak jak ma to miejsce w Chinach, gdzie testowane są takie rozwiązania, to jest ten element, gdzie można powiedzieć, że posunęliśmy się za daleko?

Należy pamiętać, że technologie są obarczone błędem. Ja przez jakiś czas pracowałam w tym przetwarzaniu efektywnym, mówi się też informatyka efektywna, informatyka emocjonalna. Jest to takie przetwarzanie ludzkich emocji. Można to robić na bardzo wiele różnych sposobów, np. przyłożyć elektrody w różne miejsca na ciele, można też polegać na mimice, która może być jednak zawodna, bo różni się w obrębie kultur. Uśmiech nie zawsze znaczy to samo. Jeśli ubierzesz się inaczej niż zwykle, nawet twój własny smartfon cię nie rozpozna. Zatem sam fakt, żeby wywodzić z jednego takiego sygnału wnioski dotyczące tego, czy ktoś się skupił czy nie, czy jest w dobrej kondycji czy jest w złej – wydaje się wątpliwy.

Myślę, że chińskie władze często lubią pójść na skróty, jeśli chodzi o taką inżynierię społeczną, i teraz znalazły sobie nową zabawkę, nową technologię, która to jeszcze bardziej upraszcza. To nie jest fajna szkoła, w której co sekundę jest sprawdzane, czy jestem dostatecznie skupiona. Bo jeśli jestem małym dzieckiem, będzie wiele takich momentów, kiedy nie będę skupiona.

 

[...]

 

Aleksandra Przegalińska – filozof, futurolog, doktor nauk humanistycznych i doktor habilitowana nauk społecznych, publicystka; rektorka Akademii Leona Koźmińskiego oraz Senior Research Fellow American Institute for Economic Research

 

Rozmawiała: Marlena Sakowska-Baryła

_____________________________________________________________________________________________________________________________________

Informacje o cookies © 2019 PRESSCOM Sp. z o.o.