Strona korzysta z plików cookies w celu realizacji usług i zgodnie z Polityką Plików Cookies.

Aktualne wydanie

Polecamy

Obowiązki i odpowiedzialność administratora danych osobowych w świetle rodo

Obowiązki i odpowiedzialność administratora danych osobowych w świetle rodo
 

Tomasz Banyś (red.), Agnieszka Grzelak, Mirosław Gumularz, Katarzyna Witkowska-Nowakowska

Cena: 128,00 zł

Zamów

Polecamy

Mitologia rodo – konfrontacja z najczęstszymi błędami i absurdami

Mitologia rodo – konfrontacja z najczęstszymi błędami i absurdami
 

Aleksandra Zomerska, Robert Brodzik, Michał Kluska

Cena: 128,00 zł

Zamów

Zakazane użycie sztucznej inteligencji

21-09-2021 Autor: Gabriela Bar

Komisja Europejska ma przed sobą trudne zadanie – pogodzenie celów, które z natury są sprzeczne. Z jednej strony proponowane ramy regulacyjne dotyczące AI mają zapewnić, aby systemy AI wprowadzane do obrotu w EU były bezpieczne i zgodne z obowiązującym prawem, respektowały prawa podstawowe oraz unijne wartości, z drugiej zaś – mają ułatwiać rozwój jednolitego rynku cyfrowego oraz inwestycje i innowacje w dziedzinie AI.

 

Komisja Europejska (dalej: KE) dąży do utworzenia jednolitego rynku cyfrowego na terenie całej UE, wszystko jednak musi się odbyć w zgodzie z obowiązującymi przepisami prawa, w tym rodo. Wyrazem kompromisu wydają się przepisy odnoszące się do zakazanych praktyk w zakresie AI zawarte w tytule II projektu rozporządzenia UE ustanawiającego zharmonizowane przepisy dotyczące sztucznej inteligencji (dalej: projekt AIA). Większość wniosku ustawodawczego KE koncentruje się na przypadkach takiego użycia AI, które stwarza wysokie ryzyko (tzw. high-risk AI).

 

Ryzyko niedopuszczalne

Komisja Europejska, stosując podejście oparte na ryzyku (risk-based approach), zidentyfikowała także cztery zastosowania AI stwarzające „ryzyko niedopuszczalne” (unacceptable risk) i zaproponowała zakaz ich wykorzystywania. Zakaz ten, sformułowany w art. 5 ust. 1 projektu AIA, obejmuje:

  1. systemy AI wykorzystujące techniki podprogowe, będące poza świadomością danej osoby (dotyczy to bodźców wzrokowych lub słuchowych, które trwają zbyt krótko lub są zbyt słabe, by mogły zostać świadomie zarejestrowane przez ludzki umysł) – w celu istotnego zniekształcenia zachowania tej osoby w sposób, który powoduje lub może powodować u niej lub u innej osoby szkodę fizyczną lub psychiczną;
  2. systemy AI wykorzystujące dowolne słabości (podatności) określonej grupy osób ze względu na ich wiek, niepełnosprawność ruchową lub zaburzenie psychiczne (np. zabawki wykorzystujące pomoc głosową zachęcające do niebezpiecznych zachowań nieletnich) – w celu istotnego zniekształcenia zachowania takiej osoby w sposób, którypowoduje lub może powodować u tej osoby lub u innej osoby szkodę fizyczną lub psychiczną;
  3. systemy AI stosowane przez organy publiczne lub w ich imieniu na potrzeby oceny lub klasyfikacji wiarygodności osób fizycznych prowadzonej przez określony czas na podstawie ich zachowania społecznego lub znanych bądź przewidywanych cech osobistych lub cech osobowości (tzw. social scoring), kiedy to punktowa ocena społeczna prowadzi np. do krzywdzącego traktowania niektórych osób fizycznych lub całych grup osób w kontekstach społecznych, które nie są związane z kontekstami, w których pierwotnie wygenerowano lub zgromadzono dane, lub które jest nieuzasadnione lub nieproporcjonalne do ich zachowania społecznego lub jego wagi;
  4. systemy AI wykorzystywane do zdalnej identyfikacji biometrycznej „w czasie rzeczywistym” w przestrzeni publicznej do celów egzekwowania prawa (z wyjątkami omówionymi niżej).

Działania podprogowe, manipulacja, kontrola społeczna

Nie ulega wątpliwości, na co słusznie zwraca uwagę KE, że nowe technologie, zwłaszcza wykorzystujące AI, mogą dostarczać nowych i potężnych narzędzi do praktyk manipulacji, wykorzystywania i kontroli społecznej. Powyższe zakazy są zatem uzasadnione ze względu na sprzeczność określonych zastosowań AI z unijnymi wartościami poszanowania godności ludzkiej, wolności, równości, demokracji i praworządności oraz z prawami podstawowymi UE, w tym z prawem do niedyskryminacji, ochrony danych i prywatności oraz z prawami dziecka.

Krytycy twierdzą jednak, że wniosek zawiera szereg luk, które znacznie osłabiają rzeczywiste skutki tych zakazów. Należy przede wszystkim zwrócić uwagę na to, że zastosowania AI wykorzystujące techniki podprogowe i podatności określonych grup społecznych są nadal dozwolone, jeśli nie powodują szkody fizycznej lub psychicznej. Tymczasem wykorzystywanie przez system AI „słabości” danej osoby ze względu na jej zdolności umysłowe, niepełnosprawność fizyczną lub wiek powinno być zakazane, co do zasady, jako naruszające podstawowe prawa człowieka i po prostu niemoralne, niezależnie od tego, czy powstała w związku z tym jakakolwiek szkoda. Podobny zarzut należy postawić w odniesieniu do stosowania przez systemy AI „technik podprogowych”. Przekaz podprogowy jest zawsze formą manipulacji, a każda manipulacja niesie za sobą niebezpieczeństwo wykorzystania drugiego człowieka bez jego świadomości i wyrządzenia mu krzywdy, co samo w sobie jest całkowicie sprzeczne ze standardami praw człowieka. Reklama podprogowa (subliminalna) zakazana jest w Polsce na podstawie art. 16b ust. 2 pkt 5 ustawy z dnia 8 kwietnia 2020 r. o radiofonii i telewizji. Zakaz taki obowiązuje w wielu państwach na podstawie europejskiej konwencji o telewizji ponadgranicznej, sporządzonej w Strasburgu 5 maja 1989 r.

 

[...]

 

Autorka jest radcą prawnym, doktorem nauk prawnych, partnerką zarządzającą w Szostek_Bar i Partnerzy Kancelarii Prawnej; członkinią Komitetu Prawnego IEEE, Stowarzyszenia Prawa Nowych Technologii, Women in AI oraz AI4EU. Pracuje jako adiunkt na WPiA UO i UŚ.

_____________________________________________________________________________________________________________________________________

Informacje o cookies © 2019 PRESSCOM Sp. z o.o.