Strona korzysta z plików cookies w celu realizacji usług i zgodnie z Polityką Plików Cookies.

Aktualne wydanie

Polecamy

Mitologia rodo – konfrontacja z najczęstszymi błędami i absurdami

Mitologia rodo – konfrontacja z najczęstszymi błędami i absurdami
 

Aleksandra Zomerska, Robert Brodzik, Michał Kluska

Cena: 128,00 zł

Zamów

Polecamy

Rodo w praktyce – odpowiedzi na 273 najtrudniejsze pytania

Rodo w praktyce – odpowiedzi na 273 najtrudniejsze pytania
 

Bartosz Marcinkowski, Robert Brodzik, Klaudia Czarniecka, Michał Kluska, Katarzyna Kulesza, Olga Legat, Justyna Tyc

Cena: 128,00 zł

Zamów

FRT w sektorze prywatnym a rodo – zarys problemu

02-06-2020 Autor: Mateusz Kupiec

Technologie rozpoznawania twarzy (z ang. FRT) zaczynają być stosowane nie tylko przez władze publiczne, ale również przez podmioty prywatne. W artykule przyjrzymy się temu zagadnieniu w kontekście ochrony danych osobowych.

 

Współcześnie na skutek postępującego rozwoju technologicznego wiele rozwiązań, które kiedyś pojawiały się wyłącznie w powieściach lub filmach science fiction, staje się pomału częścią naszej rzeczywistości. Jednymi z nich są właśnie technologie umożliwiające rozpoznawanie twarzy jednostki (Facial Recognition Technologies, Face Recognition Technologies, FRT). Rozwiązania te od pewnego czasu cieszą się znaczącym zainteresowaniem opinii publicznej. Prawie codziennie podczas przeglądania internetu, social mediów można przeczytać o nowych przykładach i planach zastosowania FRT. Ostatnio technologiom rozpoznawania twarzy poświęcono wiele uwagi m.in. w kontekście ich stosowania w Moskwie w celu identyfikacji i monitorowania osób poddanych kwarantannie w związku z przeciwdziałaniem rozprzestrzeniania się koronawirusa (COVID-19).

Wzrastająca obecność FRT wywołuje dyskusje nie tylko wśród polityków, prawników, ale również zwykłych obywateli. Coraz częściej dochodzi bowiem do krytyki oraz protestów w związku ze stosowaniem technologii rozpoznawania twarzy przez władze państwowe. Stosowanie FRT przez policję w Południowej Walii podczas zabezpieczania meczów piłkarskich w celu identyfikacji osób z zakazami stadionowymi spotkało się ze sprzeciwem nie tylko środowiska kibiców, ale również wzbudziło wątpliwości niektórych funkcjonariuszy. Z kolei studenci Uniwersytetu Kalifornijskiego w Los Angeles (UCLA) stanowczo wystąpili przeciwko planowanemu przez władze uczelni wdrożeniu FRT na kampusie, a londyńska grupa artystyczna Dazzle Club zorganizowała niedawno happening polegający na malowaniu twarzy barwami kamuflującymi, aby skłonić społeczeństwo do refleksji nad zagrożeniami, jakie technologia ta niesie dla prywatności. Komisja Europejska rozważała nawet wprowadzenie 5-letniego moratorium na używanie takich technologii w przestrzeni publicznej.

Wyzwania dla ochrony prywatności osób fizycznych związane z FRT przestały być więc wyłącznie wytworem wyobraźni pisarzy, scenarzystów, a stały się realnym zagadnieniem i to w dodatku jak najbardziej aktualnym. Wydaje się jednak, że w obecnym dyskursie nie dostrzega się faktu, iż FRT nie pozostaną narzędziem wykorzystywanym wyłącznie przez władze publiczne. Celem artykułu jest przedstawienie dotychczasowych sposobów implementacji FRT w sektorze prywatnym, a także poruszenie kwestii dopuszczalności takich rozwiązań w świetle europejskiego modelu ochrony danych osobowych.

 

Jak właściwie działają FRT?

 

Najbardziej uniwersalną i neutralnie technologiczną definicję takich rozwiązań zaproponowała Grupa Robocza art. 29 w opinii 02/2012 w sprawie systemów rozpoznawania twarzy w usługach online i usługach komórkowych. Wynika z niej, że FRT opierają się na zautomatyzowanym procesie, który polega na przetworzeniu obrazu cyfrowego zawierającego twarze osób w celu ich identyfikacji lub weryfikacji tożsamości. Jak trafnie wskazano w przyjętej niedawno przez Komisję Europejską białej księdze w sprawie sztucznej inteligencji: „w odniesieniu do rozpoznawania twarzy identyfikacja oznacza, że wzór obrazu twarzy danej osoby jest porównywany z wieloma innymi wzorami przechowywanymi w bazie danych w celu stwierdzenia czy obraz twarzy tej osoby jest przechowywany w tej bazie danych”. Natomiast proces weryfikacji autorzy księgi postrzegają jako: „porównanie dwóch wzorców biometrycznych (…), co do których zasadniczo zakłada się, że należą do tej samej osoby w celu określenia, czy osoba wskazana na dwóch obrazach jest tą samą osobą”.

Należy również zauważyć, że większość FRT korzysta z dwuwymiarowego obrazu pozyskanego na przykład z kamer CCTV, co może negatywnie wpływać na dokładność całego procesu. Takiemu obrazowi brakuje bowiem głębi i z tego względu program nie może porównać takich cech twarzy jak m.in. długość nosa. Wprawdzie na rynku pojawiają się rozwiązania FRT pozyskujące obraz w trzech wymiarach, ale wciąż jest ich stosunkowo mało.

 

[...]

 

Autor zajmuje się ochroną danych osobowych, współpracował m.in. z kancelarią Traple Konarski Podrecki i Wspólnicy.

_____________________________________________________________________________________________________________________________________

Informacje o cookies © 2019 PRESSCOM Sp. z o.o.