Dnia 28 stycznia uczestniczyliśmy w ramach obchodów X Dnia Ochrony Danych Osobowych w konferencji „Ochrona danych osobowych w dobie Big Data” organizowanej przez Generalnego Inspektora Ochrony Danych Osobowych(GIODO) oraz Wydział Prawa i Administracji Uniwersytetu Warszawskiego. W poniższym wpisie zrelacjonujemy przebieg konferencji oraz krótko odniesiemy się do głównych zagadnień i tematów poruszonych w trakcie jej przebiegu.
Wydarzenie, które odbywało się na Uniwersytecie Warszawskim zostało podzielone na 3 główne panele, wszystkie w tematyce tytułowej Big Data tj.
Termin ten określa duże, zmienne i różnorodne zbiory danych, których przetwarzanie i analiza może prowadzić do zdobycia nowej wiedzy w zakresie profilu czy preferencji osoby fizycznej, przedsiębiorstwa, sytuacji czy też występujących tendencji. Dane ze zbiorów Bid Daty przetwarzane są bardzo szybko (do czego wymagane są skomplikowane algorytmy oraz nowoczesne systemy i urządzenia informatyczne). Przetwarzanie danych może następować nawet w czasie rzeczywistym (rozwiązanie to stosowane jest np. w marketingu oraz analizie predyktywnej tj. dostarczenie odpowiedniej oferty klientowi przed podjęciem przez niego decyzji o zakupie produktu). Danymi wykorzystywanymi w Big Data są m.in.: wpisy w serwisach społecznościowych (Facebook, Twitter), dane lokalizacyjne z urządzeń mobilnych (GPS), dane z czujników, monitoringu, metadane wyszukiwania w przeglądarce Internetowej, informacje z kart kredytowych, dane z czujników w samochodach i wiele innych. Jak możemy zauważyć są to różnego rodzaju dane, które całościowo mogą stanowić swoistą kopalnię wiedzy o osobach i zjawiskach, których dotyczą.
Określając wielkość skali przetwarzania danych prof. Jerzy Stefanowski (Politechnika Poznańska) podkreślił, że nawet w minutę przetwarzane są niewyobrażalne ilości informacji liczone w milionach. Zdaniem prof. Stefanowskiego następuje stopniowe wyparcie Internetu przez Sieć sensorów i Internet przedmiotów, a obecnie z punktu widzenia data mining technicznym wyzwaniem nie jest wcale gromadzenie danych, ale to jak przetwarzać te dane jeszcze bardziej efektywnie. Jak zaznaczył Big Data to nie tylko duża ilość danych, ale też bardzo szybki ruch tych danych. Jeżeli odpowiedź wypracowana w procesie przetwarzania nie wychodzi szybko to dane są stracone. Stąd w samej wartości i celowości wykorzystania Big Data liczy się sekunda. Istotną kwestią, która poruszył prof. Jerzy Stefanowski jest zagadnienie anonimizacji danych. Jego zdaniem anonimizacja w obecnie stosowanych formach nie sprawdza się w Big Data. Nawet z dobrze zanonimizowanych danych można uzyskać te, które odpowiednio połączone pozwalają na identyfikacyjne osoby, której dotyczą.
W swoich wystąpieniach Generalny Inspektor Ochrony Danych Osobowych dr Edyta Bielak-Jomaa, Dziekan WPiA UW prof. Krzysztof Rączka oraz sekretarz stanu w Ministerstwie Cyfryzacji Witold Kołodziejski, jednomyślnie podkreślili jak ważnym elementem rozwoju technologicznego jest wykorzystanie Big Daty. Zauważyli, że przetwarzanie danych to szansa, służąca celom poprawy jakości życia ludzi, a nie jedynie zjawisko stanowiące realne ryzyko zniewolenia obywatela, choć niewłaściwe wykorzystanie danych może do takiego wniosku prowadzić. Dlatego też w ocenie Dr Edyty Bielak-Jomaa należy zwrócić szczególną uwagę na postęp technologiczny również w aspekcie przetwarzania danych i wyzwań jakie to zjawisko ze sobą niesie. Ponadto, jak zaznaczyła GIODO organ kontroli jak i Administratorzy danych stoją przed wielkim wyzwaniem przygotowania odpowiednich rozwiązań prawnych i ich wdrożenia w zakresie przepisów przyszłego Rozporządzenia o ochronie danych osobowych.
Wiceminister Cyfryzacji Witold Kołodziejski podkreślił znaczenie przyszłego przejęcia całości publicznych zasobów danych informatycznych przez Ministerstwo Cyfryzacji oraz uporządkowania publicznych rejestrów danych. Zaznaczył również, że obecnie trudno wyobrazić sobie brak przetwarzania danych i nie tylko z tego powodu pewnych procesów nie unikniemy. Wobec takiego założenia należy posiadać nad procesami przetwarzania kontrolę. Jak podkreślił procesy mają służyć ludziom, a regulacje prawne mają dawać im poczucie bezpieczeństwa. Wszystko ma się opierać na zaufaniu przy założeniu jasnych i prostych kryteriów.
Moderatorem panelu był dr Arwid Mednis (WPiA UW). Początkowo pole dyskusji stanowił problem przetwarzania danych badawczych oraz danych gromadzonych przez Główny Urząd Statystyczny – scharakteryzowany jako oczy i uszy państwa.
Jako główne obszary przetwarzania Big Data w zakresie badawczym dr Łukasz Bolikowski (UW) wskazał medycynę oraz socjologię. Jednak, jak zaznaczył Big Data w sensie badawczym to głównie dane skupiające się na zjawiskach, a nie konkretnie na osobie, której dotyczą. Ważnym w aspekcie przetwarzania Big Data w nauce jest rozwiązanie kwestii możliwości publikowania danych badawczych oraz udostępniania wyników badań w celu ich dalszej weryfikacji.
W odniesieniu do działań Głównego Urzędu Statystycznego Agnieszka Komar-Morawska oraz Janusz Dygaszewicz (GUS) stwierdzili, że obecnie mamy styczność ze zjawiskiem rewolucji informacji cyfrowej, w której problemem nie jest fakt istnienia danych, ale ich właściwe wykorzystanie. Jak zaznaczyli w aspekcie właściwości przetwarzania danych łatwiej jest regulować jednostki publiczne niż prywatne – z takim twierdzeniem należy się zgodzić (red.). W tym przedmiocie poruszone zostało zagadnienie tzw. tajemnicy statystycznej – według prelegentów restrykcyjnie przestrzeganej. Wobec problematyki przetwarzania danych na potrzeby państwa stwierdzono, że dane gromadzone przez GUS są po to, aby profilować działanie Państwa i nie są to dane BIg Data, które moga pochodzić z różnych źródeł. Na tej płaszczyźnie konfrontowano działalność GUS z podmiotami komercyjnymi, które posiadają przewagę w analizie danych w postaci właśnie możliwości korzystania z różnych źródeł danych.
Kolejnym tematem było wykorzystywanie danych obywateli przez organy ścigania. Inspektor Andrzej Naperty z Komendy Głównej Policji stwierdził, że dane wykorzystywane w aspekcie działań Policji są bardzo istotne. Efektem przetwarzania danych jest profilowanie sytuacji oraz działań mających lub mogących mieć charakter przestępczy. Jak zaznaczył obecne źródła danych organów ścigania pochodzą z różnych kanałów m.in. z Facebooka i Twittera. Wobec postępu przepływu informacji Policja zmieniła profil zwalczania przestępczości z reakcyjnego na pro-aktywny i stara się przeciwdziałać przestępstwu zanim ono nastąpi. Jak zapewnił Inspektor „Policja nie zbiera danych na zapas”, a posiadane przez Policję dane pozwalają na profilowanie, weryfikację i wykrycie przestępcy. Słusznie (red.), jak wskazał Andrzej Naperty, należy stwierdzić, że najsłabszym ogniwem Big Data nie jest metodyka czy urządzenia służące do przetwarzania danych, ale człowiek.
Pani dr Agnieszka Grzelak z Biura Rzecznika Praw Obywatelskich podkreśliła na koniec, że należy podjąć szerokie konsultacje w aspekcie badania przepływu, zakresu oraz łączenie danych.
W panelu dotyczącym sektora prywatnego poruszono problematykę wykorzystywania Big Data przez ubezpieczycieli, banki oraz operatorów telekomunikacyjnych. Jak wiemy wskazana kategoria Administratorów posiada ogromne bazy danych o bardzo szerokim zakresie jakościowym, a także znaczne możliwości ich przetwarzania.
Jak podkreślił prof. Wojciech Bijak, (Szkoła Główna Handlowa, Ubezpieczeniowy Funduszy Gwarancyjny) działalność Ubezpieczeniowego Funduszu Gwarancyjnego i zakładów ubezpieczeniowych została uregulowana w przepisach o ubezpieczeniach zatem jest podstawa do twierdzenia, że podmioty wykonujące zadania ubezpieczycieli przestrzegają zasadę tajemnicy ubezpieczeniowej. Wobec tego przepisy stwarzają gwarancję przetwarzania i wykorzystania danych osobowych ubezpieczonych zgodnie z prawem. Jak zaznaczył, UFG integruje dane z 25 ośrodków, z 330 mln rekordów wypłat – co stanowi ogromną ilością danych. Zgodnie ze swoimi zadaniami UFG udostępnia posiadane dane m.in. osobom indywidualnym (poszkodowanym), zakładom ubezpieczeń (w celu ocena ryzyka), podmiotom indywidualnym (policja, prokuratura, sądy w celu prowadzenia zadań im przydzielonych). W swoim komentarzu profesor podkreślił funkcję UFG jako brokera informacyjnego w relacjach z Polskim Biurem Ubezpieczycieli Komunikacyjnych oraz zakładami ubezpieczeń.
Ostatnim problemem, który został poruszony była kwestia wykrywalności zjawisk patologicznych w ubezpieczeniach tzw. przestępczości ubezpieczeniowej w postaci np. braku posiadania ubezpieczeń obowiązkowych czy wyłudzanie ubezpieczeń. UFG planuje w celu weryfikacji zjawisk patologicznych (przestępczych) korzystać ze specjalnej platformy. Według prof. Bijaka w UFG istnieje realna możliwość weryfikacji zjawisk patologicznych.
Kolejnym przedmiotem rozmów było wykorzystanie danych lokalizacyjnych przez operatorów telekomunikacyjnych. Paweł Gora (Uniwersytet Warszawski) zwrócił uwagę na wykorzystywanie agregatów danych poprzez wyznaczanie macierzy podróży, optymalnych lokalizacji czy przez system informowania mieszkańców np. o niebezpieczeństwach. Jak zaznaczył dane lokalizacyjne pozwalają na lepsze i bardziej efektywne projektowanie sieci dróg, transportu drogowego, lokowania usług dodanych opartych o lokalizację. Problemem w aspekcie lokalizacji jest anonimizowanie danych, które jest bardzo trudne, zważywszy na fakt, że dane te mogą realnie pozwolić na identyfikację konkretnej osoby lub jej położenia. Odniósł się do tego Kamil Zegier (Orange Polska) i stwierdził, że monitorowany jest ruch, a nie treść danych. Czyli analizowane są tzw. metadane. Jak podkreślił, operator przetwarza średnio 430 mln zmian lokalizacji swoich użytkowników dziennie. Wskazał, że w procesie przetwarzania w pierwszej kolejności następuje anonimizacja danych, a dopiero następnie ich agregacja oraz szukanie wyników w procesie ich przetwarzania.
Jako ostatni głos zabrał dr Tadeusz Białek reprezentujący Związek Banków Polskich. Dr Białek bardzo jasno sformułował podstawy prawne przetwarzania danych klientów banków oraz cel ich wykorzystywania. Ogólnie rzecz ujmując dane są chronione zgodnie z zasadami tajemnicy bankowej, a zakres ich przetwarzania jest bardzo szeroki ze względu na konieczność zabezpieczenia depozytów bankowych przed zachowaniami niewłaściwymi z punktu widzenia interesu banku oraz jego klientów, których środkami dysponuje bank. Można powiedzieć, że pobieranie tak szerokiego wachlarzu danych od klienta jest w jego interesie. Jak zaznaczył dr Tadeusz Białek banki przetwarzają dane klientów z wykorzystanie wielu różnych systemów m.in. systemu dokumentów zastrzeżonych, system wymiany ostrzeżeń o zagrożeniach (system monitorowania wyłudzeń), system pojazdy, system bankowy rejestr, system zdarzeń z obszaru ryzyka operacyjnego. Pytanie czy istnieje swoistego rodzaju równowaga pomiędzy interesem klienta, a zakresem i metodami przetwarzania danych przez banki.
W tej części została poruszona problematyka przyszłych rozwiązań prawnych związanych z projektem Rozporządzenia o ochronie danych osobowych i ocena skuteczności zaproponowanych w nim rozwiązań. Prelegenci skupili się głównie na zagadnieniu profilowania – czyli jak wynika z tekstu projektu „any form of automated processing of personal data intended to evaluate certain personal aspects relating to a natural person or to analyse or predict in particular that natural person’s performance at work, economic situation, location, health, personal preferences, reliability or behaviour.”
Dr Paweł Litwiński (Instytut Allerhanda) oraz Anna Walkowiak (Fundacja Panoptykon) wyjaśnili podstawowe problemy interpretacyjne tekstu projektu Rozporządzenia w zakresie profilowania. Zaznaczyli, że zasadą stanie się zakaz profilowania, ale będzie ono możliwe przy zaistnieniu pewnych przesłanek m.in. niezbędność profilowania w celu zawarcia i wykonania umowy czy posiadania wyraźnej zgody podmiotu danych. Zaznaczyli również rozbudowanie obowiązku udzielania informacji podmiotowi danych przez Administratora, który dane gromadzi i przetwarza. Podkreślili, że ustawodawca europejski wychodzi na przeciw technikom stosowanym w marketingu i postępowi technologicznemu.
O profilowaniu jako narzędziu marketingu od strony praktycznej mówił Włodzimierz Schmidt (Związek Pracodawców Branży Internetowej IAB Polska). W swoim wystąpieniu określił profilowanie jako niezbędne narzędzie marketingowe. Przedstawił sam proces jako pozytywny i konieczny również w aspekcie oczekiwań potencjalnego Klienta. Ponadto podniósł argument, że dopuszczenie takiego narzędzia w sprzedaży jest z pożytkiem dla całej gospodarki, a ograniczanie możliwości profilowania klientów może przynieść katastrofalne skutki dla handlu.
Konferencja poruszała bardzo istotne kwestie. Wśród najważniejszych z nich można wyróżnić:
Nie ma wątpliwości, że postęp technologiczny niesie ze sobą rozwój metod pobierania i gromadzenia informacji o człowieku – podmiocie danych. Ilość urządzeń i struktur posiadających możliwość pobierania, analizowania, przesyłania oraz gromadzenia danych jest coraz większa. Wobec istnienia takiego zjawiska świat musi się zmierzyć z ideologicznym aspektem przetwarzania danych o osobie fizycznej i nie chodzi tu jedynie o to czy można dane wykorzystywać – bo to akurat jest oczywiste, ale głównie o to gdzie postawić granicę pomiędzy prawem do prywatności, a potrzebami rynku czy państwa. Jeszcze kilkanaście lat temu proces identyfikacji osoby było dużo dłuższy, a często nawet niemożliwy. Dzisiaj można w ciągu kilku minut uzyskać informacje pozwalające na identyfikacje i co więcej lokalizację konkretnej osoby. Należy podkreślić, co wskazała dr Edyta Bielak-Jomaa, że to człowiek jest najważniejszym elementem i podmiotem, a nie przedmiotem dyskusji o przetwarzaniu danych. O czym niestety niektórzy z prelegentów chyba zapomnieli. Wizja świata gdzie algorytm będzie szybciej wiedział o naszych potrzebach niż my sami jest błędny i nie przemawia za nią jakikolwiek argument w przedmiocie blokowania rozwoju czy upadku gospodarki, a jedynie chęć osiągania wymiernych korzyści ekonomicznych. Oczywiście od problemów wykorzystania danych nie uciekniemy, dlatego też bardzo duża odpowiedzialność spoczywa na prawodawcach, którzy będą musieli znaleźć dobre rozwiązania równoważące potrzeby obecnego świata, a ograniczeniem wpływu na podmiot danych i jego prywatność.