STS odpowiada Klubowi Jagiellońskiemu

W oczekiwaniu na stworzenie ogólnoświatowego systemu ochrony dzieci przed pornografią

Stowarzyszenie Twoja Sprawa odpowiada autorom tekstu „Sztuczna inteligencja powinna chronić dzieci przed porno”, który ukazał się na stronie Klubu Jagiellońskiego.

Jesteśmy wdzięczni Klubowi Jagiellońskiemu za zaproszenie na organizowaną w Gdańsku debatę na temat naszej inicjatywy dotyczącej ochrony dzieci przed pornografią. Z powodu innych zobowiązań nie mogliśmy wziąć udziału w tej dyskusji. Żałujemy tym bardziej, że nasz udział pomógłby lepiej wyjaśnić nasze stanowisko i kierunek, w jakim idą prace związane z projektem ustawy.

Wszelkie dyskusje, które są prowadzone w dobrej wierze i z prawdziwą chęcią zrozumienia rozmówcy uważamy za bezcenne w obecnych czasach naszego zbyt mocno spolaryzowanego społeczeństwa. A jeszcze lepiej, gdy dyskusjom tym towarzyszy wola poszukiwania rozwiązań, a nie chęć przekonania na siłę rozmówcy do swoich racji. Tak odbieramy tekst, którego autorami są Jakub Lipiński i Bartosz Paszcza pt. „Sztuczna inteligencja powinna chronić dzieci przed porno”.

https://klubjagiellonski.pl/2020/01/30/sztuczna-inteligencja-powinna-chronic-dzieci-przed-porno/

Postanowiliśmy nie streszczać wyżej wskazanego artykułu, gdyż nie chcemy, aby doszło do przekłamań. Tekst jest zresztą długi, a wszelkie streszczenia prowadzą do uproszczeń. Naszą odpowiedź na wspomniany artykuł zamieszczony na stronach Klubu Jagiellońskiego podzieliliśmy na kilka części.

Po pierwsze, chcemy wyjaśnić główne cele naszego projektu ustawy i odnieść się do zagadnień, których rzekomo nie rozumiemy, co zdają się wprost zarzucać nam autorzy. Po drugie, odnieść się do kwestii prywatności. Po trzecie, zadać sobie pytanie, czy warto robić małe kroki (vide nasz projekt ustawy), czy może wstrzymać się i czekać kilka lub kilkanaście lat na powstanie jakiegoś genialnego projektu popieranego przez Unię Europejską, który skutecznie załatwi problem poprzez m.in. nałożenie obowiązków na twórców aplikacji i systemów operacyjnych.

Pomijamy temat szkodliwości pornografii, gdyż w tym aspekcie nie ma chyba między nami różnicy. Uznajemy wspólnie, że dostępność pornografii dla dzieci jest istotnym problemem społecznym, o czym zresztą Stowarzyszenie Twoja Sprawa mówi i alarmuje od lat, choćby prowadząc portal oPornografii.pl oraz organizując konferencje naukowe. Również zgadzamy się, że mądra edukacja jest najważniejszym elementem systemu ochrony dzieci przed negatywnymi skutkami pornografii. Stowarzyszenie Twoja Sprawa prowadzi zresztą takie działania od lat zwiększając świadomość społeczną i edukując rodziców.

Jaki jest cel projektu ustawy?

Autorzy na samym początku zarzucają nam nieudolność w poszukiwaniu optymalnego rozwiązania. O nieudolności można mówić jedynie w kontekście osiągnięcia lub nieosiągnięcia zamierzonego celu. Jeżeli cel ustawy zdefiniujemy jako ochronę 100% lub blisko 100% dzieci i młodzieży do 18 roku życia przed dostępem do pornografii, to można byłoby się z autorami artykułu zgodzić. Tyle, że nigdy projekt ustawy takiego celu przed sobą nie stawiał, o czym łatwo przekonać się choćby czytając materiały towarzyszące publikacji naszego projektu w grudniu 2019 roku. Przypomnijmy więc, jakie są cele naszego projektu?

Po pierwsze, jest to chęć poszerzenia obszaru bezpieczeństwa dzieci w Internecie i doprowadzenie do sytuacji, w której strony z pornografią nie będą elementem medialnego mainstreamu, i na które dziecko może bez żadnych problemów wejść w kilka sekund. Po drugie, jest to chęć ochrony najmłodszych dzieci, szczególnie tych w wieku 6-10 lat. Należy również robić wszystko, aby chronić dzieci, które nieintencjonalnie trafiają na pornografię w Internecie, a prawie zawsze kontakt z pornografią zaczyna się nieintencjonalnie. Jest natomiast oczywiste, że zdeterminowany nastolatek do pornografii dotrze bez większego problemu i zrobi to zresztą również w systemie proponowanym przez autorów z Klubu Jagiellońskiego.

Po trzecie, naszą intencją jest nałożenie na przemysł pornograficzny dystrybuujący bez jakichkolwiek ograniczeń produkty niebezpieczne dla dzieci, pewnych minimalnych standardów, a takim minimalnym standardem jest naszym zdaniem weryfikowanie wieku odbiorców pornografii. A skoro chcemy zrealizować ten ostatni cel, konieczne jest ustalenie sankcji nakładanych na tych przedstawicieli przemysłu pornograficznego, którzy nowe zasady będą ignorowali. Dlatego też na blokowanie przez dostawców dostępu do internetu stron, które nie spełniają minimalnych wymogów, należy spojrzeć – podobnie jak na pozostałe sankcje przewidziane projektem – przede wszystkim, choć nie tylko, jako na element motywujący przemysł pornograficzny do wprowadzania weryfikacji wieku. Ponieważ autorzy artykułu liczą na szerszą inicjatywę Unii Europejskiej w obszarze ochrony dzieci, warto zaznaczyć, że same narzędzia weryfikacji wieku są wyszczególnione w nowej dyrektywie audiowizualnej, którą państwa członkowskie mają wdrożyć do września 2020 roku. Z naszej wiedzy wynika, że większość członków Unii będzie szła właśnie w kierunku weryfikacji wieku.

Pojawia się oczywiście pytanie, jak wiele dzieci będzie obchodziło weryfikację wieku i blokady stron, które nie będą respektować polskiego prawa. Im będą starsze, tym będzie ich więcej. Nie zgadzamy się natomiast z tezą, że duża część dzieci najmłodszych w wieku 6-10 lat skorzysta z VPN czy dokona zmiany ustawień przeglądarek. Sądzimy, że takich dzieci będzie zdecydowana mniejszość, co oznacza, że w przypadku dużej części z nich odsunie się na pewien czas pierwszy kontakt z pornografią. To już dużo.

Skoro już mowa o VPN i przeglądarkach, jeżeli coś nas w tekście autorów zirytowało, to sugerowanie naszej rzekomej niewiedzy na temat tego, jak jest dystrybuowana pornografia. Jak piszą autorzy, zarzut kierowany w naszą stronę „wiąże się z fałszywym przekonaniem twórców ustawy, że treści pornograficzne dostępne są głównie za pośrednictwem dedykowanych do tego stron internetowych (…)”. Jak informują nas autorzy, „treści pornograficzne rozpowszechniane mogą być przez komunikatory internetowe (…), strony na których treści dla dorosłych są tylko częścią oferty (…), aplikacje na telefonach komórkowych (…)”. Pół żartem, pół serio, korzystając z litentia poetica autorów tekstu, można powiedzieć, że wykazali się oni „fałszywym przekonaniem”, że twórcy ustawy, zajmując się problemem dostępu dzieci do pornografii od ponad 10 lat nie wiedzą, czym są aplikacje, komunikatory, czy fora internetowe. Uważamy po prostu, że jeżeli mamy kilka kanałów dystrybucji, powinniśmy zająć się tymi kanałami, gdzie narzędzia legislacyjne mają szansę powodzenia, a pozostałe kanały – które wymagałyby zupełnie innych narzędzi – pozostawić samoregulacji i inicjatywom przedsiębiorców pośredniczących w dostępie do pornografii w ramach działań CSR. Projekt ustawy mocno otworzył przestrzeń na tę dyskusję.

Prywatność a ochrona dzieci

O sprawie prywatności mówiliśmy bardzo często, ale mamy wątpliwości, czy autorzy tekstu zapoznali się z naszymi opiniami na ten temat i założeniami wstępnymi. Musimy więc powtórzyć parę wyjaśnień, skoro autorzy uważają, że projekt ustawy „całą naszą prywatność wrzuca do kosza”. Zacznijmy jednak od pokazania kontekstu, którego artykuł zdaje się w ogóle nie zauważać, skoro autorzy uznają, że weryfikacja wieku jest jakimś „game changer” w obszarze ochrony prywatności. Obecnie prywatność zdecydowanej większości osób poszukujących pornografii w internecie jest iluzoryczna (w zasadzie mogą na nią liczyć tylko najbardziej zaawansowani użytkownicy internetu). Nie tylko CZY dana osoba ogląda pornografię w internecie, ale JAKĄ ogląda (nawet jeżeli robi to w trybie incognito) wie lub może wiedzieć wiele podmiotów: twórcy wyszukiwarek, dostawcy internetu, dostawcy przeglądarek, często przemysł pornograficzny. Wreszcie należy wskazać możliwość pozyskania takiej wiedzy przez organy państwa w trybie określonym przepisami prawa. Nie piszemy o tym, aby bagatelizować problem braku prywatności. Uważamy jednak, że da się skonstruować system, który nie pogorszy standardu prywatności konsumentów pornografii. Obecnie prace nad tym zagadnieniem trwają w gronie ekspertów powołanych przez Ministerstwo Rodziny, Pracy i Polityki Społecznej.

Przypomnijmy jednak parę wstępnych założeń, które przyświecały nam przy pisaniu projektu ustawy. Po pierwsze, weryfikować wieku nie powinny podmioty dystrybuujące pornografię. Jedyną informację, jaką powinni otrzymać w ramach budowanego systemu, jest informacja, czy osoba wchodząca na ich zasoby informatyczne jest pełnoletnia, czy też nie. Inna sprawa, że – jak wskazaliśmy powyżej – wiedzą o swoich klientach znacznie więcej. Po drugie, weryfikacja wieku nie powinna pozwalać podmiotowi weryfikującemu wiek na stwierdzenie, jakie strony są odwiedzane przez osobę, której wiek jest sprawdzany, ani jakie taka osoba może mieć preferencje seksualne. Po trzecie, w wyniku weryfikacji wieku nie powinny być tworzone bazy danych osób. Dane te powinny być usuwane automatycznie po przeprowadzeniu weryfikacji, a w zasadzie być częścią procesu, skoro cel przetwarzania danych się zakończył. To, że osoby te i tak nie będą w pełni anonimowe w Internecie jest oczywiste, ale nie wynika to z systemu weryfikacji wieku, ale z obecnej architektury sieci i dostępu do danych przez dostawców internetu, zasady retencji danych telekomunikacyjnych, wiedzy producentów przeglądarek, wyszukiwarek i systemów operacyjnych. Sama weryfikacja wieku nie powinna pogarszać jednak standardu prywatności. Trudno więc zgodzić się z dramatycznym stwierdzeniem, że twórcy ustawy rzekomo „wyrzucają naszą prywatność do kosza”.

Notabene, autorzy artykułu proponują rozwiązanie, którego my nie śmieliśmy zaproponować w dyskusji publicznej z uwagi na ochronę prywatności. Idea kupowania comiesięcznych kodów w sklepach, np. w Żabce, jest naszym zdaniem pomysłem niosącym o wiele więcej pytań o ochronę prywatności.  

Czy sztuczna inteligencja i Unia Europejska rozwiążą problem?

Zacznijmy od sztucznej inteligencji. Rozumiemy, że sztuczna inteligencja miałaby za zadanie identyfikować treści pornograficzne, w tym treści o charakterze nielegalnym. Jest to próba wyważania otwartych drzwi. Po pierwsze, maszynowe rozpoznawanie tego typu treści już się odbywa, a narzędzia dostępne na rynku są niezwykle skuteczne. Korzystają z nich zarówno dostawcy narzędzi ochrony rodzicielskiej, ale również dostawcy platform zawierających treści generowane przez użytkowników (user-genereted content). Wydaje się, że nie trzeba budować „międzynarodowego zespołu naukowców”. Wystarczy kupić dostępne komercyjnie rozwiązania.

Pomysł autorów artykułu wymaga jednak dodatkowo nałożenia obowiązków prawnych na dostawców aplikacji oraz systemów operacyjnych. Wreszcie wymaga – jak rozumiemy – działań Unii Europejskiej, która powinna narzucić ów system w sposób podobny do systemu ochrony prywatności wprowadzony przez RODO. Nie jest naszym zamiarem krytyka tego rozwiązania, więc powstrzymamy się od wskazywania dobrych i złych stron pomysłu przedstawionego przez autorów artykułu. Przyjmijmy jednak teoretycznie na potrzeby naszej dyskusji, że system taki okazałby się skuteczniejszy oraz lepiej odpowiadałby na problem prywatności i wolności słowa w Internecie.

Tu jednak dochodzimy do ostatniego fragmentu naszej dyskusji, w którym chcielibyśmy odpowiedzieć na pytanie, czy lepiej iść małymi krokami, czy czekać na to, aż kiedyś Unia Europejska, wykorzystując sztuczną inteligencję, załatwi za nas problem zbyt łatwej dostępności pornografii dla dzieci.

Uważamy, że projekt ustawy może zrealizować cele, o których pisaliśmy wyżej. Nie załatwi całościowo problemu dostępu dzieci do pornografii, ale polepszy obecny stan. Będzie to już i tak istotny krok w kierunku lepszej ochrony dzieci przed pornografią. Alternatywą jest czekanie na jakieś idealne rozwiązanie propagowane przez Unię Europejską, które może nadejść za kilka lub kilkanaście lat albo może nie nadejść wcale. Na razie Unia – oprócz położenia nacisku na narzędzia weryfikacji wieku, co wpasowuje się nasz projekt – nie zaproponowała niczego bardziej skutecznego. Mamy szczerą nadzieję, że dojdzie kiedyś do „antypornograficznego RODO”, ale na razie takiego rozwiązania na horyzoncie nie widać. RODO nie wzięło się z próżni. Było udoskonaleniem wcześniejszych legislacji krajowych. Być może właśnie polskie regulacje lepiej chroniące dzieci przed pornografią będą nowym impulsem dla dyskusji w ramach Unii Europejskiej. Już obecnie widzimy zainteresowanie tym, co się dzieje w Polsce ze strony różnych środowisk z Unii Europejskiej i poza nią.

Co jest dla nas w całym dyskursie toczonym od blisko dwóch miesięcy jednak najcenniejsze to fakt, że udało się nam przenieść dyskusję na temat ochrony dzieci przed pornografią na wyższy poziom, włączając w to wiele środowisk. Wojciech Klicki z Fundacji Panoptykon stwierdził krytycznie na Twitterze, że „pomysł Stowarzyszenia Twoja Sprawa przesunął debatę z pytania, czy państwo powinno zainterweniować na jak ma to zrobić i czy to możliwe”. Uważamy, że jest to niewątpliwy sukces debaty, którą obserwujemy od kilku tygodni. Mamy też nadzieję, że dalsze procedowanie naszego projektu doprowadzi do inicjatyw samoregulacyjnych, których nadal w Polsce prawie nie ma, a na przykład w Wielkiej Brytanii są podstawowym elementem ochrony dzieci przed dostępem do pornografii.

« wróć