Artykuł jest dostępny w iMagazine 7/2018
Pomimo gremialnego sprzeciwu, 21 czerwca 2018 roku Komisja Parlamentu Europejskiego do spraw prawnych zatwierdziła projekt nowej dyrektywy w sprawie praw autorskich na jednolitym rynku cyfrowym. Według krytyków, Artykuł 13 tego aktu ma zakończyć erę Internetu w kształcie jaki znamy dzisiaj.
O co chodzi z Artykułem 13
Projektowany przepis dyrektywy nakłada na największych dostawców usług internetowych nowy obowiązek. Mają oni podejmować „środki” zapewniające ochronę praw autorskich do utworów publikowanych w ich serwisach. Celem jest zapewnienie prawidłowego wykonywania umów z właścicielami utworów oraz zapobieganie bezprawnym publikacjom. Środki te mają w szczególności polegać na stosowaniu „skutecznych technologii rozpoznawania treści”. Mówiąc nieco prościej, nowe przepisy mają zobowiązać dostawców do filtrowania i monitorowania treści przysyłanych do ich serwisów przez użytkowników w celu zapobieżenia naruszeniom praw autorskich.
Jest to istotna zmiana w stosunku do aktualnego stanu prawnego. Dostawcy usług nie mają obecnie obowiązku stosowania technologii filtrujących, które zapobiegałyby naruszeniom praw autorskich. Obowiązek usunięcia bezprawnych treści pojawia się dopiero po zawiadomieniu dostawcy o zaistnieniu naruszenia. Zawiadomienia takie wysyła osoba poszkodowana naruszeniem, która domaga się np. usunięcia treści z serwisu. Niezależnie od tego może ona dochodzić roszczeń od samego naruszyciela, czyli podmiotu, który bezprawnie umieścił treści w serwisie.
Krytyka
Krytycy projektowanych rozwiązań nie zostawiają na nich suchej nitki. Podnoszą, że wprowadzenie zautomatyzowanych systemów filtrowania treści publikowanych przez użytkowników to koniec wolnego Internetu. Z otwartej platformy zmieni się on w narzędzie do śledzenia i kontroli użytkowników. Negatywne skutki odczuć mają nie tylko tak zwani zwykli użytkownicy, publikujący treści w Internecie, ale również np. osoby wnoszące swój wkład w otwarte platformy typu Wikipedia, czy składnice oprogramowania open source typu GitHub. Nowe prawo ma dotknąć także mniejszych dostawców europejskich, w tym startupy, które nie będą w stanie zainwestować odpowiednich środków w technologie filtrujące. Część mniejszych dostawców może być zmuszona w ten sposób do zakończenia działalności. Inne głosy wskazują na niejasność projektowanej regulacji, w tym posługiwanie się niezdefiniowanymi i niezrozumiałymi pojęciami. Podkreśla się możliwą kolizję z istniejącymi już przepisami wcześniejszych Dyrektyw oraz możliwość pojawienia się nadużyć zagrażających wolności słowa oraz swobodzie przepływu informacji.
Czy wolność Internetu jest zagrożona
Lektura projektu dyrektywy rodzi wątpliwości. Nie jest jasne, na kim właściwie ciążyć ma obowiązek filtrowania. Projekt nakazuje nałożyć go na dostawców, którzy przechowują i zapewniają dostęp do “dużej liczby utworów”, lecz nie precyzuje co należy rozumieć pod tym pojęciem. Należy jednak sądzić, że będzie on dotyczył stosunkowo dużej grupy dostawców usług. Artykuł 13 można bowiem interpretować w taki sposób, aby objął swoim zasięgiem nie tylko wszystkie sieci społecznościowe, ale właściwie każdą otwartą platformę, oferującą możliwość publikowania treści.
Projekt nie wyjaśnia, na czym w istocie polegać ma obowiązek dostawców. Nakazuje „stosowanie technologii rozpoznawania treści”, które muszą być “odpowiednie i proporcjonalne”. Nie daje przy tym wskazówek, jak spełnić wymóg takiej odpowiedniości oraz proporcjonalności. Kluczowe jednak jest to, że projekt przenosi na dostawców odpowiedzialność za legalność treści publikowanych w ich serwisach. Oznacza to modyfikację zasady, iż odpowiedzialność za naruszenia ponosi przede wszystkim ten, kto opublikował naruszające treści. Odtąd samo reagowanie na zgłoszenia naruszeń nie będzie już wystarczające, a dostawcy będą musieli aktywnie przeciwdziałać naruszeniom. Można obawiać się, że dostawcy będą skłonni blokować treści, które będą rodzić choćby najmniejsze ryzyko ich ewentualnej odpowiedzialności. Sytuacje wątpliwe będą więc domyślnie rozstrzygane na niekorzyść użytkowników, którzy zostaną skazani na procedury odwoławcze.
Wreszcie, projekt nakłada na państwa członkowskie Unii Europejskiej obowiązek zapewnienia „mechanizmów składania skarg i dochodzenia roszczeń” przez użytkowników w przypadku sporów wynikłych ze stosowania wspomnianych technologii. Nie wyjaśnia jednak, jak zapewnić skuteczność i szybkość działania tych mechanizmów, tak aby uniknąć zagrożenia cenzury lub blokowania dostępu do sieci.
Właśnie zagrożenia dla wolności słowa nakazują potraktowanie projektu ze szczególnym sceptycyzmem. Wprowadza on zasadę uprzedniej kontroli tego, co zamierzamy wprowadzić do Internetu. W konsekwencji powstanie swoista bariera pomiędzy użytkownikami a siecią. Oczywiście bariera ta ma w zamierzeniu projektodawców służyć ochronie praw autorskich, ale nietrudno wyobrazić sobie wykorzystanie jej w mniej szczytnym celu. Podmioty kontrolujące tę barierę uzyskają potencjalną możliwość decydowania o tym, co dostanie się do Internetu, a co nie. Stąd już tylko krok do jej wykorzystania w celu opóźnienia lub blokowania publikacji treści niewygodnych, niepoprawnych politycznie, czy szkodliwych z punktu widzenia interesów tych podmiotów.
Content ID dla wszystkich?
Pomysł filtrowania i rozpoznawania treści publikowanych Internecie nie jest całkiem nowy. Stykają się z nim osoby publikujące treści w serwisie YouTube. Stworzony w 2007 roku system o nazwie Content ID pozwala właścicielom utworów skanować serwis w poszukiwaniu kopii ich utworów w serwisie. Odnalezienie nieautoryzowanych publikacji umożliwia ich zablokowanie lub zażądanie wynagrodzenia za udostępnienie. System wykorzystuje samouczące się technologie oraz zawiera narzędzia służące do rozwiązywania sytuacji spornych. Kosztował on firmę Google dziesiątki milionów dolarów, lecz – jak wskazują krytycy dyrektywy – nadal nie jest doskonały.