Raport z oblężonego miasta, czyli czym żyła branża IT w 2012 r. i czym będzie żyła w 2013 r. – próba analizy

4 stycznia 2013 0 przez Ernest Frankowski

Branża IT to nie tylko oprogramowanie, urządzenia, rywalizacja wielkich i mniejszych firm oraz kariery innowatorów w rodzaju Steve’a Jobsa. To także, a niekiedy i przede wszystkim, tak zwane otoczenie prawne i biznesowe, w którym przedsiębiorstwom z tej branży przychodzi działać.
Ponieważ chcemy, aby ITbiznes.pl był serwisem traktującym o wszelkich profesjonalnych aspektach informatyki, musi się także znaleźć miejsce na takie właśnie zagadnienia, często pomijane, ale mające duży wpływ na rynek i branżę nowych technologii.

Ponieważ skończył się przy tym kolejny rok i jesteśmy na progu nowego, warto pokusić się o podsumowanie najważniejszych wydarzeń branżowych (acz nie technicznych) oraz zastanowić się, co nas czeka w 2013 roku.

Oczywiście wybór wydarzeń prezentowanych poniżej jest wyborem subiektywnym. Również kolejność prezentowania poszczególnych tematów należy uznać za przypadkową. W świetle tego jak dynamiczna jest branża IT, nie ośmielę się oceniać, które z prezentowanych zjawisk i wydarzeń są lub okażą się ważniejsze od innych.

Było, minęło (?) w 2012

ACTA

Chyba najgłośniejszym medialnie wydarzeniem mającym swój wymiar tak prawny, jak i branżowy były prace i protesty związane z ACTA (Anti-Counterfeiting Trade Agreement, pol. Umowa handlowa dotycząca zwalczania obrotu towarami podrabianymi) . Jak pamiętamy, rok 2012 rozpoczął się właśnie mocnym akcentem związanym z ACTA, czyli powszechnymi protestami społecznymi przeciwko tej umowie międzynarodowej.

Szerszej opinii publicznej sprawa stała się znana i komentowana właściwie dopiero na przełomie 2011 i 2012 roku. Tymczasem, ACTA jest zagadnieniem, które ma swój początek w roku 2006, a co więcej, efekty zamieszania wokół tej sprawy znaczenie przekraczają granice branży IT. W końcu, to od ACTA zaczęła się erozja poparcia dla ekipy rządowej i to z protestów wokół ACTA komentatorzy wysuwają szereg wniosków o przyszłości życia społecznego i roli internautów we współczesnym społeczeństwie (tylko kto teraz nie jest internautą…). ACTA miałaby także duży wpływ na prowadzenie biznesu przez firmy choćby z branży farmaceutycznej, a szerzej, dla firm, które generalnie produkują wyroby o charakterze materialnym. Warto przy tej okazji podkreślić, że ACTA była projektowana jako umowa chroniąca interesy wytwórców dóbr materialnych, a stała się przyczyną konfliktu w zakresie wątków związanych z dobrami niematerialnymi. Jak do tego doszło? Ponieważ wokół tego „niematerialnego” aspektu ACTA, narosło najwięcej nieporozumień i mitów, spróbujemy uporządkować naszą wiedzę i zastanowić się, co dalej, kiedy już kurz po ACTA opadł (?).

Fakt pierwszy, ACTA to umowa międzynarodowa, będąca inicjatywą kilku krajów (jak można się domyślić, krajów gdzie tradycje wytwarzania dóbr o wysokim współczynniku innowacyjności są bardzo silne, czyli przede wszystkim USA i Japonia, a wkrótce później UE, Kanada, Szwajcaria i kilka innych) i mająca na celu ustalenia standardów walki z naruszeniami własności intelektualnej. Przedmiotem tego międzynarodowego porozumienia są: (i) obrót podrabianymi towarami, (ii) handel lekami generycznymi oraz (iii) obrót dziełami prawnie chronionymi przez internet.

Fakt drugi, do pomysłodawców (USA i Japonia) przyłączały się stopniowo kolejne kraje w latach 2006 i 2007 w ramach tzw. rozmów wstępnych. Oficjalne negocjacje w całkiem już szerokim gronie (poszerzonym o niektóre kraje azjatyckie i afrykańskie oraz Nową Zelandię, Australię i Meksyk) rozpoczęto w 2008 r. Przy czym, szczegółowe ustalenia wynikłe z rozmów wstępnych i negocjacji miały pozostać, decyzją zaangażowanych państwa, tajne.

Fakt trzeci, ACTA była już kontrowersyjna przed rokiem 2012 i wybuchem protestów z nią związanych. Już w 2010 roku środowiska akademickie i prawnicze w USA apelowały do prezydenta, aby wstrzymał prace nad ACTA i skierował ten akt do poprawek z uwagi na ryzyko naruszanie przez jego zapisy tzw. interesu publicznego. Mimo tych kontrowersji, finalny tekst został opublikowany 15 listopada 2010, po finałowej rundzie negocjacji w Tokio. Osiem krajów umowę podpisało (w tym inicjatorzy). Unia Europejska (między innymi) wstrzymała się od podpisu, ale wyraziła poparcie dla inicjatywy oraz wolę przystąpienia do ACTA do 1 maja 2013.

Fakt czwarty, Polska odegrała dużą rolę w pracach nad ACTA. A przez to znalazła się w centrum kontrowersji związanych z pracami nad ACTA. Mianowicie, Parlament Europejski zarzucał innym organom UE (prowadzącym w imieniu UE negocjacje) brak przejrzystości w sposobie prowadzenia rozmów oraz brak dostępu do materiałów. Niemniej jednak, ostatecznie 16 grudnia 2011 Rada UE przyjęła treść porozumienia ACTA. Co ciekawe, informacje o tym umieszczono na ostatniej stronie komunikatu prasowego na temat rolnictwa i rybołówstwa. Polska była aktywnym uczestnikiem prac, ponieważ w pracach nad ACTA uczestniczyli członkowie Komisji Europejskiej oraz reprezentanci państwa UE pod przewodnictwem kraju pełniącego prezydencję (ówcześnie była to Polska). W efekcie przyjęcie ACTA na forum UE miało miejsce za polskiej prezydencji, a samo porozumienie było jednym z priorytetów polskiego przewodnictwa. W Polsce Rada Ministrów udzieliła zgody na podpisanie ACTA (wrzesień 2011). Wkrótce, UE i 22 kraje członkowskie (kilka się „wyłamało”) podpisały umowę. W imieniu Polski umowę podpisała ambasador RP w Japonii (26 stycznia 2012).

Fakt piąty, Polacy nic się nie stało, Polacy nic się nie stało… Nie stało się dlatego, że w polskim systemie prawnym umowy międzynarodowe mają, i owszem, pierwszeństwo przed ustawami krajowymi (zapis ten w Polskiej konstytucji wynika z faktu, że była ona pisana w 1997 r. z myślą o wejściu Polski do UE i przyjęcia związanych z tym traktów tworzących Wspólnoty Europejskie) ale żeby taki nadrzędny charakter „pozyskać” muszą zostać uchwalone (ratyfikowane) przez Sejm. A zatem, mimo dyskusyjnego podejścia do prac nad ACTA i podpisaniem tej umowy przez Polskę (w Japonii), Polska miała jeszcze możliwość jej „odrzucenia”. Oczywiście, pozostaje faktem, że mocne angażowanie się w prace nad czymś, co samemu się później odrzuca, naraziłoby stronę polską na swego rodzaju utratę twarzy oraz w jakimś stopniu wpłynęło negatywnie na stosunki z takimi krajami jak USA. A przynajmniej tak to postrzegała i tego obawiała się strona polska.

Fakt szósty, wśród uzasadnień tego, że ACTA należy podpisać było to, że de facto i tak porozumienie to nie zmienia i nie wymusza zmian w ustawodawstwie UE i, w naszym przypadku, Polski. Ponadto, już w uzasadnieniu przyjęcia ACTA Minister Kultury i Dziedzictwa Narodowego wskazywał, że kontrowersyjny zapis na temat ujawnienia właścicielowi praw informacji koniecznych do zidentyfikowania konkretnego, potencjalnie naruszającego te prawa użytkownika (zapis ten nie wydaje się zgodny ani z prawem UE, ani z prawem polskim) został ujęty jako nieobowiązkowy (fakultatywny). Minister podkreślał także, że podpisanie ACTA jest ważne z punktu widzenia polskiej racji stanu, tj. służy utrzymaniu (czy może raczej pogłębieniu) dobrych relacji z takimi krajami jak USA, Japonia czy Kanada. Kontynuując wątek zgodności (lub niezgodności) ACTA z polskim i unijnym prawem należy podkreślić, że właściwie dla wszystkich zapisów ACTA identyfikowalne są już istniejące polskie i unijne odpowiedniki (np. w zakresie egzekucji, kontroli granicznych itd.), które bywają nawet surowsze niż zapisy w samej ACTA. Z kolei te zapisy ACTA, które przekraczały ramy ustawodawstwa kraju/organizacji sygnatariusza, są fakultatywne w zakresie ich wprowadzenia.

Fakt, siódmy, finalnie Parlament Europejski odrzucił ACTA przygniatającą większością głosów: 478 osób za odrzuceniem, 39 za wprowadzeniem ACTA i 165 wstrzymujących się. Wcześniej, polski rząd wstrzymał proces ratyfikacji ACTA, a w końcu zdecydował o permanentnym zatrzymaniu procesu ratyfikacyjnego.

Biorąc pod uwagę powyższe fakty osobie, która na świeżo miałaby się zajmować analizą ACTA musi pojawić się w głowie następujące pytanie: czemu właściwie wybuchły, i to na tak szeroką skalę, protesty przeciwko ACTA i to akurat w obszarze związanym z dobrami niematerialnymi i internetem? Na pierwszy rzut oka, pewne kontrowersje co do sposobu procedowania przez uczestników negocjacji nie wydają się wystarczającym powodem. I rzeczywiście, na pierwszy rzut oka może tak się wydawać. A w praktyce, na wybuch społecznego niezadowolenia złożyło się kilka przyczyn, w tym, m. in.: (i) potencjalne ryzyko dla swobody obrotu wartościami niematerialnymi i dla samej innowacyjności, (ii) utożsamienie przez wielu internautów ACTA z zablokowaniem nieskrępowanego korzystania z treści dostępnych sieci i wreszcie (iii) sposób prowadzenia rozmów przez układające się organizacje i państwa. Przyjrzyjmy się tym przyczynom bardziej szczegółowo.

Przyczyna pierwsza, zagrożenia dla wolności w sieci i potencjalne naruszenia interesu publicznego. Taka, a nie inna ocena ACTA przez wiele osób, w tym prawników czy przedsiębiorców, wynika nie tyle z konkretnych zapisów porozumienia (które należy co do zasady uznać za zgodne z polskimi i unijnymi przepisami, a tam, gdzie zgodne nie jest lub wychodzi poza obecne ramy prawne, jest fakultatywne dla sygnatariuszy), ale z ducha tych zapisów i pewnej nierównowagi w ochronie interesów zainteresowanych stron. Umowa ma na celu szczególną ocenę praw własności intelektualnej, w efekcie dysponenci prawami licencyjnymi i autorskimi zyskują potencjalnie znaczną przewagę prawną nad konsumentami oraz swoimi kontrahentami czy konkurentami. W efekcie, być może szlachetne w zamierzeniach twórców zapisy mogą stać się w przyszłości podstawą do naruszeń prawa do prywatności, swobody wypowiedzi czy prowadzenia działalności gospodarczej. Miałoby to miejsce głównie w sytuacji (i) masowego i zautomatyzowanego korzystania z tych zapisów, kiedy to z horyzontu niknęłoby indywidualne tło danej sprawy oraz w sytuacji nadużywania instrumentów prawnych przez dysponentów prawami autorskimi i licencyjnymi dla umocnienia swojej pozycji rynkowej. Wskazywano, że ACTA ugruntuje przewagę korporacji, które zyskają prawne narzędzia do blokowania twórczych i innowacyjnych rozwiązań bazujących w jakimś zakresie (obecnie dopuszczalnym) na już istniejących wytworach kultury, nauki czy techniki (a pamiętajmy, że na takich twórczych przekształceniach zasadza się duża część treści dostępnych w sieci). W szczególności, Free Software Foundation wskazywało, że ACTA może ograniczyć rozwój oprogramowania open-source.

Inny przykład to leki generyczne. Nie można się nie zgodzić z faktem, że wygasanie w pewnym momencie praw do receptury danego leku i możliwość produkcji generyku jest bardzo ważne z punktu widzenia interesów mniej rozwiniętych części naszego globu. W tym kontekście, w ramach krytyki ACTA podnoszono, że umowa ta daje możliwości zacierania różnicy między podróbką leku a lekiem generycznym, co może mieć opłakane skutki dla wielu biedniejszych regionów świata. W Polsce dyskusja nad kontrowersyjnością niektórych zapisów ACTA zaczęła się właściwie dopiero kilka dni przed podpisaniem porozumienia w Japonii. Mianowicie, 19 stycznia Minister Administracji i Cyfryzacji zwrócił się do Premiera o dyskusję nad ACTA. Z kolei 23 stycznia 2012 r. Generalny Inspektor Ochrony Danych Osobowych zarekomendował niepodpisywanie ACTA uzasadniając to tym, że ACTA daje możliwość wymiany danych osobowych między organami ścigania różnych państw bez gwarancji ochrony dla tych danych.

Przyczyna druga wynika ze sposobu prowadzenia prac nad zapisami ACTA. Przede wszystkim, wiele organizacji non-profit, a nawet organy KE narzekały nad niedostatkiem jawności w pracach nad ACTA. Szczególnym przejawem tego był utrudniony dostęp do materiałów. Twórcom ACTA zarzucano także pośpiech. Uspokojeniu krytyki wokół ACTA nie pomogły także przecieki publikowane przez Wikileaks (w 2008 r. WikiLeaks opublikowała working paper z ACTA, kolejne przecieki miały miejsce w 2009 i 2010 r.). Oficjalnym powodem zachowywania dyskrecji w pracach była chęć ich uniezależnienia od bieżącej sytuacji ekonomicznej. Tym niemniej, taki, a nie inny sposób prowadzenia prac oraz przecieki spowodowały, że opinia publiczna uznała, że negocjujące strony „mają coś do ukrycia”. W efekcie, wszelkie merytoryczne znaki zapytania i wątpliwości związane z ACTA zaczęły być interpretowane na niekorzyść całej idei tego międzynarodowego porozumienia. Przeciw zapisom ACTA i trybie pracy nad nią protestowało wiele organizacji, także zresztą z krajów-pomysłodawców porozumienia. W Polsce szczególnie aktywne na tym polu były Fundacja Panoptykon czy Internet Society Polska. Niestety, przedstawiciele rządu RP nie podjęli dyskusji z zainteresowanymi podmiotami (być może także dlatego, że m. in. żądano zaniechania prac nad porozumieniem, a do momentu wybuchu masowych protestów rząd zapewne nie wyobrażał sobie skutków gorszych niż te wynikłe dla pozycji międzynarodowej Polski w sytuacji porzucenia ACTA).

Dwudziestego stycznia 2012 r. sprawę ACTA i prac nad nią nagłośniła prasa w Polsce. Jak już zostało wspomniane, strona rządowa argumentowała, że ACTA do niczego nas nie zobowiązuje. Jej zapisy albo są już w polskim prawie albo nie jesteśmy zobowiązani do ich wprowadzenia – pytanie tylko po co w takim razie Stanom Zjednoczonym i Japonii porozumienia tak skonstruowane, że nie nakładające na sygnatariuszy żadnych obowiązków – wrócimy jeszcze do tego pytania.

Przyczyna trzecia, wielu internautów nie wdawało się w zawiłe analizy prawnicze i techniczne związane z ACTA. Zresztą, kto ówcześnie śledził doniesienia medialne związane z ACTA, pamięta, że poziom dyskusji (w sytuacji złożoności całej sprawy) był merytorycznie niezadowalający. Zarówno zwolennicy, jak i przeciwnicy ACTA często w swoich dyskusjach dość powierzchownie analizowali to zagadnienie. W efekcie, w powszechnym odbiorze ACTA zostało utożsamione z bardzo praktycznym i konkretnym atakiem na wolność w internecie, wiele treści zostałoby zablokowanych, a organy ścigania oraz zainteresowane firmy zyskałby możliwość śledzenia naszej aktywności w sieci i wymieniania się takimi informacjami między sobą.

Jaki był efekt splotu tych wszystkich faktów oraz przyczyn niezadowolenia z ACTA? Masowe protesty przeciw porozumieniu. W samej Polsce wiele serwerów rządowych zostało wyłączonych przez ataki DDoS (czemu strona rządowa oficjalnie zaprzeczała), miały miejsce czasem wielotysięczne protesty w największych miastach w Polsce, wiele serwisów poddało się czasowemu black-outowi, aby zobrazować czym może grozić przyjęcie ACTA. Ponadto, petycja przeciw ACTA zebrała olbrzymią liczbę podpisów (liczoną w setkach tysięcy). W efekcie, 3 lutego Polska oficjalnie poinformowała, że wstrzymuje proces ratyfikacji ACTA z powodu niedostatecznych konsultacji społecznych i potencjalnych ryzyk dla polskich obywateli. Z kolei 17 lutego premier ogłosił, że Polska nie ratyfikuje ACTA. To nie załatwiało jeszcze sprawy, ponieważ podpisanie ACTA w Japonii powodowało, że dopiero ewentualne odrzucenie tej umowy przez Parlament Europejski zapobiegnie wejściu umowy do polskiego porządku prawnego. I tak też się stało. 4 lipca 2012 r. Parlament Europejski odrzucił ACTA. Być może już ostateczny koniec ACTA w Europie przyniosła informacja z 19 grudnia 2012 r. Tego dnia bowiem podano, że Komisja Europejska wycofała z Trybunału Sprawiedliwości prośbę o opinię na temat umowy ACTA. Jak uzasadniono, zwracanie się o taką opinię przestało mieć sens wobec faktu, że Komisja przestała widzieć szansę na wejście w życie ACTA w świetle wydarzeń sprzed kilku miesięcy. Tym samym, więc przestała mieć sens próba wykazania, że ACTA faktycznie naruszała prawa Europejczyków.

W efekcie powyższych wydarzeń, ACTA (i Komitet powołanymi jej zapisami) stały się domeną krajów pozaeuropejskich. Przy czym, w ACTA nie uczestniczą kraje uchodzące za gospodarki wschodzące (choćby Chiny, Indie, Brazylia czy Rosja – co wydaje się dość oczywiste z punktu widzenia interesów tych krajów i ich podejścia do ochrony praw własności intelektualnych). Jednocześnie, ACTA i organy przez nią powołane do życia zachowują charakter otwarty dla kolejnych członków. Wraca w takim razie pytanie, jak na tak skonstruowanej umowie międzynarodowej miałyby zyskiwać kraje-pomysłodawcy całego przedsięwzięcia. Nie trzeba wspominać, że umowa taka jak ACTA służy przede wszystkim ochronie przedsiębiorstw z tych krajów, które są obecnie szczególnie znaczące we współczesnej gospodarce. Interesy Stanów Zjednoczonych wyraziła chyba najlepiej Miriam Sappiro, która prezentując oficjalne stanowisko Białego Domu powiedziała: „Wierzymy, że ACTA pomoże chronić własność intelektualną, która jest kluczowa dla amerykańskich miejsc pracy w innowacyjnych branżach. Jednocześnie, ACTA uznaje prawo do prywatności w sieci, wolność wypowiedzi oraz odpowiednie procedury i wzywa sygnatariuszy, aby chronili wymienione wartości w czasie stosowania tej umowy”.

Co wynika z tego zdania? Przede wszystkim to, że kraje-pomysłodawcy ACTA przyjęli taktykę „kropli drążącej skałę”. Mianowicie, kiedy już określone kraje (przede wszystkim takie mające obiektywne kłopoty z takim czy innym piractwem), zwabione tym, że szczególnie kontrowersyjne zapisy ACTA są fakultatywne, podpisałyby tą umowę, kraje mające w tym interes prawny i gospodarczy uzyskałyby dodatkowe możliwości nacisku na innych sygnatariuszy w celu ochrony swoich przedsiębiorstw. W kontekście przyszłej sytuacji międzynarodowej nie można wykluczać, że ten czy inny rząd ugiąłby się przed takimi naciskami, czemu być może pomogłaby wizja jakichś korzyści na innych polach. Potencjalnie więc ryzyko, że pod niewątpliwie szczytnym celem walki z piractwem, zakwestionowane zostałyby, w niektórych przypadkach, pewne konstytucyjne wolności, mogłoby się zmaterializować. Ponadto, zawsze istniałoby ryzyko nadużywania instrumentów wynikających z ACTA do walki konkurencyjnej, o czym już było mowa. Co ciekawe, sprawa może zresztą powrócić już wkrótce w kolejnej odsłonie, ponieważ zapisy podobne do tych w ACTA pojawiły się choćby w treści CETA, czyli Canada UE Trade Agreement.

Jako ciekawostkę można przytoczyć jeszcze jeden fakt. Mianowicie, Ministerstwo Administracji i Cyfryzacji w jednym ze swoich newsów podało, że koniec końców dyskusja i wycofanie się Polski z ACTA skończyło się sukcesem międzynarodowym, ponieważ „W Polsce debata wokół ACTA dała początek Kongresowi Wolności w Internecie, a następnie otwartym konsultacjom w sprawie ITR i znaczącą rolę Polski na zakończonej 14 grudnia międzynarodowej konferencji telekomunikacyjnej w Dubaju”

Podsumowując, kurz po ACTA opadł. Naszym zdaniem dobrze się stało, że w swoim obecnym kształcie umowa ta nie stała się obowiązującym prawem w Polsce. Jednocześnie można przewidywać, że sprawa ochrony dóbr intelektualnych wróci jeszcze w takiej czy innej postaci do debaty publicznej. Nie bez powodu bowiem obserwuje się otwieranie kolejnych frontów walk z tym związanych. O niektórych będzie jeszcze mowa w tym tekście. Ze sprawą ACTA były i są także powiązane (choćby „dyskretnym” trybem pracy) inne akty prawne takie jak STOP Online Piracy Act oraz PROTECT IP Act. Te jednak, mając bardziej wewnątrz-amerykański charakter (choć nie do końca) będą omówione w tylko im poświęconym opracowaniu.


E-sądy

Czym jest e-sąd w Polsce? Zasadniczo to po prostu VI Wydział Cywilny Sądu Rejonowego Lublin-Zachód, który rozpatruje pozwy o zapłatę w postępowaniu upominawczym dla całej Polski. Wprawdzie został on „uruchomiony” w 2010 r., ale w roku 2012 ujawniły się ciemne strony jego funkcjonowania. Dlatego warto zaliczyć tę instytucję i jej dorobek do bardzo ważnych wydarzeń 2012 r. tym bardziej, że w ostatnich latach e-sąd był prezentowany jako jedno ze sztandarowych osiągnięć procesu informatyzacji sfery publicznej. Ewentualne kontrowersje wokół e-sądu mogą zatem wpłynąć negatywnie na klimat wokół innych projektów informatyzujących administrację.

Do chwili obecnej liczba spraw skierowanych do e-sądu przekroczyła już 3 miliony. W tym, wiele z tych spraw wnoszą firmy windykacyjne, czasem będące kolejnymi w łańcuszku odkupujących dany dług. Dzięki Elektronicznemu Postępowaniu Upominawczemu firmy te wysyłają tysiące pozwów. W praktyce, postępowanie przed e-sądem jest tak proste, że pozwala jednej firmie windykacyjnej wysyłać setki i tysiące pozwów w ciągu… miesiąca. Pytanie zatem, czy przypadkiem sukces nie zamienił się w kolejną patologię? Niestety, wiele faktów z 2012 r. wskazuje, że tak.

E-sąd jest przykładem sytuacji, kiedy to ciągłe nawoływanie do informatyzacji sfery publicznej znalazło swoją praktyczną implementację. Co ważniejsze, stało się to w obrębie polskiego wymiaru sprawiedliwości, który nie od dziś uchodzi za wyjątkowo mało sprawny (przewlekłość postępowań jest plagą, która często znajduje swój niekorzystny dla Polski finał w postępowaniach przed Europejskim Trybunałem Praw Człowieka w Strasburgu). Co zatem poszło nie tak? Okazuje się, że ten potencjalnie modelowy przykład skutecznej informatyzacji pewnej części sfery publicznej padł ofiarą własnego sukcesu.

Przede wszystkim okazało się, że na sukces e-sądu nie byli przygotowani sami zainteresowani od strony organizacyjnej. Wobec ilości napływających spraw konieczne były kolejne wzmocnienia kadrowe. Mimo tych wzmocnień jeden referendarz czy sędzia w e-sądzie rozpatruje średnio 20 tysięcy spraw rocznie. W sądzie tradycyjnym, jedna osoba rozpatruje średnią liczbę spraw liczoną raczej w setkach rocznie niż w tysiącach. To oczywiście jeszcze nic złego, ponieważ sprawy kierowane do e-sądu są z założenia proste i nie można ich porównywać z sprawami „tradycyjnymi”. Dlatego, zestawienie tych liczb może być poczytywane za bezwzględną oznakę sukcesu e-sądu. Naturalnym wydaje się także rozszerzenie w przyszłości elektronizacji postępowania choćby o wymianę informacji dotyczących postępowań egzekucyjnych czy o elektronizację samego doręczania pism procesowych.

Co się nie udało? Okazuje się, że uproszczenie postępowania otworzyło drogę do pewnego rodzaju nadużyć. Mianowicie, często okazuje się, że e-sąd służy próbom windykacji nieistniejących lub przeterminowanych wierzytelności. Proceder wygląda w ten sposób, że nabywający wierzytelności wykorzystują e-sąd do złożenia pozwu podając fałszywe lub nieaktualne dane dłużnika (sąd tych danych nie sprawdza). Bardzo często podejmowana jest także próba windykowania wierzytelności przeterminowanych lub wierzytelności na tyle starych, że jest „szansa”, że osoba, która tak naprawdę wierzytelność uregulowała, pozbyła się już odpowiedniego dowodu wpłaty. W 2012 r. w prasie pojawiały się też dramatyczne doniesienia o osobach poszkodowanych w wyniku nadużyć przed e-sądem. Choćby osoby, którym ukradziono dowód, na który później zaciągane były kredyty czy robione były zakupy na raty. Jak widać, oszuści szybko nauczyli się korzystać z mechanizmu e-sądu dla własnych celów. Tymczasem e-sąd miał być właśnie batem na praktyki oszustów i niesolidnych dłużników. Pamiętajmy bowiem, że główna część postępowań przed e-sądem dotyczy zalegania z opłatami za telefon, internet, mieszkanie czy prąd.

Oczywiście entuzjaści e-sądu mają szereg argumentów na obronę tej instytucji. I tak, wskazują, że poszkodowani mają cały szereg mechanizmów prawnych, aby się bronić. Od złożenia sprzeciwu, złożenia wniosku o przywrócenie terminu do wniesienia sprzeciwu przez złożenia zażalenia na postanowienie o nadaniu klauzuli wykonalności i wiele innych środków prawnych (oczywiście pozostaje pytanie o świadomość tych skomplikowanych procedur wśród obywateli). Wskazuje się także, że e-sąd nie może być obarczany winą za podawanie złych danych przez pozywających czy za nieprawdziwe informacje o niepodjęciu w terminie korespondencji przez pozwanych. Generalnie podkreśla się, że nadużycia stanowią margines, a przy tym trafiają się także w tradycyjnych postępowaniach. Coś jest jednak na rzeczy, skoro Stowarzyszenie Sędziów Iusticia zaapelowało o reformę e-sądu. Zresztą, projekt stosownych zmian już się pojawił. Między innymi, projekt wprowadza dość dotkliwe kary za wskazanie w złej wierze lub wskutek niedbalstwa nieprawidłowych danych adresowych pozwanego.
Nie jest to miejsce, aby finalnie oceniać funkcjonowanie e-sądu w Polsce. To co należy podkreślić to fakt, że stał się on „frekwencyjnym” sukcesem Ministerstwa Sprawiedliwości. Jednocześnie, e-sąd stał się głośny z powodu nadużyć dokonywanych w ramach postępowań w nim prowadzonych.

Mamy więc do czynienia z jednej strony z projektem, który pokazuje sens i siłę wynikającą z informatyzacji ważnych obszarów życia publicznego. Jednocześnie obserwujemy cienie tej informatyzacji wynikające z działań osób celowo wykorzystujących w celach niezgodnych z prawem te elementy całego projektu, które miały przynieść uproszczenie tego w końcu tylko jednego rodzaju postępowań sądowych. Oby ten ostatni fakt nie był kolejnym pretekstem lub przyczyną spowalniania procesów informatyzacji sfery publicznej w Polsce.

Obok spektakularnego przykładu e-sądów, Ministerstwo Sprawiedliwości uruchomiło system pozwalający założenie spółki z ograniczoną odpowiedzialnością przez internet. Liczba spółek rejestrowanych przez ten system stale rośnie (przy czym na razie są to małe liczby) mimo tego, że system ten umożliwia założenie najprostszej spółki i w oparciu o wzorcową, „podpowiadaną” przez system umowę spółki. Przykładowo, gdyby chcieć założyć spółkę z o.o. o niestandardowym kapitale zakładowym, w której to dodatkowo część udziałów objęta zostałaby w zamian za wniesienie aportu (wkładu rzeczowego), nie ma możliwości skorzystania z drogi elektronicznej.

Rok 2012 to także kolejne etapy wdrażania na salach rozpraw protokołu elektronicznego. Zasadniczo sale sądowe w Polsce mają zostać wyposażone w kamery, mikrofony oraz monitory. Sprzęt ten jest częścią tzw. e-protokołu czyli systemu audiowizualnego zapisu rozprawy. Pomijając kwestię wiernego zapisu przebiegu rozprawy, system ten oznacza także przyspieszenie spraw, ponieważ sędzia nie będzie już zmuszony dyktować protokolantowi treści protokołu. Oczywiście z systemem sprzęgnięte jest rozwiązanie do przechowywania i udostępniania protokołów z rozpraw. Całość wdrożenia ma zostać zakończona w 2013 r.

Z kolei w 2013 r. będziemy zapewne świadkami prac, a może i wejścia w życie systemu Elektronicznego Potwierdzenia Odbioru przesyłek sądowych. Trwają także prace nad elektronicznym bankowym tytułem egzekucyjnym.

Miejmy nadzieję, że opisane powyżej zjawiska pozwolą ukrócić przewlekłość postępowań spraw sądowych w Polsce i ogólnie, przywrócić trochę zaufania społecznego do trzeciej władzy. Istotne jest to, że jeśli się tak stanie, to dzięki wykorzystaniu technologii informatycznych. Miejmy także nadzieję, że o 2012 r. będzie można wkrótce powiedzieć, że zapoczątkował proces gruntowanej informatyzacji polskiego sądownictwa.


Wojny patentowe

Rok 2012 był świadkiem narastającej wojny patentowej między gigantami branży IT i nie tylko zresztą. Wielu specjalistów twierdzi, że narastanie liczby sporów patentowych jest sygnałem, że system zastrzegania i ochrony własności intelektualnej, szczególnie w USA, wymaga pilnych zmian. W przeciwnym razie dojdzie do sytuacji kiedy to patenty będą wykorzystywane jako główny oręż w walce konkurencyjnej. Tym samym, pojawią się przedsiębiorstwa, których model biznesowy będzie oparty wyłącznie na „gospodarce” patentowej (z czym bywa, że już mamy do czynienia). Przykładowo, pojawiają się firmy, które specjalizują się w przejmowaniu innych przedsiębiorstw, posiadających znaczące portfolia patentowe. W kolejnym kroku zaczyna się zarabianie na tych patentach wskutek czegoś co często jest zwykłym wymuszeniem lub nadużyciem prawa. Przy czym firmy płacące za korzystanie z patentów nie robią tego często z poczucia słuszności, wynikającego z chęci oddania tego co się należy właścicielom danego rozwiązania ale robią to raczej w celu zapewnienia sobie spokoju prawnego. Proceder ten przypomina trochę skupywanie domen sieciowych o nazwach kojarzących się z określonymi firmami lub lukratywnymi produktami/usługami, a następnie odsprzedawanie ich firmom, które miały interes, aby takie domeny zastrzec, a na danym rynku po prostu nie zdążyły tego zrobić. Niby nic nielegalnego ale jednak coś jest nie tak.

W ostatnim roku obserwowaliśmy walkę patentową Apple z Samsungiem. Ugodę patentową tego pierwszego z HTC. Rywalizację patentową Apple z Google (iOS vs Android) czy fakt nabycia przez Google Motoroli i następujące po tym oświadczenie, że Google zamierza aktywnie korzystać z telekomunikacyjnego portfolio patentowego swojego nowego nabytku (17 tysięcy patentów!). I wreszcie dochodziło do sytuacji udowadniających, że patenty to broń obusieczna. Przekonał się o tym sam Apple kiedy został zaatakowany przez… spółkę kolejową SBB ze Szwajcarii, która wskazała, że Apple naruszyło jej prawa do wzoru zegarków opatentowanych w 1944 r. a obecnie wykorzystywanych (wzór graficzny!) w systemach iOS w iPhone’ach i na iPadach (sic!).

Obecne uregulowania prawa patentowego w USA są dość liberalne (w porównaniu z Europą) w zakresie tego co może zostać opatentowane. Tym samym, patentowaniu podlegają idee, algorytmy, wzory użytkowe, a nawet metody biznesowe. W efekcie, do urzędów patentowych spływa gigantyczna liczba wniosków, z których duża część zgłaszana jest z powodu chęci pochwalenia się innowacyjnością lub z powodu desperackiej chęci ubiegnięcia konkurencji. Idąc dalej, ochronę patentową zdobywają „aktywa” na tyle ogólne, że w praktyce może to blokować realną innowacyjność w danej dziedzinie. Skutkiem takiego procederu jest to, że inne firmy muszą uiszczać opłaty licencyjne za korzystanie z patentów jeśli chcą kontynuować prace albo sprzedawać swój produkt. Efektem biznesowym tego zjawiska jest to, że przychody z patentów zajmują coraz ważniejsze miejsce w sprawozdaniach finansowych firm. Ten ostatni fakt stanowi zdaniem wielu karykaturę innowacyjności i tego z czego powinna żyć firma z branży nowoczesnych technologii. Przykładem działalności skoncentrowanej na eksploatowaniu patentów jest firma NTP, która wywalczyła 600 milionów dolarów od firmy RIM (producent telefonów BlackBerry) za użyty w telefonach patent na obsługę e-maila.

Zjawisko firm pozywających inne firmy o naruszenie patentów doczekało się za oceanem już swojej nazwy. Mianowicie, firmy takie nazywa się trollami patentowymi. Szacuje się, że trolle patentowe przynoszą gospodarce amerykańskiej miliardowe straty. Sprawę pogarsza fakt, że mniejszych firm nie stać na prawników i opłaty patentowe co powoduje, że bankrutują. Kto wie czy gdzieś tam w ten sposób nie zbankrutował kolejny Steve Jobs czy Mark Zuckerberg. Z kolei średnie firmy często decydują się płacić haracz. Bardzo często ulegają swoistemu szantażowi ze strony firm, które dysponują tysiącami patentów. Argument, że na pewno znajdzie się jakiś patent, który jest przez daną firmę nieświadomie naruszany, trafia do wyobraźni. W efekcie, zagrożone przedsiębiorstwo płaci, aby mieć spokój. Z kolei największe firmy toczą między sobą wieloletnie batalie takie jak te, które można było obserwować w 2012 r., a których skutkiem bywają np. zakazy sprzedaży danego produkty na danym rynku.

Tym niemniej, pojawiają się także głosy broniące obecnego systemu. Argumenty za dotyczą choćby swobody działalności gospodarczej, tego, że jak ktoś chce zarabiać na swoim lub kupionym dorobku to nikomu nic do tego. A także głosy wskazujące, że ten swoisty wyścig patentowy tak naprawdę napędza innowacyjność. W efekcie, to Dolina Krzemowa jest miejscem, z którego wychodzą trendy i idee kształtujące branżę. I dzięki temu drapieżnemu systemowi Apple może „pisać” na swoich urządzeniach, że zostały zaprojektowane w Kalifornii, a wyprodukowane w Chinach. Oczywiście zwolennicy takiego systemu pomijają fakt, że taki system tylko na papierze jest bardzo logiczny. Faktycznie, trudno zabronić firmom walki o ochronę swojego dorobku (nawet jeśli to tylko wzór graficzny). Tym niemniej, taka logika jest do zaakceptowania tylko z perspektywy obecnych już graczy na rynku. Koszt społeczny takiego rozwiązania to petryfikacja obecnego układu sił i powiększanie kosztów dołączenia do wyścigu nowych graczy. Fakt ten stanowi ten nieuchwytny interes publiczny, w którego obronie tak gwałtowanie protestowano choćby w przypadku ACTA. W praktyce bowiem, społeczeństwom i rządom powinno i musi zależeć, aby do grona innowacyjnych firm dołączały coraz to nowe podmioty, aby powstawały kolejne najpierw garażowe, a później, być może, spektakularne start-upy. Bez stałego dopływu biznesowej i produktowej świeżej krwi, zniknie gdzieś prawdziwa innowacyjność. Zniknie śladem realnej konkurencji na tym rynku.

Do tego krajobrazu należy włączyć sądy, które są zupełnie nieprzygotowane (i raczej nigdy nie będą) do rozstrzygania czy dane coś, będące przedmiotem sporu to już technologia czy jeszcze zwykła czynność albo czy dany kolor w połączeniu z danym produktem tworzy coś co zasługuje na ochronę, czy też może nie, bo połączenie jest zbyt trywialne a kolor powszechny. Przed takimi absurdalnymi pytaniami sądy stają coraz częściej. W efekcie, trudno o jednolitą praktykę nawet w ramach poszczególnych krajów. W pierwszej instancji sąd zdarza się, że zakazuje sprzedaży, aby w drugiej instancji się z tego wycofać. Oczywiście, w podobnej sprawie inaczej rozstrzygną też sądy w Niemczech, Francji, USA, Korei i Wielkiej Brytanii. Jeszcze inne rozstrzygnięcie może też zapaść w sytuacji kiedy uda się doprowadzić do rozprawy przed sądem z udziałem ławy przysięgłych, która z definicji bywa jeszcze mniej przygotowana do tego typu spraw niż sędziowie zawodowi.

Dlatego, zdaniem wielu, sytuacja dojrzała do interwencji (zwłaszcza, że spory patentowe dotykają nie tylko branżę IT ale także lotniczą, spożywczą a nawet zabawkarską). I tak, ONZ zaproponowało mediacje w tej sprawie. Jednym z pomysłów na uzdrowienie sytuacji jest jednolity, globalny patent (jednolity patent będziemy omawiać w drugiej części artykułu), który sam w sobie jest bardzo kontrowersyjny i prawdopodobnie niekorzystny dla mniejszych państw.

Sami zaś Amerykanie już jakiś czas temu uczynili pierwszy krok na drodze do uzdrowienia systemu patentowego. Mianowicie, wycofali się z zasady „first to invent”. Zasada ta oznaczała, że pierwszeństwo miał zawsze autor pomysłu, a nie podmiot, który pomysł do opatentowania zgłosił. W efekcie, cały system był jeszcze bardziej niestabilny, ponieważ dochodziło poważne ryzyko biznesowe, że pojawią się znikąd ludzie twierdzący, że są autorami danego pomysłu (wzoru, algorytmu itd.) i grożący sądowym zablokowaniem sprzedaży danego produktu. Ciekawe czy tok 2013 przyniesie kolejne zmiany na froncie wojny patentowej.


Debiut Facebooka na giełdzie

Osiemnastego maja 2012 r. na NASDAQ zadebiutował Facebook. Pod wieloma względami miał to być i był wyjątkowy debiut. Spółka w momencie debiutu była wyceniana na 104 miliardy dolarów. Co oznaczało najwyższą wycenę debiutującej spółki w historii amerykańskiej gospodarki. Z punktu widzenia zaangażowanych w debiut, zakończył się on umiarkowanym sukcesem. Umiarkowanym, ponieważ biorąc pod uwagę markę debiutanta, jego dotychczasową dobrą prasę i passę oraz ogólny hype związany z firmą, oczekiwania były gigantyczne. Początkowo wszystko szło całkiem dobrze. Po otwarciu notowań cena za akcję skoczyła o ponad 13%. Zaraz potem jednak kurs zaczął słabnąć. Pierwszy dzień na giełdzie Facebook skończył na poziomie, mniej więcej, ceny emisyjnej za akcję (38 dolarów). Co poszło nie tak?

Przede wszystkim, w wycenie Facebooka była za dużo emocji a za mało chłodnej kalkulacji. Przed debiutem pojawiały się głosy, że Facebook ma generalnie małe przychody (na tle branży), za dużo w nim samej publicity oraz brak pomysłu na większą ekonomizację działalności. W efekcie, wspominana publicity nakręciła wokół spółki oczekiwania, które nie miały uzasadnienia w twardych liczbach. Oczywiście nie zmienia to faktu, że Facebook pozyskał z rynku spore kwoty a sam Mark Zuckerberg i inni udziałowcy (w tym spółki rosyjskie) na debiucie zdobył sporo zarobili.

O skali oczekiwań w związku z debiutem Facebooka świadczą nagłówki w prasie. Przykładowo, we francuskim „Le Nouvel Observateur” napisano, że wraz z debiutem „cała planeta wstrzyma oddech”. Zamiast porządnych analiz pojawiały się także porównania firmy do gwiazdy rocka czy nowego idola całych społeczeństw. Swoje trzy gorsze dokładało popularne wśród użytkowników serwisu stwierdzenie „jak cię nie ma na FB, to nie istniejesz”. Niektórzy analitycy prognozowali, że inwestorzy dosłownie rzucą się na akcje a w efekcie kurs wzrośnie z emisyjnych 38 do aż 50 dolarów. Takie optymistyczne prognozy miały pewne podstawy. Rok wcześniej serwis społecznościowy LinkedIn urósł o 100% w dniu otwarcia. Dużym wzrostem wartości akcji po debiucie mógł się także pochwalić Groupon. Tym niemniej, wieli specjalistów wskazywało, że szaleństwo związane z serwisami społecznościami zbliża się do szczytu, a więc punktu krytycznego, po którym musi nastąpić odreagowanie. I tak się stało w czasie debiutu Facebook’a. Może gdyby debiut nastąpił o rok wcześniej… Na pewno spółce nie pomogło także przejęcie ledwo miesiąc przed debiutem firmy Instagram za miliard konkretnych (a nie wirtualnych, wynikających z wycen) dolarów.

Niestety dla firmy, następne dni notowań nie miały w sobie już nic z nawet umiarkowanego sukcesu. Notowania serwisu poszybowały w dół i już nie wróciły do poziomu emisyjnego. W codziennym obrocie akcje spadły do wartości dwudziestu kilku – trzydziestu kilku dolarów za sztukę na przestrzeni 6 miesięcy. Zresztą, wzorem takim serwisów jak Groupon, którego wartość po debiucie oscyluje jakieś 40% poniżej wartości emisyjnej. Ostatni kurs przed publikacją tego tekstu wynosił 26,6 dolara za akcję.

Wobec tego jak się potoczyły notowania serwisu, powstaje jeszcze pytanie co, prócz publicity i popularności serwisu, tak rozpaliło wyobraźnię obserwatorów mega debiutu. Przede wszystkim liczby. W momencie debiutu doliczano się 900 milionów użytkowników serwisu i to bez Chin (gdzie serwis jest blokowany) i Rosji (gdzie ma minimalny udział w rynku z uwagi na lokalną konkurencję). Do takich liczb Facebook doszedł w ciągu ledwie 8 lat. Serwis powstał 11 stycznia 2004 r. (data rejestracji domenty thefacebook.com) i początkowo służył tylko studentom Harvardu (tam studiował Mark Zuckerberg). A obecnie to już serwis z ponad miliardem użytkowników, który konsekwentnie próbuje realizować swój model biznesowy. To wszystko spowodowało, że w wycenie emisyjnej zaprezentowano inwestorom nie kwotę wynikającą z realnego biznesu ale z potencjału i marzenia o przyszłych, gigantycznych przychodach, które muszą w końcu przyjść z astronomicznej liczby miliarda użytkowników.

W efekcie, wycena serwisu w momencie debiutu była przewartościowana. Debiutowi nie pomogła także kilka nieostrożnych wypowiedzi Marka Zuckerberga przed debiutem, wypowiedzi, które trochę przestraszyły potencjalnych inwestorów. Ponadto, zaczęto porównywać przychody Facebooka z takimi firmami jak choćby Google. Porównania nie wyszły dla Facebook’a korzystanie, bowiem przychody Google’a na moment debiutu firmy Zuckerberga na giełdzie były około 10 razy większe, a co więcej rosną one w tempie kilka razy szybszym.

Miarą porażki tego debiutu był jego medialny odbiór. Nawet bowiem w popularnym serialu dla młodzieży „Gossip Girl” pojawiło się odpowiednie nawiązanie. Mianowicie, w jednym z odcinków serialu bohaterowie organizują aukcję obrazów. Na aukcję trafiają m. in. obrazy z prywatnej kolekcji znanej rodziny, co jest zostaje skwitowane uwagą, że rodzina ta nie ma innego wyboru po tym jak straciła znaczne kwoty na debiucie Facebooka…

Debiut Facebooka na giełdzie to na pewno historia przewartościowanych aktywów i wynikające z tego zderzenie się z twardymi realiami rynku. Powstaje pytanie czy taki a nie inny scenariusz największego, a na pewno najbardziej medialnego debiutu 2012 r. zwiastuje kolejne pęknięcie bańki dotcomów, podobne do tego z lat 2000-2001? Być może 2013 rok odpowie na to pytanie.


Posłowie

Dobierając tematy tego artykułu starałem się wybrać wydarzenia, które były naprawdę głośne, były dyskutowane powszechnie a nie tylko w branży oraz najbardziej znacząco wpłynęły na 2012 r. Oczywiście, nie zmienia to faktu, że dobór był subiektywny. Wielu zapewne chciałoby przeczytać o jednolitym patencie, SOPA/PIPA, korupcji w CPI, odwołanych wielkich przetargach IT, procesie o Androida, działaniach MAC w 2012 r., zamieszaniu z regulaminem Facebook’a, sporze Google z wydawcami prasy, premierach Microsoft’u czy prognozach dla Apple po ostatnich premierach sprzętowych. Nie piszemy o tym tutaj choćby z tego względu, że są to wydarzenia, które zaczęły się przed 2012 r. albo też w 2012 r. nie zostały w taki czy inny sposób „sfinalizowane”. To jednak oznacza, że o wielu z nich będzie można przeczytać w drugiej części tego opracowania, części poświęconej temu czym najprawdopodobniej będziemy żyć w 2013 r. Istotna uwaga, przyszły tekst będzie stanowił o kwestiach, których szczegóły stoją jeszcze pod znakiem zapytania, a więc poruszonych tematów będzie więcej, a szczegółów historycznych mniej :-).