Czym będzie żyła branża IT w 2013 roku

25 stycznia 2013 0 przez Ernest Frankowski

W drugiej części opracowania na temat trendów i wydarzeń w branży IT, zgodnie z obietnicą, spróbujemy zmierzyć się z trudniejszym zadaniem, tj. z oceną, co będzie ważne dla branży w 2013 roku. Obiektywnie rok 2013 wydaje się, że będzie szalenie ciekawy. Będzie bowiem rokiem, w którym rozstrzygnie się być albo nie być wielu technologii, a także ustali (lub nie) pozycja kilku światowych firm. Za rok będziemy zaś sami bardzo ciekawi konfrontacji tego tekstu ze znaną już rzeczywistością 2013.

Jednolity patent – mądry Polak po szkodzie

Rok 2013 upłynie między innymi pod znakiem walki o jednolity patent. Sytuacja rozwija się w dziwnie znajomy sposób. Mianowicie, na początku dyskusji wokół tego zagadnienia, polski rząd wydawał się wręcz jego entuzjastą (mało też było słychać o konsultacjach społecznych). A tymczasem teraz wydaje się, że Polska powoli wycofuje się z popierania systemu jednolitej ochrony patentowej. Zresztą, nie bez przyczyn zewnętrznych, takich jak opór i protesty polskich przedsiębiorców oraz zainteresowanych organizacji pozarządowych. Czy czegoś to nie przypomina? Owszem, całą sytuację znaną ze sprawy ACTA. Choć tym razem bez protestów ulicznych, bo i grupa (przedsiębiorcy), w którą ewentualnie „uderzyłby” jednolity patent, nie jest tak liczna jak przypadku ACTA (ogół konsumentów treści zawartych w sieci). W sposób oczywisty, biznes też nie ma zwyczaju wyrażać swoich opinii poprzez manifestacje uliczne. A zatem, pytaniem na teraz i na cały 2013 r. jest to, czy jednolity patent stanie się częścią polskiego systemu prawnego? Zanim spróbujemy odpowiedzieć na to pytanie, przypomnijmy w ogóle, wokół czego toczy się cała dyskusja.

Jednolity patent europejski to w zamierzeniach twórców kolejny krok do pogłębiania wspólnego rynku w ramach Unii Europejskiej. W wymiarze praktycznym i na szczeblu unijnym najważniejsze decyzje już zapadły. 14 stycznia br. Parlament Europejski przegłosował dwa rozporządzenia wdrażające docelowo jednolitą ochronę patentów w 25 krajach Unii Europejskiej (oprócz Włoch i Hiszpanii). Jednolita ochrona patentowa to ni mniej ni więcej jak wprowadzenie Jednolitego Patentu Europejskiego („JPE”) oraz uproszczenie procedur związanych z ochroną patentową. Nowy system ma uzdrowić obecną sytuację, kiedy to każdy wynalazca lub zainteresowana firma musi (chcąc chronić swój wynalazek) zarejestrować patent w każdym kraju Unii osobno. Efekty (negatywne) takiego systemu są oczywiste. Koszty ochrony patentowej na obszarze Unii Europejskiej są po prostu bardzo wysokie. Nic więc dziwnego, że za nowym, ogólnoeuropejskim podejściem do ochrony patentowej optują państwa posiadające gospodarkę opartą na wiedzy oraz przedsiębiorstwa z bogatymi portfolio patentów i środkami na dalsze badania i inwestycje. Wprowadzenie JPE oznacza, że zarejestrowanie patentu w jednym kraju będzie skutkowało ochroną w innych krajach Unii (oprócz dwóch wspomnianych). Co więcej, zgłoszeń patentowych będzie można dokonywać w praktyce tylko w języku angielskim, francuskim i niemieckim (note bene, brak uwzględnienia języków włoskiego i hiszpańskiego spowodowało wycofanie się z JPE wspomnianych już krajów). A zatem koszty tłumaczeń na język lokalny dokumentacji patentowej będzie przerzucony na lokalnych przedsiębiorców w słabszych krajach Unii. Tytułem wyjaśnienia, w praktyce ograniczenie do trzech „dużych” języków unijnych oznacza, że zgłoszenie patentowe będzie mogło być dokonane także w języku polskim, ale w stosownym terminie konieczne będzie dostarczenie tłumaczenia zgłoszenia w jednym z tych trzech wymienionych języków.

Do tej pory wynalazca czy przedsiębiorca w celu pozyskania ochrony patentowej miał do wyboru żmudną rejestrację w poszczególnych państwach Unii lub też rozwiązanie pośrednie w postaci Europejskiego Urzędu Patentowego w Monachium. Urząd ten umożliwia uzyskanie patentu w Unii Europejskiej i w dodatkowych 11 krajach spoza Unii. Nie zmienia to faktu, że w celu pozyskania skutecznej ochrony, w każdym z krajów europejski patent należy i tak oddzielnie zarejestrować (tzw. walidacja). Taka rejestracja oznacza dodatkowe formalności i koszty, choćby w postaci tłumaczenia dokumentacji patentu na język lokalny.

Jak widać, JPE to rozwinięcie idei działania monachijskiego urzędu, przy czym w nowej odsłonie koszty ochrony patentowej będą przeniesione na lokalnych przedsiębiorców, którzy nagle obudzą się w świecie, w którym trzeba uważać na ew. naruszenia patentów rejestrowanych w całej Unii i z automatu obowiązujących w ich kraju. Co więcej, taka zwiększona uwaga wymaga dodatkowych kosztów w postaci tłumaczeń dokumentacji patentowej z trzech głównych języków Unii Europejskiej.

Bez wątpienia więc, konstrukcja JPE to kolejny element tworzenia wspólnego rynku, tym razem na froncie wynalazków, dla których przepływu zniesione zostaną bariery administracyjne. Na JPE w sposób oczywisty skorzystają przedsiębiorcy z Niemiec, Wielkiej Brytanii i Francji oraz USA i kraje azjatyckie. Dla dużych krajów Unii to ugruntowanie przewagi technologicznej ich przedsiębiorców (i dodatkowe wpływy podatkowe), dla firm spoza Unii, to ułatwione możliwości robienia interesów na obszarze Wspólnot Europejskich.

Z punktu widzenia krajów takich jak Polska, czy w ogóle średnich i małych państw Unii, nastąpiło klasyczne wylanie dziecka z kąpielą. Na przedsiębiorców z tych krajów zostaną przeniesione koszty funkcjonowania jednolitej ochrony patentowej, zwłaszcza w kontekście tłumaczeń dokumentacji. JPE może też oznaczać ograniczenia lokalnej innowacyjności (jak do tej pory, wiele globalnych firm nawet nie próbuje zgłaszać swoich dóbr intelektualnych do ochrony patentowej w Polsce, co tworzy pewne nisze dla polskich przedsiębiorców i wynalazców).

Nie zapominajmy także, że toczy się jednocześnie spór o Jednolity Sąd Patentowy („JSP”). Wciąż nie wiadomo, jak miałyby wyglądać spory przed nim toczone, gdzie będzie jego siedziba, w jakim języku(ach) będą prowadzone postępowania. To są wszystko elementy kosztowo ważne z punktu widzenia przedsiębiorców polskich, którzy dzięki JPE mimowolnie mogą stać się uczestnikami wojny patentowej (o której pisaliśmy w pierwszej części artykułu). Wobec często występującej niejednoznaczności zapisów patentowych (do tego potencjalnie obowiązujących w Polsce, w przyszłości, w obcym języku) istnieje ryzyko rujnowania lokalnych firm przez trolli (i nie tylko) patentowych. W takiej sytuacji, sposób i koszty procedowania przed Jednolitym Sądem Patentowym nabierają nowego, dodatkowego znaczenia. Można sobie bowiem wyobrazić sytuację, kiedy to ochrona patentowa w Unii Europejskiej pójdzie w kierunku ochrony także algorytmów, idei czy koncepcji biznesowych. Wtedy, całokształt okoliczności de facto na zawsze spetryfikuje podział gospodarek unijnych na te oparte na wiedzy i innowacjach (np. niemiecka) oraz odtwórcze (np. polska).

Biorąc pod uwagę wszystko powyższe polscy przedsiębiorcy i organizacje ich reprezentujące naciskają na rząd, aby wycofał się z popierania JPE. Wyrazem tego jest apel organizacji pracodawców i organizacji branżowych o niewiązanie się przez Polskę porozumienia międzynarodowymi w zakresie JPE i JSP. Zostały także oszacowane koszty wejścia Polski do JPE. Jedna z firma doradczych przygotowała dla rządu raport, z którego wynika, że Polska nie wchodząc do systemu może oszczędzić do 25,8 mld zł w okresie 10 lat oraz 61-97 mld zł w okresie 30 lat.

Procedura wejścia w życie systemu JPE jest następująca. Dwudziestego stycznia br. weszły w życie rozporządzenia z pakietu ustanawiającego jednolitą ochronę patentową. Będą one stosowane w praktyce od 1 stycznia 2014 r. albo też od dnia ratyfikowania porozumienia przez 13 państw. Patenty europejskie udzielone od dnia, w którym rozporządzenia zaczną być faktycznie stosowane będą miały zapewniony tzw. jednolity skutek w postaci ochrony we wszystkich państwach uczestniczących w JPE, przy czym, uwaga, tylko tych państwach, które jednocześnie ratyfikują porozumienie o JSP.

Powyższa procedura wręcz narzuca rozwiązanie, które mógłby zastosować polski rząd, aby wyjść z sytuacji wątpliwej z punktu widzenia polskich interesów gospodarczych. O takie też rozwiązanie apelują polscy przedsiębiorcy. Można byłoby mianowicie rozważyć nie ratyfikowanie przez polski parlament porozumienia o JSP. W efekcie, patenty europejskie nie będą miały jednolitego skutku w Polsce. To jest, nie będzie funkcjonowała automatyczna ochrona na terenie Polski, patenty europejskie „po staremu” będą musiały być walidowane w naszym kraju, dokumentacja tłumaczona na język polski, a ewentualne spory będą się toczyć przed sądami polskimi. Jednocześnie jednak, polscy przedsiębiorcy rejestrując patent europejski będą mogli korzystać z zalet JPE (jednolita i automatyczna ochrona na terenie Unii).
Będąc uczciwym należy zauważyć, że takie podejście ma charakter pewnego pasożytnictwa i, znowu, zapewne odbije się na pozycji i postrzeganiu Polski jako (nie)rzetelnego partnera przez inne rządy europejskie. A zatem, polski rząd ma ponownie do przemyślenia dylemat znany z ACTA, kwestie pozycji i opinii międzynarodowej versus interesy gospodarcze i społeczne.

Naszym zdaniem, Polska finalnie nie wejdzie do systemu JPE poprzez odrzucenie JSP. Najprawdopodobniej rząd zastosuje wariant kompromisowy, tj. porozumienie podpisze, ale później zostanie ono odrzucone przez Sejm. Zresztą, Ministerstwo Gospodarki wydało już oświadczenie, że Sejm może nie ratyfikować porozumień o JPE.


Następna generacja konsol – nowa nadzieja

Rok 2012 był pod wieloma względami rozczarowaniem. Szczególnie dla graczy i zainteresowanych rynkiem gier w świecie i w Polsce. Chociaż bowiem obecna generacja konsol (nikt już nie nazywa ich next-genami) starzeje się w niesamowitym tempie, wielcy gracze tego rynku wciąż nie zapowiedzieli oficjalnie następców obecnej generacji. Wiele razy narzekano na fakt, że na żadnych targach czy przy jakiejkolwiek innej okazji w 2012 r. nie było formalnej zapowiedzi następcy Xbox 360 (Microsoft) czy PlayStation 3 (Sony). Jednocześnie, przez cały rok do mediów przedostawało się sporo „informacji” o potencjalnych datach i specyfikacjach nowych konsol. W efekcie, skala oczekiwań jest tak duża, że brak premier nowych konstrukcji w tym roku byłby olbrzymim ciosem i rozczarowaniem dla branży. Co do zasady, z powodu zestarzenia się architektury obecnej generacji konsol mamy do czynienia z pewnego rodzaju zastojem rynku gier wideo. Na tym tle doskonale radzą sobie komputery PC, którym jeszcze do 2011 r. wieszczono (któryś już raz) rychły zmierzch. Tymczasem, dzięki platformom cyfrowej dystrybucji, grom MMO, modzie na free-to-play, rozwojowi mocy obliczeniowej i możliwości graficznych, renesansowi przygodówek oraz crowdfundingowi, popularny pecet przeżywa prawdziwy renesans. Jednocześnie, jako narzędzia do grania rozwijają się tablety oraz smartphony. I w tych dwóch obszarach (PC i urządzenia mobilne) dokonywały się wszystkie istotne dla gier wideo wydarzenia w roku 2012.

Konsolom zastrzyku świeżej energii nie przyniosły z kolei premiery PS Vita (mało gier, mimo bardzo dobrego zestawu startowego, sprzedaż znacznie poniżej poziomu starszych konstrukcji takich jak 3DS) oraz Nintendo Wii U (dość słaba specyfikacja techniczna).

A zatem, czas na nowe konsole. Będą one oznaczały ogólny wzrost jakości oprawy audiowizualnej gier. Obecnie, mimo niebotycznych możliwości pecetów, gry wieloplatformowe są jednak produkowane tak, aby wyglądały podobnie i działały sprawnie na najsłabszej platformie (na pewno nie jest nią PC). Podniesienie wydajności głównych konsol będzie zatem oznaczało także polepszenie się średniego poziomu, przede wszystkim, grafiki w grach. A zatem gry wyglądające jak Wiedźmin 2, seria Crysis, czy nowsze Total War przestaną być wyjątkiem i to do tego ograniczonym do jednej platformy.

Jednocześnie, nowe konsole i ich wzmocnione specyfikacje techniczne będą oznaczały skok jakościowy także dla kontrolerów ruchu (popularnych w 2012 r.). Urządzenia te (przede wszystkim Kinect) mają obecnie tę wadę, że ich obsługa przez konsolę „zjada” na tyle dużo zasobów niemłodej już konsoli, że trudno stworzyć dla tego kontrolera grę o topowej grafice (topowej jak na możliwości konsoli). Nowa generacja konsol to zatem więcej mocy na grafikę, fizykę, SI, obsługę kontrolerów ruchu (a może te będą miały własne procesory) oraz na gry typu Rocksmith (w wersji konsolowej „grze” zdarzały się lagi).

Nowe konsole pójdą także jeszcze mocniej w swoim rozwoju w stronę stawania się domowym centrum rozrywki (nowy Xbox zapewne dostanie napęd Blu-ray – choć są twórcy gier, którzy domagają się oparcia konsol wyłącznie na dystrybucji cyfrowej, oczywiście z uwagi na piractwo). Możemy spodziewać się zintegrowanych z nimi nowych usług (może granie on demand, czyli w chmurze) czy też takich nowinek jak lepsza obsługa 3D, rozszerzona rzeczywistość. Choć to już spekulacje. Jednocześnie pojawiają się głosy, że nie powtórzy się sytuacja, kiedy to nowe konsole wyposażane były w podzespoły (procesory, układy graficzne) zaprojektowane specjalnie dla nich przez całe konsorcja firm. A zatem, casus procesora Cell z PS3, którego R&D kosztowało Sony ok. 400 milionów dolarów, nie powtórzy się. Będą zatem konsole tak naprawdę kolejnym triumfem pecetów, ponieważ będą ni mniej ni więcej, tylko mniejszymi gabarytowo pecetami upchanymi w ładne obudowy i „ubranymi” w dedykowany graniu system operacyjny (choć w konsoli od Microsoft będzie to zapewne jakaś mutacja Windows 8, co daje nadzieję na ciekawą integrację z całym ekosystemem PC). Jednocześnie, potęga wydajnościowa współczesnych, najsilniejszych PC (i ich cena) są tak duże, że do konsol trafią pewnie podzespoły dające odpowiedniki średnio wydajnych komputerów osobistych. To z kolei oznacza, że wobec tego co dzieje się na rynku PC (szybki rozwój tej platformy w zakresie grafiki, gier MMO, free-to-play itd.), nowe konsole zestarzeją się szybciej, niż obecna generacja. Dla przypomnienia, Xbox 360 i PlayStation 3 w momencie swoich premier oferowały wydajność będącą poza zasięgiem komputerów osobistych. To także już raczej nie powróci. Wskazują na to informacje, że następca PlayStation 4 będzie dysponował mocą rzędu 1,8 teraflopa, a nowy Xbox (potocznie nazywany „Xbox 720”) o około 50% mniejszą. Co jest zresztą ciekawe także z innego punktu widzenia. Mianowicie, jeśli taki stosunek mocy obu platform się potwierdzi, oznacza to konsekwentne pójście Microsoft w kierunku tego, że to nie wydajność stanowi o wartości konsoli, ale cena, usługi dodatkowe (Xbox Live), integracja z Windows 8 czy kontroler ruchu. A zatem ekosystem, a nie prosta fascynacja mocą. Może to być słuszna droga. Pamiętajmy, że PS3 też na papierze jest wydajniejsza od konkurenta z Redmond, a w grafice gier jakoś tego za często nie widać (choć oczywiście exclusivy na PS3 potrafią wyglądać olśniewająco, jak na tak „wiekowy” sprzęt).

Kolejny wątek, który pojawił się w związku z nową generacją konsol to koszty opracowywania gier na nowe platformy. Znane są opinie developerów, wedle których budżety gier AAA będą musiały zostać zwiększone wręcz dramatycznie. Uwzględnić trzeba będzie choćby koszt programistycznego opanowania nowych platform. Na szczęście, zaraz po pojawieniu się takich głosów, pojawiły się i opinie rozsądniejsze. Mianowicie, skoro nowe konsole będą dość bliskie sprzętowo pecetom, a do tego zbliżone do nich mocą, koszty tworzenia gier nie powinny wzrosnąć aż tak bardzo.

Pozostaje pytanie, kiedy będziemy mogli zobaczyć nowe konsole w akcji, a co ważniejsze, zagrać na nich. Naszym zdaniem, w tym roku obie główne konsole i ich specyfikacje zostaną ogłoszone. Najpewniej na targach E3 co najmniej jeden z głównych producentów coś pokaże. Można przyjąć także na 100%, że wielu kluczowych twórców nowe konsole (ich prototypy, wersje rozwojowe itd.) już widziało i pewnie dysponuje egzemplarzami pozwalającymi powoli opanowywać nową technologię. Same konsole pojawią się w Polsce najpewniej na sam koniec 2013, a może i dopiero w 2014 r.


E-państwo – reaktywacja?

Rok 2013 to także, miejmy nadzieję, większa liczba usług administracji publicznej dostępnych drogą elektroniczną. Pierwsze oznaki tego pożądanego trendu rozwoju administracji w Polsce już się pojawiły.

Dość wspomnieć, że z Nowym Rokiem został uruchomiony system eWUŚ (Elektroniczna Weryfikacja Uprawnień Świadczeniobiorców). System ten gwarantuje pacjentom rejestrację u lekarza jedynie na podstawie numeru PESEL. To zaś oznacza, że wizyta u lekarza nie będzie wymagała już zabierania ze sobą dokumentu potwierdzającego ubezpieczenie lub druku RMUA.

Warto także dodać pewną ideologiczną zmianę związaną z nowym systemem. Mianowicie, jeśli system wykaże, że dany pacjent jest nieubezpieczony (nie przysługuje mu usługa medyczna w ramach systemu publicznej opieki zdrowotnej), tenże pacjent i tak będzie mógł z konsultacji medycznej skorzystać na podstawie własnego oświadczenia, w którym potwierdzi, że jest ubezpieczony. Jeśli informacja z systemu potwierdzi się, tj. jednak okaże się, że pacjent nie był jednak ubezpieczony, windykacją zajmie się NFZ.

Kolejne ułatwienie dla obywateli wynikające z informatyzacji administracji publicznej dotyczy obowiązku meldunkowego. Już od 1 stycznia możliwe jest załatwienie spraw związanych z meldunkiem podczas jednej wizyty w urzędzie. Co więcej, przy dokonywaniu meldunku nie będzie już obowiązku podawania informacji o wykształceniu oraz przedkładania książeczki wojskowej.

Ważne ułatwienia dotyczą również zasad wyrabiania paszportów. Już od 17 stycznia 2013 r. nie ma obowiązku wyrabiania paszportu w urzędzie wojewódzkim właściwym dla miejsca zameldowania. Można skorzystać z usług dowolnego punktu paszportowego na terenie kraju. Odbiór paszportu możliwy jest w wybranym wydziale paszportowym urzędu wojewódzkiego.

To nie koniec „nowości” możliwych dzięki informatyce. Od 1 stycznia 2013 r. obowiązują także zmienione przepisy dotyczące faktur elektronicznych. Dzięki nim można już z całą pewnością powiedzieć, że przepisy unijne związane z e-fakturowaniem zostały w całości przyjęte do polskiego porządku prawnego. Nowe przepisy w praktyce oznaczają, że podatnicy uzyskali możliwość konstruowania narzędzie do e-fakturowania za pomocą dowolnych środków technicznych oraz proceduralnych, o ile tylko środki te zapewniają integralność treści, autentyczność pochodzenia oraz czytelność faktur.

Neutralność technologiczna w e-fakturowania została osiągnięta poprzez wskazanie bezpiecznego podpisu elektronicznego oraz rozwiązań EDI (Electronic Data Interchange) jako przykładowych (co już było obecne w poprzednich przepisach) oraz wprowadzenie możliwości konstruowania e-fakturowania z wykorzystaniem tzw. kontroli biznesowych i przy zapewnieniu tzw. wiarygodnej ścieżki audytu. Nie wchodząc w szczegółową analizę prawną i techniczną tych pojęć, oznaczają one, że z jednej strony zainteresowani otrzymują liberalne przepisy w zakresie e-fakturowania, z drugiej strony otwartość tych przepisów spowoduje zapewne duże dyskusje i kontrowersje w zakresie tego, jak powinny być one stosowane i interpretowane. Nie zmienia to faktu i naszej oceny, że nowe przepisy o e-fakturowaniu to krok w naprawdę dobrym kierunku.
W kontekście e-fakturowania oraz e-państwa jako takiego warto wspomnieć o tzw. e-kontrolach. Już pod koniec 2012 resort finansów deklarował, że coraz więcej kontroli podatkowych i skarbowych będzie realizowanych za pomocą narzędzi IT, czyli w ramach tzw. kontroli elektronicznych. Co więcej, władze będą wręcz nawet zachęcały podatników do przechodzenia na e-fakturowanie, aby właśnie w przyszłości ułatwić sobie prowadzenie kontroli podatników w trybie elektronicznym.

Dynamika wzrostu e-kontroli w ujęciu rocznym wykazuje nawet 100%. Ostatnio, zgodnie z danymi Ministerstwa Finansów, oznaczało to 4,6 tys. e-kontroli rocznie w ogólnej liczbie kontroli jako takich wynoszącej ok. 130 tys. Jak widać więc, potencjał wzrostu nowego trybu prowadzenia kontroli podatników jest bardzo duży. Jest to istotne, ponieważ kontrole elektroniczne oznaczają konieczność zmiany przyzwyczajeń wielu podatników w zakresie tego jak kontrola podatkowa czy skarbowa może być operacyjnie prowadzona. Elektroniczna kontrola to także większa koncentracja na ryzykach podatkowych wynikających nie tylko z błędów „ludzkich”, ale także z błędów w systemach ERP (Enterprise Resources Planning) i finansowo-księgowych. Dla funkcjonowania IT w danej firmie oznacza to z kolei konieczność zwiększanej uwagi w obszarze jakości funkcjonowania i konfiguracji systemów finansowych.

Tematu e-państwa nie można zamknąć bez wspomnienia o… podpisie elektronicznym. Od lat zainteresowane środowiska nawołują do nowelizacji ustawy o podpisie elektronicznym (z 2001 r.). Niestety, projekt nowelizacji, a właściwie projekt nowej ustawy, tym razem nie o podpisie elektronicznym, ale o podpisach elektronicznych od dawna dostępny jest na stronie Ministerstwa Gospodarki i… nic się z nim nie dzieje. Ma się wręcz wrażenie, że cała, kiedyś bardzo żywa dyskusja wokół e-podpisu ucichła i że de facto nie ma już podmiotów zainteresowanych szybką zmianą obecnych przepisów. Istnieje kilka potencjalnych przyczyn takiego stanu rzeczy. Przede wszystkim, w ramach systemu e-deklaracje wprowadzono możliwość składania deklaracji podatkowych przez osoby fizyczne bez konieczności posiadania bezpiecznego podpisu weryfikowanego kwalifikowanym certyfikatem. W efekcie, wywołano pozytywny efekt w postaci gigantycznego wzrostu liczby składanych e-deklaracji, a sam e-podpis stał się w tym obszarze po prostu zbędny. Inna przyczyna to nieużyteczność systemu ePUAP, który miał być m. in. motorem rozwoju usług opartych na e-podpisie. Idąc dalej, nie został wciąż uruchomiony projekt PL.ID (elektroniczny dowód osobisty zawierający e-podpis), co również nie pobudza dyskusji nad samymi zmianami w konstrukcji e-podpisu w Polsce. Dodatkowo, branże, które od lat nawoływały do zmian w przepisach o e-podpisie (np. finansowa) wypracowały alternatywne metody autoryzacji transakcji, w więc również do pewnego stopnia straciły zainteresowanie samym e-podpisem. Jeszcze do niedawna e-podpis był barierą dla rozwoju e-fakturowania, ponieważ przepisy przewidywały, że podpis taki jest jednym z dwóch obligatoryjnych sposób zabezpieczenia faktur elektronicznych. Jak już jednak wspomnieliśmy wcześniej, obecne przepisy wskazują na bezpieczny e-podpis jako na jeden z możliwych sposób na e-fakturowanie. W ten sposób e-faktury również przestały być powodem nawoływań do zmian w konstrukcji e-podpisu.

Ucichły także głosy krytyczne wobec e-podpisu ze strony środowisk przedsiębiorców. Przede wszystkim, przekonali się oni, że komplet składający się z urządzenia do składania podpisu, karty oraz kluczy i certyfikatu nie jest jednak taki drogi. W związku z tym nie nastręcza większego problemu korzystanie z obecnej ustawy i obecnie dostępnych e-podpisów w celu składania e-deklaracji (deklaracje „biznesowe” wciąż wymagają bezpiecznego e-podpisu) czy podpisywania umów. Ewentualnie, czasem słychać głosy, że przydałby się e-podpis o skutkach cywilnoprawnych wydawany na osobę prawną (jak do tej pory, bezpieczny e-podpis może być wydany tylko osobie fizycznej).

Naszym zdaniem zatem rok 2013 nie przyniesie żadnych znaczących zmian w temacie e-podpisu. Po prostu nie widać żadnych interesariuszy tego zagadnienia. Podpis elektroniczny pozostanie narzędziem niszowym lub służącym do wyspecjalizowanych czynności i usług. I tak, dalej będzie znajdował zastosowanie w systemach m. in. Polskiej Platformy Przetargowej, Płatniku, e-deklaracji, Elektronicznej Skrzynki Podawczej czy Krajowego Rejestru Sądowego. Dodatkowo, pojawiły się przepisy wprowadzające elementy elektroniczne w postępowaniu administracyjnym (Kodeks Postępowania Administracyjnego i możliwość składania podań z użyciem e-podpisu).

Uważamy także, że rok 2013 będzie kolejnym rokiem braku wspólnej wizji informatyzacji administracji oraz braku poprawy koordynacji projektów informatycznych w sferze publicznej. Będą się pojawiały drobne zmiany na lepsze, takie jak te opisane na początku tej części artykułu. Nie będzie to jednak nic kompleksowego. Nie doczekamy się nowelizacji przepisów o e-podpisie, nie będziemy także świadkami w tym roku pozytywnych zmian w działaniu systemu ePUAP czy uruchomieniu PL.ID. A zatem, w zakresie e-administracji, czeka nas kolejny krok dreptania prawie w miejscu.


Crowdfunding – veni vidi vici?

Najprostsza definicja crowdfundingu (za Wikipedią) wskazuje, że jest to forma finansowania różnego rodzaju projektów przez społeczności wokół tychże projektów zorganizowane. Rok 2012 był świadkiem prawdziwej eksplozji mody na taki sposób finansowania różnych, czasem bardzo ciekawych i ambitnych projektów. Jak można się domyślić, sama idea powstała w USA, a jej synonimem jest serwis Kickstarter.com. Projekty w ramach crowdfundingu są finansowane przez licznych zainteresowanych przedmiotem danego projektu. W efekcie, zainteresowani tworzą pewną społeczność, poprzez co crowfunding jest kolejnym przykładem rewolucji społecznościowej w internecie. W praktyce crowdfunding staje się narzędziem finansowania takich czy innych projektów, które nie uzyskują uznania w oczach komercyjnych wydawców czy kredytodawców. Z drugiej strony, nawet gdyby dawały nadzieję pozyskania finansowania w tradycyjny sposób, wielu przedsiębiorców woli społeczną formę pozyskania środków z uwagi na to, że nie tracą dzięki niej kontroli nad swoim pomysłem. Jest także crowdfunding szansą powrotu na rynek wielu twórców, którzy z różnych powodów przestali funkcjonować w mainstreamie i w inny sposób mają problemy z pozyskaniem finansowania. Zaletą crowdfundingu (po stronie twórców) jest także to, że dokonanie donacji na rzecz danego projektu nie daje żadnych praw donatorowi. Przykładowo, po ukończeniu projektu, wciąż musi on na tradycyjnych zasadach „zasponsorowany” produkt kupić. Zyskuje zaś jako klient jedynie (aż) satysfakcję, że przyczynił się do powstania produktu, który odpowiada jego potrzebom i który bez jego wsparcia mógłby w ogóle się nie pojawić. Pojawiają się także koncepcje crowdfundingu, które wprowadzają mechanizm właścicielski do całej idei. Mianowicie, wzięcie udziału w zbiórce daje „udział” w całym przedsięwzięciu. Kolejny trend związany jest z twórcami i przedsiębiorcami o znanych nazwiskach / markach. Takie osoby i firmy czasem z sukcesem przeprowadzają zbiórki na własnych stronach, korzystając właśnie z siły własnego „brandu”.

Pytanie tylko w jakim zakresie crowdfunding może stać się znaczącym zjawiskiem w 2013 r., skoro, jak sami napisaliśmy, świadkami boomu na tą formę finansowania byliśmy w 2012 r. Rok 2013 będzie naszym zdaniem rokiem prawdy dla crowdfundingu. Wiele projektów o rekordowych zbiórkach (co ciekawe, są to głównie… gry, sprzęt IT głównie do… grania oraz gadżety elektroniczne) powinno zostać ukończonych w 2013 r. Okaże się wtedy, jak wartościowe projekty powstały na bazie zebranych od społeczności pieniędzy. Jeśli projekty te będą udane, crowdfunding zyska nową siłę i stanie się kolejnym, powszechnie stosowanym sposobem na pozyskiwanie środków na inwestycje. Jeśli najbardziej medialne projekty okażą się niewypałem, entuzjazm wokół tego zjawiska wygaśnie. W efekcie, w krajach takich jak Polska, w którym już także powstają serwisy crowdfundingowe, nie zdążą się one upowszechnić. Naszym zdaniem należy w tej kwestii wykazywać umiarkowany optymizm. W najbardziej popularne projekty są zaangażowani naprawdę znani twórcy z różnych branż. Można więc powiedzieć, że dbałość o swoją własną reputację będzie ich dopingowała do stworzenia produktów na miarę oczekiwań wspierających ich społeczności.


Google vs wielcy wydawcy – kierunek Europa

W Europie powoli nabrzmiewa konflikt między Google a wydawcami prasy. Sprawa dotyczy publikowania przez Google linków do artykułów choćby w ramach usługi Google News czy pojawiania się reklamy kontekstowej związanej z wynikiem wyszukiwania. Wydawcy niemieccy, francuscy czy belgijscy naciskają (naciskali) na swoje rządy, aby te wprowadziły przepisy umożliwiające zmuszenie Google do podzielenia się pieniędzmi zarabianymi na reklamie internetowej. Jak argumentują wydawcy, kolosalne zyski Google wynikają właśnie choćby z faktu linkowania przez wyszukiwarkę do nieswoich treści. Za sprawą stoją oczywiście konkretne interesy ekonomiczne. Coraz więcej treści migruje do internetu, w którym ich twórcy nie mają poczucia pełnego panowania nad potencjalnymi źródłami przychodów, także za sprawą sposobu funkcjonowania przeglądarek internetowych. Na linii sporu znajduje się tzw. reklama kontekstowa. W wynikach wyszukiwania pojawiają się adresy portali wydawców prasy, udostępniające informację wysokiej jakości merytorycznej, faktograficznej i językowej. W odniesieniu zaś do takich wyników wyszukiwania, pojawia się konkretna reklama kontekstowa, na której wyszukiwarka zarabia. Wydawcy chcą zatem, aby właściciel wyszukiwarki internetowej podzielił się wpływami, które pośrednio pozyskuje poprzez takie, a nie inne wyniki wyszukiwania. Drugim palącym problemem dla wydawców prasy jest oczywiście usługa Google News, w ramach której Google komponuje „własne” serwisy informacyjne. Funkcjonowanie stron takich jak Google News jest wprost przez wydawców prasy nazywane pasożytnictwem (a czasem padają i bardziej dosadne określenia). W efekcie, na przykład niemieccy wydawcy prasy przekonali rząd niemiecki do prac nad projektem ustawy o „pomocniczym prawie autorskim”. Nowe przepisy miałyby umożliwić pobieranie opłat za linkowanie do nieswoich treści.

Z kolei spór między wyszukiwarką a francuskimi wydawcami zaowocował wzajemnymi groźbami. I tak, rząd francuski zaczął przebąkiwać o konieczności wprowadzenia opłat za linkowanie. Google z kolei zagroził, że usunie z wyszukiwarki możliwość wyświetlania się linków do francuskich stron.

W całej tej dyskusji często zapomina się, że większość osób, które korzystają z Google czy Google News i tak wchodzi na strony właściciela treści. Co więcej, możliwe jest takie ustawienie strony, aby materiały z niej nie mogły być linkowane np. w Google News. Można więc przyjąć, że branża wydawnicza chce mieć ciastko i zjeść ciastko. Z jednej strony chce korzystać z ruchu generowanego przez Google, a z drugiej strony chce pozyskać od właściciela wyszukiwarki dodatkowe źródło przychodów. Strony tego sporo ponadto zasypują się argumentami o wolności informacji i dostępu do niej w internecie.

Naszym zdaniem kontynuacja tego sporu będzie jedną z ważniejszych kwestii dla rozwoju globalnej sieci w 2013 r. Jednocześnie pozostanie zagadnieniem niszowym i rzadko komentowanym. Tym niemniej, z obecnego przebiegu całego sporu można zaryzykować stwierdzenie, że skończy się ono zwycięską obroną pozycji Google. Symptomy tego można było zaobserwować na przykładzie Belgii. W kraju tym odpowiednie przepisy w zakresie tzw. „pomocniczych praw autorskich” przyjęto już w 2011 r. Wówczas, Google spełnił swoje groźby i popularne gazety belgijskie zniknęły z wyników wyświetlanych przez wyszukiwarkę. W efekcie, wydawcy bardzo szybko przekonali się, jak wiele ruchu na ich stronach jest generowanych przez Google, a w konsekwencji, jak bardzo spadają ich przychody reklamowe w wyniku działań odwetowych amerykańskiej firmy. Finał historii był taki, że belgijska izba prasy Copiepresse już po miesiącu zdecydowała, że nie będzie korzystać z nowego prawa.

Posłowie

W ciągu 2013 roku pojawi się zapewne wiele wydarzeń, trendów, technologii czy przedsięwzięć prawnych niewymienionych w powyższym zestawieniu, a jednocześnie elektryzujących branżę. Obok takich niespodzianek roku 2013 jest także mnóstwo zagadnień, które być może inne osoby widziałyby jako część tej analizy. Z racji jednak oczywistej subiektywności takich zestawień, ta lista oddaje to, co autor uważa za ważne i warte wspomnienia w kontekście 2013 r. Dodatkowo, istnieje szereg ciekawych tematów, które z premedytacją nie znalazły się w niniejszym opracowaniu. Pasjonująca może być choćby próba analizy, jak w 2013 r. będzie wyglądała droga rozwoju takich firm jak Apple, Facebook, Google, Microsoft, Nokia, Samsung czy Sony, czy w jakim kierunku potoczy się ewolucja komputera osobistego. Uważamy jednak, że te i kilka innych zjawisk branży IT zasługuje na dedykowane tylko im teksty i, że będziemy w stanie je już wkrótce przygotować. Z kolei tematy „niespodzianki”, pojawiające się w trakcie roku 2013 będziemy starali się na bieżąco komentować.