o serwisie | redakcja | reklama | kontakt
szukaj w serwisie
Spis treści

Indeks działów

29 czerwca 2013
Ernest Frankowski

Branża IT co jakiś czas skupia się na poszukiwaniu Następnej Wielkiej Rzeczy (The Next Big Thing). Innymi słowy, pomysłu, idei czy konceptu, który przez kilka kolejnych lat napędzałby całą branżę i byłby jej wizytówką medialną wobec świata zewnętrznego. Takim NWR może być swojego rodzaju moda technologiczna (niedawno Cloud Computing, z którego zrobił się trochę mały deszcz), a może być to też faktyczna, pożyteczna technologia czy pomysł biznesowy. W historii komercyjnej informatyki było już wiele NWR-ów. Chociażby graficzne interfejsy użytkownika systemów operacyjnych, komputer osobisty, chmura (choć to jeszcze aspirujący NWR), wszystko, co się działo wokół smartfonów i tabletów (i ich OS-ów) oraz usługi społecznościowe (Web 2.0). Te koncepty i technologie pozostają wciąż bardzo ważnymi dla gospodarki, ale ich medialny czas powoli mija lub minął. Innymi słowy, są to kwestie już w miarę oswojone (także przez laików – jakkolwiek nie byłoby to sprzeczne stwierdzenie), opatrzone i brak im świeżości, którą ma zawsze nowa i, idealnie, rewolucyjna idea. A zatem, przyszedł czas poszukać kolejnej wielkie idei, będącej potencjalnym kołem zamachowym rozwoju światowej informatyki. Ponieważ informatyka (podobnie jak przyroda) nie znosi próżni, kandydat już się pojawił. Jest (są?) nim tzw. Big Data. Zanim jednak zajmiemy się szerzej tym pojęciem, warto podkreślić, że oznaką bycia NWR-em jest wchodzenie do powszechnej świadomości społecznej, a tym samym do mediów głównego nurtu. A to „robią” Big Data swobodnie i od jakiegoś czasu. Dzienniki i tygodniki rozpisują się o Big Data, akcje marketingowe na Facebooku wiąże się z tym pojęciem, a czasopisma analizujące możliwości młodych ludzi na rynku pracy na wyścigi prezentują rankingi zawodów przyszłości, wśród których brylują te związane z analizą wielkich zbiorów danych. A zatem, czym są Big Data i czy można je uznać za NWR informatyki? Poniżej spróbujemy odpowiedzieć na te pytania.
 

Szczypta teorii

Intuicyjnie podchodząc do sprawy, Big Data to duże zbiory danych, których rozmiar i zmieniające się parametry (niestrukturalność) uniemożliwiają tradycyjne nimi zarządzanie i analizę. Na potrzeby Big Data (choć niektórzy teoretycy wskazują, że w praktyce jest to zjawisko niedefiniowalne) ukuto także bardzo ładnie wyglądającą (zwłaszcza w wydawnictwach niespecjalistycznych) definicję "4 Vs". Mianowicie, Big Data to szereg pojęć i działań związanych z pozyskiwaniem, utrzymywaniem i operowaniem na danych charakteryzujących się:

  1. występowaniem w dużej ilości (volume),
  2. dużym zróżnicowaniem (variety),
  3. dużą zmiennością (velocity),
  4. istotną wartością (value).

Powyższe nie zapowiada jeszcze nic rewolucyjnego. Tym niemniej, w pewnym momencie ktoś dostrzegł, że analiza (gdy już się opanuje ją z technicznego punktu widzenia) wielkich zbiorów danych (zamiast wielu mniejszych zbiorów) pozwala uzyskać bardzo szczegółowe i trafne informacje mające zastosowanie w wielu dziedzinach życia i biznesu. Co więcej, okazało się, że wiele firm i instytucji w wyniku swojej codziennej działalności (tj. niejako mimochodem) zbiera olbrzymie ilości danych choćby o użytkownikach internetu i ich zachowaniach, które potencjalnie można byłoby sensownie wykorzystać w celach komercyjnych. W ten sposób narodziło się węższe pojęcie Big Data, oderwane od specyfiki technicznej i związane z danymi, i które jest najczęściej przywoływane we współczesnych publikacjach prasowych.

Big Data to jednak przede wszystkim znany problem (czy też raczej fakt) z zakresu teorii i praktyki nauk informacyjnych. Nie od dziś można bowiem zauważyć, że ilość informacji dostępnej w postaci cyfrowej rośnie w sposób nie poddający się żadnej kontroli. Szacuje się, że codziennie jest tworzonych 2,5 tryliona bajtów danych (trylion to 1018, czyli 1 000 000 000 000 000 000). Oznacza to olbrzymi przyrost „dano-ton” informatycznych śmieci, ale też dostęp do olbrzymich ilości potencjalnie użytecznych danych. Przykładowo, instytucje dzięki zjawisku Big Data zyskują dostęp do olbrzymich ilości danych referencyjnych i porównawczych, pozwalających symulować procesy fizyczne, geologiczne, biologiczne, społeczne czy historyczne. Już sam zwiększający się zakres czasowy dostępnych danych pozwala „produkować” coraz bardziej wiarygodne informacje o trendach w naukach, od astronomii, przez ekonomię, aż po socjologię.

Chciałoby się zakrzyknąć: „Sky is the limit!”, co jest prawdą, o ile oczywiście skutecznie opanuje się techniczne i sprzętowe wymagania w zakresie operowania na wielkich zbiorach danych. No właśnie, Big Data to najczęściej zbiory danych tak duże, że tradycyjne narzędzia, takie jak relacyjne silniki bazodanowe oraz tradycyjne systemy do raportowania przestają mieć rację bytu. Tradycyjne oprogramowanie przestaje być zdolne do ewidencjonowania, operowania, zarządzania i procesowania takimi danymi. W efekcie, powstają całe nowe technologie, których nawet nazwa wskazuje, do jak wyjątkowego celu służą. Dobrym przykładem jest tutaj podejście do zarządzania wielkimi danymi o wdzięcznej i wiele mówiącej nazwie „NoSQL”.


Następna strona »


Zobacz komentarze do artykułu / 0
Wersja do druku

Przeczytaj również...

Zaloguj się, by dodać komentarz. Nie masz konta? Zarejestruj się.

Login
Hasło
Zarejestruj się
Zapomniałem hasła
  Ostatnio komentowane
  Ostatnio na forum
więcej »
strona główna | o serwisie | redakcja | reklama | kontakt