Nadchodzi Armageddon danych. Grozi nam przeciążenie informacją?
Analitycy podają, że 90 proc. globalnych danych zostało stworzonych tylko w ciągu ostatnich dwóch lat. Do 2020 r. ma być ich już 44 bilionów gigabajtów. Rosnąca liczba informacji uderza w firmy i zbliża do niebezpiecznego przeciążenia. Czy polscy przedsiębiorcy są na to gotowi?
29.12.2015 | aktual.: 29.12.2015 17:56
Zalogowani mogą więcej
Możesz zapisać ten artykuł na później. Znajdziesz go potem na swoim koncie użytkownika
Już w 1970 r. futurolog Alvin Toffler pisał o przeciążeniu informacyjnym, które nas czeka. Po latach wizja science fiction jest coraz bardziej realna. Liczba informacji prywatnych i publicznych stała się tak duża, że niedługo możemy stracić nad nimi kontrolę. Źródeł jest wiele: Internet, Big Data, intranety korporacyjne, e-mail, e-commerce, ERP, CRM, media strumieniowe, wideo i mnóstwo aplikacji. Za każdą z tych informacji stoją kolejne dane do przechowywania, których przybywa w dynamicznym tempie. Technologie nie zwalniają. W 2011 r. masowe rozpowszechnienie rozwiązań takich jak Android, Windows Phone, tablety czy chmura publiczna, były dopiero na etapie prognoz, dziś są one dostępne niemal dla każdego.
Lawina danych od Internetu Rzeczy (IoT)
Według Gartnera, do 2020 roku na świecie będzie 26 miliardów podłączonych urządzeń, generujących i konsumujących dane. Powstające podłączone do sieci samochody, domy i wearables (czyli technologie ubieralne) nie przyniosą stabilizacji w tej kwestii. Przykładowo, samoloty brytyjskich linii lotniczy Virgin Mobile, wykorzystujące rozwiązania telematyczne, mają w ciągu jednego lotu wytworzyć 0,5 mln GB danych. Flota Virgin wykonuje 21 tys. lotów rocznie, co daje 10 milionów GB.
Analitycy przewidują, że w nadchodzącej dekadzie Internet Rzeczy wymusi na firmach weryfikacje posiadanych zasobów, które pozwalają na przesyłanie i zarządzanie danymi. –. Rozwój nowych technologii jest nie do zatrzymania, a firmy, żeby utrzymać wysoki poziom konkurencyjności, są wręcz skazane na przyjęcie coraz większej ilość danych klientów oraz zapewnienie tym informacjom stabilnej infrastruktury. Umożliwi ona obsługę i zarządzanie zgodnie z oczekiwaniami użytkowników. – komentuje Łukasz Polak, wiceprezes Beyond.pl, polskiego centrum danych i dostawcy rozwiązań IT dla biznesu.
Analitycy przewidują, że w nadchodzącej dekadzie Internet of Things (Internet Rzeczy) wymusi na firmach weryfikacje posiadanych zasobów, które pozwalają na przesyłanie i zarządzanie danymi. Według Łukasza Polaka z Beyond.pl (polskie centrum danych i dostawca rozwiązań IT), rozwój nowych technologii jest nie do zatrzymania, a firmy - żeby utrzymać wysoki poziom konkurencyjności - są wręcz skazane na przyjęcie coraz większej ilość danych klientów oraz zapewnienie tym informacjom stabilnej infrastruktury. Umożliwi ona obsługę i zarządzanie zgodnie z oczekiwaniami użytkowników.
Schronienie w elastycznej infrastrukturze
W obliczu potopu danych firmy zastanawiają się już nie tylko nad zminimalizowaniem ryzyka związanego z ich bezpieczeństwem przechowywania, ale również nad sposobem ich przetwarzania i dystrybucji na potrzeby biznesowe. Dane mają być dostępne w dowolnym miejscu i czasie, a w wielu przypadkach wykorzystywane w jednym momencie przez kilka tysięcy pracowników, czego doskonałym przykładem są firmy ubezpieczeniowe. Nic więc dziwnego, że rosnąca ich liczba zwiększa presję na wydajność i skalowalność infrastruktury IT firm i wymaga od niej elastyczności oraz dostosowania się do obowiązujących realiów. I tu pojawia się dylemat: czy rozbudowywać posiadane zasoby IT czy outsoursować (outsourcing - korzystanie z zewnętrznych źródeł) je na zewnątrz?
Przenosząc swoje zwiększające się dane do zewnętrznego dostawcy, przedsiębiorca - według uznania - dynamicznie zwiększa lub zmniejsza dostępność zasobów serwerowych, bez inwestowania w infrastrukturę. Łukasz Polak dodaje, że firmy poszukują rozwiązań, które gwarantują stabilność, bezpieczeństwo i optymalność działania ich usług. Współpracując z nimi dzielimy się swoją wiedzą tym zakresie.
Już za moment przyrost danych oraz zapotrzebowanie na moc obliczeniową osiągną gigantyczne rozmiary. Firmy, chcąc jednocześnie zachować stabilność, bezpieczeństwo i optymalność działania swoich usług muszą poszukać odpowiednich rozwiązań, które im to zagwarantują.