Zanim zagłębimy się w „Deep Web” (ang. „Głęboka Sieć”), przemyślmy jedną kwestię. Gdyby wszystkie cyfrowe dane, stworzone tylko w 2010 roku, zgromadzić na 16GB iPad’ach ułożonych jeden na drugim, otrzymalibyśmy wieżę wysoką na ponad 545 kilometrów. To bardzo dużo, biorąc pod uwagę, że najwyższy budynek na ziemi nie ma nawet kilometra wysokości. Teraz mamy rok 2015, codziennie powstają tysiące stron internetowych, nie mówiąc już o pojedynczych informacjach, które nieustannie napływają do sieci. Co ciekawe, internetowe wyszukiwarki mają dostęp do zaledwie 3 procent całkowitych danych dostępnych w Internecie. Powstaje zatem pytanie – gdzie znajdują się pozostałe?

Czym jest Deep Web?

Sieć internetowa, z której normalnie korzystamy, zawiera informacje, które silniki wyszukiwania znajdują na listach takich jak Search Engines Results (SER), bazujących na zapytaniach użytkowników. Jednak wyszukiwarki te widzą tylko niewielką ilość danych, przechowywaną online. A co z resztą? To są właśnie pozostałe dane znajdujące się w Głębokiej Sieci. Deep Web, zwana jest również „Undernet” („Podsiecią”) a także niewidzialną lub ukrytą siecią. Nikt dokładnie nie wie, jak duża ona jest, ale zakłada się, że przerasta 500 – krotnie rozmiar powierzchni znanego nam Internetu.

Jak dostać się do Deep Web?

Aby zagłębić się w rewiry Głębokiej sieci potrzeba specjalnego oprogramowania jak Onion Router, powszechnie znanego jako Tor. Ze strony www.torproject.org, dowiadujemy się, że dzięki temu narzędziu nasze komunikaty zostają skierowane do rozproszonej sieci przekaźników, uruchamianych przez wolontariuszy na całym świecie. Ma to zapobiec podglądaniu odwiedzanych przez nas stron, wstrzymać rejestrowanie fizycznej lokalizacji, z której kliknęliśmy zapytanie i pozwolić na dostęp do zablokowanych stron.

Metoda proponowana przez Tor, polegająca na odbijaniu zapytań, nazywana jest Onion Routing i powala na traktowanie ruchu generowanego przez użytkownika jako anonimowy. Potrzeba dokładnej znajomości, do jakich treści mamy zamiar się dostać, ponieważ „ciemna strona Internetu” składa się z zawartości, która nie jest osiągalna dla silników wyszukiwania albo też nie ma rejestru nazw domen. Aczkolwiek, trwają prace mające na celu uproszczenie dostępu do Deep Web za pośrednictwem stron z wyszukiwarkami. Jedną z nich jest OnionCity, które dotychczas zaindeksowało 6,7 miliona stron z Głębokiej sieci.

Problem z „Dark Web”

Sieć Dark Web, czyli tak zwana ciemna strona Internetu, odnosi się do niewielkiej części sieci, która podlega pod Deep Web i słynie ze swojej „mrocznej” zawartości. Jednak, nie wszystko co znajduje się w Dark Web należy do kategorii „mroczne”. Jednym z takich przykładów jest usługa WikiLeaks, stworzona do przyjmowania przecieków z anonimowych źródeł. Szacuje się, że jest około 10 000 ukrytych usług Tor po ciemnej stronie Internetu.

Mimo tego zasoby internetowe w sieci Dark Web kojarzone są z:
• Sprzedażą kodów złośliwego oprogramowania
• Narkotykami, nielegalnymi transakcjami, bronią
• Kasowaniem oprogramowania DRM
• Przewodnikami dla hackerów
• Pirackim oprogramowaniem
• Ogólnie pojętym czarnym rynkiem

Jak uchronić się przed zagrożeniami płynącymi z Dark Web przy pomocy Cyberoam Security Solution?

Jak już wspomnieliśmy, uzyskanie dostępu do ciemnej sieci wymaga specjalnego oprogramowania takiego jak Tor, zapewniającego interfejs do interakcji z mroczną stroną Internetu. Taką ekspozycję należy porządnie zabezpieczyć. Cyberom oferuje wiodący w branży zasięg widoczności i kontrolę nad ponad 2 000 kluczowych aplikacji. Funkcja Application Visibility & Control zapewnia wgląd w to, do których aplikacji próbowano się dostać w ramach naszej organizacji, w tym przez którego konkretnie użytkownika, niezależnie od ich portów i protokołów. Powoduje to zatrzymanie wyrafinowanych zagrożeń w warstwie aplikacji, bezpośrednio na obrzeżach sieci, zapewniając ochronę dla naszych programów.

Na podstawie polityk dostępu do sieci, użytkowników i ich ról oraz dedykowanych stref czasowych w naszej organizacji możemy wprowadzić kontrolę aplikacji w naszej firmie. Umożliwia to przyspieszenie aplikacji biznesowych o znaczeniu krytycznym, rozłożenie aplikacji nie-krytycznych, selektywnego przyspieszenia aplikacji społeczno-gospodarczych i blokowania niepożądanych aplikacji, tak aby osiągnąć podwójny cel QoS (Quality of Service) oraz optymalnie wykorzystać łącze. Aplikacje klasyfikowane są na podstawie poziomu ryzyka, właściwości i technologii, dzięki czemu możemy wprowadzać bardziej szczegółowe filtry kontroli. Cyberoam oferuje proaktywny model ochrony, który eliminuje konieczność ręcznej interwencji administratora podczas aktualizowania polityk dla nowych zastosowań. Innymi słowy, aplikacje znajdują się w bazie, o której aktualizowanie dba producent. Co więcej, raporty oraz dzienniki logów, rejestrowane w czasie rzeczywistym, pozwalają dynamicznie zmieniać konfigurację ustawień sieciowych dla maksimum bezpieczeństwa i wydajności.

Dodaj komentarz