Specjaliści twierdza ze to prawdziwa rewolucja, sprawdźmy czy tak jest naprawdę. Firmy oferujące ten system twierdzą, że połączenie z Internetem jest szybkie i pewne niemal jak by się odbywało po kablu. Daje nam to spore możliwości, bo jak dotąd Internetu oferowano przez sieci komputerowe używaliśmy do odbioru poczty czy też przeglądania stron WWW.

Większość użytkowników wychodzi z założenia że jeśli sieć jest kablowa to od razy mają mniej problemów niż użytkownicy sieci radiowych, jednak z tym może być różnie. Często zdarza się że coś w sieci szwankuje np. przerywane jest połączenie podczas ściągania. Przyczyn problemów z siecią radiową może być sporo, aby wszystko działało jak najbardziej stabilnie musimy systematycznie nadzorować ja i próbować różne jej konfiguracje.

Obecnie we wszystkich nowych urządzeniach znajduje się technologia WLAN, szacuje się że urządzeń z tym interfejsem na całym świecie jest używanych ponad jeden miliard. Szczuje się tez że za rok liczba ta przekroczy dwa miliardy. Nie chodzi tu tylko o smart-fony, netboki czy telefony ale też o kamery cyfrowe, drukarki czy telewizory. Jednak największym minusem tych urządzeń jest to że sprzętu nie można tak po prostu podłączyć bez pośrednika czyli routera. W omawianej technologii ten problem został rozwiązany. Teraz dwa lub więcej urządzeń może się łączyć bezpośrednio. Do tej pory technologia ta była wspierana przez tak zwany tryb hoc, jednak pozostawiał on wiele do życzenia. Do tego nie był tez zbyt bezpieczny i trudny w konfiguracji. Wi-fi Direct może współpracować z urządzeniami tego typu w różnych standardach. Urzywa on najnowszych mechanizmów bezpieczeństwa co jest jego niewątpliwa zaletą. Aby urządzenia połączyły się ze sobą najczęściej wystarczy naciśnięcie na obu specjalnych przycisków. Łączenie odbywa się po tym jak specjalny pakiet skanujący wykona rozpoznanie najbliższego otoczenia. Łączenie następuje jak zostanie odnaleziony aktywny punkt dostępowy. Wszystkie urządzenia na których znajduje się logo tej technologii mogą zarówno nadawać jak i odbierać. Oczywiście tak jak w innych odmianach sieci bezprzewodowych ich zasięg zależny jest od otocze3nia i w budynkach może się wahać o kilka metrów. Technologia ta nie wykorzystuje żadnych dużych anten więc zasięg w otwartym terenie wynosi maksymalnie do 100 metrów. Wszystko odbywa się w ten sposób że najpierw skanowana jest przestrzeń by wykryć czy w pobliżu znajduje się urządzenie chcące nawiązać połączenie. Gdy zostanie taki sprzęt zlokalizowany to najpierw następuje jego rozpoznanie, czyli urządzenia wymieniają się informacjami na swój temat. Potem następuje wykrywanie oferowanych przez urządzenie usług. Na przykład aparat fotograficzny może rozpoznać czy któreś z dostępnych urządzeń potrafi drukować zdjęcia. Jak na razie żadne z urządzeń nawiązujących połączenie w tej technologii nie ma przypisanego numeru IP>. Kolejny krok to ustalenie które z urządzeń ma kontrolować połączenie. W tej sytuacji jedno z nich przejmuje dotychczasowa rolę punktu dostępowego. Pierwsze urządzenia z ta technologią znajdują się już w sprzedaży i są to m.i.n. Samsung Galaxy S2. Ale to dopiero początek. Na przykład koncern LG zapowiada że technologia ta prawdopodobnie znajdzie się we wszystkich modelach smart-fonów tej firmy.

Internet od samego początku swego istnienia rozwija się coraz prędzej. I to w każdej możliwej płaszczyźnie, czy to technologicznej, sprzętowej, programowej oraz usługowej. Można powiedzieć, że w obecnym stanie jest on od 30 lat, wielu prorokuje zwrot o 180 stopni, jeśli chodzi o kształt przyszłego Internetu. Nie bez znaczenia jest też bezpieczeństwo, ponieważ Internet o ile nawet oferuje coraz to nowsze możliwości, to wszystko opiera się na starych standardach, które są coraz bardziej rozgryzane przez hakerów. Kiedy powstawał Internet to nikt nie podejrzewał ze urośnie on do tak ogromnych rozmiarów. Przegląd nowości zacznijmy od nowego protokołu Ipv6. Do tej pory prawdziwym filarem, na którym bazował Internet był protokół Ipv4. To nic innego jak identyfikacja komputerów poprzez unikalny numer IP. W Internecie ma go każde urządzenie nie ważne czy to serwer czy komputer. W starej technologii można przydzielić 4, 2 miliarda unikalnych numerów, i ta pula powoli się wyczerpuje. Według symulacji adresów IP ma zabraknąć już w 2011 roku, nie wiadomo tylko czy na początku czy na końcu. Ale nie ma, co panikować, ponieważ jeśli wyczerpią się adresy to są jeszcze takie nieużywane, które są zarezerwowane przez firmy czy organizacje, ale faktycznie nie są one używane. Najprawdopodobniej dojdzie do handlu wolnymi numerami, IP. Takie postępowanie pozwoli nam wydłużyć proces o około rok, czyli adresów zabraknie w 2012 roku. Ipv6 został już opracowany w latach 90, w jego puli jest aż 340 sekstylionów wolnych adresów. Dzięki temu numer IP może otrzymać każde urządzenie zaczynając od komputerów a kończąc na telefonach czy Ipodach. Warto wspomnieć, że oba protokoły nie są ze sobą kompatybilne. Kolejnym aspektem nowoczesnego Internetu jest jego przepustowość, nad którą ciągle trwają prace. Szybkie łącza są coraz bardziej potrzebne chociażby do tego by oglądać na żywo przekaz Full HD. Szybszy Internet jest także potrzebny badaniom naukowym. Prace nad szybszym Internetem trwają już od kilku lat i w przeciągu kilku najbliższych możemy spodziewać się nowych rozwiązań. Kolejnym wyzwaniem jest zapewnienie większego bezpieczeństwa w sieci. Cały czas trwają prace na ulepszeniem przeglądarek i serwerów Internetowych. Kolejną ciekawostką jest to, że Internet ma być tez dostępny w kosmosie, trwają nad tym prace w jednym z uniwersytetów. Jednak jest sporo z tym problemów. Na pewno wiele praz trwa też w tajnych ośrodkach jednak informacje na przykład od armii Amerykańskiej nie są dostępne.

Warto pobawić się ustawieniami naszej sieci by działała ona szybciej i stabilniej. Najwięcej opcji znajdziemy w panelu administracyjnym naszego routera, jednak można też ściągnąć z sieci specjalistyczne oprogramowanie. Głównym celem sieci domowej jest umożliwienie łączenie się z Internetem wielu urządzeń, które znajdują się w naszym domu. Zaliczamy do nich konsole do gier, notebooki, laptopy, telewizory i smart fony. Ale lista ta nie jest zamknięta, ciągle dochodzi coś nowego. Proces konfiguracji routera dla wielu osób jest trudny, i jak tylko się powiedzie to staramy się zapomnieć o tym i więcej tam nie grzebać, a szkoda. W wielu routerach można też zainstalować nowy firmware, czyli oprogramowanie wewnętrzne, często doda to naszej skrzynce skrzydeł. Często możemy zyskać większa szybkość, nowoczesny router Wi-Fi 802.11n może być przystosowany do współpracy z siecią 802.11g która jest kilka razy wolniejsza. Jeśli chodzi o wyświetlanie stron internetowych to raczej różnicy nie zobaczymy. Ale jeśli już zaczniemy przesyłać dane między poszczególnymi urządzeniami to różnicę będzie widać. Przesłanie plików HD trochę trwa.


Po zmianie ustawień routera może się też okazać, że będziemy mieli zasięg w miejscach, w których go do tej pory nie było. Jeśli nasze urządzenie działa poprawnie to zapiszmy jego ustawienia do pliku by mieć je na przyszłość pod ręka. Trzeba w tym celu zalogować się do panelu administracyjnego i wybrać backup. Jeśli konfigurację chcesz przeprowadzić ręcznie to może ona być trudna dla przeciętnego użytkownika. Wszystko zależy od producenta routera i danego modelu. W sieci domowej ważnym aspektem jest ochrona danych poprzez hasło dostępu. Przy sieci 802.11n będziemy bezpieczni, jeśli zastosujemy szyfrowanie AES i zabezpieczenie WPA2. W celu zmiany ustawień znowu musimy zalogować się do panelu admina. Jeśli chodzi o zasięg i szybkość działania naszej sieci to nie bez znaczenia jest miejsce, w którym znajduje się nasz router. Jeśli sieć ma działać w całym mieszkaniu to powinien on się znajdować w centralnym punkcie na przykład w korytarzu. Router nie powinien być też zamknięty w szafce, nie powinien tez znajdować się koło metalowych przedmiotów takich jak kaloryfery. Bardzo ważnym aspektem jest też skanowanie obcych sieci w celu wybrania dla siebie jak najlepszego kanału. Dla częstotliwości 2, 4 GHz mamy ich trzynaście. Analizy sieci dokonamy za pomocą aplikacji takich jak inSSIDer.

Obecnie sieci komputerowe są wszechobecne, w wielu firmach jest to serce całego systemu. Bez sieci firma nie mogłaby normalnie działać a wyciekające z niej informacje mogłyby trafić w nieodpowiednie ręce. Są one coraz bardziej rozbudowane, zawierają coraz więcej elementów, nad którymi administrator sieci musi panować. Osoba taka musi być przewidująca, odpowiada za wszystkie elementy sieci, musi zaplanować backup najważniejszych danych, cały czas musi wiedzieć, co w sieci piszczy. Za zarządzanie w sieci odpowiada SNMP, jest to powszechnie stosowany protokół. Dzięki niemu administratorzy mogą rozwiązywać problemy i monitorować działanie sieci. Sieć administrowana za pomocą SNMP składa się z trzech komponentów, pierwsze to urządzenie zarządzające, drugie to program agenta, trzeci to system zarządzający. Urządzenia zarządzane to routery, serwery, stacje robocze, drukarki, z tych komponentów zbierane są dane i analizowane. Agent przetwarza żądania protokołu, które przychodzą od menadżera. Wykonuje też procedury zdefiniowane przez system. Zentoss jest narzędziem, które ułatwi nam monitoring naszej sieci oparty właśnie o protokół SNMP. W jego skład wchodzi kilka aplikacji, które musimy zainstalować i skonfigurować.

Jeśli mamy stały dostęp do internetu to możemy zastanowić się nad zbudowaniem sieci domowej. Oprócz tego że będziemy mieli internet tez na innych komputerach, będziemy też mieli dostęp do wielu innych możliwości jakie daje sieć. Będziemy mogli oglądać filmiki a YouTube czy też słuchać mp3 na wierzy. Sieć taka powinna mieć połączenie, mamy do wyboru połączenie bezprzewodowe lub kablem. Połączenia kablowe są bardzo szybkie, przeznaczone są do sieci gdzie przesyła się często duże partie danych, więc nie jest to rozwiązanie które musi być w każdym domu.