
SIECI KOMPUTEROWE
Co to są systemy sieciowe? - Najogólniej rzecz biorąc, systemem sieciowym przyjęto nazywać pewną strukturę informatyczną, w skład której wchodzi grupa elementów, powiązanych ze sobą na zasadzie wymiany informacji. Fizyczną realizacją systemu sieciowego jest sieć komputerowa. Stanowi ją zbiór różnego typu urządzeń oraz oprogramowania. Do urządzeń sieciowych zalicza się przede wszystkim komputery oraz urządzenia zapewniające komunikację między nimi. Sieć jest to więc struktura zmienna o otwartej architekturze. Komputery w sieci pełnią rolę stacji roboczych, serwerów sieciowych oraz mogą tworzyć platformę do instalacji oprogramowania zapewniającego dodatkowe usługi. Podstawowym oprogramowaniem zapewniającym funkcjonowanie sieci jest system operacyjny oraz oprogramowanie komunikacyjne. Wyższą warstwę stanowią programy udostępniające usługi sieciowe, najwyższą zaś aplikacje sieciowe. Sieć komputerowa jest pojęciem bardzo ogólnym i nie specyfikującym jej rozmiaru ani struktury. Dowolną sieć komputerową tworzy grupa komputerów połączonych ze sobą w taki sposób, że mogą przesyłać i wymieniać między sobą dane. Ze względu na szybkość działania i zasięg wykonywanych operacji sieci dzielą się na:
Lokalne - LAN (ang. Local Area Network) - lokalna sieć komputerowa tworzona jest przez kilka do kilkudziesięciu komputerów rozmieszczonych na niewielkim obszarze przeważnie w jednym budynku, np. sieć obejmująca jeden wydział uniwersytetu, firmę itp.
Metropolitarne - MAN (ang. Metropolitan Area Network) - metropolitarna sieć komputerowa łączy pojedyncze komputery i sieci lokalne na większym obszarze - mogą to być sieci akademickie, miejskie, regionalne, na przykład sieć łącząca wydziały uniwersytetu mieszczące się w jednym mieście.
Rozlegle - WAN (ang. Wide Area Network) - rozległa sieć komputerowa obejmuje sieci lokalne, metropolitarne i pojedyncze komputery w obrębie kraju lub kontynentu; na przykład sieć łącząca siedziby firm rozprzestrzenione w całym kraju.
Sieci lokalne charakteryzują się więc z reguły niewielką ilością komputerów rozmieszczonych na niewielkim obszarze. W związku z tym struktura połączeń między nimi jest prosta, zaś koszty eksploatacji niewielkie. Problemy zaczynają się w przypadku sieci rozległych, składających się z dużej liczby komputerów. Skomplikowana struktura połączeń sieciowych wymusza konieczność stosowania dodatkowych wyrafinowanych urządzeń, zapewniających poprawną oraz efektywną komunikację i transfer danych. Dodatkowo dochodzą problemy minimalizacji kosztów połączeń, gdy sieć rozległa korzysta z publicznych sieci teleinformatycznych.
W praktyce zjawisko to jest bardzo zasadne. Istnieje bowiem bardzo duże zapotrzebowanie na sieci do obsługi małych i średnich przedsiębiorstw i instytucji. Ponadto sieci lokalne stanowią podstawę do konstruowania sieci rozległych.
Aby sieć mogła zafunkcjonować nie wystarczy samo połączenie komputerów kablem i kartami sieciowymi. Wymagany jest drugi element - oprogramowanie systemowe. Zasadniczym jego składnikiem jest sieciowy system operacyjny zawiadujący zasobami oraz koordynujący pracą sieci. Decyduje on o strukturze funkcjonowania sieci.
Sieciowy system operacyjny
Sieciowy system operacyjny jest podstawowym oprogramowaniem sieci komputerowej. Jego zadaniem jest stworzenie środowiska wspólnej pracy dla wielu urządzeń. Decyduje o charakterze sieci oraz o zakresie oferowanych usług. Sieciowy system operacyjny koordynuje pracą sieci, zapewnia efektywne gospodarowanie zasobami i udostępnianie ich użytkownikom według określonych reguł i zasad. Serwer - jako komputer centralny, na którym znajduje się całość oprogramowania jest najbardziej newralgicznym elementem systemu sieciowego. Ponieważ serwer musi obsłużyć wiele stacji roboczych, jest to z reguły komputer o dużej mocy obliczeniowej i dużej pamięci dyskowej.
Ostatnio coraz większą popularność zyskują systemy bez wyróżnionego serwera (sieci równorzędne, ang. peer-to-peer), gdzie każdy komputer może udostępniać swoje zasoby na rzecz sieci. W takim przypadku komputery pracujące w sieci korzystają z mocy obliczeniowej oraz innych zasobów pozostałych komputerów.
Jedno i drugie rozwiązanie ma swoje wady i zalety. W systemie z wyróżnionym serwerem istnieje konieczność przeznaczenia kosztownego komputera do obsługi sieci, z drugiej jednak strony centralne zarządzanie jest łatwiejsze, zaś system ochrony danych bardziej niezawodny. Z kolei sieci równorzędne są rozwiązaniem bardziej ekonomicznym. Zapewniają wysoką efektywność, przy wykorzystaniu komputerów o mniejszych mocach obliczeniowych i indywidualnych zasobach, ale trudno jest w nich zagwarantować wysoki stopień niezawodności pracy.
Programy usługowe
Są to programy, które rozszerzają funkcje sieciowego systemu operacyjnego o dodatkowe usługi. Do grupy tej należą programy komunikacyjne, oprogramowanie pozwalające na integrację z innymi systemami sieciowymi, udostępniające usługi druku w sieci lub zapewniające dostęp do modemów. Instalowane są z reguły na serwerze albo innym dedykowanym komputerze pracującym w sieci. Niektóre z instalowanych programów stanowią integralną część systemu operacyjnego lub oferowane są jako osobne produkty. Do typowych usług sieciowych możemy zaliczyć:
• dostęp do wspólnych urządzeń fizycznych (systemy dyskowe, drukarki, modemy, napęd dysków optycznych, itp.),
• dostęp do wspólnych danych (aplikacji, plików),
• wspólne przetwarzanie informacji (bazy danych,
• przesyłanie informacji w ramach sieci
Programy zarządzania
Programy zarządzania pracą sieci to oprogramowanie umożliwiające scentralizowaną kontrolę pracy sieci. Bazują na informacji udostępnianej przez urządzenia sieciowe lub oprogramowanie systemowe. Do innych funkcji programów zarządzania należy zaliczyć:
• zdalne monitorowanie pracą sieci,
• tworzenie graficznej mapy połączeń,
• kontrolę natężenia ruchu w różnych miejscach sieci,
• analizę wykorzystania zasobów sieciowych,
• zdalne sterowanie pracą serwerów oraz innych urządzeń komunikacyjnych,
• wykrywanie miejsc nasilonych błędów.
Każda sieć komputerowa ma swoją charakterystyczną architekturę - protokół komunikacyjny i topologię. Protokół komunikacyjny opisuje zasady wymiany informacji pomiędzy tworzącymi sieć urządzeniami definiuje zasady transmisji danych: (sygnały kontrolne, formaty pakietów danych i sposoby kontroli poprawności przepływu danych). Topologia zaś określa zasady łączenia komputerów pomiędzy sobą w celu utworzenia sieci. Zasady te ustalają rodzaje łączy, typ kabli oraz kolejność łączenia i sposób rozmieszczenia komputerów, na przykład w oparciu o topologię magistrali, gwiazdy lub pierścienia. Przykłady podane są w załączniku. Tak więc poszczególne, niezależne sieci komputerowe mogą działać w oparciu o różne protokoły komunikacyjne i korzystać ze specjalizowanych połączeń pomiędzy komputerami. Natomiast ogólnoświatowa sieć Internet nie ma regularnej topologii i jest zbudowana na zasadzie łączenia ze sobą pojedynczych sieci lokalnych i miejskich. Bardzo istotny jest fakt, że Internet nie działa jedynie w oparciu o specjalizowane sieci komputerowe, ale i zwykłe sieci telekomunikacyjne. Podobnie jak w innych sieciach, komunikacja w Internecie odbywa się według wspólnego protokołu transmisji danych, którym jest TCP/IP (ang. Transmission Control Protocol / Internet Protocol), którego istota podana zostanie w dalszej części.
Sieci komputerowe umożliwiają łatwą komunikację, dostęp do wspólnej i aktualnej informacji oraz dzielenie zasobów, takich jak drukarki lub pamięć masowa. Naturalnie każdy z użytkowników (uczestników) sieci może korzystać z tych udogodnień w stopniu zależnym od udzielonych mu przywilejów - praw dostępu.
Architektura sieci komputerowych Jak już wspomniałem, technologia sieci lokalnych (LAN) w sposób zasadniczy różni się od technologii sieci rozległych (WAN). O ile funkcjonowanie sieci rozległej jest możliwe dzięki istnieniu urządzeń zwanych routerami, które w aktywny sposób decydują o ruchu pakietów, w przypadku sieci lokalnych połączenie między komputerami ma charakter pasywny. Większość technologii sieci LAN oparta jest na transmisji w paśmie podstawowym (baseband), co w konsekwencji oznacza, że w danym momencie może nadawać tylko jedna stacja. W przypadku równoczesnej próby transmisji przez różne stacje następuje kolizja i transmisja musi zostać powtórzona. Istnieją różne technologie sieci LAN, które w różny sposób określają metodę dostępu do łącza fizycznego. Metody te można generalnie podzielić na dwie grupy:
• metody oparte na dostępie rywalizacyjnym, z których największe znaczenie mają metody z nasłuchem stanu łącza i wykrywaniem kolizji określane skrótem CSMA/CD (Carrier Sense Multiple Access/Collision Detection)
• metody oparte na przekazywaniu uprawnienia (token passing).
Zasadnicza różnica między obiema technikami polega na tym, że w metodach rywalizacyjnych restrykcje dotyczące momentu, w którym stacja może rozpocząć nadawanie, są stosunkowo łagodne. Natomiast w metodach z przekazywaniem uprawnienia moment i czas nadawania są ściśle limitowane. Oba rodzaje technologii mają swoje wady i zalety oraz występują w wielu wariantach. Poniżej zostaną one w uproszczeniu omówione na przykładzie popularnych sieci Ethernet (metoda typu CSMA/CD) oraz Arcnet (metoda typu token passing).
Ethernet
Standard Ethernet został opracowany na przełomie lat siedemdziesiątych i osiemdziesiątych przez firmy Xerox, Intel i DEC. W metodzie tej stacja może nadawać, jeśli łącze jest wolne. W związku z tym wszystkie stacje mają obowiązek prowadzenia nasłuchu stanu łącza (Carrier Sense). Z uwagi na skończony czas propagacji sygnału stacja w chwili podejmowania decyzji o rozpoczęciu nadawania ramki nie ma jednak nigdy pewności, że tylko ona rozpoczyna transmisję. Dopiero po pewnym czasie od momentu rozpoczęcia nadawania przez daną stację wszystkie stacje mogą wykryć, że łącze jest zajęte. Czas ten jest tym większy, im większa jest rozpiętość sieci i im mniejsza jest szybkość propagacji sygnału. Dopiero po upływie tego czasu stacja, która rozpoczęła nadawanie i nie wykryła kolizji na łączu, może przyjąć, że kolizja już nie nastąpi. Ponieważ transmisja ramki nie może zostać zakończona przed uzyskaniem pewności, że ramka ta nie zostanie zniszczona w wyniku kolizji, czas ten wyznacza minimalną długość nadawanej ramki. W standardzie Ethernet przyjęto również górne ograniczenie długości ramki, ażeby nadająca stacja zbyt długo nie blokowała dostępu do łącza innym stacjom.
Ponieważ w sieci Ethernet z góry zakłada się możliwość zajścia kolizji, musi być określony efektywny algorytm pozwalający na przejście ze stanu kolizyjnego do stanu normalnej pracy sieci. Przede wszystkim stacje, które wykryją kolizję, mają obowiązek wstrzymać nadawanie (Collision Detection). Okres oczekiwania na możliwość retransmisji jest określony losowo, ażeby zmniejszyć prawdopodobieństwo ponownej kolizji.
Zalety i wady Ethernetu
Ethernet jest obecnie najbardziej popularną na świecie technologią sieci lokalnej.
• Zaletą Ethernetu jest jego prostota - w przeciwieństwie do wielu innych technologii LAN niepotrzebne są tu dodatkowe, specjalne rodzaje ramek służących wyłącznie do organizowania pracy sieci, ani też specjalne procedury umożliwiające stacji rozpoczęcie lub zakończenie pracy. Nawet silne zakłócenia mogą być traktowane jak zwykłe kolizje, a więc zdarzenia w sieci tego typu normalne, na które sieć rutynowo reaguje decyzją o retransmisji.
• Wielką zaletą Ethernetu jest to, że stacja może nadawać w każdej chwili, kiedy tylko łącze jest wolne, dzięki czemu czas oczekiwania na możliwość transmisji jest w większości przypadków bardzo krótki.
Ethernet, podobnie jak i inne metody oparte na dostępie rywalizacyjnym, jest jednak efektywny jedynie w zakresie stosunkowo niewielkich obciążeń sieci. W przypadku, gdy ilość danych zlecanych do wysłania przez różne stacje wzrasta, rośnie prawdopodobieństwo kolizji i coraz większa część maksymalnej przepustowości sieci (10 Mbps) jest tracona na retransmisje. Dlatego, chociaż w większości przypadków transmisja zachodzi sprawnie, w sieciach tego typu nigdy nie można zagwarantować minimalnego okresu czasu, w którym transmisja zostanie zrealizowana (ani czy w ogóle zostanie zrealizowana). Takie sieci nie nadają się do transmisji głosu, wideo ani sterowania układami pracującymi w czasie rzeczywistym. Mówimy, że Ethernet nie jest siecią izochroniczną.
Arcnet
Alternatywą w stosunku do rywalizacyjnej metody dostępu do medium jest metoda przekazywania uprawnienia (token passing). Jeden z wariantów tej metody został zastosowany w sieci Arcnet. Arcnet jest przykładem standardu sieciowego, który określamy jako standard de facto, bowiem mimo swojej dużej popularności nigdy nie został oficjalnie uznany za żadną organizację zajmującą się standaryzacją. W sieci tego typu między poszczególnymi stacjami przekazywane jest uprawnienie, zwane również żetonem, znacznikiem lub tokenem.
W sieci Arcnet każda stacja musi znać adres następnika, któremu ma przekazać uprawnienie. Kolejność przekazywania uprawnienia między stacjami nie ma związku z fizyczną topologią sieci - metoda ta może być stosowana w przypadku topologii liniowej, gwiaździstej czy drzewiastej. Kolejne stacje, między którymi jest przekazywany żeton, tworzą więc pierścień logiczny a nie, jak w przypadku sieci typu token ring, pierścień fizyczny. Adres stacji w sieci Arcnet ustala użytkownik ustawiając przełączniki na karcie sieciowej. Jest to adres ośmiobitowy, a więc dostępna przestrzeń adresowa jest stosunkowo niewielka.
Oczywistą zaletą Arcnetu i innych metod opartych na przekazywaniu uprawnienia jest możliwość wyeliminowania zjawiska kolizji w warunkach normalnej pracy sieci. Dzięki temu sieć może sprawnie funkcjonować nawet w sytuacji silnego przeciążenia, gwarantując przewidzianą przez standard szybkość transmisji 2,5 Mbps. Poza tym jest to sieć izochroniczna, w przypadku której z góry można obliczyć maksymalny czas oczekiwania przez daną stację na możliwość nadawania. Wadą Arcnetu jest konieczność wprowadzenia dodatkowych typów ramek, służących wyłącznie do organizowania pracy sieci. Muszą być również stosowane stosunkowo skomplikowane procedury służące do zestawienia pierścienia logicznego. Każde wyłączenie stacji pracującej w sieci lub włączenie nowej prowadzi do zaburzenia normalnej pracy sieci i konieczności odtwarzania pierścienia. Praca sieci jest również mało efektywna w warunkach małego obciążenia - żeton musi być przekazywany kolejno wszystkim stacjom, bez względu na to, czy w danej chwili mają coś do nadania.
SIEĆ ROZLEGŁA TYPU INTERNET
Od dwóch, trzech lat jesteśmy świadkami gwałtownego rozwoju sieci Internet w Polsce. Na świecie rozwój ten trwa od prawie 30 lat. Chociaż Internet jest znany i używany w naszym kraju od początku lat dziewięćdziesiątych, to jednak dopiero teraz częściej zauważane są możliwości i zalety wynikające z korzystania z Internetu w działalności instytucji - zarówno przedsiębiorstw, jak i placówek niekomercyjnych, w tym także bibliotek i ośrodków informacji. Podobnie jak na całym świecie, początkowo rozwój tej sieci w Polsce związany był jedynie z ośrodkami akademickimi, gdzie wykorzystywano ją do wymiany informacji w celach naukowych oraz prowadzenia obliczeń na komputerach dużej mocy znajdujących się w innych ośrodkach, miastach lub krajach.
Internet można również traktować jako olbrzymią pamięć masową przechowującą ogromne ilości informacji w postaci tekstowej, graficznej lub dźwiękowej. Sieć daje możliwość łatwego dostępu do dokumentów o przeróżnej tematyce, do publikacji książek, przewodników i katalogów. Dzięki stronom WWW (ang. World Wide Web) możliwe jest prezentowanie informacji w sposób czytelny dla użytkownika, pozwalający na łatwe i szybkie docieranie do potrzebnych danych. Witryny - strony prezentujące instytucje lub osoby prywatne - oprócz tekstu mogą zawierać również zdjęcia, rysunki, muzykę.
Internet (sieć sieci o światowym zasięgu)
W niektórych dziedzinach działalności powoli staje się oczywiste, że sprawne posługiwanie się INTERNETEM - znajomość jego zasobów, usług i sposobów czerpania z niego korzyści już niedługo będą niezbędnymi warunkami efektywnej pracy każdego menedżera.
Stosowanie tego medium dostępu i przekazu informacji oraz szybkie wykorzystanie nowych możliwości sieci, staje się koniecznością ! Wraz ze wzrostem tempa życia i pracy jest to więc szybki nośnik informacji - zmniejszający czas przepływu informacji niezbędnej do procesów decyzyjnych i dlatego Internet stał się nie tyle narzędziem, lecz zjawiskiem - bytem podobnym do telewizji, radia, prasy - a więc mediów elektronicznych, a więc środkiem masowego przekazu.
Przyczyną wielkiego rozwoju lokalnych sieci komputerowych w latach osiemdziesiątych było dążenie do umożliwienia użytkownikom komputerów osobistych wzajemnego udostępnienia swoich zasobów. Obecnie to już nie wystarcza i wymaga się, aby sieci komputerowe zapewniały usługi komunikacyjne w skali globalnej. Sieci lokalne łączy się więc ze sobą - w ten sposób powstają sieci o dużym zasięgu, takie jak sieci metropolitalne i sieci rozległe. Przeszkodą, którą trzeba pokonać przy łączeniu różnych sieci, jest duża i stale rosnąca liczba stosowanych technologii sieciowych. Obok technologii tradycyjnych, takich jak Ethernet, Token Ring czy Arcnet, w ostatnich latach pojawiły się technologie FDDI, ATM, Fast Ethernet, Frame Relay, ISDN (Integrated Services Digital Network) i inne. Żadna z tych technologii nie spełnia jednak wszystkich wymagań. W wielu przypadkach względy ekonomiczne decydują o utrzymywaniu sieci zrealizowanej w starszej technologii, o ile tylko działa dobrze - dotyczy to zwłaszcza sieci lokalnych. |Równie istotnym problemem przy łączeniu sieci jest jednak i to, że nie sposób wymagać od zwykłych użytkowników sieci, aby znali się choćby w podstawowym zakresie na tych wszystkich technologiach sieciowych. Chodzi więc o to, aby struktura heterogeniczna, jaką jest system połączonych ze sobą sieci zrealizowanych w różnych technologiach, z punktu widzenia zwykłego użytkownika przedstawiała się jak zwykła homogeniczna sieć. Koncepcja tworzenia tego typu struktur określana jest nie mającym polskiego odpowiednika terminem internetworking. Tworzone w ten sposób struktury określane są terminem „intersieci” - internetwork lub w skrócie internet.
Poszczególne sieci wchodzące w skład intersieci połączone są ruterami, realizującymi funkcję kierowania pakietów przesyłanych między tymi sieciami. Najbardziej spektakularnym przykładem intersieci jest ogólnoświatowa sieć Internet, wywodząca się z sieci ARPANET.
Protokół TCP/IP
Podstawą funkcjonowania Internetu jest współpraca wszystkich połączonych sieci fizycznych zgodnie z przyjętym zestawem protokołów. Ten zestaw protokołów określany jest skrótem TCP/IP od nazw dwóch najważniejszych spośród tych protokołów: Protokołu Intersieci IP (Internet Protocol) oraz Protokołu Sterowania Transmisją TCP (Transmission Control Protocol).
Podobnie jak poszczególne komputery w przypadku zwykłej sieci komputerowej, z punktu widzenia protokołów TCP/IP wszystkie sieci wchodzące w skład Internetu są autonomiczne i równoprawne bez względu na ich wielkość, technologię i inne parametry.
Poszczególne elementy sieci mogą pracować pod kontrolą różnych systemów operacyjnych, - jednakże w ramach Internetu komunikują się jednym wspólnym protokołem TCP/IP (Transmission Control Protocol / Internet Protocol ) są to reguły przesyłania informacji w sieciach - wprowadza się więc STANDARD, który stanowi coś w rodzaju uniwersalnego języka konwersacji pomiędzy komputerami.
Protokół TPC - steruje ruchem pakietów (porcji danych) w sieci i umożliwia:
• ochronę przed zagubieniem,
• sprawdzenie czy dotarły do celu,
• porządkuje w takiej kolejności w jakiej zostały wysłane.
PROTOKÓŁ IP - jest tą częścią protokołu komunikacyjnego, która odpowiada za przesyłanie po sieci datagramów (w pewnym przybliżeniu możemy określić datagram jako pakiet zaopatrzony w adres). Wędruje więc po sieci, aż do momentu znalezienia adresata. Dopuszczalna jest dowolna trasa - wcale nie musi być najkrótsza.
Autorzy tak skonstruowanego protokołu orzekli, że datagram musi trafić do konkretnego urządzenia w sieci Internet, a zatem wszystkie urządzenia muszą posiadać unikatowy w skali całego Internetu identyfikator. Takim identyfikatorem jest adres IP
Adres IP jest 32-bitową (4 bajtową) liczbą,
Liczba ta zawiera określenie wskazujące jednoznacznie zarówno konkretny komputer jak i sieć,
Adres składa się więc z dwóch części:
- numeru sieci
- numeru komputera.
Obie części muszą być zapisane w jednym ciągu. Adres zapisywany jest w formie czterech liczb, oddzielonych od siebie kropkami np. 193.121.58.184 i taki numer może mieć tylko jeden komputer. Adresy IP nadają wyspecjalizowane instytucje. W przypadku połączenia się z serwerem poprzez modem, komputer otrzymuje automatycznie na czas połączenia swój adres z puli, którą posiada dostarczyciel usług internetowych (Internet Provident) czyli ten kto zarządza serwerem i umożliwia podłączenie się do niego innym użytkownikom którzy poprzez ten serwer chcą uzyskać dostęp do Internetu.
Adres IP identyfikuje sieć i komputer w tej sieci. Ze względu na kombinację tych dwóch elementów wyróżnia się trzy klasy adresów:
1. KLASA A - adres rozpoczyna się liczbą 1 do
126 (może zaadresować 126 sieci i ponad 16,5 miliona komputerów); 2. KLASA B - adres rozpoczyna się liczbą 128 do 191 (może zaadresować 16 tysięcy sieci i 65 tysięcy komputerów);
3. KLASA C - adres rozpoczyna się liczbą 192 do 223 (może zaadresować ponad 2 miliony sieci i 254 komputery).
Adres oznaczony liczbą 127 jest zarezerwowany jako oznaczenie lokalnego komputera. W celu uproszczenia zapamiętywania adresów, - liczby zostały zastąpione ciągiem symboli - DOMEN.
WWW - nowa jakość
W 1992 roku powstał pomysł utworzenia WWW (ang. World Wide Web). Po Internecie przetoczyła się dyskusja na temat potrzeby istnienia takiego tworu. Tym razem nie użyto angielskiego słowa „net” (sieć), lecz „web” (pajęczyna), gdyż obecnie struktura połączeń Internetu bardziej przypomina pajęczynę niż regularną sieć. Wcześniej przedstawione narzędzia są bardzo pomocne i dają duże możliwości, ale nie są zbyt łatwe w obsłudze. Utworzeniu WWW towarzyszyła chęć udostępnienia zasobów i możliwości Internetu wszystkim, poprzez stworzenie bardzo przyjaznego dla użytkownika środowiska. Wielką zaletą WWW okazał się brak konieczności znajomości i pamiętania adresów różnych komputerów, wystarczy by użytkownik znał tylko adres początkowego komputera, a do następnych może przechodzić za pomocą myszy. Bardzo istotne było praktyczne zintegrowanie w WWW usług gopher i ftp. Również wszystkie pozostałe usługi wyszukiwawcze są dostępne w ramach WWW. Powstały przeglądarki sieciowe pozwalające poruszać się po świecie Internetu za pomocą urządzenia sterującego „myszy”. Ważną ich zaletą jest graficzna, przejrzysta forma prezentacji oraz możliwość równie łatwego przekazywania informacji tekstowej i graficznej. Ponadto przeglądarki mają możliwość kopiowania plików tak jak ftp, tyle że w znacznie wygodniejszy dla użytkownika sposób. Przeglądarki często zawierają obsługę poczty elektronicznej i systemu wiadomości. Możliwe jest też uruchamianie aplikacji obsługujących telnet. Najpopularniejsze przeglądarki stron WWW to HotJava, Microsoft Internet Explorer, Netscape Navigator i NCSA Mosaic.
Poruszanie się po stronach WWW polega na przechodzeniu przez kolejne strony WWW, które zawierają połączenia do innych stron znajdujących się na różnych komputerach, rozproszonych po Internecie. Strony WWW są dokumentami tekstowymi i tworzone są w specjalnym języku HTML (ang. Hyper Text Mark-Up Language), który jest prostym zestawem poleceń do formatowania tekstu. Taka strona może zostać przygotowana na dowolnym komputerze, nawet w trybie tekstowym, i z łatwością udostępniona innym użytkownikom sieci. Język HTML pozwala formować tekst, włączać do niego grafikę, odwołania do innych stron WWW, polecenia wysyłania poczty, kopiowania plików, itd.
Aby ułatwić podróżowanie po zasobach informacyjnych Internetu, w kilku miejscach powstały specjalne katalogi stron WWW, nazywane też „silnikami wyszukiwawczymi” (ang. search engines). Umożliwiają one wyszukiwanie miejsc w Internecie, w których znajdują się poszukiwane informacje. Wyszukanie realizowane jest na podstawie podanych przez użytkownika słów kluczowych. Najpopularniejszymi wyszukiwarkami są AltaVista (altavista.digital.com), InfoSeek (www.infoseek.com), Lycos (www.lycos.com), WebCrawler (www.webcrawler.com) i Yahoo (www.yahoo.com). Istnieją też polskie wyszukiwarki WWW, zawierające informacje o polskich zasobach. Między innymi należą do nich Sieciowid (sieciowid.pol.pl.) i Wirtualna Polska (wp.cnt.pl.).
Do zasobów WWW należą praktycznie wszystkie zasoby Internetu: - płatne i bezpłatne bazy danych, zawierające informacje tak różnorodne, jak różnorodne są instytucje i osoby korzystające z Internetu; jedną z nich jest baza danych Wspólnoty Europejskiej „Echo and Eurobases”;
- archiwa dokumentów o bardzo szerokim zakresie, od zbiorów odpowiedzi na najczęstsze pytania z danej dziedziny (ang. FAQ - frequently asked questions), poprzez już opublikowane prace naukowe, do gotowych wydawnictw (na przykład gazety);
- archiwa i biblioteki programów freeware i shareware, które mogą być kopiowane na zasadach odpowiednich licencji; - punkty informacyjne krajów i różnych organizacji, które dostarczają zwykle podstawowe informacje o kraju, strukturze administracyjnej, szkolnictwie, itd.;
- punkty informacji turystycznej, zawierające informacje dotyczące krajów, regionów i miast: na przykład mapy miast, parków i ogrodów, zaproszenia do muzeów (wraz z krótką wycieczką po nich), informacje o pogodzie itp.;
- sklepy i witryny informujących o sobie firm, często umożliwiające złożenie zamówienia na oferowane towary i usługi.
System nazw DNS
Komunikujące się komputery stosują zawsze liczbowe adresy IP. Ponieważ posługiwanie się nimi jest dla ludzi niewygodne, opracowano tzw. system nazw domenowych (dziedzinowych) - DNS (Domain Name System), który równolegle do systemu adresów IP zapewnia jednoznaczną identyfikację komputera w skali całego Internetu. Oczywiście w związku z tym konieczne jest istnienie sprawnego mechanizmu zapewniającego niezawodne przekładanie nazw domenowych na adresy IP. System realizujący tę funkcję działa w oparciu o tzw. serwery nazw, których łączne zasoby tworzą globalną, rozproszoną bazę danych.
Nazwy domenowe komputerów składają się z kilku części oddzielonych kropkami.
HTTP://WWW.WSZIM.EDU.PL.
Nazwa domenowa jest nazwą hierarchiczną, przy czym hierarchia maleje w lewo. W podanym przykładzie PL oznacza domenę polską, EDU wyróżnik branżowy, zaś WSZiM - konkretny komputer należący do domeny WSZiM.EDU.PL. Na samym szczycie hierarchii domen są domeny określające przynależność do danego kraju albo do organizacji określonego typu (Rys. 1). W obrębie tych domen tworzy się kolejno poddomeny coraz niższych poziomów, których hierarchiczny układ odwzorowuje określone zależności geograficzne lub organizacyjne.
Usługi Internetu
- Architektura klient-serwer
Internet jest siecią udostępniającą każdemu użytkownikowi ogromną ilość zasobów informacyjnych. Zasoby te są dostępne poprzez cały szereg rozmaitych usług. Poniżej zostały pokrótce omówione niektóre z nich. Jakkolwiek usługi oferowane w Internecie są bardzo zróżnicowane, ich wspólną cechą jest charakterystyczny model architektury oprogramowania, określanej jako architektura klient-serwer. Idea architektury klient-serwer polega na podzieleniu aplikacji realizującej daną usługę na dwie części: część odpowiedzialną za sformułowanie polecenia wykonania określonego zadania, zwaną klientem, oraz część mającą to zadanie zrealizować, zwaną serwerem. Obie części mogą być zlokalizowane na różnych komputerach połączonych poprzez sieć. Najczęściej występuje wiele serwerów realizujących daną usługę, rozproszonych po całym świecie i obsługujących poszczególne regiony.
Usługi podstawowe Spośród wielu usług w Internecie usługami o charakterze podstawowym, w oparciu o które realizowane są inne, są:
• Zdalne logowanie (telnet).
• Transfer plików (FTP).
• Poczta elektroniczna (e-mail).
Zdalne logowanie (telnet)
Telnet jest usługą umożliwiającą dostęp do odległego komputera poprzez utworzenie wirtualnego terminala. Dzięki temu użytkownik może korzystać z odległego systemu tak, jakby bezpośrednio zasiadał za jego konsolą - wprowadzane przez niego z klawiatury polecenia są przesyłane do odległego komputera, a wyniki przetwarzania informacji są wyświetlane na jego ekranie. Użytkownik korzystający ze zdalnego systemu musi posiadać na nim konto, tzn. w systemie tym w odpowiednich plikach musi być zawarta o nim odpowiednia informacja. W momencie otwierania sesji użytkownik jest proszony o podanie swojego identyfikatora, a następnie hasła potwierdzającego tożsamość. W Internecie istnieje także wiele systemów pozwalających na otwieranie zdalnej sesji użytkownikom nie posiadającym kont indywidualnych, w celu skorzystania z określonej usługi. Przykładem są systemy biblioteczne, pozwalające na zdalny dostęp do katalogów bibliotek.
Transfer plików (FTP)
FTP to protokół przesyłania plików (File Transfer Protocol). Aby rozpocząć sesję FTP należy podać identyfikator i hasło. W Internecie możemy spotkać tzw. serwery anonimowego FTP, które publicznie udostępniają swoje zasoby.
Poczta elektroniczna (e-mail)
E-mail to bardzo popularna usługa, dzięki której możliwe jest przesyłanie wiadomości tekstowych między użytkownikami. Aby możliwa stała się komunikacja za pomocą poczty, konieczne jest założenie własnego konta pocztowego. Użytkownicy zawsze otrzymają wysłane do nich wiadomości, nawet jeśli nie pracują przy komputerze w momencie wysłania.
Informacje umieszczone powyżej pochodzą ze strony: http://www.informawpigulce.ovh.org
Na stronie zamieściła Izabela Warchoł