Komunikat o błędzie

  • Notice: Trying to access array offset on value of type int w element_children() (linia 6421 z /includes/common.inc).
  • Notice: Trying to access array offset on value of type int w element_children() (linia 6421 z /includes/common.inc).
  • Notice: Trying to access array offset on value of type int w element_children() (linia 6421 z /includes/common.inc).
  • Notice: Trying to access array offset on value of type int w element_children() (linia 6421 z /includes/common.inc).
  • Notice: Trying to access array offset on value of type int w element_children() (linia 6421 z /includes/common.inc).
  • Notice: Trying to access array offset on value of type int w element_children() (linia 6421 z /includes/common.inc).
  • Notice: Trying to access array offset on value of type int w element_children() (linia 6421 z /includes/common.inc).
  • Notice: Trying to access array offset on value of type int w element_children() (linia 6421 z /includes/common.inc).
  • Notice: Trying to access array offset on value of type int w element_children() (linia 6421 z /includes/common.inc).
  • Notice: Trying to access array offset on value of type int w element_children() (linia 6421 z /includes/common.inc).
  • Notice: Trying to access array offset on value of type int w element_children() (linia 6421 z /includes/common.inc).
  • Notice: Trying to access array offset on value of type int w element_children() (linia 6421 z /includes/common.inc).
  • Notice: Trying to access array offset on value of type int w element_children() (linia 6421 z /includes/common.inc).
  • Notice: Trying to access array offset on value of type int w element_children() (linia 6421 z /includes/common.inc).
  • Deprecated function: Methods with the same name as their class will not be constructors in a future version of PHP; views_display has a deprecated constructor w require_once() (linia 3139 z /includes/bootstrap.inc).
  • Deprecated function: Methods with the same name as their class will not be constructors in a future version of PHP; views_many_to_one_helper has a deprecated constructor w require_once() (linia 113 z /sites/all/modules/ctools/ctools.module).
  • Notice: Trying to access array offset on value of type int w element_children() (linia 6421 z /includes/common.inc).
  • Deprecated function: implode(): Passing glue string after array is deprecated. Swap the parameters w drupal_get_feeds() (linia 394 z /includes/common.inc).

Podstawowe pojęcia

Wersja do wydrukuWersja PDF

Komputer to genialny wynalazek drugiej połowy XX wieku. W swoich początkach istnienia służył jedynie celom naukowym, jednak po jego "miniaturyzacji" (PC) został rozpowszechniony wśród ogromnej rzeszy ludzi. W obecnych czasach wielu ludzi nie wyobraża sobie normalnego funkcjonowania bez komputerów.
Komputery znajdują zastosowanie niemal w każdej dziedzinie życia m.in. medycynie, ekonomii, technice itp. Można powiedzieć, że komputer stał się narzędziem wspomagającym zarządzanie i podejmowanie decyzji. Należy jednak podkreślić słowo "wspomagający", gdyż na tym etapie technicznym PC nie potrafi "myśleć" tak jak człowiek.

Systemy informacyjne - ich głównym zadaniem jest wspomaganie człowieka w jego działaniach, mogą one służyć m.in. do kontroli funkcjonowania firm, sporządzaniu analiz decyzyjnych itp. Zatem systemy takie służą do rutynowego podejmowania pewnej liczby decyzji o charakterze stałym i powtarzalnym, a także pomagają podejmować pewne ryzykowne decyzje.
Systemy informacyjne mogą również przechowywać dane dotyczące przeszłości, co może umożliwiać kontrolę , a także weryfikację ewolucji organizacji.
Można wyróżnić następujące specyficzne obiegi informacji;
• zbieranie informacji dotyczących spraw decyzyjnych,
• przetwarzanie informacji w celu zwiększenia użyteczności
• przekazywanie informacji o podjętych decyzjach.

System informatyczny - jest skomputeryzowaną częścią systemu informacyjnego. Tak więc w skład tego systemu wchodzą: sprzęt (hardware), oprogramowanie (software), baza danych, telekomunikacja, ludzie, organizacja.

Hardware- jest to fizyczny sprzęt, dzięki któremu  możliwy jest przekaz informacji. W jego skład mogą wchodzić różnorodne urządzenia m.in. dysk twardy, procesor, pamięć, drukarki itp.

Software- czyli programy napisane w jednym z wielu języków programowania.

Baza danych- miejsce przechowywania zbiorów danych. Przeglądanie danych powinno być niezależne od oprogramowania, a także od posiadanego sprzętu.

INFORMATYKA - jest to nauka o przetwarzaniu informacji za pomocą komputerów i przy użyciu odpowiedniego oprogramowania.

przedmiotami badań informatyki są:
• środki techniczne
• oprogramowanie
• organizacja związana z przetwarzaniem informacji

przekaz informacji w komputerze
Informacje w komputerze przekazywane są poprzez sygnały elektryczne, które przekazywane są w systemie binarnym.
Możemy więc przyjąć, że sygnały są dwustanowe, tzn. takie, że ich parametry mieszczą się w jednym z dwóch dopuszczalnych przedziałów. Cyfry 0 i 1 zwane są bitami. Wszystkie informacje w komputerze trzeba przedstawić za pomocą wybranych ciągów zero jedynkowych. Przyporządkowanie wybranych ciągów zero jedynkowych obiektom, które mają reprezentować, nazywa się kodowaniem, natomiast ciągi zero jedynkowe, reprezentujące określone informacje, nazywa się kodami.
Bit jest jednostką małą i używa się w praktyce jej wielokrotność. Jednostką większą częściej używaną jest pojęcie bajtu, który równy jest 8 bitom. W większości współczesnych komputerów bajt stanowi główną jednostkę informacji.
Znacznie większymi jednostkami są kilobajt skrót - kB, megabajt - skrót MB, gigabajt - skrót GB, oraz terabajt – skrót TB.
1 kB = 2^10 bajtów = 1024 bajtów,
1 MB = 2^10 kB = 1024 kilobajtów = 1048576 bajtów,
1 GB = 2^10 MB = 1024 megabajtów,
1 TB = 2^10 GB = 1024 gigabajtów.

KOMPUTERY I ICH RODZAJE.
Największy rozwój techniki informatycznej odbywa się w dziedzinie budowy komputerów. Następstwem tego jest pojawianie się wciąż nowych typów komputerów. W większości chodzi o nowoczesne mikroprocesory, pamięci i urządzenia peryferyjne dostosowane do potrzeb współczesności. Najczęściej stosowanym kryterium stosowanym do podziału komputerów jest przeznaczenie, budowa, funkcjonalność i cena, jaką płacimy za kupno komputera. Według tego kryterium komputery można podzielić na:
1) mikrokomputery,
2) minikomputery,
3) superkomputery,

Mikrokomputery spowodowały one największe zmiany i rozpoczęły erę informacyjną. Komputery profesjonalne, zwane popularnie komputerami personalnymi, są grupą najliczniejszą w różnego typu zastosowaniach.

Minikomputery charakteryzują się większą niż w mikrokomputerach pojemnością pamięci operacyjnej, dłuższym słowem maszynowym, możliwością równoczesnej pracy wielu użytkowników.
Podobnie jak produkcja personalnych komputerów zdominowana jest przez komputery firmy IBM i komputery z nimi kompatybilne. Głównie są to produkty firmy DEC (Digital Eguipment Corp.), przedstawicielem komputerów firmy DEC są komputery serii VAX. Popularnymi, również w Polsce są minikomputery firmy IBM serii AS/400 (Apllication System), oraz komputery firmy Hewlett - Packard, w tym popularny model P3000.

Main-frame, czyli duże i średnie komputery. W latach osiemdziesiątych mówiło się, że personalne komputery wyprą komputery innych typów. Okazało się jednak, iż mimo że komputery personalne przejęły szereg zadań i mogą je samodzielnie realizować to średnie i duże komputery będą odgrywały znaczną rolę w wielu firmach, gdzie niezbędne są niezawodność, działanie w sieci, jak też ochrona danych. Komputery typu mainframe są jedno- lub wieloprocesorowe o bardzo dużej wydajności. Pamięć zewnętrzna jest w praktyce nieograniczona. Ich ujemną cechą jest to, że wymagają specjalnych klimatyzowanych pomieszczeń, jak też profesjonalnej obsługi.

Superkomputery są to komputery o największej mocy obliczeniowej. Mówi się o nich również: ultrakomputery, superserwery itp. Ich produkcją zajmuje się niewiele firm, takich jak: Cray, NEC Hitachi, Fujitsu. Szybkość obliczeniowa superkomputerów liczona jest w miliardach operacji na sekundę (gflops). Pamięć operacyjną cechuje pojemność rzędu miliardów bajtów. Wysoka cena superkomputerów jest tym elementem, który powoduje ograniczenie ich zastosowań. Wymagają one złożonych konstrukcji specjalnych mediów chłodzących, np. ciekłego azotu, jak również innych wyspecjalizowanych mediów zabezpieczających ich funkcjonowanie.

SYSTEM KOMPUTEROWY - Elementy komputera wzajemnie ze sobą powiązane tworzą system komputerowy. W zależności od zastosowania i możliwości finansowych użytkownika struktura komputera może być bardziej lub mniej rozbudowana. Podstawowymi elementami komputera są:
1. Jednostka centralna, w skład której wchodzą:
• procesor,
• pamięć wewnętrzna (operacyjna),
• kanały wejścia i wyjścia.
2. Pamięci zewnętrzne.
3. Urządzenia wejścia i wyjścia.

W schemacie zwracają uwagę moduły komputera oraz połączenia między nimi, tzw. szyny. Szyną adresową nazwano połączenie, które służy do przesyłania adresu z procesora do pamięci i układów wejścia i wyjścia. Szyna danych to połączenie, które przekazuje informacje odczytywane lub zapisywane przez procesor z pamięci lub układów wejścia lub wyjścia. Liczba linii szyny danych, a tym samym liczba bitów, które mogą być jednocześnie przesyłane przez tę szynę, zależy od budowy procesora. Starsze mikrokomputery mają 16-bitowe szyny, nowsze 32-bitowe, a najnowsze 64-bitowe szyny. Zwiększona liczba bitów szyny pozwala na szybsze odczytywanie lub wpisywanie informacji do pamięci, a więc szybszą pracę komputera.
Jednostka centralna. Jak wcześniej stwierdzono elementem organizującym pracę całego systemu komputerowego jest procesor. Często też w przenośni nazywamy go sercem lub mózgiem. Nowoczesny komputer wyposażony jest zwykle w kilka procesorów, wyspecjalizowanych w wykonywaniu określonego rodzaju zadań. Każdy komputer zawiera jednak jeden główny mikroprocesor, określony często mianem CPU (Central Processing Unit). W najbardziej popularnych typach komputerów, a mianowicie w personalnych komputerach, takim „sercem" jest mikroprocesor umieszczony na płycie głównej o odpowiednich parametrach techniczno funkcjonalnych i otwartej architekturze. Przy zakupie procesora patrzymy na ogół na tzw. współczynnik wydajności - czyli porównanie do wydajności jakiegoś procesora Pentium. Ten współczynnik to: COMP - indeks wydajności komputera ustanowiony przez firmę INTEL do pomiaru wydajności procesorów. Mierzymy więc współczynnik szybkości COMP do ceny procesora.
Wydajność komputera zależy więc bezpośrednio od:
• szybkości - tj. ilości instrukcji, którą może wykonać procesor w ciągu sekundy,
• ilości danych - które może objąć procesor w ramach jednej operacji.
• od technologii wykonania procesora (jego możliwości w zakresie operacji arytmetycznych, logicznych oraz sterowania.
Drugim z podstawowych elementów jednostki centralnej jest pamięć wewnętrzna. Jest to bardzo szybka pamięć, w której przechowywane są programy (w tym także system operacyjny), a także dane wejściowe oraz wyniki, uzyskane w trakcie przetwarzania. W tych sytuacjach, kiedy nie są one natychmiast potrzebne, przesłane są do tzw. pamięci zewnętrznych (o których będzie mowa w dalszej części poradnika).
Pamięć wewnętrzna, jest zorganizowana jako ciąg komórek. Każda komórka ma swój adres. Duża pamięć pozwala na wykonanie bardzo złożonych programów. Pamięć ta może być zbudowana z różnych elementów. Stosuje się: pamięć ferrytową, pamięć na cienkich warstwach magnetycznych, pamięć optyczną, pamięć półprzewodnikową oraz pamięć kriogeniczną, która wykorzystuje zjawiska nadprzewodnictwa w niskich temperaturach.
Dawniej najbardziej popularne były pamięci ferromagnetyczne, obecnie natomiast pamięci półprzewodnikowe. Wydaje się, że w niedalekiej przyszłości powszechnie będą stosowane pamięci optyczne, które mogą charakteryzować się dużą pojemnością i szybkością przekazywania danych. Największe możliwości w tym względzie powinna mieć pamięć holograficzna, która wykorzystuje zjawisko holografii i możliwości jakie daje światło laserowe. Obecną wadą takiej pamięci jest to, że zapisany hologram nie może być zmieniony, co utrudnia aktualizację zasobów informacyjnych. Obok wymienionych rodzajów pamięci istnieją również pamięci innego rodzaju, np. pamięć biologiczną, itp.
Postęp w zakresie budowy pamięci wewnętrznych polega na ilości gromadzonych danych jak również minimalizacji czasu dostępu do zgromadzonych tam danych. Przyspiesza to bowiem proces przetwarzania przez mikroprocesor ze względu na to, że wszelkie dane oraz programy pobiera on z pamięci operacyjnej.
W pamięci wewnętrznej wyróżniamy dwa podstawowe rodzaje pamięci:
1. PamięćRAM (Random Access Memory), inaczej zwana pamięcią o dostępie swobodnym - bezpośrednim, typu zapis/odczyt wymaga ona stałego odświeżania – podania źródła zasilania. Przechowuje program i dane dla programu aktualnie realizowanego. Po wyłączeniu komputera informacje te znikają. Jej głównymi elementami funkcjonalnymi jest więc pojemność i czas dostępu do informacji tam zgromadzonych (zapis-odczyt).
Pamięć ta jest zorganizowana jako ciąg elementarnych komórek związanych bitami pamięci z których każda jest zdolna do przechowywania jednego bitu informacji. Bity grupowane są w bajty pamięci. Każda komórka ma swój jednoznaczny numer i adres.
Na rynku informatycznym występują następujące rodzaje pamięci, które stosuje się w komputerach:
* pamięć ferrytową,
* pamięć na cienkich warstwach magnetycznych,
* pamięć optyczną,
* pamięć półprzewodnikową,
* pamięć kriogeniczną - która wykorzystuje zjawiska nadprzewodnictwa w niskich temperaturach.
Pamięci powinny charakteryzować się dwoma istotnymi parametrami:
* dużą pojemnością [GB]
* szybkością przekazywania danych [ns].
Optymalnie zatem w przyszłości powszechnie będą stosowane pamięci optyczne. W tym względzie największe możliwości powinna mieć pamięć holograficzna, która wykorzystuje zjawisko holografii i możliwości jakie daje światło lasera. Obecnie wadą tych pamięci jest to, że hologram może być zmieniony, co utrudnia aktualizację zasobów informacyjnych.
Postęp w zakresie budowy pamięci wewnętrznych dąży do koncentracji pamięci i układów logicznych związanych na bardzo małej powierzchni oraz przyspieszenia procesu przetwarzania.
PAO (pamięć operacyjna) służy do przechowywania danych i programów i składa się z następujących modułów:
2. Pamięć ROM (Read Only Memory), inaczej zwana pamięcią tylko do odczytu.
Pamięć ROM - jest to pamięć stała, nie ulotna - elementy programowalne typu EPROM. Zawarte są dane producenta tzn. ROM BIOS tj. informacje o systemie operacyjnym, do rozpoznania przez system, generator znaków, interpreter języka najczęściej języka BASIC. Pamięć ROM występuje również między innymi w następujących postaciach:
• PROM (Programmable ROM) programowalna jednokrotnie,
• EPROM (Erasable PROM) pamięć stała kasowalna wielokrotnie światłem ultrafioletowym,
• EAPROM (Electrically EPROM lub E2PROM) pamięć kasowalna.

Pamięć zewnętrzna. Pamięci te mają za zadanie przechowanie danych i programów nie będących w danej chwili przetwarzane. Do najpopularniejszych rodzajów pamięci zewnętrznych należą:
1. Pamięć taśmowa (pamięć sekwencyjna).
2. Pamięć na dyskach (pamięć o dostępie bezpośrednim).
3. Płyta kompaktowa (czytnik CD).
Pamięć ta składa się z dwóch następujących modułów funkcjonalnych: jednostki sterującej oraz z jednej lub kilku jednostek pamięci podłączonych do jednostki sterującej. Wymiana danych pomiędzy pamięcią wewnętrzną a jednostką pamięci zewnętrznej (zapisywanie danych) odbywa się na drodze: pamięć wewnętrzna - kanał (układ we/wy) - jednostka sterująca pamięcią - jednostka pamięci.
Odczytywanie danych z pamięci zewnętrznych odbywa się w kierunku przeciwnym. Podstawowymi parametrami decydującymi o przydatności i zastosowaniu danego rodzaju pamięci są:
• pojemność pamięci,
• szybkość pracy pamięci (zapis-odczyt),
• koszt przechowywania informacji, liczona jako stosunek kosztu urządzenia do jego pojemności (ilości danych jaka może być przechowana w pamięci).

Pamięć na dyskach. Pamięć na dyskach, tzw. pamięć o dostępie bezpośrednim; można ją podzielić na następujące kategorie:
• dyski twarde,
• dyski elastyczne.
Pamięć dyskowa jest pamięcią o dostępie bezpośrednim. Wprowadzenie dysków magnetycznych przyczyniło się do szybkiego postępu w wykorzystywaniu komputerów.
Pojemności dysków są bardzo różne i wynoszą w pakietach od kilku megabąjtów do kilkudziesięciu gigabajtów i setek terabajtów. Najczęściej jest stosowany zestaw, w którym do jednostki sterującej można podłączyć do 8 jednostek dyskowych. Zestaw dysków zapewnia w praktyce nieograniczoną pojemność, ponieważ wymiana jednego pakietu jest niezwykle prosta. Pakiet dysków zawiera najczęściej 6 płyt, w których jest 10 powierzchni roboczych i 2 osłaniające. Przeciętnie czas dostępu do ścieżki sąsiedniej wynosi „~ 30 ms” (nowe tendencje zmieniają ten czas). Dla zrozumienia organizacji zbiorów na dysku istotne jest „wyczucie” różnicy między zbiorem logicznym a zbiorem fizycznym. Zbiór logiczny jest to pewna grupa dokumentów jednorodnych tematycznie. Istnienie zbioru fizycznego wynika stąd, że każdy dokument jest magazynowany w pamięci w pewnym przeznaczonym dla siebie obszarze. Każdy taki obszar ma identyfikator zwany adresem.
Dysk magnetyczny jako nośnik ma określone zalety i wady.
a) Zalety:
• duża pojemność informacyjna pakietu dysków,
• nieograniczona możliwość zwiększenia pojemności przez wymianę dysków (pakietów),
• stosunkowo krótki czas dostępu.
b) Wady:
• wrażliwość nośnika na urządzenia mechaniczne,
• trudności technologiczne przy wykonywaniu pakietu (jednorodna warstwa ferromagnetyku.

URZĄDZENIA WEJŚCIA I WYJŚCIA.
Istnieje wiele urządzeń komunikacji z komputerem. Grupa tych urządzeń określona jest wspólnym pojęciem urządzeń wejścia i wyjścia. Niektóre z nich są urządzeniami tylko wejścia inne zaś wyjścia, wiele zaś pełni obie funkcje. W prezentacji urządzeń przedstawione zostaną tylko najważniejsze i najbardziej popularne.

Monitor. Monitor jest podstawowym urządzeniem do wyprowadzenia informacji z komputera. Traktowany jest często jako urządzenie we/wy, służące do wizualizacji danych. Może on pracować w tzw. trybie tekstowym - wyświetla znaki lub w trybie graficznym - obraz składa się z punktów.
Monitor ekranowy działa bardzo podobnie do telewizora. Zasada jego pracy znana jest pod nazwą wybierania liniowego i polega na ciągłym wykreślaniu obrazu przez poruszający się strumień (wiązkę) elektronów. Czytelność, ostrość i czystość obrazu przedstawionego na ekranie uzyskuje się dzięki zastosowaniu specjalnych kart graficznych zainstalowanych w komputerze i współpracujących z monitorem. Większość eksploatowanych monitorów pracuje z kartą Super VGA (Virtuall Graphic Array), pozwalającą pracować z rozdzielczością 800 x 600 pkt.. lub 1024 x 768 pkt (rozdzielczość określa się ilością linii i ilością punktów w każdej linii; skrót pkt. pochodzi od słowa picture element, czyli element obrazu) i uzyskać 256 kolorów.

Klawiatura. Klawiatura wraz z monitorem stanowi podstawowe urządzenia komputera. Przy pomocy klawiatury możemy wprowadzić do komputera dowolne polecenia i teksty. Klawiatura zawiera w zależności od typu klawiatury 101 lub 102 znaki.

"Mysz" - urządzenie sterujące. We współczesnych komputerach jest to urządzenie bardzo przydatne i pozwala na obsługę wielu programów bez użycia klawiatury. Informacją, że mysz funkcjonuje, jest na monitorze obraz strzałki, niekiedy prostokąta lub ręki. Jeśli przesuniemy myszką po stole lub po specjalnej podkładce (tzw. padzie), to odpowiedni ruch wykona strzałka na ekranie. Naciśnięcie klawisza myszki, tzw. kliknięcie, pozwala na akceptację realizacji polecenia. W niektórych komputerach wmontowana jest na stałe kulka i tu przez ruchy dłoni możemy realizować podobne funkcje jak przy pomocy myszki. Współczesne „myszki” mają do trzech wbudowanych klawiszy sterujących pozwalających na rozszerzenie możliwości stosowania użytkowego, a tym samym efektywniejszej i sprawniejszej obsługi wielu aplikacji wykorzystywanych przez użytkownika (np. menu podręczne, przesuw kursora itp.).

Drukarka. Urządzenie te służy do wyprowadzania wyników pracy komputera na trwałym nośniku informacji. Szybkość wykonywania przez komputer operacji nie przyniesie spodziewanych efektów, jeżeli nie zostanie sprzęgnięte z odpowiednio wydajnymi drukarkami. Ponieważ występuje dość często brak synchronizacji, dlatego dane z przetworzenia mogą być zapisywane na specjalistycznym dysku spełniającym rolę bufora, a następnie - w miarę możliwości i potrzeb drukowane. Istnieje wiele różnych rodzajów drukarek produkowanych przez różne firmy. W praktyce stosowane są drukarki: mozaikowe, strumieniowe, laserowe, termiczne i bezdotykowe.

Skanery - pozwalające na cyfrowe przetwarzanie dowolnego obrazu. Skanery występują w postaci skanera ręcznego lub stacjonarnego. Działanie skanera polega na płynnym przesunięciu po skanowanym obrazie lampy fluorescencyjnej lub kilkunastu fotodiod umieszczonych w urządzeniu.

Plotery - są to urządzenia wyjścia wykorzystywane między innymi w pracach projektowych. Przetwarzane w komputerze dane są wykreślane w postaci rysunku w układzie osi X i Y. Plotery należą do stosunkowo drogich urządzeń zewnętrznych.
Przedstawione urządzenia nie wyczerpują wszystkich urządzeń wejścia i wyjścia. Istnieją urządzenia, które pozwalają przetwarzać mowę i dwięki. W dużych hurtowniach stosowane są czytniki kodów paskowych. Postęp techniczny idzie w kierunku wzbogacenia o odkrywania wciąż nowych urządzeń dla poprawienia komunikacji z komputerem.

KOMUNIKACJA CZŁOWIEK - KOMPUTER.
Komunikacja między człowiekiem - użytkownikiem a systemem komputerowym odbywa się bezpośrednio. Jest to osiągnięcie ostatnich lat, poprzednio bowiem łańcuch pośredników był dość duży. W konsekwencji w takim układzie występowało wiele przekłamań, zmian i uproszczeń, co powodowało, że różnica między zadaniami sformułowanymi przez użytkownika a wykonanym przez system komputerowy była dość duża.
Ujemnym zjawiskiem w tym względzie było to, że cała operacja trwała niekiedy bardzo długo. Wymagała bowiem opracowania dokumentacji systemu oraz wielu uzgodnień i zatwierdzeń. W rezultacie użytkownik otrzymywał rozwiązanie nie zawsze dotyczące problemu, który go interesował. Często rozwiązania były mu dostarczone wtedy, kiedy sytuacja zmieniła się i uzyskane informacje były nieaktualne. Aktualizacja wymagała znowu uzgodnień i zatwierdzeń. Obecnie w większości sytuacji użytkownik bezpośrednio „konsultuje się z komputerem”. Temu celowi służy zarówno sprzęt techniczny, jak też wygodne w użyciu oprogramowanie.
W układzie człowiek - komputer można wyróżnić dwa poziomy:
Pierwszy to bezpośredni układ człowiek - komputer, polegający na tym, że reakcja komputera i komunikat o efektach działania są natychmiastowe, a ewentualne opónienie wynika tylko z właściwości użytego sprzętu i rodzaju realizowanego zadania.
Drugi - kiedy dla zadania czas nie ma znaczenia, ewentualnie jest dopuszczone opóźnienie reakcji.
W pierwszym przypadku układy można przedstawić następująco:
K-KR-M.
K-KR-D,
M-KR-M,
M-KR-D.
gdzie:
K - konsola (klawiatura komputera),
KR - komputer - jednostka centralna,
M - monitor,
D - drukarka.

W drugim przypadku na wejściu lub wyjściu; ewentualnie i na wejściu i na wyjściu, pojawiają się maszynowe nośniki danych, takich ,jak dyski, dyskietki, taśmy magnetyczne. Można więc powiedzieć, że w tej drugiej sytuacji układ jest rozbudowany i wielostopniowy. W systemie tym szczególna rola przypada urządzeniom opisanym w poprzednim rozdziale, a więc klawiaturze i monitorom, wzbogaconym o zdalne manipulatory, np. mysz, pióro świetlne, ekran dotykowy.
Komunikacja człowiek - komputer realizowana jest przez działania, które określamy terminem zwanym programowanie.
Programowanie jest pewną sekwencją działań, składającą się z:
a. opracowania algorytmu rozwiązania problemu,
b. przetłumaczenia algorytmu na wybrany język komunikacji człowiek- komputer,
c. uruchomienia i zrealizowania programu.

ALGORYTM I FORMY JEGO PREZENTACJI.
Algorytm to sposób postępowania przedstawiający jednoznacznie skończoną ilość kroków (etapów) niezbędnych dla rozwiązania określonego zadania. Algorytm jest tak sformułowany, żeby, postępując według jego wskazań, komputer mógł rozwiązać określony problem. Algorytmy są rozwiązaniami takich zadań, które określamy jako zadania algorytmiczne albo obliczeniowe . Za podstawowe cechy algorytmu uznaje się (1):
• uniwersalność, czyli zapewnienie rozwiązania każdego zadania należącego do określonego typu zadań, pod warunkiem konsekwentnego jego stosowania,
• jednoznaczność, czyli prezentacji metody postępowania w postaci skończonej listy prostych j jednoznacznych rozkazów, dotyczących postępowania na kolejnych etapach wykonywania zadania.
• zbieżność, czyli dla każdego dopuszczalnego zbioru danych początkowych liczba operacji prowadzących do poszukiwanego wyniku jest skończona,
• powtarzalność, czyli każdy z użytkowników, stosując analogiczne dane i algorytm, uzyska analogiczne wyniki.

Tworzone algorytmy mogą być proste lub złożone. Złożone algorytmy są wtedy, kiedy zawierają podprogramy, które z kolei wywołują inne programy w celu pełnego opisu działania. Zazwyczaj algorytm rozwiązania danego zadania przedstawiony jest w formie:
• opisu słownego,
• notacji matematycznej,
• graficznego schematu blokowego lub innej formy zapisu graficznego (tablica decyzyjna; tablica krzyżowa).
Opis słowny stosowany jest najczęściej i przykładami tego są:
• Przepisy kulinarne.
• Instrukcje składania mebli.
• Instrukcje obsługi urządzenia, np. kamery wideo. - Wypełnienie zeznania podatkowego tzw. PIT.
• Sporządzenie bilansu działalności firmy.
W notacji matematycznej dla prezentacji algorytmu korzysta się z typowych wzorów i reguł matematycznych. Prezentacja ta jest uzupełniania odpowiednimi komentarzami. Przykładami tego typu algorytmu są między innymi:
• Rozwiązanie równań matematycznych.
• Obliczanie pierwiastków równania.
• Rozwiązanie modelu matematycznego programowania, np. metodą Simple.
• Obliczenie ścieżki krytycznej w modelach graficznych typu PERT/CPM.

Schemat blokowy - jest najbardziej popularną metodą graficznej prezentacji algorytmu. Narzędzie to jest stosowane powszechnie dla rozwiązania złożonych problemów. Zasady budowania schematów blokowych są niezwykle proste. Cechują się małą liczbą elementów, co pozwala na łatwość kontroli.

OPROGRAMOWANIE
Jak wcześniej stwierdziliśmy pojęcie system komputerowy obejmuje również oprogramowanie. System komputerowy stanowi bowiem spójny zestaw środków sprzętowych i programowych.Oprogramowaniem nazywamy ogół środków programowych dostępnych w systemie komputerowym. Oprogramowanie tworzone jest przy pomocy określonego języka programowania.
Podstawowym elementem oprogramowania jest program, realizowany przez komputer - bliżej przez mikroprocesor. Jest to zatem ciąg instrukcji jakie musi wykonać mikroprocesor w celu realizacji założonego algorytmu opisującego zadany problem.

Program jest więc opisem danego problemu przy pomocy określonego języka w ten sposób, że jest on akceptowany przez komputer (mikroprocesor).
Programowanie jest pewną sekwencją działań składających się m.in. z:
1. opracowania algorytmu rozwiązania problemu,
2. przetłumaczenia algorytmu na wybrany język komunikacji człowiek – komputer,
3. uruchomienia i zrealizowania programu. A zatem na udany nowoczesny i efektywny produkt informatyczny składają się trzy podstawowe moduły:
1. właściwy i dobrze zrealizowany produkt,
2. poprawne oprogramowanie,
3. odpowiedni sprzęt.
Oprogramowanie komputera decyduje w dużej mierze o:
1. jego możliwościach wykorzystania,
2. wykonywania określonych (założonych) zadań.

Z punktu widzenia stylu tworzenia programów możemy wyróżnić:
• programowanie proceduralne,
• programowanie deklaratywne,
• programowanie obiektowe,
• programowanie strukturalne.

PROGRAMOWANIE PROCEDURALNE- charakteryzuje się tym, że program powinien zawierać pełny opis rozwiązania problemu opisanego danym algorytmem. Program składa się w tym przypadku z dwóch części:
• deklaratywnej, w której opisuje się obiekty (dane), na których działa
• proceduralnej, w której opisuje się czynności (instrukcje), które są wykonywane na tych danych.
PROGRAMOWANIE DEKLARATYWNE - polega na określeniu związków czyli relacji pomiędzy danymi a wynikami. Przy tego typu programowaniu nie kładzie się nacisku na „JAK PRZETWARZAĆ” (programowanie proceduralne) ale „CO MA BYĆ PRZETWARZANE”. Przykładowym językiem jest język PROLOG.
PROGRAMOWANIE OBIEKTOWE - jest próbą połączenia zarówno programowania proceduralnego i deklaratywnego. Jest to metoda programowania, w której program jest opisem działania zbioru wzajemnie powiązanych obiektów. Na opis obiektu składa się kilka następujących charakterystyk: metody, atrybuty, dziedziczenie, reguły, otoczenie. Przykładowe języki to: FRL, KEE, SMALLTALK do prezentacji wiedzy w bazach wiedzy.
PROGRAMOWANIE STRUKTURALNE - powstało na odpowiedź na niedostatki oprogramowania tradycyjnego - celem tego programowania jest rygorystyczna organizacja procesu projektowania i kodowania programu w dążeniu do zapobieżenia błędów logicznych i innych. Ma ono następujące cechy:
• jest zastępujące,
• modułowe.

OPROGRAMOWANIE SYSTEMOWE.
W oprogramowaniu systemowym zgodnie z przedstawioną uprzednio typologią, wyróżnić można następujące grupy:
• systemy operacyjne,
• translatory,
• oprogramowanie dla testów i diagnostyki komputera,
• oprogramowanie komunikacyjne,
• oprogramowanie pomocnicze.
System operacyjny jest programem nadzorującym pracę wszystkich urządzeń systemu komputerowego, tworząc środowisko, w którym pracują inne programy. Jest więc zbiorem procedur zarządzających pracą całego systemu komputerowego. Podstawowe zadania systemu operacyjnego są następujące:
• obsługa komunikacji człowiek - komputer,
przydział czasu pracy procesora dla poszczególnych użytkowników,
nadzór wymiany informacji między elementami systemu komputerowego,
• zarządzanie pamięcią operacyjną,
• uruchomienie innych programów w tym programów użytkowych,
• sygnalizacja błędów i niesprawność urządzeń.

System operacyjny komputera - ogólna charakterystyka W systemie operacyjnym bardzo często spotykanym jakim jest MS DOS można wyróżnić wzajemnie z sobą współpracujące moduły:
• ROM.BIOS
• IO.SYS
• MS.DOS.SYS
• COMMAND.COM
System operacyjny dzieli się więc na:
1. część stałą „zatopioną” w ROMie – PAO (pamięci operacyjnej),
2. część ruchomą przechowywaną w pamięci masowej.
Umieszczenie systemu w ROMie, a więc części statycznej pamięci operacyjnej ułatwia użytkownikowi, stwarza wygodę w tym względzie, że sprzęt i zarządzający nim system widziane są jako jedna całość. Zaś umieszczenie systemu w pamięci masowej zwiększa jego elastyczność i pozwala przy mniejszych kosztach zmieniać jego wersje a także dostosowywać go do różnej konfiguracji sprzętowej.
ROM.BIOS - jest zbiorem elementarnych programów i procedur zapisanych przez producenta w jego pamięci stałej ROM.
Wyróżniamy w nim:
• program testujący POST (ang. POWER ON SELF TEST) - testuje sprzęt komputerowy, pamięć, rejestratory przerwań,
• tzw. BOOT - program inicjujący wczytywanie pozostałych modułów systemu operacyjnego
• procedury obsługi podstawowych urządzeń We/Wy tj. klawiatury , monitora, dysków i drukarki - procedury te pośredniczą pomiędzy wyższymi warstwami oprogramowania i sprzętem - to właśnie dzięki nim programiści mogą pisać programy bez konieczności wnikania w szczegóły techniczne urządzeń.

POWŁOKA - INTERPRETER POLECEŃ SYSTEMOWYCH
• jego zadaniem jest rozpoznawanie i realizowanie poleceń użytkownika,
• program wprowadzony zostaje na cały czas działania komputera - jego naczelne zadanie to rozpoznawanie poleceń,
• niektóre sam wykonuje zaś pozostałe zleca programom pomocniczym. Programy te wprowadzane są do PAO wybiórczo i tylko na czas niezbędny do wykonania - dlatego mamy podział na polecenia systemowe
-wewnętrzne - wykonywane przez COMMAND.COM
-zewnętrzne - wykonywane przez programy pomocnicze - wywoływane z PM.
- OTOCZENIE - to programy pomocnicze, programy komunikacyjne, aplikacje użytkownika.

Programy pomocnicze uzupełniają plik COMMAND.COM nadając aktywność realizowanym przez użytkownika aplikacjom oraz realizacją poleceń zewnętrznych.
Programy komunikacyjne - programowe sterowniki zwane drajwerami - są to programy do obsługi niestandardowych urządzeń zewnętrznych, takich jak:
• rozszerzona pamięć,
• myszka, skaner, pióro świetlne,
• dysk wirtualny itp.

Programy tłumaczące (translatory). Programy niezależnie od użytego języka programowania muszą być, jak już wcześniej wspomniano, przetłumaczone na instrukcję języka maszynowego. Istnieją trzy podstawowe sposoby tłumaczenia programów: interpretacja, kompilacja, asemblacja.
Interpretacja wykonywana jest przez specjalne programy zwane interpreterami. Interpretator tłumaczy program w trakcie wykonania. Działanie interpretatora polega na tym, że program analizuje kolejne programy, krok po kroku, bada ich poprawność, rozpoznaje jakie czynności należy wykonać i realizuje je. Interpretatory są z natury powolne i mało wydajne. Wynika to z faktu, że tłumaczenie odbywa się bez przerwy - nie tylko podczas każdego uruchomienia programu, ale także, gdy któryś z jego kroków jest powtarzany. W realnych programach wiele elementów jest realizowanych na drodze powtarzania kroków, tzw. pętli. Dlatego też wiele instrukcji jest podczas interpretacji tłumaczonych kilkakrotnie. Zaletami interpretacji są: łatwość lokalizacji błędów i możliwość wprowadzenia poprawek w każdym momencie.
Kompilacja wykonywana jest przez specjalne programy zwane kompilatorami. Kompilator analizuje program napisany w określonym języku zewnętrznym, nazywany programem źródłowym. W następnym etapie zamienia go na równoważny program w języku wewnętrznym, nazywany programem wynikowym.
Po zakończeniu procesu transakcji do dalszej pracy używa się już wersji wynikowej. W ten sposób kompilacja jest krótsza niż interpretacja. Czas tłumaczenia zależy od języka oraz długości i złożoności programu źródłowego. Wiele kompilatorów ma wbudowane mechanizmy pozwalające na optymalizacje programów.
Asemblacja wykonywana jest przez specjalny program zwany asemblerem. Asemblacja jest podobna do kompilacji, z tym, że programy tłumaczone są na język maszynowy, zaś samo tłumaczenie jest integralną częścią tworzenia programu. Oznacza to, że użytkownik nie musi oczekiwać na realizację tłumaczenia w jego trakcie i nie musi też posiadać programów tłumaczących. Programy przygotowane w taki sposób są kompletne i gotowe do uruchomienia, w przeciwieństwie do programów interpretowanych, które mogą być uruchomione tylko w obecności i przy pomocy interpretatora. Programy asemblerowe są jednak bardzo pracochłonne i w stosunku do kompilatorów dość proste.

MS Windows jest przedstawicielem oprogramowania, które do komunikacji z użytkownikiem wykorzystuje grafikę (ikony). Taki rodzaj komunikacji z użytkownikiem określa się mianem Graficznego Interfejsu Użytkownika w skrócie GUI (Graphical User Interface).
W komunikacji tej bowiem zamieniono słowa na grafikę i polega ona na zastąpieniu nazw instrukcji przez rysunki, tzw. ikony, które reprezentują funkcje i instrukcje.
Używając klawiszy kursora lub myszki można wskazać polecenia, które chce się wykonać i uruchomić poprzez naciśnięcie klawisza ENTER, lub przycisku myszki (popularnie określa się to terminem - kliknięcie). Jednak należy pamiętać o tym, że zastąpienie trybu tekstowego przez graficzny zwiększa wymagania sprzętowe. Proste operacje, takie jak formatowanie dyskietek, czy kopiowanie plików do innego pliku, mogą być wykonywane szybciej i łatwiej w systemie DOS-a niż w Windows.
System operacyjny typu DOS lub MS DOS jest w zasadzie zorientowany na system komputerowy i stanowi jego część. System MS Windows jest natomiast zorientowany na użytkownika. Graficzny interfejs użytkownika, jakim jest MS Windows, jest programem, który przedstawia dane i polecenia w formie symboli graficznych. Osoby, które korzystają z tego pakietu manipulują tymi symbolami zamiast wpisania konkretnych poleceń.
Według P.Nortona istnieje kilka powodów, dzięki którym MS Windows stał się tak popularny:
1. po pierwsze graficzny interfejs użytkownika - GUI sprawia, że używanie komputera i jego programów staje się łatwiejsze.
2. po drugie bardzo dobra współpraca pomiędzy różnymi aplikacjami, a co za tym idzie, ułatwienie obsługi i wymiany danych. Dane i obrazy można łatwo przenosić z jednego programu do drugiego. Można również tworzyć połączenia pomiędzy aplikacjami tak, aby zmiana danych w jednym programie była natychmiast uwzględniona w dołączonej aplikacji. Realizacja współpracy między aplikacjami jest możliwa dzięki standardowej wymianie danych DDE (Dynamic Data Exchange - dynamiczna wymiana danych). Standard DDE tworzy realizowany na poziomie programisty interfejs, który umożliwia aplikacjom dla Windows, dostęp do danych pochodzących z innych aplikacji. W konsekwencji uzyskuje się narzędzia, które pozwalają na aktualizację informacji.
3. po trzecie Zastosowanie Techniki Łączenia i Osadzenia Obiektów czyli techniki OLE (Object Linking and Embedding). Jest to forma wymiany danych. Po wstawieniu obiektu do pliku lub docelowego dokumentu można uruchomić aplikacje, która go stworzyła, i manipulować danymi przy pomocy myszki.
Korzystając z systemu MS Windows należy pamiętać, że podstawowym jego elementem jest Menedżer programów (Program Manager), który zarządza grupami programów i tworzy interfejs użytkownika systemu Windows oraz obsługuje instalowane i uruchamiane aplikacje. Grupa (Group) jest zbiorem plików i programów wyświetlanych przez Menedżera, programów jako pojedyncza ikona. Ikony poszczególnych programów przechowywane są wewnątrz grup, co ułatwia zarządzanie aplikacjami. Menedżer programów, ikony, okienka grup oraz okienka aplikacji tworzą tak zwany pulpit (desktop) Windows, czyli ekranową reprezentację obiektów, która umożliwia korzystanie z zasobów i funkcji komputera. W Windows obiektem jest każdy symbol na ekranie, którym można manipulować. Większość obiektów Windows ma postać ikon lub małych rysunków.
Każdy program, który jest elementem Windows ma swoją własną strukturę menu lecz pewne jego elementy są wspólne dla wszystkich aplikacji. Są tam podmenu Plik (File), Edycja (Edit) oraz Pomoc (Help) i inne. Aplikacje użytkownik uruchamia zazwyczaj myszką i przy jej pomocy - wskaźnikiem myszki (mouse pointer) wskazuje się wybrany obiekt. Po wybraniu, obiekt można uruchomić lub zaznaczyć i wykonać z nim żądaną operację. W sytuacjach awaryjnych (uszkodzenie myszki lub chęć użytkownika do korzystania z aplikacji) można użyć klawiatury. Istotnym szczególnie klawiszem, jest klawisz funkcjonalny F1, którego użycie powoduje wywołanie pomocy. Ważna jest kombinacja klawiszy CTRL-TAB, którą stosuje się wtedy, kiedy nie widzi się na ekranie Menedżera programów, żądanej grupy itp. Oznaczać to może jedną z następujących sytuacji: grupa jest otwarta i zasłonięta przez inne okno, zamknięta lecz zasłonięta przez inne okno, ewentualnie okno Menedżera programów jest za małe. W takim przypadku wielokrotne naciskanie klawiszy CTRL-TAB umożliwia przejścia przez wszystkie dostępne grupy aż do momentu wybrania właściwej.
Programy MS Windows umożliwiają realizację bardzo złożonych zadań, z którymi może w praktyce spotkać się użytkownik.

OPROGRAMOWANIE UŻYTKOWE.
Oprogramowanie użytkowe nosi cechy oprogramowania aplikacyjnego lub też zastosowaniowego. Jego zadaniem jest bezpośrednia realizacja polecenia sformułowanego przez użytkownika. W odróżnieniu od oprogramowania systemowego, oprogramowanie użytkowe tworzone jest przez użytkownika (tzw. software - house), które tworzy on jako oprogramowanie o przeznaczeniu typowym dla większej grupy potencjalnych użytkowników. Programy te są zakupywane lub dzierżawione przez poszczególnych użytkowników na określonych warunkach, takich jak: dostarczenie dokumentacji, szkolenie personelu użytkownika, konsultacje, dostarczanie nowych udoskonalonych wersji systemu.
Zestaw programów zastosowalnych tworzy często tzw. pakiet, który stosuje się przy rozwiązywaniu problemów określonego typu. Popularność i powszechność stosowania komputerów personalnych wynika między innymi z faktu , że użytkownik może się posługiwać stosunkowo tanim i ogólnie dostępnym oprogramowaniem użytkowym. Posługiwanie się tym oprogramowaniem nie wymaga znajomości języka programowania, a jedynie poznania zasad używania prostych instrukcji. Oczywiście przy bardziej złożonych programach sytuacja jest bardziej skomplikowana, ale stosowane programy wspomagające powodują, że użytkownik jest prowadzony przez system „za rękę". Takie podejście do użytkownika spowodowało, że oprogramowanie to często nazywane jest oprogramowaniem przyjaznym.
W ramach oprogramowania użytkowego wyróżnia się duże dwie ich klasy, a mianowicie:
Oprogramowanie własne
, które opracowywane jest bezpośrednio przez użytkownika, lub na jego zlecenie. Zadaniem takiego oprogramowania jest bezpośrednie zaspokojenie konkretnych potrzeb indywidualnego klienta. Zastosowanie tego typu oprogramowania przez innych użytkowników powoduje trudności i wymaga poniesienia dodatkowych kosztów na jego adaptację.
Oprogramowanie biblioteczne, niekiedy i nie najszczęśliwiej zwane typowym, tworzone jest z przeznaczeniem dla różnych użytkowników. Ma ono ogólny charakter, a jego użytkownikami, jak w przypadku MS Office, są miliony klientów. Produkowane jest przez wyspecjalizowane komercyjne firmy.
Oprogramowanie można też sklasyfikować biorąc za podstawę kryterium wielkości komputerów. Istnieje bowiem oprogramowanie, które może być realizowane na dużych i średnich komputerach oraz komputerach personalnych. Wiele pakietów projektuje się z myślą o dużych i personalnych komputerach. Dla tych drugich istnieją pewne pakiety o ograniczonych funkcjach.
Inna klasyfikacja bierze z kolei za punkt wyjścia użytkownika i jego zadania. Będą to więc oprogramowania dla przedsiębiorstw, szkolnictwa, administracji i inne. Oprogramowanie można też analizować według podstawowych celów, któremu ma służyć, np. wspomaganie transakcji, tzw. systemy transakcyjne, systemy informowania kierownictwa, systemy wspomagania decyzji, systemy ekspertowe, systemy wspomagania procesu projektowego.
Nie roszcząc sobie pretensji do całościowej prezentacji (jest to niemożliwe ze względu na ograniczenie objętości tej pracy) przedstawione tu zostaną tylko podstawowe informacje o pakietach przydatnych użytkownikowi, w tym:
• systemy Wspomagania Pracy Biurowej (edytory, arkusze kalkulacyjne),
• programy graficzne,
• systemy Zarządzania Bazą Danych.
Te dwa ostatnie są podstawą bardzo dużej ilości różnorodnych zastosowań.

Grafika komputerowa Programy graficzne tworzące wykresy korzystają z danych zapisanych w postaci szeregów lub tablic. Dane te mogą być zapisane w innych programach (np. arkuszach kalkulacyjnych) i pakiet graficzny importuje je do siebie.
Dla wykreślenia obrazu graficznego, użytkownik może korzystać z całego szeregu narzędzi i ułatwień. Przykładowo użytkownik może tworzyć własne rysunki, korzystając z gotowej bazy własnych czy firmowych elementów, np. można na każdym slajdzie przedstawić logo firmy.
Również do popularnych narzędzi wspomagających należą:
• pędzel o zmiennej wielkości i kształtujący rysunek w sposób najbardziej pożyteczny,
• rozpylacz farby, który powoduje, że w miejscach jego użycia malowane powierzchnie mają bardziej intensywne barwy.
• gumka, która wyciera nieudane rysunki lub ich elementy,
• zestaw standardów typu linie o dowolnej grubości, koła, elipsy, kwadraty, prostokąty, trójkąty, które pomocne są przy wykorzystaniu różnego typu schematów.
Specjalistyczne zestawy rysunków i elementów zawarte są w oprogramowaniu wspomagającym pracę inżynierów i konstruktorów. Oprogramowanie nosi nazwę pakietów CAD/CAM czyli Computer Aided Design (Komputerowe wspomaganie projektowania) i Computer Aided Manafacture (Komputerowe wspomaganie produkcji). Oprogramowanie typu CAE (Computer Aided Enginering) czyli komputerowe wspomaganie konstruowania, umożliwiają dodatkowo planowanie produkcji i analizę kosztów.
Oprogramowanie graficzne można podzielić według następujących kryteriów.
1. Specyfika rodzaju pracy:
a) Grafika wektorowa - opiera się na matematycznym opisie punktów, linii i kolorów. Umożliwia to skalowanie elementów rysunku bez ich utraty, precyzję, kontrolę nad fragmentami grafiki. Programy zachowują najwyższą jakość rysunku, pamiętają przykładowo współrzędne początku i końca kreślonej linii, dla okręgu zaś grubość linii, środek i promień. Cechy te pozwalają na osiągnięcie gładkich krawędzi i pożądanego wyglądu powiększanych, przesuwanych i drukowanych obiektów. Do oprogramowania posługującego się grafiką wektorową należą m.in.. CHARISMA, CORELDRAW, WINDOWS-DRAW.
b) Grafika rastrowa - polega na tym, że rysunek jest traktowany jako płaszczyzna wypełniona wieloma punktami, tzw. mapa bitowa. Im tych punktów na jednostkę powierzchni jest więcej tym jakość rysunku jest lepsza. Słabością oprogramowania jest to, że takie operacje jak przesuwanie, powiększanie, zniekształcają obiekt na ekranie monitora i wydruku. Dzieje się tak, ponieważ program wykonuje zadane funkcje pojedynczo na każdym punkcie. Przedstawicielem tej klasy oprogramowania jest program PHOTO MAGIC.
c) Grafika prezentacyjna - wykorzystuje zarówno technikę wektorową, jak i rastrową. Jest to najbardziej rozwojowa technika grafiki komputerowej i służy do wirtualizacji danych używanych dla opracowania materiałów szkoleniowych raportów i analiz.

SIECI KOMPUTEROWE
Co to są systemy sieciowe? - Najogólniej rzecz biorąc, systemem sieciowym przyjęto nazywać pewną strukturę informatyczną, w skład której wchodzi grupa elementów, powiązanych ze sobą na zasadzie wymiany informacji. Fizyczną realizacją systemu sieciowego jest sieć komputerowa. Stanowi ją zbiór różnego typu urządzeń oraz oprogramowania. Do urządzeń sieciowych zalicza się przede wszystkim komputery oraz urządzenia zapewniające komunikację między nimi. Sieć jest to więc struktura zmienna o otwartej architekturze. Komputery w sieci pełnią rolę stacji roboczych, serwerów sieciowych oraz mogą tworzyć platformę do instalacji oprogramowania zapewniającego dodatkowe usługi. Podstawowym oprogramowaniem zapewniającym funkcjonowanie sieci jest system operacyjny oraz oprogramowanie komunikacyjne. Wyższą warstwę stanowią programy udostępniające usługi sieciowe, najwyższą zaś aplikacje sieciowe. Sieć komputerowa jest pojęciem bardzo ogólnym i nie specyfikującym jej rozmiaru ani struktury. Dowolną sieć komputerową tworzy grupa komputerów połączonych ze sobą w taki sposób, że mogą przesyłać i wymieniać między sobą dane. Ze względu na szybkość działania i zasięg wykonywanych operacji sieci dzielą się na:
Lokalne - LAN (ang. Local Area Network) - lokalna sieć komputerowa tworzona jest przez kilka do kilkudziesięciu komputerów rozmieszczonych na niewielkim obszarze przeważnie w jednym budynku, np. sieć obejmująca jeden wydział uniwersytetu, firmę itp.
Metropolitarne - MAN (ang. Metropolitan Area Network) - metropolitarna sieć komputerowa łączy pojedyncze komputery i sieci lokalne na większym obszarze - mogą to być sieci akademickie, miejskie, regionalne, na przykład sieć łącząca wydziały uniwersytetu mieszczące się w jednym mieście.
Rozlegle - WAN (ang. Wide Area Network) - rozległa sieć komputerowa obejmuje sieci lokalne, metropolitarne i pojedyncze komputery w obrębie kraju lub kontynentu; na przykład sieć łącząca siedziby firm rozprzestrzenione w całym kraju.
Sieci lokalne charakteryzują się więc z reguły niewielką ilością komputerów rozmieszczonych na niewielkim obszarze. W związku z tym struktura połączeń między nimi jest prosta, zaś koszty eksploatacji niewielkie. Problemy zaczynają się w przypadku sieci rozległych, składających się z dużej liczby komputerów. Skomplikowana struktura połączeń sieciowych wymusza konieczność stosowania dodatkowych wyrafinowanych urządzeń, zapewniających poprawną oraz efektywną komunikację i transfer danych. Dodatkowo dochodzą problemy minimalizacji kosztów połączeń, gdy sieć rozległa korzysta z publicznych sieci teleinformatycznych.
W praktyce zjawisko to jest bardzo zasadne. Istnieje bowiem bardzo duże zapotrzebowanie na sieci do obsługi małych i średnich przedsiębiorstw i instytucji. Ponadto sieci lokalne stanowią podstawę do konstruowania sieci rozległych.
Aby sieć mogła zafunkcjonować nie wystarczy samo połączenie komputerów kablem i kartami sieciowymi. Wymagany jest drugi element - oprogramowanie systemowe. Zasadniczym jego składnikiem jest sieciowy system operacyjny zawiadujący zasobami oraz koordynujący pracą sieci. Decyduje on o strukturze funkcjonowania sieci.

Sieciowy system operacyjny
Sieciowy system operacyjny jest podstawowym oprogramowaniem sieci komputerowej. Jego zadaniem jest stworzenie środowiska wspólnej pracy dla wielu urządzeń. Decyduje o charakterze sieci oraz o zakresie oferowanych usług. Sieciowy system operacyjny koordynuje pracą sieci, zapewnia efektywne gospodarowanie zasobami i udostępnianie ich użytkownikom według określonych reguł i zasad. Serwer - jako komputer centralny, na którym znajduje się całość oprogramowania jest najbardziej newralgicznym elementem systemu sieciowego. Ponieważ serwer musi obsłużyć wiele stacji roboczych, jest to z reguły komputer o dużej mocy obliczeniowej i dużej pamięci dyskowej.
Ostatnio coraz większą popularność zyskują systemy bez wyróżnionego serwera (sieci równorzędne, ang. peer-to-peer), gdzie każdy komputer może udostępniać swoje zasoby na rzecz sieci. W takim przypadku komputery pracujące w sieci korzystają z mocy obliczeniowej oraz innych zasobów pozostałych komputerów.
Jedno i drugie rozwiązanie ma swoje wady i zalety. W systemie z wyróżnionym serwerem istnieje konieczność przeznaczenia kosztownego komputera do obsługi sieci, z drugiej jednak strony centralne zarządzanie jest łatwiejsze, zaś system ochrony danych bardziej niezawodny. Z kolei sieci równorzędne są rozwiązaniem bardziej ekonomicznym. Zapewniają wysoką efektywność, przy wykorzystaniu komputerów o mniejszych mocach obliczeniowych i indywidualnych zasobach, ale trudno jest w nich zagwarantować wysoki stopień niezawodności pracy.
Programy usługowe
Są to programy, które rozszerzają funkcje sieciowego systemu operacyjnego o dodatkowe usługi. Do grupy tej należą programy komunikacyjne, oprogramowanie pozwalające na integrację z innymi systemami sieciowymi, udostępniające usługi druku w sieci lub zapewniające dostęp do modemów. Instalowane są z reguły na serwerze albo innym dedykowanym komputerze pracującym w sieci. Niektóre z instalowanych programów stanowią integralną część systemu operacyjnego lub oferowane są jako osobne produkty. Do typowych usług sieciowych możemy zaliczyć:
• dostęp do wspólnych urządzeń fizycznych (systemy dyskowe, drukarki, modemy, napęd dysków optycznych, itp.),
• dostęp do wspólnych danych (aplikacji, plików),
• wspólne przetwarzanie informacji (bazy danych,
• przesyłanie informacji w ramach sieci

Programy zarządzania
Programy zarządzania pracą sieci to oprogramowanie umożliwiające scentralizowaną kontrolę pracy sieci. Bazują na informacji udostępnianej przez urządzenia sieciowe lub oprogramowanie systemowe. Do innych funkcji programów zarządzania należy zaliczyć:
• zdalne monitorowanie pracą sieci,
• tworzenie graficznej mapy połączeń,
• kontrolę natężenia ruchu w różnych miejscach sieci,
• analizę wykorzystania zasobów sieciowych,
• zdalne sterowanie pracą serwerów oraz innych urządzeń komunikacyjnych,
• wykrywanie miejsc nasilonych błędów.

Każda sieć komputerowa ma swoją charakterystyczną architekturę - protokół komunikacyjny i topologię. Protokół komunikacyjny opisuje zasady wymiany informacji pomiędzy tworzącymi sieć urządzeniami definiuje zasady transmisji danych: (sygnały kontrolne, formaty pakietów danych i sposoby kontroli poprawności przepływu danych). Topologia zaś określa zasady łączenia komputerów pomiędzy sobą w celu utworzenia sieci. Zasady te ustalają rodzaje łączy, typ kabli oraz kolejność łączenia i sposób rozmieszczenia komputerów, na przykład w oparciu o topologię magistrali, gwiazdy lub pierścienia. Przykłady podane są w załączniku. Tak więc poszczególne, niezależne sieci komputerowe mogą działać w oparciu o różne protokoły komunikacyjne i korzystać ze specjalizowanych połączeń pomiędzy komputerami. Natomiast ogólnoświatowa sieć Internet nie ma regularnej topologii i jest zbudowana na zasadzie łączenia ze sobą pojedynczych sieci lokalnych i miejskich. Bardzo istotny jest fakt, że Internet nie działa jedynie w oparciu o specjalizowane sieci komputerowe, ale i zwykłe sieci telekomunikacyjne. Podobnie jak w innych sieciach, komunikacja w Internecie odbywa się według wspólnego protokołu transmisji danych, którym jest TCP/IP (ang. Transmission Control Protocol / Internet Protocol), którego istota podana zostanie w dalszej części.
Sieci komputerowe umożliwiają łatwą komunikację, dostęp do wspólnej i aktualnej informacji oraz dzielenie zasobów, takich jak drukarki lub pamięć masowa. Naturalnie każdy z użytkowników (uczestników) sieci może korzystać z tych udogodnień w stopniu zależnym od udzielonych mu przywilejów - praw dostępu.

Architektura sieci komputerowych Jak już wspomniałem, technologia sieci lokalnych (LAN) w sposób zasadniczy różni się od technologii sieci rozległych (WAN). O ile funkcjonowanie sieci rozległej jest możliwe dzięki istnieniu urządzeń zwanych routerami, które w aktywny sposób decydują o ruchu pakietów, w przypadku sieci lokalnych połączenie między komputerami ma charakter pasywny. Większość technologii sieci LAN oparta jest na transmisji w paśmie podstawowym (baseband), co w konsekwencji oznacza, że w danym momencie może nadawać tylko jedna stacja. W przypadku równoczesnej próby transmisji przez różne stacje następuje kolizja i transmisja musi zostać powtórzona. Istnieją różne technologie sieci LAN, które w różny sposób określają metodę dostępu do łącza fizycznego. Metody te można generalnie podzielić na dwie grupy:
• metody oparte na dostępie rywalizacyjnym, z których największe znaczenie mają metody z nasłuchem stanu łącza i wykrywaniem kolizji określane skrótem CSMA/CD (Carrier Sense Multiple Access/Collision Detection)
• metody oparte na przekazywaniu uprawnienia (token passing).
Zasadnicza różnica między obiema technikami polega na tym, że w metodach rywalizacyjnych restrykcje dotyczące momentu, w którym stacja może rozpocząć nadawanie, są stosunkowo łagodne. Natomiast w metodach z przekazywaniem uprawnienia moment i czas nadawania są ściśle limitowane. Oba rodzaje technologii mają swoje wady i zalety oraz występują w wielu wariantach. Poniżej zostaną one w uproszczeniu omówione na przykładzie popularnych sieci Ethernet (metoda typu CSMA/CD) oraz Arcnet (metoda typu token passing).

Ethernet
Standard Ethernet został opracowany na przełomie lat siedemdziesiątych i osiemdziesiątych przez firmy Xerox, Intel i DEC. W metodzie tej stacja może nadawać, jeśli łącze jest wolne. W związku z tym wszystkie stacje mają obowiązek prowadzenia nasłuchu stanu łącza (Carrier Sense). Z uwagi na skończony czas propagacji sygnału stacja w chwili podejmowania decyzji o rozpoczęciu nadawania ramki nie ma jednak nigdy pewności, że tylko ona rozpoczyna transmisję. Dopiero po pewnym czasie od momentu rozpoczęcia nadawania przez daną stację wszystkie stacje mogą wykryć, że łącze jest zajęte. Czas ten jest tym większy, im większa jest rozpiętość sieci i im mniejsza jest szybkość propagacji sygnału. Dopiero po upływie tego czasu stacja, która rozpoczęła nadawanie i nie wykryła kolizji na łączu, może przyjąć, że kolizja już nie nastąpi. Ponieważ transmisja ramki nie może zostać zakończona przed uzyskaniem pewności, że ramka ta nie zostanie zniszczona w wyniku kolizji, czas ten wyznacza minimalną długość nadawanej ramki. W standardzie Ethernet przyjęto również górne ograniczenie długości ramki, ażeby nadająca stacja zbyt długo nie blokowała dostępu do łącza innym stacjom.
Ponieważ w sieci Ethernet z góry zakłada się możliwość zajścia kolizji, musi być określony efektywny algorytm pozwalający na przejście ze stanu kolizyjnego do stanu normalnej pracy sieci. Przede wszystkim stacje, które wykryją kolizję, mają obowiązek wstrzymać nadawanie (Collision Detection). Okres oczekiwania na możliwość retransmisji jest określony losowo, ażeby zmniejszyć prawdopodobieństwo ponownej kolizji.

Zalety i wady Ethernetu
Ethernet jest obecnie najbardziej popularną na świecie technologią sieci lokalnej.
• Zaletą Ethernetu jest jego prostota - w przeciwieństwie do wielu innych technologii LAN niepotrzebne są tu dodatkowe, specjalne rodzaje ramek służących wyłącznie do organizowania pracy sieci, ani też specjalne procedury umożliwiające stacji rozpoczęcie lub zakończenie pracy. Nawet silne zakłócenia mogą być traktowane jak zwykłe kolizje, a więc zdarzenia w sieci tego typu normalne, na które sieć rutynowo reaguje decyzją o retransmisji.
• Wielką zaletą Ethernetu jest to, że stacja może nadawać w każdej chwili, kiedy tylko łącze jest wolne, dzięki czemu czas oczekiwania na możliwość transmisji jest w większości przypadków bardzo krótki.
Ethernet, podobnie jak i inne metody oparte na dostępie rywalizacyjnym, jest jednak efektywny jedynie w zakresie stosunkowo niewielkich obciążeń sieci. W przypadku, gdy ilość danych zlecanych do wysłania przez różne stacje wzrasta, rośnie prawdopodobieństwo kolizji i coraz większa część maksymalnej przepustowości sieci (10 Mbps) jest tracona na retransmisje. Dlatego, chociaż w większości przypadków transmisja zachodzi sprawnie, w sieciach tego typu nigdy nie można zagwarantować minimalnego okresu czasu, w którym transmisja zostanie zrealizowana (ani czy w ogóle zostanie zrealizowana). Takie sieci nie nadają się do transmisji głosu, wideo ani sterowania układami pracującymi w czasie rzeczywistym. Mówimy, że Ethernet nie jest siecią izochroniczną.

Arcnet
Alternatywą w stosunku do rywalizacyjnej metody dostępu do medium jest metoda przekazywania uprawnienia (token passing). Jeden z wariantów tej metody został zastosowany w sieci Arcnet. Arcnet jest przykładem standardu sieciowego, który określamy jako standard de facto, bowiem mimo swojej dużej popularności nigdy nie został oficjalnie uznany za żadną organizację zajmującą się standaryzacją. W sieci tego typu między poszczególnymi stacjami przekazywane jest uprawnienie, zwane również żetonem, znacznikiem lub tokenem.
W sieci Arcnet każda stacja musi znać adres następnika, któremu ma przekazać uprawnienie. Kolejność przekazywania uprawnienia między stacjami nie ma związku z fizyczną topologią sieci - metoda ta może być stosowana w przypadku topologii liniowej, gwiaździstej czy drzewiastej. Kolejne stacje, między którymi jest przekazywany żeton, tworzą więc pierścień logiczny a nie, jak w przypadku sieci typu token ring, pierścień fizyczny. Adres stacji w sieci Arcnet ustala użytkownik ustawiając przełączniki na karcie sieciowej. Jest to adres ośmiobitowy, a więc dostępna przestrzeń adresowa jest stosunkowo niewielka.
Oczywistą zaletą Arcnetu i innych metod opartych na przekazywaniu uprawnienia jest możliwość wyeliminowania zjawiska kolizji w warunkach normalnej pracy sieci. Dzięki temu sieć może sprawnie funkcjonować nawet w sytuacji silnego przeciążenia, gwarantując przewidzianą przez standard szybkość transmisji 2,5 Mbps. Poza tym jest to sieć izochroniczna, w przypadku której z góry można obliczyć maksymalny czas oczekiwania przez daną stację na możliwość nadawania. Wadą Arcnetu jest konieczność wprowadzenia dodatkowych typów ramek, służących wyłącznie do organizowania pracy sieci. Muszą być również stosowane stosunkowo skomplikowane procedury służące do zestawienia pierścienia logicznego. Każde wyłączenie stacji pracującej w sieci lub włączenie nowej prowadzi do zaburzenia normalnej pracy sieci i konieczności odtwarzania pierścienia. Praca sieci jest również mało efektywna w warunkach małego obciążenia - żeton musi być przekazywany kolejno wszystkim stacjom, bez względu na to, czy w danej chwili mają coś do nadania.

SIEĆ ROZLEGŁA TYPU INTERNET
Od dwóch, trzech lat jesteśmy świadkami gwałtownego rozwoju sieci Internet w Polsce. Na świecie rozwój ten trwa od prawie 30 lat. Chociaż Internet jest znany i używany w naszym kraju od początku lat dziewięćdziesiątych, to jednak dopiero teraz częściej zauważane są możliwości i zalety wynikające z korzystania z Internetu w działalności instytucji - zarówno przedsiębiorstw, jak i placówek niekomercyjnych, w tym także bibliotek i ośrodków informacji. Podobnie jak na całym świecie, początkowo rozwój tej sieci w Polsce związany był jedynie z ośrodkami akademickimi, gdzie wykorzystywano ją do wymiany informacji w celach naukowych oraz prowadzenia obliczeń na komputerach dużej mocy znajdujących się w innych ośrodkach, miastach lub krajach.
Internet można również traktować jako olbrzymią pamięć masową przechowującą ogromne ilości informacji w postaci tekstowej, graficznej lub dźwiękowej. Sieć daje możliwość łatwego dostępu do dokumentów o przeróżnej tematyce, do publikacji książek, przewodników i katalogów. Dzięki stronom WWW (ang. World Wide Web) możliwe jest prezentowanie informacji w sposób czytelny dla użytkownika, pozwalający na łatwe i szybkie docieranie do potrzebnych danych. Witryny - strony prezentujące instytucje lub osoby prywatne - oprócz tekstu mogą zawierać również zdjęcia, rysunki, muzykę.

Internet (sieć sieci o światowym zasięgu)
W niektórych dziedzinach działalności powoli staje się oczywiste, że sprawne posługiwanie się INTERNETEM - znajomość jego zasobów, usług i sposobów czerpania z niego korzyści już niedługo będą niezbędnymi warunkami efektywnej pracy każdego menedżera.
Stosowanie tego medium dostępu i przekazu informacji oraz szybkie wykorzystanie nowych możliwości sieci, staje się koniecznością ! Wraz ze wzrostem tempa życia i pracy jest to więc szybki nośnik informacji - zmniejszający czas przepływu informacji niezbędnej do procesów decyzyjnych i dlatego Internet stał się nie tyle narzędziem, lecz zjawiskiem - bytem podobnym do telewizji, radia, prasy - a więc mediów elektronicznych, a więc środkiem masowego przekazu.
Przyczyną wielkiego rozwoju lokalnych sieci komputerowych w latach osiemdziesiątych było dążenie do umożliwienia użytkownikom komputerów osobistych wzajemnego udostępnienia swoich zasobów. Obecnie to już nie wystarcza i wymaga się, aby sieci komputerowe zapewniały usługi komunikacyjne w skali globalnej. Sieci lokalne łączy się więc ze sobą - w ten sposób powstają sieci o dużym zasięgu, takie jak sieci metropolitalne i sieci rozległe. Przeszkodą, którą trzeba pokonać przy łączeniu różnych sieci, jest duża i stale rosnąca liczba stosowanych technologii sieciowych. Obok technologii tradycyjnych, takich jak Ethernet, Token Ring czy Arcnet, w ostatnich latach pojawiły się technologie FDDI, ATM, Fast Ethernet, Frame Relay, ISDN (Integrated Services Digital Network) i inne. Żadna z tych technologii nie spełnia jednak wszystkich wymagań. W wielu przypadkach względy ekonomiczne decydują o utrzymywaniu sieci zrealizowanej w starszej technologii, o ile tylko działa dobrze - dotyczy to zwłaszcza sieci lokalnych. |Równie istotnym problemem przy łączeniu sieci jest jednak i to, że nie sposób wymagać od zwykłych użytkowników sieci, aby znali się choćby w podstawowym zakresie na tych wszystkich technologiach sieciowych. Chodzi więc o to, aby struktura heterogeniczna, jaką jest system połączonych ze sobą sieci zrealizowanych w różnych technologiach, z punktu widzenia zwykłego użytkownika przedstawiała się jak zwykła homogeniczna sieć. Koncepcja tworzenia tego typu struktur określana jest nie mającym polskiego odpowiednika terminem internetworking. Tworzone w ten sposób struktury określane są terminem „intersieci” - internetwork lub w skrócie internet.
Poszczególne sieci wchodzące w skład intersieci połączone są ruterami, realizującymi funkcję kierowania pakietów przesyłanych między tymi sieciami. Najbardziej spektakularnym przykładem intersieci jest ogólnoświatowa sieć Internet, wywodząca się z sieci ARPANET.

Protokół TCP/IP
Podstawą funkcjonowania Internetu jest współpraca wszystkich połączonych sieci fizycznych zgodnie z przyjętym zestawem protokołów. Ten zestaw protokołów określany jest skrótem TCP/IP od nazw dwóch najważniejszych spośród tych protokołów: Protokołu Intersieci IP (Internet Protocol) oraz Protokołu Sterowania Transmisją TCP (Transmission Control Protocol).
Podobnie jak poszczególne komputery w przypadku zwykłej sieci komputerowej, z punktu widzenia protokołów TCP/IP wszystkie sieci wchodzące w skład Internetu są autonomiczne i równoprawne bez względu na ich wielkość, technologię i inne parametry.
Poszczególne elementy sieci mogą pracować pod kontrolą różnych systemów operacyjnych, - jednakże w ramach Internetu komunikują się jednym wspólnym protokołem TCP/IP (Transmission Control Protocol / Internet Protocol ) są to reguły przesyłania informacji w sieciach - wprowadza się więc STANDARD, który stanowi coś w rodzaju uniwersalnego języka konwersacji pomiędzy komputerami.
Protokół TPC - steruje ruchem pakietów (porcji danych) w sieci i umożliwia:
• ochronę przed zagubieniem,
• sprawdzenie czy dotarły do celu,
• porządkuje w takiej kolejności w jakiej zostały wysłane.

PROTOKÓŁ IP - jest tą częścią protokołu komunikacyjnego, która odpowiada za przesyłanie po sieci datagramów (w pewnym przybliżeniu możemy określić datagram jako pakiet zaopatrzony w adres). Wędruje więc po sieci, aż do momentu znalezienia adresata. Dopuszczalna jest dowolna trasa - wcale nie musi być najkrótsza.
Autorzy tak skonstruowanego protokołu orzekli, że datagram musi trafić do konkretnego urządzenia w sieci Internet, a zatem wszystkie urządzenia muszą posiadać unikatowy w skali całego Internetu identyfikator. Takim identyfikatorem jest adres IP
Adres IP jest 32-bitową (4 bajtową) liczbą,
Liczba ta zawiera określenie wskazujące jednoznacznie zarówno konkretny komputer jak i sieć,
Adres składa się więc z dwóch części:
- numeru sieci
- numeru komputera.
Obie części muszą być zapisane w jednym ciągu. Adres zapisywany jest w formie czterech liczb, oddzielonych od siebie kropkami np. 193.121.58.184 i taki numer może mieć tylko jeden komputer. Adresy IP nadają wyspecjalizowane instytucje. W przypadku połączenia się z serwerem poprzez modem, komputer otrzymuje automatycznie na czas połączenia swój adres z puli, którą posiada dostarczyciel usług internetowych (Internet Provident) czyli ten kto zarządza serwerem i umożliwia podłączenie się do niego innym użytkownikom którzy poprzez ten serwer chcą uzyskać dostęp do Internetu.
Adres IP identyfikuje sieć i komputer w tej sieci. Ze względu na kombinację tych dwóch elementów wyróżnia się trzy klasy adresów:
1. KLASA A - adres rozpoczyna się liczbą 1 do
126 (może zaadresować 126 sieci i ponad 16,5 miliona komputerów); 2. KLASA B - adres rozpoczyna się liczbą 128 do 191 (może zaadresować 16 tysięcy sieci i 65 tysięcy komputerów);
3. KLASA C - adres rozpoczyna się liczbą 192 do 223 (może zaadresować ponad 2 miliony sieci i 254 komputery).
Adres oznaczony liczbą 127 jest zarezerwowany jako oznaczenie lokalnego komputera. W celu uproszczenia zapamiętywania adresów, - liczby zostały zastąpione ciągiem symboli - DOMEN.

WWW - nowa jakość
W 1992 roku powstał pomysł utworzenia WWW (ang. World Wide Web). Po Internecie przetoczyła się dyskusja na temat potrzeby istnienia takiego tworu. Tym razem nie użyto angielskiego słowa „net” (sieć), lecz „web” (pajęczyna), gdyż obecnie struktura połączeń Internetu bardziej przypomina pajęczynę niż regularną sieć. Wcześniej przedstawione narzędzia są bardzo pomocne i dają duże możliwości, ale nie są zbyt łatwe w obsłudze. Utworzeniu WWW towarzyszyła chęć udostępnienia zasobów i możliwości Internetu wszystkim, poprzez stworzenie bardzo przyjaznego dla użytkownika środowiska. Wielką zaletą WWW okazał się brak konieczności znajomości i pamiętania adresów różnych komputerów, wystarczy by użytkownik znał tylko adres początkowego komputera, a do następnych może przechodzić za pomocą myszy. Bardzo istotne było praktyczne zintegrowanie w WWW usług gopher i ftp. Również wszystkie pozostałe usługi wyszukiwawcze są dostępne w ramach WWW. Powstały przeglądarki sieciowe pozwalające poruszać się po świecie Internetu za pomocą urządzenia sterującego „myszy”. Ważną ich zaletą jest graficzna, przejrzysta forma prezentacji oraz możliwość równie łatwego przekazywania informacji tekstowej i graficznej. Ponadto przeglądarki mają możliwość kopiowania plików tak jak ftp, tyle że w znacznie wygodniejszy dla użytkownika sposób. Przeglądarki często zawierają obsługę poczty elektronicznej i systemu wiadomości. Możliwe jest też uruchamianie aplikacji obsługujących telnet. Najpopularniejsze przeglądarki stron WWW to HotJava, Microsoft Internet Explorer, Netscape Navigator i NCSA Mosaic.
Poruszanie się po stronach WWW polega na przechodzeniu przez kolejne strony WWW, które zawierają połączenia do innych stron znajdujących się na różnych komputerach, rozproszonych po Internecie. Strony WWW są dokumentami tekstowymi i tworzone są w specjalnym języku HTML (ang. Hyper Text Mark-Up Language), który jest prostym zestawem poleceń do formatowania tekstu. Taka strona może zostać przygotowana na dowolnym komputerze, nawet w trybie tekstowym, i z łatwością udostępniona innym użytkownikom sieci. Język HTML pozwala formować tekst, włączać do niego grafikę, odwołania do innych stron WWW, polecenia wysyłania poczty, kopiowania plików, itd.
Aby ułatwić podróżowanie po zasobach informacyjnych Internetu, w kilku miejscach powstały specjalne katalogi stron WWW, nazywane też „silnikami wyszukiwawczymi” (ang. search engines). Umożliwiają one wyszukiwanie miejsc w Internecie, w których znajdują się poszukiwane informacje. Wyszukanie realizowane jest na podstawie podanych przez użytkownika słów kluczowych. Najpopularniejszymi wyszukiwarkami są AltaVista (altavista.digital.com), InfoSeek (www.infoseek.com), Lycos (www.lycos.com), WebCrawler (www.webcrawler.com) i Yahoo (www.yahoo.com). Istnieją też polskie wyszukiwarki WWW, zawierające informacje o polskich zasobach. Między innymi należą do nich Sieciowid (sieciowid.pol.pl.) i Wirtualna Polska (wp.cnt.pl.).
Do zasobów WWW należą praktycznie wszystkie zasoby Internetu: - płatne i bezpłatne bazy danych, zawierające informacje tak różnorodne, jak różnorodne są instytucje i osoby korzystające z Internetu; jedną z nich jest baza danych Wspólnoty Europejskiej „Echo and Eurobases”;
- archiwa dokumentów o bardzo szerokim zakresie, od zbiorów odpowiedzi na najczęstsze pytania z danej dziedziny (ang. FAQ - frequently asked questions), poprzez już opublikowane prace naukowe, do gotowych wydawnictw (na przykład gazety);
- archiwa i biblioteki programów freeware i shareware, które mogą być kopiowane na zasadach odpowiednich licencji; - punkty informacyjne krajów i różnych organizacji, które dostarczają zwykle podstawowe informacje o kraju, strukturze administracyjnej, szkolnictwie, itd.;
- punkty informacji turystycznej, zawierające informacje dotyczące krajów, regionów i miast: na przykład mapy miast, parków i ogrodów, zaproszenia do muzeów (wraz z krótką wycieczką po nich), informacje o pogodzie itp.;
- sklepy i witryny informujących o sobie firm, często umożliwiające złożenie zamówienia na oferowane towary i usługi.

System nazw DNS
Komunikujące się komputery stosują zawsze liczbowe adresy IP. Ponieważ posługiwanie się nimi jest dla ludzi niewygodne, opracowano tzw. system nazw domenowych (dziedzinowych) - DNS (Domain Name System), który równolegle do systemu adresów IP zapewnia jednoznaczną identyfikację komputera w skali całego Internetu. Oczywiście w związku z tym konieczne jest istnienie sprawnego mechanizmu zapewniającego niezawodne przekładanie nazw domenowych na adresy IP. System realizujący tę funkcję działa w oparciu o tzw. serwery nazw, których łączne zasoby tworzą globalną, rozproszoną bazę danych.
Nazwy domenowe komputerów składają się z kilku części oddzielonych kropkami.
HTTP://WWW.WSZIM.EDU.PL.
Nazwa domenowa jest nazwą hierarchiczną, przy czym hierarchia maleje w lewo. W podanym przykładzie PL oznacza domenę polską, EDU wyróżnik branżowy, zaś WSZiM - konkretny komputer należący do domeny WSZiM.EDU.PL. Na samym szczycie hierarchii domen są domeny określające przynależność do danego kraju albo do organizacji określonego typu (Rys. 1). W obrębie tych domen tworzy się kolejno poddomeny coraz niższych poziomów, których hierarchiczny układ odwzorowuje określone zależności geograficzne lub organizacyjne.
Usługi Internetu
- Architektura klient-serwer
Internet jest siecią udostępniającą każdemu użytkownikowi ogromną ilość zasobów informacyjnych. Zasoby te są dostępne poprzez cały szereg rozmaitych usług. Poniżej zostały pokrótce omówione niektóre z nich. Jakkolwiek usługi oferowane w Internecie są bardzo zróżnicowane, ich wspólną cechą jest charakterystyczny model architektury oprogramowania, określanej jako architektura klient-serwer. Idea architektury klient-serwer polega na podzieleniu aplikacji realizującej daną usługę na dwie części: część odpowiedzialną za sformułowanie polecenia wykonania określonego zadania, zwaną klientem, oraz część mającą to zadanie zrealizować, zwaną serwerem. Obie części mogą być zlokalizowane na różnych komputerach połączonych poprzez sieć. Najczęściej występuje wiele serwerów realizujących daną usługę, rozproszonych po całym świecie i obsługujących poszczególne regiony.

Usługi podstawowe Spośród wielu usług w Internecie usługami o charakterze podstawowym, w oparciu o które realizowane są inne, są:
• Zdalne logowanie (telnet).
• Transfer plików (FTP).
• Poczta elektroniczna (e-mail).

Zdalne logowanie (telnet)
Telnet jest usługą umożliwiającą dostęp do odległego komputera poprzez utworzenie wirtualnego terminala. Dzięki temu użytkownik może korzystać z odległego systemu tak, jakby bezpośrednio zasiadał za jego konsolą - wprowadzane przez niego z klawiatury polecenia są przesyłane do odległego komputera, a wyniki przetwarzania informacji są wyświetlane na jego ekranie. Użytkownik korzystający ze zdalnego systemu musi posiadać na nim konto, tzn. w systemie tym w odpowiednich plikach musi być zawarta o nim odpowiednia informacja. W momencie otwierania sesji użytkownik jest proszony o podanie swojego identyfikatora, a następnie hasła potwierdzającego tożsamość. W Internecie istnieje także wiele systemów pozwalających na otwieranie zdalnej sesji użytkownikom nie posiadającym kont indywidualnych, w celu skorzystania z określonej usługi. Przykładem są systemy biblioteczne, pozwalające na zdalny dostęp do katalogów bibliotek.

Transfer plików (FTP)
FTP to protokół przesyłania plików (File Transfer Protocol). Aby rozpocząć sesję FTP należy podać identyfikator i hasło. W Internecie możemy spotkać tzw. serwery anonimowego FTP, które publicznie udostępniają swoje zasoby.

Poczta elektroniczna (e-mail)
E-mail to bardzo popularna usługa, dzięki której możliwe jest przesyłanie wiadomości tekstowych między użytkownikami. Aby możliwa stała się komunikacja za pomocą poczty, konieczne jest założenie własnego konta pocztowego. Użytkownicy zawsze otrzymają wysłane do nich wiadomości, nawet jeśli nie pracują przy komputerze w momencie wysłania.

 

Informacje umieszczone powyżej pochodzą ze strony: http://www.informawpigulce.ovh.org

Na stronie zamieściła Izabela Warchoł