Historia sieci WWW. Sieć ogólnoświatowa. światowa sieć informacyjna
Sieć WWW (WWW)
Sieć ogólnoświatowa(Język angielski) ogólnoświatowa sieć) to system rozproszony, który zapewnia dostęp do powiązanych ze sobą dokumentów znajdujących się na różne komputery Podłączony do internetu . Słowo sieć jest również używane w odniesieniu do sieci WWW. sieć„sieć”) i skrót www. Sieć WWW to największe na świecie wielojęzyczne repozytorium informacji. w formie elektronicznej: dziesiątki milionów powiązanych ze sobą dokumentów, które znajdują się na komputerach rozmieszczonych na całym świecie. Jest uważana za najpopularniejszą i najbardziej interesującą usługę w Internecie, która umożliwia dostęp do informacji niezależnie od jej lokalizacji. Aby poznać wiadomości, dowiedzieć się czegoś lub po prostu dobrze się bawić, ludzie oglądają telewizję, słuchają radia, czytają gazety, czasopisma, książki. World Wide Web oferuje również swoim użytkownikom audycje radiowe, informacje wideo, prasę, książki, ale z tą różnicą, że to wszystko można uzyskać bez wychodzenia z domu. Nie ma znaczenia w jakiej formie prezentowane są interesujące Cię informacje ( Dokument tekstowy, zdjęcie, wideo lub klip dźwiękowy) i gdzie te informacje są zlokalizowane geograficznie (w Rosji, Australii lub na Wybrzeżu Kości Słoniowej) - otrzymasz je w ciągu kilku minut na swój komputer.
Sieć WWW składa się z setek milionów serwerów WWW. Większość zasobów w sieci WWW to hiperteksty. Dokumenty hipertekstowe publikowane w sieci WWW nazywane są stronami internetowymi. Kilka stron internetowych, połączonych wspólnym tematem, projektem, a także połączonych linkami i zwykle znajdujących się na tym samym serwerze internetowym, nazywa się witryną internetową. Służy do pobierania i przeglądania stron internetowych programy specjalne- przeglądarki. Sieć WWW spowodowała prawdziwą rewolucję w technologia informacyjna i boom w rozwoju Internetu. Często mówiąc o Internecie, mają na myśli sieć WWW, ale ważne jest, aby zrozumieć, że to nie to samo.
Historia sieci WWW
Tim Berners-Lee i, w mniejszym stopniu, Robert Cayo są uważani za wynalazców World Wide Web. Tim Berners-Lee jest autorem technologii HTTP, URI/URL i HTML. W 1980 pracował dla Europejskiej Rady Badań Jądrowych (fr. Conseil Européen pour la Recherche Nucléaire, CERN) jako konsultant ds. oprogramowania. To właśnie tam, w Genewie (Szwajcaria), napisał na własny użytek program Inquire, który wykorzystywał losowe skojarzenia do przechowywania danych i położył podwaliny koncepcyjne dla sieci WWW.
W 1989 roku, pracując w CERN nad intranetem organizacji, Tim Berners-Lee zaproponował globalny projekt hipertekstowy, obecnie znany jako World Wide Web. Projekt obejmował publikację dokumentów hipertekstowych połączonych ze sobą hiperłączami, co ułatwiłoby naukowcom z CERN wyszukiwanie i konsolidację informacji. Aby wdrożyć projekt, Tim Berners-Lee (wraz ze swoimi asystentami) wymyślił URI, protokół HTTP i język HTML. To technologie, bez których nie sposób już sobie wyobrazić współczesnego Internetu. W latach 1991-1993 firma Berners-Lee udoskonaliła specyfikacje techniczne tych norm i opublikowała je. Niemniej jednak rok 1989 należy uznać za oficjalny rok narodzin sieci WWW.
W ramach projektu Berners-Lee napisał pierwszy na świecie serwer WWW httpd i pierwszą na świecie hipertekstową przeglądarkę internetową o nazwie WorldWideWeb. Ta przeglądarka była również edytorem WYSIWYG (skrót od What You See Is What You Get - co widzisz to co dostajesz), jej tworzenie rozpoczęto w październiku 1990 roku i zakończono w grudniu tego samego roku. Program działał w środowisku NeXTStep i zaczął rozprzestrzeniać się w Internecie latem 1991 roku.
Pierwsza na świecie strona internetowa była hostowana przez Berners-Lee 6 sierpnia 1991 roku na pierwszym serwerze sieciowym, dostępnym pod adresem http://info.cern.ch/. Zasób zdefiniował pojęcie World Wide Web, zawierał instrukcje dotyczące instalacji serwera WWW, korzystania z przeglądarki itp. Strona ta była także pierwszym na świecie katalogiem internetowym, ponieważ później Tim Berners-Lee umieścił i utrzymywał listę linków do innych strony tam.
Od 1994 roku konsorcjum World Wide Web Consortium (W3C), założone i nadal kierowane przez Tima Bernersa-Lee, przejęło główne prace nad rozwojem sieci World Wide Web. Konsorcjum to organizacja, która opracowuje i wdraża standardy technologiczne dla Internetu i sieci WWW. Misja W3C: „Uwolnij pełen potencjał sieci WWW, tworząc protokoły i zasady, które gwarantują rozwój długoterminowy Sieci. Pozostałe dwa główne cele konsorcjum to zapewnienie pełnej „internacjonalizacji sieci” oraz udostępnienie sieci osobom niepełnosprawnym.
W3C opracowuje wspólne zasady i standardy dla Internetu (tzw. „rekomendacje”, ang. W3C Rekomendacje), które są następnie wdrażane przez producentów oprogramowania i sprzętu. W ten sposób uzyskuje się kompatybilność oprogramowania i sprzętu różnych firm, dzięki czemu sieć WWW jest doskonalsza, wszechstronniejsza i wygodniejsza. Wszystkie rekomendacje World Wide Web Consortium są otwarte, to znaczy nie są chronione patentami i mogą być wdrażane przez każdego bez żadnego wkładu finansowego do konsorcjum.
Struktura i zasady World Wide Web
Sieć WWW składa się z milionów internetowych serwerów WWW zlokalizowanych na całym świecie. Serwer WWW to program, który działa na komputerze podłączonym do sieci i używa protokołu HTTP do przesyłania danych. W najprostszej postaci taki program odbiera żądanie HTTP dla określonego zasobu przez sieć, znajduje odpowiedni plik na lokalnym dysku twardym i wysyła go przez sieć do żądającego komputera. Bardziej zaawansowane serwery internetowe są w stanie dynamicznie generować dokumenty w odpowiedzi na żądanie HTTP przy użyciu szablonów i skryptów.
Aby wyświetlić informacje otrzymane z serwera WWW na komputer kliencki używany jest specjalny program - przeglądarka internetowa. Główną funkcją przeglądarki internetowej jest wyświetlanie hipertekstu. Sieć WWW jest nierozerwalnie związana z pojęciami hipertekstu i hiperłączy. Wiele informacji w sieci to hiperteksty.
Aby ułatwić tworzenie, przechowywanie i wyświetlanie hipertekstu w sieci WWW, tradycyjnie używany jest język HTML (HyperText Markup Language, „Hypertext Markup Language”). Praca polegająca na tworzeniu (zaznaczaniu) dokumentów hipertekstowych nazywana jest layoutem, jest wykonywana przez webmastera lub osobnego specjalistę ds. znaczników - projektanta layoutu. Po oznaczeniu HTML wynikowy dokument jest zapisywany do pliku, a takie pliki HTML są głównym typem zasobów w sieci WWW. Gdy plik HTML zostanie udostępniony na serwerze sieciowym, jest on określany jako „strona internetowa”. Zestaw stron internetowych tworzy witrynę internetową.
Hipertekst stron internetowych zawiera hiperłącza. Hiperłącza pomagają użytkownikom sieci WWW łatwo nawigować między zasobami (plikami), niezależnie od tego, czy zasoby znajdują się na lokalny komputer lub w zdalny serwer. Adres URL (Uniform Resource Locator) służy do lokalizowania zasobów w sieci WWW. Na przykład pełny adres URL strona główna Rosyjska sekcja Wikipedii wygląda tak: http://ru.wikipedia.org/wiki/Strona_główna. Takie lokalizatory adresów URL łączą technologię identyfikacji URI (Uniform Resource Identifier) i system nazw domen (DNS). Nazwa domeny (w tym przypadku ru.wikipedia.org) jako część adresu URL odnosi się do komputera (a dokładniej jednego z jego interfejsów sieciowych), który wykonuje kod żądanego serwera WWW. Adres URL bieżącej strony można zwykle zobaczyć w pasku adresu przeglądarki, chociaż wiele nowoczesne przeglądarki wolę tylko pokazywać Nazwa domeny aktualna witryna.
Technologie WWW
Aby poprawić wizualną percepcję sieci, szeroko stosuje się technologię CSS, która pozwala na ustawienie jednolitych stylów projektowania dla wielu stron internetowych. Kolejną innowacją, na którą warto zwrócić uwagę, jest system nazewnictwa zasobów URN (Uniform Resource Name).
Popularną koncepcją rozwoju sieci WWW jest tworzenie sieci semantycznej. Sieć semantyczna to dodatek do istniejącej sieci World Wide Web, którego celem jest uczynienie informacji publikowanych w sieci bardziej zrozumiałymi dla komputerów. Sieć semantyczna to koncepcja sieci, w której każdy zasób w ludzkim języku byłby opatrzony opisem zrozumiałym dla komputera. Sieć semantyczna otwiera dostęp do przejrzystej struktury informacji dla dowolnej aplikacji, niezależnie od platformy i języka programowania. Programy będą mogły znaleźć odpowiednie zasoby przetwarzać informacje, klasyfikować dane, identyfikować logiczne zależności, wyciągać wnioski, a nawet podejmować decyzje na podstawie tych wniosków. Jeśli zostanie dobrze przyjęta i dobrze zaimplementowana, Sieć Semantyczna może zrewolucjonizować Internet. Do tworzenia przyjaznego dla komputera opisu zasobu w sieci semantycznej używany jest format RDF (Resource Description Framework), który jest oparty na składni XML i używa identyfikatorów URI do oznaczania zasobów. Nowością w tej dziedzinie są RDFS (RDF Schema) i SPARQL (Protocol And RDF Query Language) (wymawiane „blask”), nowy język zapytań dla szybki dostęp do danych RDF.
Podstawowe terminy używane w sieci WWW
Praca z przeglądarką
Dziś, dziesięć lat po wynalezieniu protokołu HTTP, który stanowił podstawę World Wide Web, przeglądarka jest najbardziej zaawansowanym oprogramowaniem, które łączy w sobie łatwość obsługi i bogactwo funkcji.
Przeglądarka otwiera przed użytkownikiem nie tylko świat hipertekstowych zasobów sieci WWW. Może również współpracować z innymi usługami sieciowymi, takimi jak FTP, Gopher, WAIS. Wraz z przeglądarką zazwyczaj instalowany jest na komputerze program do korzystania z usług poczty elektronicznej (e-mail) i wiadomości (wiadomości). W rzeczywistości przeglądarka jest głównym programem dostępu do usług internetowych. Dzięki niemu możesz uzyskać dostęp do prawie każdej usługi internetowej, nawet jeśli przeglądarka nie obsługuje tej usługi. W tym celu wykorzystywane są specjalnie zaprogramowane serwery internetowe, które łączą sieć WWW z tą usługą sieciową. Przykładem tego rodzaju serwerów internetowych jest wiele darmowych serwery pocztowe z interfejsem internetowym (patrz http://www.mail.ru)
Obecnie istnieje wiele programów przeglądarkowych stworzonych przez różne firmy. Najczęściej używane i rozpoznawane przeglądarki to Netscape Navigator i Internet Explorer. To właśnie te przeglądarki stanowią główną konkurencję między sobą, choć warto zauważyć, że programy te są pod wieloma względami podobne. To zrozumiałe, bo działają według tych samych standardów – standardów Internetu.
Praca z przeglądarką rozpoczyna się od tego, że użytkownik wpisuje w pasku adresu (adresie) adres URL zasobu, do którego chce uzyskać dostęp, i naciska klawisz Enter.
Przeglądarka wysyła żądanie do określonego serwera WWW. W miarę napływania z serwera elementów strony internetowej określonej przez użytkownika, stopniowo pojawia się ona w działającym oknie przeglądarki. Proces otrzymywania elementów strony z serwera wyświetlany jest w dolnej linii „statusu” przeglądarki.
Hiperłącza tekstowe zawarte na wynikowej stronie internetowej są zwykle wyróżnione innym kolorem niż reszta tekstu w dokumencie i podkreślone. Linki wskazujące na zasoby, których użytkownik jeszcze nie przeglądał, oraz linki do zasobów już odwiedzonych zazwyczaj mają inny kolor. Obrazy mogą również funkcjonować jako hiperłącza. Niezależnie od tego, czy link jest linkiem tekstowym, czy graficznym, jeśli najedziesz na niego myszą, zmieni się jego kształt. W tym samym czasie na pasku stanu przeglądarki pojawi się adres, do którego prowadzą linki.
Po kliknięciu hiperłącza przeglądarka otwiera zasób, na który wskazuje w oknie roboczym, podczas gdy poprzedni zasób jest z niego rozładowywany. Przeglądarka utrzymuje listę przeglądanych stron, a użytkownik, w razie potrzeby, może cofnąć się przez łańcuch przeglądanych stron. Aby to zrobić, kliknij przycisk „Wstecz” w menu przeglądarki - powróci do strony, którą oglądałeś przed otwarciem bieżącego dokumentu.
Za każdym razem, gdy klikniesz ten przycisk, przeglądarka cofnie się o jeden dokument na liście odwiedzanych dokumentów. Jeśli nagle cofniesz się za daleko, użyj przycisku „Dalej” w menu przeglądarki. Pomoże Ci przejść dalej na liście dokumentów.
Przycisk „Stop” zatrzyma ładowanie dokumentu. Przycisk „Odśwież” umożliwia ponowne załadowanie bieżącego dokumentu z serwera.
Przeglądarka w swoim oknie może wyświetlić tylko jeden dokument: aby wyświetlić inny dokument, usuwa poprzedni. O wiele wygodniej jest pracować w kilku oknach przeglądarki jednocześnie. Otwarcie nowego okna odbywa się za pomocą menu: Plik - Nowy - Okno (lub kombinacji klawiszy Ctrl + N).
Praca z dokumentem
Przeglądarka umożliwia wykonanie zestawu standardowych operacji na dokumencie. Załadowaną do niego stronę internetową można wydrukować (w Internet Explorerze robi się to za pomocą przycisku „Drukuj” lub z menu: Plik - Drukuj...), zapisać na dysku (menu: Plik - Zapisz jako...). Możesz znaleźć interesujący Cię fragment tekstu na załadowanej stronie. W tym celu skorzystaj z menu: Edytuj - Znajdź na tej stronie.... A jeśli zastanawiasz się, jak to wygląda ten dokument w hipertekście źródłowym przetwarzanym przez przeglądarkę wybierz z menu: Widok - Jako HTML.
Gdy użytkownik podczas przeglądania Internetu znajdzie stronę, która go szczególnie interesuje, używa możliwości przeglądarki do ustawiania zakładek (podobnie jak zakładki, które oznaczają interesujące go miejsca w książce).
Odbywa się to za pomocą menu: Ulubione - Dodaj do ulubionych. Nowa zakładka pojawi się następnie na liście zakładek, którą można wyświetlić, klikając przycisk Ulubione na pasku przeglądarki lub w menu Ulubione.
Istniejące zakładki można usuwać, modyfikować, organizować w foldery za pomocą menu: Ulubione — Organizuj ulubione.
Pracuj przez serwer proxy
Netscape Navigator i Microsoft Internet Explorer zapewniają również mechanizm osadzania dodatkowe funkcje niezależnych producentów. Moduły rozszerzające możliwości przeglądarki nazywane są wtyczkami (wtyczkami).
Przeglądarki działają na komputerach z różnymi systemami operacyjnymi. Daje to podstawy do mówienia o niezależności sieci World Wide Web od typu komputera, z którego korzysta użytkownik i system operacyjny.
Wyszukiwanie informacji w Internecie
W ostatnie czasy World Wide Web jest postrzegany jako nowe potężne środki masowego przekazu, których odbiorcami jest najbardziej aktywna i wykształcona część populacji planety. Ta wizja odpowiada rzeczywistemu stanowi rzeczy. W dniach znaczących wydarzeń i wstrząsów obciążenie węzłów wiadomości sieciowych drastycznie wzrasta; w odpowiedzi na zapotrzebowanie czytelników natychmiast pojawiają się zasoby poświęcone incydentowi, który właśnie się wydarzył. Tak więc, podczas sierpniowego kryzysu 1998 r., wiadomości pojawiły się na stronie internetowej firmy telewizyjnej i radiowej CNN (http://www.cnn.com) znacznie wcześniej, niż zostały ogłoszone. rosyjskie fundusześrodki masowego przekazu. W tym samym czasie szeroko znany stał się serwer RIA RosBusinessConsulting (http://www.rbc.ru), który dostarcza świeżych informacji z rynków finansowych i najnowszych wiadomości. Wielu Amerykanów oglądało głosowanie w sprawie impeachmentu przeciwko prezydentowi USA Billowi Clintonowi w Internecie, a nie na ekranach telewizorów. Rozwój wojny w Jugosławii znalazł również natychmiastowe odzwierciedlenie w różnorodnych publikacjach odzwierciedlających najróżniejsze punkty widzenia na ten konflikt.
Wiele osób zaznajomionych z Internetem ze słyszenia uważa, że w sieci można znaleźć wszelkie informacje. Dzieje się tak w tym sensie, że można natknąć się na najbardziej nieoczekiwane zasoby w formie i treści. Rzeczywiście, nowoczesna sieć jest w stanie zaoferować swoim użytkownikom wiele informacji o różnych profilach. Tutaj możesz zapoznać się z nowościami, spędzić ciekawy czas, uzyskać dostęp do różnorodnych materiałów referencyjnych, encyklopedycznych i Informacja edukacyjna. Trzeba tylko podkreślić, że chociaż ogólna wartość informacyjna Internetu jest bardzo wysoka, to sama przestrzeń informacyjna jest jakościowo niejednorodna, ponieważ zasoby są często tworzone w pośpiechu. Jeżeli przy przygotowywaniu publikacji papierowej jej tekst jest zwykle czytany przez kilku recenzentów i dokonywane są w nim poprawki, to w sieci zwykle nie ma tego etapu procesu wydawniczego. Ogólnie więc informacje zaczerpnięte z Internetu należy traktować z nieco większą ostrożnością niż informacje zawarte w publikacji drukowanej.
Jednak obfitość informacji ma: zła strona: wraz ze wzrostem ilości informacji coraz trudniej jest znaleźć informacje, które są potrzebne w ten moment. Dlatego głównym problemem, który pojawia się podczas pracy z Siecią, jest szybkie znalezienie niezbędnych informacji i zrozumienie ich, ocena wartości informacyjnej danego zasobu dla własnych celów.
Aby rozwiązać problem ze znalezieniem niezbędnych informacji w Internecie, istnieje osobny rodzaj usługi sieciowej. Mówimy o wyszukiwarkach lub wyszukiwarkach.
Serwery wyszukiwania są dość liczne i zróżnicowane. Zwyczajowo rozróżnia się indeksy wyszukiwania i katalogi.
Serwery indeksowe działają w następujący sposób: regularnie czytaj zawartość większości stron internetowych ("indeksuj" je) i umieszczaj je w całości lub w części we wspólnej bazie danych. Użytkownicy serwera wyszukiwania mają możliwość przeszukiwania tej bazy danych za pomocą słowa kluczowe związane z interesującym ich tematem. Wydawanie wyników wyszukiwania zazwyczaj składa się z fragmentów stron polecanych do zwrócenia uwagi użytkownika oraz ich adresów (URL), ułożonych w formie hiperłączy. Wygodnie jest pracować z tego typu serwerami wyszukiwania, jeśli istnieje jasne pojęcie o temacie wyszukiwania.
Serwery katalogowe w rzeczywistości reprezentują one wielopoziomową klasyfikację linków, zbudowaną na zasadzie „od ogółu do szczegółu”. Czasami linkom towarzyszy krótki opis zasobu. Z reguły możliwe jest wyszukiwanie w tytułach nagłówków (kategorii) oraz opisach zasobów po słowach kluczowych. Katalogi są używane, gdy nie do końca wiedzą, czego szukają. Przechodząc od najbardziej ogólnych kategorii do bardziej szczegółowych, możesz określić, z jakim rodzajem zasobu internetowego powinieneś się zapoznać. Wskazane jest porównywanie katalogów wyszukiwania z tematycznymi katalogami bibliotecznymi lub klasyfikatorami. Obsługa katalogów wyszukiwania jest częściowo zautomatyzowana, ale do tej pory klasyfikacja zasobów odbywała się głównie ręcznie.
Katalogi wyszukiwania są powszechne przeznaczenie oraz specjalistyczne. Przeszukaj katalogi ogólny cel obejmują zasoby o różnych profilach. Wyspecjalizowane katalogi łączą tylko zasoby poświęcone konkretnemu tematowi. Często udaje im się osiągnąć lepsze pokrycie zasobów ze swojej dziedziny i zbudować bardziej adekwatne pozycje.
W ostatnim czasie intensywnie zintegrowano katalogi wyszukiwania ogólnego przeznaczenia i wyszukiwarki indeksujące, z powodzeniem łącząc ich zalety. Technologie wyszukiwania również nie stoją w miejscu. Tradycyjne serwery indeksujące przeszukują bazę danych w poszukiwaniu dokumentów zawierających słowa kluczowe w zapytaniu. Przy takim podejściu bardzo trudno jest ocenić wartość i jakość zasobu przekazanego użytkownikowi. Alternatywnym podejściem jest poszukiwanie takich stron internetowych, do których prowadzą linki z innych zasobów na ten temat. Im więcej łączy do strony istnieje w sieci, tym większe prawdopodobieństwo, że ją znajdziesz. Taki rodzaj metawyszukiwania jest przeprowadzany przez serwer wyszukiwania Google ( http://www.google.com/), który pojawił się całkiem niedawno, ale już sprawdził się dobrze.
Praca z serwerami wyszukiwania
Praca z serwerami wyszukiwania nie jest trudna. W pasku adresu przeglądarki wpisz jej adres, w ciągu zapytania wpisz w żądanym języku słowa kluczowe lub frazy odpowiadające zasobom lub zasobom sieci Web, które chcesz znaleźć. Następnie kliknij myszą przycisk „Szukaj” i pierwsza strona z wynikami wyszukiwania zostanie załadowana do działającego okna przeglądarki.
Zazwyczaj serwer wyszukiwania udostępnia wyniki wyszukiwania w małych porcjach, na przykład 10 na jedną stronę wyników wyszukiwania. Dlatego często zajmują więcej niż jedną stronę. Następnie pod listą polecanych linków pojawi się propozycja linku, który pozwoli przejść do następnej „części” wyników wyszukiwania (patrz rys.).
W idealnym przypadku zasób, którego szukasz, zostanie umieszczony przez wyszukiwarkę na pierwszej stronie wyników wyszukiwania, a żądany link natychmiast rozpoznasz po krótkim opisie. Jednak często konieczne jest przyjrzenie się kilku zasobom przed znalezieniem właściwego. Zazwyczaj użytkownik wyświetla je w nowych oknach przeglądarki bez zamykania okna przeglądarki zawierającego wyniki wyszukiwania. Czasami wyszukiwanie i przeglądanie znalezionych zasobów odbywa się w tym samym oknie przeglądarki.
Sukces wyszukiwania informacji zależy bezpośrednio od tego, jak kompetentnie wykonałeś zapytanie.
Rozważ prosty przykład. Załóżmy, że chcesz kupić komputer, ale nie wiesz, jakie modyfikacje istnieją dzisiaj i jakie są ich cechy. Aby uzyskać wymagane informacje, możesz skorzystać z Internetu, pytając wyszukiwarkę. Jeśli ustawimy słowo „komputer” w pasku wyszukiwania, wynikiem wyszukiwania będzie ponad 6 milionów (!) Linków. Oczywiście wśród nich są strony, które spełniają nasze wymagania, ale nie sposób znaleźć ich wśród tak dużej liczby.
Jeśli napiszesz „jakie modyfikacje komputerów istnieją dzisiaj”, serwer wyszukiwania zaoferuje wyświetlenie około dwustu stron, ale żadna z nich nie będzie ściśle odpowiadać żądaniu. Innymi słowy, zawierają pojedyncze słowa z zapytania, ale może w ogóle nie dotyczyć komputerów, ale powiedzmy o istniejących modyfikacjach pralki lub o liczbie komputerów dostępnych w magazynie firmy w danym dniu.
Ogólnie rzecz biorąc, nie zawsze można pomyślnie zadać pytanie serwerowi wyszukiwania za pierwszym razem. Jeśli zapytanie jest krótkie i zawiera tylko często używane słowa, można znaleźć wiele dokumentów, setki tysięcy i miliony. Wręcz przeciwnie, jeśli żądanie jest zbyt szczegółowe lub użyte w nim są bardzo rzadkie słowa, zobaczysz komunikat informujący, że w bazie danych serwera nie znaleziono zasobów pasujących do żądania.
Stopniowe zawężanie lub rozszerzanie zakresu wyszukiwania poprzez zwiększanie lub zmniejszanie listy słów kluczowych, zastępowanie nieudanych wyszukiwanych haseł lepszymi, pomoże poprawić wyniki wyszukiwania.
Oprócz liczby słów ważną rolę w zapytaniu odgrywa ich treść. Słowa kluczowe składające się na zapytanie są zwykle po prostu oddzielone spacjami. Należy pamiętać, że różne wyszukiwarki różnie to interpretują. Niektórzy z nich wybierają do takiego żądania tylko dokumenty zawierające wszystkie słowa kluczowe, czyli postrzegają spację w żądaniu jako logiczne łącze „i”. Niektórzy interpretują spację jako logiczne „lub” i szukają dokumentów, które zawierają przynajmniej jedno ze słów kluczowych.
Podczas tworzenia zapytania wyszukiwania większość serwerów umożliwia jawne określenie łączy logicznych, które łączą słowa kluczowe i ustawiają inne parametry wyszukiwania. Spójniki logiczne są zwykle oznaczane przez angielskie słowa„I”, „LUB”, „NIE”. Na różnych serwerach wyszukiwania przy tworzeniu rozszerzonego zapytania wyszukiwania używana jest inna składnia - tzw. język zapytań. Używając języka zapytań, możesz określić, które słowa muszą znaleźć się w dokumencie, a które nie, a które są pożądane (tzn. mogą, ale nie muszą).
Z reguły nowoczesne wyszukiwarki wykorzystują podczas wyszukiwania wszystkie możliwe formy wyrazów użytych słów. Oznacza to, że niezależnie od formy, w jakiej użyłeś słowa w zapytaniu, wyszukiwanie uwzględnia wszystkie jego formy zgodnie z zasadami języka rosyjskiego: na przykład, jeśli określono zapytanie „idź”, wyszukiwanie będzie znajdź linki do dokumentów zawierających słowa „iść”, „idzie”, „spacerował”, „spacerował” itp.
Zwykle na stronie tytułowej serwera wyszukiwania znajduje się link „Pomoc” (angielski „Pomoc”), za pomocą którego użytkownik może zapoznać się z regułami wyszukiwania i językiem zapytań używanym na tym serwerze.
Kolejny bardzo ważny punkt to wybór serwera wyszukiwania odpowiedniego do Twoich zadań. Jeśli szukasz konkretnego pliku, lepiej użyć wyspecjalizowanego serwera wyszukiwania, który indeksuje nie strony internetowe, ale archiwa plików w Internecie. Przykładem takich serwerów wyszukiwania jest wyszukiwanie FTP (http://ftpsearch.lycos.com), a do wyszukiwania plików w rosyjskich archiwach lepiej jest użyć rosyjskiego odpowiednika - http://www.filesearch.ru.
Archiwa oprogramowania służą do wyszukiwania oprogramowania, na przykład http://www.tucows.com/ , http://www.windows95.com , http://www.freeware.ru .
Jeśli strona, której szukasz, znajduje się w rosyjskiej części sieci, warto skorzystać z rosyjskich serwerów wyszukiwania. Działają lepiej z rosyjskojęzycznymi Zapytania, są wyposażone w interfejs w języku rosyjskim.
W tabeli 1 wymieniono niektóre z bardziej znanych wyszukiwarek ogólnego przeznaczenia. Wszystkie te serwery oferują obecnie zarówno wyszukiwanie pełnotekstowe, jak i wyszukiwanie kategorii, łącząc w ten sposób zalety serwera indeksu i serwera katalogu.
Http, który pozwoli na utrzymanie długiego połączenia, przesyłanie danych w kilku strumieniach, dystrybucję kanałów transmisji danych oraz zarządzanie nimi. Jeśli zostanie zaimplementowany i obsługiwany przez standardowe oprogramowanie WWW, usunie powyższe wady. Innym sposobem jest użycie nawigatorów, które mogą lokalnie wykonywać programy w interpretowanych językach, takich jak projekt Java firmy Sun Microsystems. Innym rozwiązaniem tego problemu jest wykorzystanie technologii AJAX, opartej na XML i JavaScript. Pozwala to na otrzymanie dodatkowych danych z serwera, gdy strona WWW została już załadowana z serwera.
Obecnie istnieją dwa trendy w rozwoju World Wide Web: Semantic Web i
Istnieje również popularna koncepcja Web 2.0, podsumowująca jednocześnie kilka kierunków rozwoju World Wide Web.
Web 2.0
Ostatnio rozwój sieci WWW odbywa się w dużej mierze poprzez aktywne wprowadzanie nowych zasad i technologii, które otrzymały ogólną nazwę Web 2.0 (Web 2.0). Sam termin Web 2.0 pojawił się po raz pierwszy w 2004 roku i ma ilustrować jakościowe zmiany w sieci WWW w drugiej dekadzie jej istnienia. Web 2.0 to logiczny rozwój sieci. Główna cecha jest usprawnienie i przyspieszenie interakcji serwisów internetowych z użytkownikami, co doprowadziło do gwałtownego wzrostu aktywności użytkowników. Przejawiało się to w:
- udział w społecznościach internetowych (w szczególności na forach);
- zamieszczanie komentarzy na stronach internetowych;
- prowadzenie osobistych dzienników (blogów);
- umieszczanie linków w sieci WWW.
Web 2.0 wprowadził aktywną wymianę danych, w szczególności:
- eksport wiadomości między serwisami;
- aktywna agregacja informacji z witryn.
- za pomocą interfejsu API do oddzielenia danych witryny od samej witryny
Z punktu widzenia implementacji witryny Web 2.0 podnosi wymagania dotyczące prostoty i wygody witryn dla zwykłych użytkowników i ma na celu szybki spadek umiejętności użytkowników w najbliższej przyszłości. Na pierwszy plan wysuwa się zgodność z listą norm i aprobat (W3C). Dotyczy to w szczególności:
- standardy projektowania wizualnego i funkcjonalności witryn;
- standardowe wymagania (SEO) wyszukiwarek;
- Standardy XML i otwarta wymiana informacji.
Z drugiej strony, Web 2.0 spadło:
- wymagania dotyczące „jasności” i „kreatywności” projektu i treści;
- potrzeby dla złożonych stron internetowych %82-%D0%BF%D0%BE%D1%80%D1%82%D0%B0%D0%BB ]);
- wartość reklamy offline;
- zainteresowanie biznesowe dużymi projektami.
W ten sposób Web 2.0 oznaczał przejście WWW od pojedynczych, drogich, złożonych rozwiązań do mocno typowanych, tanich, łatwych w obsłudze witryn z możliwością efektywnej wymiany informacji. Głównymi przyczynami tego przejścia były:
- krytyczny brak wysokiej jakości treści;
- potrzeba aktywnego wyrażania siebie użytkownika w sieci WWW;
- rozwój technologii wyszukiwania i agregowania informacji w sieci WWW.
Przejście do zestawu technologii Web 2.0 ma takie konsekwencje dla globalnej przestrzeni informacyjnej WWW, jak:
- o sukcesie projektu decyduje poziom aktywnej komunikacji użytkowników projektu oraz poziom jakości treści informacyjnych;
- witryny mogą osiągnąć wysoką wydajność i rentowność bez dużych inwestycji dzięki udanemu pozycjonowaniu w sieci WWW;
- indywidualni użytkownicy WWW mogą osiągnąć znaczące sukcesy w realizacji swoich planów biznesowych i kreatywnych w WWW bez posiadania własnych witryn;
- koncepcja osobistej witryny jest gorsza od pojęcia „blog”, „sekcja autora”;
- Pojawiają się zasadniczo nowe role aktywnych użytkowników WWW (moderator forum, autorytatywny forumowicz, bloger).
Przykłady Web 2.0
Oto kilka przykładów witryn ilustrujących technologie Web 2.0, które faktycznie zmieniły środowisko WWW. Dotyczy to w szczególności:
Oprócz tych projektów istnieją inne projekty, które tworzą nowoczesne środowisko globalne i opierają się na aktywności ich użytkowników. Serwisy, których treść i popularność kształtują przede wszystkim nie wysiłki i zasoby ich właścicieli, ale społeczność użytkowników zainteresowanych rozwojem serwisu, stanowią nową klasę usług, które określają zasady globalne środowisko WWW.
Czym jest sieć WWW?
Sieć lub „sieć” to zbiór połączonych ze sobą stron zawierających określone informacje. Każda taka strona może zawierać tekst, obrazy, wideo, audio i różne inne obiekty. Ale oprócz tego na stronach internetowych znajdują się tak zwane hiperłącza. Każde takie łącze prowadzi do innej strony, która znajduje się na innym komputerze w Internecie.
Różnorodne zasoby informacyjne, połączone ze sobą za pomocą telekomunikacji i oparte na hipertekstowej reprezentacji danych, tworzą sieć World Wide Web (w skrócie World Wide Web, w skrócie WWW).
Hiperłącza łączą strony znajdujące się na różnych komputerach znajdujących się w różnych częściach globu. Ogromną liczbą komputerów połączonych w jedną sieć jest Internet, a „World Wide Web” to ogromna liczba stron internetowych hostowanych na komputerach sieciowych.
Każda strona internetowa w Internecie posiada adres – URL (ang. Uniform Resource Locator – unikalny adres, nazwa). To pod adresem można znaleźć dowolną stronę.
Jak powstała sieć WWW?
12 marca 1989 r. Tim Berners-Lee przedstawił projekt zarządowi CERN. ujednolicony system organizację, przechowywanie i powszechny dostęp do informacji, co miało rozwiązać problem wymiany wiedzy i doświadczeń między pracownikami Centrum. Problem dostępu do informacji o różne komputery Pracownicy Berners-Lee zaproponowali rozwiązanie go za pomocą programów przeglądarkowych, które zapewniają dostęp do komputera serwera, na którym przechowywane są informacje hipertekstowe. Po udanej realizacji projektu Berners-Lee udało się przekonać resztę świata do stosowania jednolitych standardów komunikacji internetowej z wykorzystaniem standardów Hypertext Transfer Protocol (HTTP) i Universal Markup Language (HTML).
Należy zauważyć, że Tim Berners-Lee nie był pierwszym twórcą Internetu. Pierwszy system protokołów zapewniający transfer danych między komputerami w sieci został opracowany przez pracowników amerykańskiej Agencji Zaawansowanych Projektów Badawczych Obrony (DARPA) Winton Cerf oraz Robert Kahn pod koniec lat 60. - na początku lat 70. ubiegłego wieku. Berners-Lee zasugerował jedynie wykorzystanie możliwości sieci komputerowych do tworzenia nowy system organizacja informacji i dostęp do niej.
Jaki był prototyp sieci WWW?
W latach 60. XX wieku Departament Obrony USA postawił zadanie opracowania niezawodnego systemu przesyłania informacji na wypadek wojny. Agencja Zaawansowanych projekty badawcze Stany Zjednoczone (ARPA) zaproponowały stworzenie w tym celu sieci komputerowej. Nazwali ją ARPANET (Advanced Research Projects Agency Network). W projekcie wzięły udział cztery instytucje naukowe – University of Los Angeles, Stanford Research Institute oraz uniwersytety Santa Barbara i Utah. Wszystkie prace zostały sfinansowane przez Departament Obrony USA.
Pierwszy transfer danych śieć komputerowa miało miejsce w 1969 roku. Profesor Uniwersytetu w Los Angeles wraz ze swoimi studentami próbował wejść do komputera Stanford i przekazać słowo „login”. Udało się przesłać tylko dwie pierwsze litery, L i O. Kiedy wpisali literę G, system komunikacji zawiódł, ale nastąpiła rewolucja internetowa.
Do 1971 r. w USA powstała sieć z 23 użytkownikami. Pierwszy program został opracowany do wysyłania E-mail przez sieć. W 1973 r. do sieci dołączyły University College London i Government Services w Norwegii, a sieć stała się międzynarodowa. W 1977 r. liczba internautów sięgnęła 100, w 1984 r. – 1000, w 1986 r. było już ponad 5000, w 1989 r. – ponad 100 tys. W 1997 roku było już 19,5 mln internautów.
Niektóre źródła podają datę pojawienia się sieci WWW dzień później - 13 marca 1989 r.
Dzisiaj networking stał się powszechny. Wchodzenie do internetu jest czasem łatwiejsze niż wstawanie z kanapy, by włączyć telewizor, bo pilot znowu gdzieś zniknął :). Dlaczego, wielu już nawet nie ogląda telewizji, ponieważ sieć ma wszystko, czego potrzebujesz, no, z wyjątkiem tego, że nie karmią ... jeszcze.
Ale kto wymyślił to, czego używamy codziennie, co godzinę? Wiesz, że? Do tej pory nie miałem pojęcia. I wynalazł Internet Sir Timothy John Berners-Lee. On jest tym jedynym twórca World Wide Web i autor wielu innych ważnych wydarzeń w tej dziedzinie.
Timothy John Berners-Lee urodził się 8 czerwca 1955 roku w Londynie w niezwykłej rodzinie. Jego rodzicami byli matematycy Conway Berners-Lee i Mary Lee Woods, którzy badali jeden z pierwszych komputerów, Manchester Mark I.
Muszę powiedzieć, że sam czas sprzyjał różnego rodzaju przełomom technologicznym w dziedzinie technologii informatycznych: kilka lat wcześniej Vannevar Bush (naukowiec z USA) zaproponował tzw. hipertekst. To wyjątkowe zjawisko, które było alternatywą dla zwykłych struktura liniowa rozwój, opowiadanie historii itp. i miał zauważalny wpływ na wiele dziedzin życia - od nauki po sztukę.
Zaledwie kilka lat po narodzinach Tima Bernersa-Lee, Ted Nelson zaproponował stworzenie „wszechświata dokumentalnego”, w którym wszystkie teksty, jakie kiedykolwiek napisano przez ludzkość, zostałyby połączone ze sobą za pomocą tego, co dzisiaj nazwalibyśmy „odniesieniami”. W oczekiwaniu na wynalezienie Internetu wszystkie te i wiele innych wydarzeń stworzyło oczywiście podatny grunt i sugerowało odpowiednie refleksje.
W wieku 12 lat rodzice wysłali chłopca do prywatnej szkoły Emanuel w mieście Wandsworth, gdzie wykazywał zainteresowanie naukami ścisłymi. Po ukończeniu szkoły wstąpił do college'u w Oksfordzie, gdzie wraz ze swoimi towarzyszami został złapany w ataku hakerskim i za to zostali pozbawieni prawa dostępu do komputerów edukacyjnych. Ta niefortunna okoliczność skłoniła Tima po raz pierwszy do samodzielnego złożenia komputera opartego na procesorze M6800, z zwykła telewizja zamiast monitora i zepsutego kalkulatora zamiast klawiatury.
Berners-Lee ukończył studia w Oxfordzie w 1976 roku, uzyskując dyplom z fizyki, po czym rozpoczął karierę w Plessey Telecommunications Ltd. Zakres jego działalności w tym czasie obejmował transakcje rozproszone. Po kilku latach przeniósł się do innej firmy – DG Nash Ltd, gdzie rozwijał oprogramowanie do drukarek. To tutaj po raz pierwszy stworzył rodzaj analogu przyszłego systemu operacyjnego zdolnego do wielozadaniowości.
Kolejnym miejscem pracy było Europejskie Laboratorium Badań Jądrowych z siedzibą w Genewie (Szwajcaria). Tutaj, jako konsultant ds. oprogramowania, Berners-Lee napisał program Inquire, który wykorzystywał metodę losowych skojarzeń. Zasada jego działania pod wieloma względami była pomocą w tworzeniu sieci WWW.
Potem były trzy lata pracy jako architekt systemów i praca naukowa w CERN, gdzie opracował serię systemy rozproszone do gromadzenia danych. Tutaj, w 1989 roku, po raz pierwszy zrealizował projekt oparty na hipertekście – twórca współczesnego Internetu. Projekt ten został później nazwany World Wide Web. ogólnoświatowa sieć).
Krótko mówiąc, jego istota była następująca: publikacja dokumentów hipertekstowych, które byłyby połączone hiperłączami. Umożliwiło to znaczne ułatwienie wyszukiwania informacji, ich systematyzacji i przechowywania. Początkowo projekt miał być realizowany w wewnętrznej sieci CERN na potrzeby badań lokalnych, jako nowoczesna alternatywa dla biblioteki i innych repozytoriów danych. Jednocześnie pobieranie danych i dostęp do nich możliwy był z dowolnego komputera podłączonego do WWW.
Prace nad projektem trwały od 1991 do 1993 roku w formie zbierania opinii użytkowników, koordynacji i wszelkiego rodzaju usprawnień w sieci WWW. W szczególności już wtedy proponowano pierwsze wersje protokołów URL (jako szczególny przypadek identyfikatora URI), HTTP i HTML. Wprowadzono również pierwszą przeglądarkę internetową opartą na hipertekście World Wide Web oraz edytor WYSIWYG.
W 1991 roku została uruchomiona pierwsza strona internetowa pod adresem . Jej zawartość stanowiły informacje wprowadzające i pomocnicze dotyczące sieci WWW: jak zainstalować serwer WWW, jak połączyć się z Internetem, jak korzystać z przeglądarki internetowej. Był też katalog online z linkami do innych stron.
Od 1994 roku Berners-Lee piastuje stanowisko założycieli firmy 3Com w Laboratorium Informatycznym MIT (obecnie Laboratorium Informatyki i Sztucznej Inteligencji w Massachusetts Institute of Massachusetts), gdzie pełni funkcję głównego badacza.
W 1994 roku założył Laboratorium, które do dziś opracowuje i wdraża standardy dla Internetu. W szczególności Konsorcjum pracuje nad tym, aby sieć World Wide Web rozwijała się w sposób stabilny i ciągły – zgodnie z najnowszymi wymaganiami użytkowników oraz poziomem postępu technologicznego.
W 1999 roku słynna książka Berners-Lee zatytułowana „”. Opisuje szczegółowo proces pracy nad kluczowym projektem w życiu autora, mówi o perspektywach rozwoju Internetu i technologii internetowych oraz nakreśla szereg ważnych zasad. Pomiędzy nimi:
- znaczenie web 2.0, bezpośredni udział użytkowników w tworzeniu i edycji treści strony internetowej (żywy przykład Wikipedii i portale społecznościowe);
- ścisłe powiązanie wszystkich zasobów ze sobą poprzez odniesienia w połączeniu z równymi pozycjami każdego z nich;
— moralna odpowiedzialność naukowców wdrażających określone technologie informatyczne.
Berners-Lee jest profesorem na Uniwersytecie w Southampton od 2004 roku, gdzie pracuje nad projektem sieci semantycznej. Ona reprezentuje Nowa wersja World Wide Web, gdzie wszystkie dane nadają się do przetwarzania za pomocą specjalnych programów. Jest to rodzaj „dodatku”, zakładającego, że każdy zasób będzie zawierał nie tylko zwykły tekst „dla ludzi”, ale także specjalnie zakodowaną treść zrozumiałą dla komputera.
W 2005 roku ukazała się jego druga książka, Traversing the Semantic Web: Unlocking the Full Potential of the World Wide Web.
Tim Berners-Lee jest obecnie Knight Commander przez królową Elżbietę II, zasłużonym członkiem Brytyjskiego Towarzystwa Komputerowego, zagranicznym członkiem Narodowej Akademii Nauk USA i wieloma innymi. Jego twórczość otrzymała wiele nagród, w tym Order Zasługi, miejsce na liście „100 największych umysłów stulecia” według Time Magazine (1999), nagrodę Quadriga Award w nominacji „Knowledge Network” (2005), Nagroda MS Gorbaczowa w nominacji „Pierestrojka” – „Człowiek, który zmienił świat” (2011) itp.
W przeciwieństwie do wielu swoich odnoszących sukcesy braci, takich jak lub, Berners-Lee nigdy nie wyróżniał się szczególną chęcią zarabiania i uzyskiwania super zysków ze swoich projektów i wynalazków. Jego sposób komunikacji charakteryzuje się jako „szybki strumień myśli”, któremu towarzyszą rzadkie dygresje i autoironia. Jednym słowem, wszystko wskazuje na to, że geniusz żyje we własnym „wirtualnym” świecie, który jednocześnie wywarł kolosalny wpływ na dzisiejszy świat.
Struktura i zasady World Wide Web
Sieć WWW wokół Wikipedii
Sieć WWW składa się z milionów internetowych serwerów WWW zlokalizowanych na całym świecie. Serwer WWW to program, który działa na komputerze podłączonym do sieci i używa protokołu HTTP do przesyłania danych. W najprostszej postaci taki program odbiera żądanie HTTP dla określonego zasobu przez sieć, znajduje odpowiedni plik na lokalnym dysku twardym i wysyła go przez sieć do żądającego komputera. Bardziej wyrafinowane serwery internetowe są w stanie dynamicznie alokować zasoby w odpowiedzi na żądanie HTTP. Aby zidentyfikować zasoby (często pliki lub ich części) w sieci WWW, używane są jednolite identyfikatory zasobów (URI). Jednolity identyfikator zasobu). Ujednolicone lokalizatory zasobów (URL) służą do lokalizowania zasobów w sieci. Jednolity lokalizator zasobów). Te lokalizatory adresów URL łączą technologię identyfikacji URI i system nazw domen DNS. System nazw domen) - nazwa domeny (lub bezpośrednio - adres w notacji numerycznej) jest zawarta w adresie URL w celu oznaczenia komputera (a dokładniej jednego z jego interfejsów sieciowych), który wykonuje kod żądanego serwera WWW.
Do przeglądania informacji otrzymanych z serwera WWW na komputerze klienta wykorzystywany jest specjalny program - przeglądarka internetowa. Główną funkcją przeglądarki internetowej jest wyświetlanie hipertekstu. Sieć WWW jest nierozerwalnie związana z pojęciami hipertekstu i hiperłączy. Wiele informacji w sieci to hiperteksty. Aby ułatwić tworzenie, przechowywanie i wyświetlanie hipertekstu w sieci WWW, tradycyjnie używany jest język HTML (inż. hipertekstowy język znaczników), hipertekstowy język znaczników. Praca nad oznaczaniem hipertekstu nazywana jest układem, a mistrzowie znaczników nazywani są webmasterem lub webmasterem (bez myślnika). Po znacznikach HTML wynikowy hipertekst jest umieszczany w pliku, taki plik HTML jest głównym zasobem sieci WWW. Gdy plik HTML zostanie udostępniony na serwerze sieciowym, jest on określany jako „strona internetowa”. Zestaw stron internetowych tworzy witrynę internetową. Hiperłącza są dodawane do hipertekstu stron internetowych. Hiperłącza ułatwiają użytkownikom sieci WWW łatwe nawigowanie między zasobami (plikami), niezależnie od tego, czy zasoby znajdują się na komputerze lokalnym, czy na serwerze zdalnym. Hiperłącza internetowe są oparte na technologii URL.
Technologie WWW
Aby poprawić wizualną percepcję sieci, szeroko stosuje się technologię CSS, która pozwala na ustawienie jednolitych stylów projektowania dla wielu stron internetowych. Kolejną innowacją, na którą warto zwrócić uwagę, jest system nazewnictwa zasobów URN (pol. Jednolita nazwa zasobu).
Popularną koncepcją rozwoju sieci WWW jest tworzenie sieci semantycznej. Sieć semantyczna to dodatek do istniejącej sieci World Wide Web, którego celem jest uczynienie informacji publikowanych w sieci bardziej zrozumiałymi dla komputerów. Sieć semantyczna to koncepcja sieci, w której każdy zasób w ludzkim języku byłby opatrzony opisem zrozumiałym dla komputera. Sieć semantyczna otwiera dostęp do przejrzystej struktury informacji dla dowolnej aplikacji, niezależnie od platformy i języka programowania. Programy będą mogły same znajdować niezbędne zasoby, przetwarzać informacje, klasyfikować dane, identyfikować logiczne zależności, wyciągać wnioski, a nawet podejmować decyzje na podstawie tych wniosków. Jeśli zostanie dobrze przyjęta i dobrze zaimplementowana, Sieć Semantyczna może zrewolucjonizować Internet. Aby stworzyć przyjazny dla komputera opis zasobu, Semantic Web wykorzystuje format RDF (ang. Struktura opisu zasobów ), który jest oparty na składni XML i używa identyfikatorów URI do identyfikowania zasobów. Nowością w tym obszarze jest RDFS (Język angielski) Rosyjski (Język angielski) Schemat RDF) i SPARQL (pol. Protokół i język zapytań RDF ) (wymawiane „migotanie”), nowy język zapytań zapewniający szybki dostęp do danych RDF.
Historia sieci WWW
Tim Berners-Lee i, w mniejszym stopniu, Robert Cayo są uważani za wynalazców World Wide Web. Tim Berners-Lee jest autorem technologii HTTP, URI/URL i HTML. W 1980 pracował w Europejskiej Radzie Badań Jądrowych (fr. Conseil Européen pour la Recherche Nucléaire, CERN ) konsultant ds. oprogramowania. To właśnie tam, w Genewie (Szwajcaria), napisał na własne potrzeby program Inquire. Dowiadywać się, w wolnym tłumaczeniu jako „przesłuchujący”), który wykorzystuje losowe skojarzenia do przechowywania danych i położył podwaliny koncepcyjne dla sieci WWW.
Pierwsza na świecie witryna internetowa była hostowana przez Berners-Lee 6 sierpnia 1991 r. na pierwszym serwerze sieciowym dostępnym pod adresem http://info.cern.ch/, (). Koncepcja zdefiniowana w oparciu o zasoby ogólnoświatowa sieć, zawierała instrukcje dotyczące konfiguracji serwera WWW, korzystania z przeglądarki itp. Ta strona była również pierwszym na świecie katalogiem internetowym, ponieważ Tim Berners-Lee później hostował i utrzymywał listę linków do innych stron.
Pierwsze zdjęcie w sieci WWW przedstawia parodię zespołu Les Horribles Cernettes. Tim Bernes-Lee poprosił o ich skany od lidera zespołu po CERN Hardronic Festival.
Jednak teoretyczne podstawy sieci zostały położone znacznie wcześniej niż Berners-Lee. W 1945 Vannaver Bush opracował koncepcję Memex (Język angielski) Rosyjski - pomocnicze mechaniczne środki "poszerzenia ludzkiej pamięci". Memex to urządzenie, w którym człowiek przechowuje wszystkie swoje księgi i zapisy (a najlepiej całą swoją wiedzę, którą można formalnie opisać) i które podaje niezbędne informacje z wystarczającą szybkością i elastycznością. Jest rozszerzeniem i dodatkiem do ludzkiej pamięci. Bush przewidział również kompleksową indeksację tekstów i zasobów multimedialnych z możliwością szybkiego odnalezienia potrzebnych informacji. Kolejnym znaczącym krokiem w kierunku sieci WWW było stworzenie hipertekstu (termin ukuty przez Teda Nelsona w 1965 roku).
- Sieć semantyczna polega na poprawie łączności i trafności informacji w sieci WWW poprzez wprowadzenie nowych formatów metadanych.
- Sieć społecznościowa polega na pracy polegającej na porządkowaniu informacji dostępnych w sieci, wykonywanej przez samych użytkowników sieci. W ramach drugiego kierunku jako narzędzia aktywnie wykorzystywane są opracowania będące częścią sieci semantycznej (formaty RSS i inne formaty kanałów informacyjnych, mikroformaty OPML, XHTML). Częściowo semantyczne sekcje Drzewa Kategorii Wikipedii pomagają użytkownikom świadomie poruszać się w przestrzeni informacyjnej, jednak bardzo łagodne wymagania dotyczące podkategorii nie dają powodów do nadziei na rozbudowę takich sekcji. W związku z tym interesujące mogą być próby kompilacji atlasów wiedzy.
Istnieje również popularna koncepcja Web 2.0, podsumowująca jednocześnie kilka kierunków rozwoju World Wide Web.
Sposoby aktywnego wyświetlania informacji w sieci WWW
Informacje w sieci mogą być wyświetlane w sposób pasywny (tzn. użytkownik może je tylko czytać) lub aktywnie - wówczas użytkownik może dodawać informacje i je edytować. Sposoby aktywnego wyświetlania informacji w sieci WWW obejmują:
Należy zauważyć, że podział ten jest bardzo warunkowy. Tak więc, powiedzmy, blog czy księgę gości można uznać za szczególny przypadek forum, co z kolei jest szczególnym przypadkiem systemu zarządzania treścią. Zwykle różnica przejawia się w przeznaczeniu, podejściu i pozycjonowaniu konkretnego produktu.
Część informacji ze stron internetowych można również uzyskać za pomocą mowy. Indie już rozpoczęły testowanie systemu, który sprawia, że zawartość tekstowa stron jest dostępna nawet dla osób, które nie potrafią czytać i pisać.
World Wide Web bywa ironicznie nazywany Wild Wild Web (Wild, Wild Web) – przez analogię do tytułu filmu o tej samej nazwie Wild Wild West (Wild, Wild West).
Zobacz też
Uwagi
Literatura
- Fielding, R.; Gettys, J.; Mogul, J.; Frystick, G.; Mazinter, L.; Ług, P.; Berners-Lee, T. (czerwiec 1999). „Protokół przesyłania hipertekstu – http://1.1” (Instytut Nauk Informacyjnych).
- Berners-Lee, Tim; Bray, Tim; Connolly, Dan; Bawełna, Paul; Fielding, Roy; Jackle, Mario; Lilly, Chris; Mendelsohna, Noego; Orcard, David; Walsha, Normana; Williams, Stewart (15 grudnia 2004). „Architektura sieci WWW, tom pierwszy” (W3C).
- Polo, Luciano Architektura technologii sieci WWW: analiza koncepcyjna. Nowe urządzenia(2003). Zarchiwizowane z oryginału 24 sierpnia 2011 r. Źródło 31 lipca 2005 r.
Spinki do mankietów
Ochrona poufnych danych i anonimowość w Internecie w Wikibooks |
- Oficjalna strona internetowa Konsorcjum World Wide Web (W3C) (w języku angielskim)
- Tim Berners-Lee, Mark Fischetti. Tkanie sieci: Początki i przyszłość sieci WWW = Tkanie sieci: pierwotny projekt i ostateczne przeznaczenie sieci WWW. - Nowy Jork: HarperCollins Publishers (Język angielski) Rosyjski . - 256 pensów. - ISBN 0-06-251587-X, ISBN 978-0-06-251587-2(Język angielski)
Sieć i strony internetowe | |
---|---|
globalnie | |
Lokalnie | |
Rodzaje witryn I usług |
|
Stworzenie i usługa |
|
typy układów, strony, witryny |
|
Techniczny | |
Marketing | |
Społeczeństwo i kultura |
sieć semantyczna | |
---|---|
Podstawy | Sieć ogólnoświatowa · Internet · Hipertekst · Baza danych · Sieci semantyczne · Ontologie · Logika opisu |
Podsekcje | Połączone dane · sieć danych · Hiperdane · Adresy URI, które można odwoływać · Podstawy reguł · Przestrzenie danych |
Aplikacje | Semantyczna Wiki · publikowanie semantyczne · wyszukiwanie semantyczne · obliczenia semantyczne · reklama semantyczna · rozumowanie semantyczne · dopasowanie semantyczne · mapowanie semantyczne · broker semantyczny · analityka semantyczna · semantyczna architektura zorientowana na usługi |
powiązane tematy | Folksonomy · Biblioteka 2.0 · Linki Web 2.0 · Architektura informacji · Zarządzanie wiedzą · inteligencja zbiorowa · Mapy tematyczne · Mapowanie myśli · metadane · Geotagowanie · nauka o sieci |
Normy |
Składnia: RDF (RDF/XML) · Notacja 3 · żółw · N-trójki) · SPARQL · URI · HTTP · XML Schematy, ontologie:RDFS · SOWA · Format wymiany reguł · Język reguł sieci semantycznej · wspólna logika · |
światowa sieć informacyjna
Sieć WWW to rozproszony system, który zapewnia dostęp do połączonych ze sobą dokumentów znajdujących się na różnych komputerach podłączonych do Internetu. W odniesieniu do World Wide Web używane jest również słowo „web” (w tłumaczeniu z angielskiego oznacza „web”) oraz skrót WWW. Sieć WWW składa się z setek milionów serwerów WWW. Większość zasobów w sieci WWW opiera się na technologii hipertekstowej. Dokumenty hipertekstowe hostowane w sieci WWW nazywane są stronami internetowymi. Kilka stron internetowych o wspólnym motywie, projekcie i łączach, które zwykle znajdują się na tym samym serwerze internetowym, nosi nazwę witryny internetowej. Do pobierania i przeglądania stron internetowych używane są specjalne programy - przeglądarki. World Wide Web spowodował prawdziwą rewolucję w technologii informacyjnej i eksplozję rozwoju Internetu. Często mówiąc o Internecie, mają na myśli sieć WWW, ale ważne jest, aby zrozumieć, że to nie to samo.
Historia sieci WWW
Tim Berners-Lee i, w mniejszym stopniu, Robert Cayo są uważani za wynalazców World Wide Web. Tim Berners-Lee jest autorem technologii HTTP, URI/URL i HTML. W 1980 pracował dla Europejskiej Rady Badań Jądrowych jako konsultant ds. oprogramowania. To właśnie tam, w Genewie, w Szwajcarii, napisał na własny użytek program Inquire, który wykorzystywał losowe skojarzenia do przechowywania danych i położył podwaliny koncepcyjne dla sieci WWW. W 1989 roku, pracując w CERN nad intranetem organizacji, Tim Berners-Lee zaproponował globalny projekt hipertekstowy, obecnie znany jako World Wide Web.
Projekt obejmował publikację dokumentów hipertekstowych połączonych hiperłączami, co ułatwiłoby naukowcom z CERN wyszukiwanie i konsolidację informacji. Aby wdrożyć projekt, Tim Berners-Lee wynalazł identyfikatory URI, protokół HTTP i język HTML. To technologie, bez których nie sposób już sobie wyobrazić współczesnego Internetu. W latach 1991-1993 firma Berners-Lee udoskonaliła specyfikacje techniczne tych norm i opublikowała je. Niemniej jednak rok 1989 należy uznać za oficjalny rok narodzin sieci WWW. W ramach projektu Berners-Lee napisał pierwszy na świecie serwer WWW httpd i pierwszą na świecie hipertekstową przeglądarkę internetową o nazwie WorldWideWeb. Przeglądarka ta była również edytorem WYSIWYG, jej rozwój rozpoczęto w październiku 1990 i zakończono w grudniu tego samego roku.