dieta reklama internet zabawa hobby dzieci          dieta reklama internet zabawa hobby dzieci

piątek, 2 grudnia 2011

Internet

Internet 
(skrótowiec od ang. inter-network, dosłownie "między-sieć")

– ogólnoświatowa sieć komputerowa, określana również jako sieć sieci. W sensie logicznym, Internet to przestrzeń adresowa
zrealizowana przy wykorzystaniu protokołu komunikacyjnego IP, działająca w oparciu o specjalistyczny sprzęt sieciowy oraz istniejącą już infrastrukturę telekomunikacyjną.

 

Historia Internetu 

 

Początki Internetu wiążą się z powstaniem sieci rozległej ARPANET i sięgają końca lat 60. XX wieku, gdy amerykańska organizacja badawcza RAND Corporation prowadziła badania studyjne nad możliwościami dowodzenia w warunkach wojny nuklearnej. Na podstawie uzyskanych raportów podjęto prace projektowe nad skonstruowaniem sieci komputerowej mogącej funkcjonować mimo jej częściowego zniszczenia.

 

 

Terminologia 

 

Internet a WWW 

 

Internet w ogólnym znaczeniu to sieć komputerowa, czyli wiele połączonych ze sobą komputerów, zwanych również hostami, natomiast WWW to usługa internetowa. Innymi, znanymi usługami tego rodzaju są: poczta elektroniczna oraz P2P.

Rozróżnienie pomiędzy siecią a usługami odwołuje się do pojęcia protokołów internetowych, będących określonym zbiorem protokołów komunikacyjnych. Każdy protokół komunikacyjny jest logicznie podzielony na tzw. warstwy: warstwa niższa zapewnia funkcjonalność wymaganą przez najbliższą warstwę wyższą, dodając jednocześnie własne dane pomocnicze i kontrolne. Internet to sieć komputerowa wykorzystująca protokół IP (ang. Internet Protocol). Natomiast usługa WWW wykorzystuje protokół HTTP (ang.Hypertext Transfer Protocol), działający w warstwie wyższej, dla której nośną jest warstwa protokołu IP. Protokół HTTP określany jest też mianem "protokołu warstwy aplikacji" z tego względu, że stanowi on warstwę nośną dla danych tworzonych przez oprogramowanie użytkowe, zwane aplikacjami.

 

 

Pisownia 

 

Słowo "Internet" pisze się wielką literą mając na myśli konkretną, globalną sieć komputerową – jest to wtedy nazwa własna. W niektórych przypadkach poprawna jest jednak pisownia małą literą – gdy pisze się o Internecie jako nośniku (medium) informacyjnym, np. "przeczytałem to w internecie" lub używając skrótu myślowego w odniesieniu do fizycznego łącza telekomunikacyjnego, np. "internet mobilny", "internet przewodowy", "internet ADSL". Czasami używa się też słowa "internet" pisanego małą literą w odniesieniu do pojęcia ekstranet (połączona ze sobą grupa sieci komputerowych).

 

 

Internet w Polsce 

 

Internet w Polsce dostępny jest oficjalnie od 20 grudnia 1991 roku.
30 kwietnia 1991 w Centrum Komputerowym Uniwersytetu Kopenhaskiego, zarejestrowano krajową domenę najwyższego poziomu ".pl".

17 sierpnia 1991 z Wydziału Fizyki Uniwersytetu Warszawskiego zestawiono pierwsze, trwające 1 minutę, połączenie internetowe przy wykorzystaniu protokołu TCP/IP, z Centrum Komputerowym Uniwersytetu w Kopenhadze.
20 grudnia 1991 placówki naukowe Uniwersytetu Warszawskiego, Instytut Fizyki Jądrowej i Obserwatorium Astronomiczne oraz pojedyncze komputery w Krakowie, Toruniu i Katowicach zostały podłączone do Internetu. Tego samego dnia Stany Zjednoczone zniosły ograniczenia w łączności z Polską.

W czerwcu 1991 została uruchomiona sieć szkieletowa POLPAK Telekomunikacji Polskiej. W roku 1992, jako pierwsza polska firma, ATM S.A. uzyskała dostęp do Internetu. W sierpniu 1993 roku powstał pierwszy polski serwer WWW, pod nazwą "Polska Strona Domowa. W 1994 roku powstał rządowy serwer WWW. W 1995 roku powstał pierwszy polski portal internetowy Wirtualna Polska. W kwietniu 1996 roku TP S.A. uruchomiła dostęp anonimowy do Internetu z wykorzystaniem modemów.

 

 

Bezpłatny dostęp do Internetu 

 

Jako pierwsza w Polsce, zainwestowała w tzw. "darmowy internet", podkarpacka gmina Czudec (zasięg 70 procent powierzchni gminy) i urząd miasta Rzeszowa (zasięg 60 procent), który dodatkowo stara się o środki z funduszów unijnych na zwiększenie dostępności "darmowego internetu" m.in. budowę sieci WiMAX, by wszyscy mieszkańcy miasta mogli z niego korzystać. Aby oferta operatorów dostarczających internet abonamentowy była nadal atrakcyjna, "darmowy internet" ma mieć obniżone parametry (np. ograniczenia czasowe w dostępie, szybkość przesyłania danych obniżona nawet czterokrotnie).

 

 

Usługi internetowe 

 

Dostawca usługi internetowej (ang. Internet Service Provider, ISP), lub krótko "dostawca", oprócz łącza do Internetu oferuje również następujące usługi:
  • poczta elektroniczna za pomocą własnego portalu lub innego serwera;
  • hosting stron internetowych;
  • serwer plików, np. FTP lub SFTP;
  • filtr rodzinny chroniący, głównie najmłodszych, przed dostępem do treści zakwalifikowanych jako niebezpieczne.
Koszt wymienionych usług jest już, najczęściej, wliczony w koszt usługi podstawowej.
Oprócz wyżej wymienionych, Internet umożliwia dostęp do szerokiej gamy usług takich jak m.in.:
  • dyskusja internetowa, w tym: grupa dyskusyjna, lista dyskusyjna, forum dyskusyjne;
  • komunikator internetowy, np. Gadu-Gadu, ICQ, Jabber, Skype, Tlen, NKtalk, MSN Messenger;
  • IRC czyli rozmowy tekstowe prowadzone w czasie rzeczywistym;
  • VoIP czyli telefonia internetowa;
  • radio internetowe;
  • telewizja internetowa;
  • telekonferencja;
  • faks przez internet;
  • sklepy internetowe;
  • aukcje internetowe;
  • bankowość elektroniczna;
  • gry online.
Niektóre z usług mogą wymagać uiszczenia zapłaty u dostawcy danej usługi.



Zapraszamy do zapisania się na nasz newsletter !

środa, 2 listopada 2011

Usługa internetowa


Usługa internetowa 
(ang. web service

– usługa świadczona poprzez sieć telekomunikacyjną, a w tym sieć komputerową, w szczególności przez Internet.

Usługa internetowa jest w istocie składnikiem oprogramowania, niezależnym od platformy sprzętowej oraz implementacji, dostarczającym określonej funkcjonalności. Zgodnie z zaleceniami W3C, dane przekazywane są zazwyczaj za pomocą protokołu HTTP i z wykorzystaniem XML.



 

 

Sposoby realizacji 

 

Usługa internetowa może być:
  • zdefiniowana za pomocą języka opisu usług – standaryzowanym językiem, bazującym na XML, jest WSDL
  • opublikowana i wyszukana w rejestrze usług za pomocą standardowego mechanizmu, np. UDDI
  • wywołana zdalnie przez zdefiniowany interfejs
  • częścią innych usług internetowych lub być ich kompozycją.

 

 

Przeznaczenie 

 

Na bazie usług internetowych można konstruować systemy rozproszone i aplikacje internetowe. Aplikacje te komunikują się przez sieć komputerową, z wykorzystaniem odpowiednich protokołów dostępu zdalnego.

 

 

Protokoły dostępu zdalnego 

 

Protokołem najczęściej stosowanym do komunikacji z usługami internetowymi jest SOAP, (Simple Object Access Protocol), zatwierdzony przez W3C.


Platformy programistyczne

 

Najbardziej znanymi platformami programistycznymi obsługującymi standardy XML, UDDI i SOAP są .NET i Java EE.

 

 

Zastosowanie

 

Ten rodzaj usług okazał się skuteczny w sieciach korporacyjnych, za pomocą których przedsiębiorstwa lub instytucje, budowały systemy wymiany danych między swoimi oddziałami, jak również do celów łączności z partnerami i klientami. W takich mniejszych, dobrze kontrolowanych środowiskach, łatwiej jest uzyskać zgodność danych przesyłanych między poszczególnymi komponentami usług a otwartość standardów ułatwia tworzenie rozwiązań klienckich, niezależnie od platformy. Wykorzystanie usług internetowych pozwala komponentom programowym współdziałać ze sobą przez Internet, niezależnie od swojej lokalizacji i szczegółów implementacji. Dzięki temu będą w stanie zastąpić starsze rozwiązania, opracowane dla sieci prywatnych, jak CORBA czy DCOM, zaś dzięki stosunkowo prostej konstrukcji, mogą uzyskać znacznie większą popularność.


Perspektywy rozwojowe 

 

Usługi internetowe są w okresie powolnej, zakrojonej na wiele lat materializacji. System wyszukiwawczy UDDI umożliwia rejestrowanie usług w Internecie i pozwala aplikacjom wyszukiwać takie usługi i wymieniać dane. Jeśli usługa sieciowa jest płatna, można dołączyć procedurę wnoszenia płatności. Dla poprawnego funkcjonowania na skalę globalną wymaga to bardzo precyzyjnego określenia wszystkich szczegółów działania usługi, zanim zostanie udostępniona publicznie.


Przykłady zastosowań

Tłumacz Google umożliwia tłumaczenie tekstu na różne języki, Google Maps dostarczają danych geograficznych, a dzięki usłudze Amazon FWS handlowcy mogą automatycznie uaktualnić swoją ofertę.



Zapraszamy do zapisania się na nasz newsletter !

niedziela, 2 października 2011

World Wide Web ( www )


World Wide Web 
[ˌwɜːldˌwaɪdˈwɛb] (po angielsku: "ogólnoświatowa sieć"),

w skrócie Web lub częściej WWW 


– hipertekstowy, multimedialny, internetowy system informacyjny oparty na publicznie dostępnych, otwartych standardach IETF i W3C. WWW jest usługą internetową, która ze względu na zdobytą popularność, bywa błędnie utożsamiana z całym Internetem.

 

 

Historia 

 

Brytyjski inżynier i naukowiec sir Tim Berners-Lee, obecnie dyrektor World Wide Web Consortium (W3C), napisał w marcu 1989 projekt oparty na ENQUIRE (aplikacji i bazie danych, którą stworzył na własny użytek w 1980). Przedstawił w nim dużo bardziej rozbudowany system zarządzania informacjami, który stał się zalążkiem obecnej WWW. Po jakimś czasie dołączył do niego belgijski naukowiec Robert Cailliau, z którym Lee współpracował w ośrodku CERN. 12 listopada 1990 opublikowali oficjalny projekt budowy systemu hipertekstowego zwanego "World Wide Web" (w skrócie: WWW, lub jeszcze krócej: W3), obsługiwanego przy pomocy przeglądarki internetowej, używającego architektury klient-serwer. Użycie hipertekstu umożliwiło dostęp do różnego rodzaju informacji poprzez sieć odnośników, tzw. hiperłączy – oglądając stronę internetową, użytkownik może podążać za zamieszczonymi na niej hiperłączami, które przenoszą go do innych, udostępnionych w sieci dokumentów lub innych stron internetowych. Początkowo, "World Wide Web" został oparty na SGML-owej przeglądarce o nazwie "Dynatext", opracowanej w ramach działalności "Instytutu Badań nad Informacją i Wiedzą" (Institute for Research in Information and Scholarship) Uniwersytetu Browna. "Dynatext" był projektem komercyjnym, licencjonowanym przez CERN - okazał się jednak zbyt kosztowny w używaniu dla szerszej społeczności (wówczas było to środowisko fizyków wysokich energii), bowiem przewidywał opłatę za każdy nowy dokument oraz za każdorazową jego edycję.




System informacyjny "World Wide Web" zaprojektowano, aby zbierać zasoby ludzkiej wiedzy i umożliwić współpracownikom w odległych miejscach dzielenie się swoimi pomysłami oraz zgłębianie wszystkich aspektów wspólnego projektu. W przypadku, gdy dwa projekty tworzone były niezależnie od siebie, WWW pozwalała skoordynować pracę naukowców, dzięki czemu obie prace stawały się jednym spójnym dziełem. Niniejszy projekt szacował, że służąca tylko przeglądaniu sieć, rozwinie się w ciągu trzech miesięcy, a w ciągu pół roku użytkownicy będą mieli możliwość publikowania nowych materiałów i odnośników do nich, dzięki czemu system stanie się w pełni uniwersalny. Usługa została oficjalnie uruchomiona w grudniu 1990 roku.
Jako pierwszy na świecie serwer internetowy, Berners-Lee zastosował komputer NeXT, na którym stworzył również pierwszą przeglądarkę o nazwie WorldWideWeb (zmienionej później na Nexus). Do czasu świąt Bożego Narodzenia 1990 roku, Berners-Lee zbudował wszystkie narzędzia niezbędne do działania WWW: przeglądarkę WWW (która służyła również jako edytor), pierwszy serwer WWW oraz pierwsze strony WWW, opisujące nowo powstały projekt. 6 sierpnia 1991 roku zamieścił krótkie podsumowanie projektu "WordWideWeb" na grupie dyskusyjnej alt.hypertext. Ta data jest również uznawana za debiut publicznie dostępnych usług w Internecie. Pierwszy serwer poza Europą został uruchomiony w Centrum Liniowego Akceleratora Stanforda (SLAC) w grudniu 1992. Zasadnicza koncepcja hipertekstu pochodzi ze starszych projektów z lat 60., takich jak: Hypertext Editing System (HES), utworzony na Uniwersytecie Browna, Xanadu, autorstwa Teda Nelsona i Andriesa van Dama, oraz oN-Line System (NLS) Douglasa Engelbarta. Nelson i Engelbart z kolei inspirowali się mikrokomputerem Memex, który w 1945 r. został opisany esejem pt. "As We May Think" Vannevara Busha.

Przełomem w projekcie było połączenie hipertekstu z internetem. W swojej książce pt. "Weaving The Web" ("Tkając Sieć") Berners-Lee wyjaśnia, iż wielokrotnie sugerował możliwość połączenia tych dwóch technologii, jednakże nikt wcześniej nie podjął starań w tym kierunku, w związku z czym postanowił wziąć sprawę w swoje ręce. Na potrzeby projektu autor opracował system ogólnodostępnych, unikalnych identyfikatorów zasobów sieci: "The Universal Document Identifier" (UDI) znany później jako Uniform Resource Locator (URL) i Uniform Resource Identifier (URI), język służący projektowaniu stron – HyperText Markup Language (HTML) oraz protokół przesyłania dokumentów hipertekstowych Hypertext Transfer Protocol (HTTP).

World Wide Web posiadała szereg cech wyróżniających ją spośród innych systemów hipertekstowych, które były wówczas dostępne, np. używał jednokierunkowych zamiast dwukierunkowych odnośników. Umożliwiało to użytkownikowi przełączenie się z bieżącego zasobu danych do kolejnego, bez potrzeby reakcji ze strony jego właściciela. W porównaniu do poprzednich systemów ułatwiło to wdrażanie nowych serwerów i przeglądarek, ale wprowadziło chroniczny problem wygasłych odnośników (hiperłączy, linków). W odróżnieniu od poprzedników, takich jak np. HyperCard, World Wide Web nie została skomercjalizowana, umożliwiając rozwój serwerów i publikowanych na nich stron, w sposób niezależny oraz dodawanie rozszerzeń bez ograniczeń licencyjnych. 30 kwietnia 1993, CERN ogłosił, że World Wide Web będzie udostępniona bezpłatnie dla każdego. W ciągu kolejnych dwóch miesięcy, po ogłoszeniu, że protokół Gopher nie będzie już dostępny bezpłatnie, odnotowano duży spadek jego popularności, na rzecz darmowej WWW. Najpopularniejszą przeglądarką internetową wówczas była ViolaWWW.
Punktem zwrotnym w historii World Wide Web było wprowadzenie, w 1993 roku, przeglądarki Mosaic, działającej w trybie graficznym. Przeglądarka ta została opracowana przez zespół "Narodowego Centrum Zastosowań Superkomputerów" (National Center for Supercomputing Applications) na Uniwersytecie Illinois w Urbana-Champaign (NCSA-UIUC), który kierowany był wówczas przez Marca Andreessena. Mosaic była finansowana przez "Inicjatywę Wysokowydajnych Technik Obliczeniowych i Komunikacyjnych" (High-Performance Computing and Communications Initiactive), powstałej dzięki "Ustawie o Wysokowydajnych Technikach Obliczeniowych i Komunikacyjnych" (High Performance Computing and Communication Act) z 1991 roku, będącej jednym z kilku opracowań dotyczących rozwoju informatyki, zainicjowanych przez senatora Al Gore'a. Przed wprowadzeniem przeglądarki graficznej Mosaic, strony internetowe nie posiadały grafiki wplecionej bezpośrednio w tekst, a popularność WWW była mniejsza niż starszych protokołów używanych dotychczas w Internecie, takich jak Gopher czy WAIS – interfejs graficzny przeglądarki Mosaic uczynił WWW zdecydowanie najpopularniejszą usługą internetową.

World Wide Web Consortium (W3C) zostało założone przez Tima Bernersa-Lee po opuszczeniu przez niego ośrodka CERN, w październiku 1994 roku. Konsorcjum zostało utworzone w Laboratorium Informatyki MIT (Massachusetts Institute of Technology, Laboratory for Computer Science, MIT/LCS), z pomocą agencji "Agencji Zaawansowanych Obronnych Projektów Badawczych" (Defense Advanced Research Projects Agency, DARPA), będącej pionierem w rozwoju Internetu, oraz Komisji Europejskiej. Do końca 1994 r., gdy całkowita liczba stron internetowych stanowiła ułamek ich obecnej liczby, wiele spośród znanych dziś stron było już uruchomionych, a część z nich mogło stanowić inspirację dla wielu współczesnych serwisów internetowych.

Dzięki połączeniu z Internetem, na całym świecie zaczęły powstawać serwery WWW, tworząc ogólnoświatowe standardy nazewnictwa domen internetowych. Od tamtej pory Berners-Lee odegrał bardzo aktywną rolę w nadawaniu kierunku rozwoju standardów sieciowych (takich jak np. języki znaczników, w których strony internetowe są tworzone), a w ostatnich latach opowiada on o swojej wizji Semantic Web. World Wide Web, dzięki łatwemu do opanowania interfejsowi obsługi, aktywnie rozpowszechnia informacje za pośrednictwem Internetu – tym samym odgrywa istotną rolę w jego popularyzacji – mimo, że te dwa pojęcia są często mylone w powszechnym użyciu: World Wide Web nie jest całym Internetem, a jedynie pewną aplikacją zbudowaną na jego bazie.

 

 

World Wide Web a Internet

 

Określenia: World Wide Web i Internet są często stosowane zamiennie w życiu codziennym. Jednak World Wide Web i Internet nie są jednym i tym samym. Internet to globalny system połączonych ze sobą sieci komputerowych. W przeciwieństwie do Web, która jest jedną z usług działających w Internecie. WWW jest zbiorem powiązanych ze sobą zasobów i dokumentów, połączonych hiperłączami i URL-ami. Krótko mówiąc, Web jest aplikacją działającą w Internecie. Przeglądanie stron internetowych WWW zwykle rozpoczyna się albo od wpisania adresu strony w przeglądarce internetowej, albo poprzez podanie linku do tej strony lub linku do konkretnego zasobu. Następnie przeglądarka wysyła do serwera WWW, na którym zlokalizowana jest strona, szereg niewidzialnych dla nas zapytań, aby później pobrać zawartość danej strony i wyświetlić ją na ekranie monitora.

Na początku nazwa serwera (część adresu URL) jest dekodowana na adres IP za pomocą globalnej, rozproszonej bazy danych znanej jako Domain Name System (DNS). Adres IP jest niezbędny, aby móc połączyć się z danym serwerem. Przeglądarka następnie wywołuje dany zasób, wysyłając zapytanie do serwera określonego powyższym adresem. W przypadku typowej strony internetowej, przeglądarka najpierw pobiera jej skrypt HTML, analizuje go a następnie wysyła zapytanie o resztę elementów wchodzących w jej skład (zdjęcia, grafika, dźwięki, video, animacje). Statystyki mierzące popularność stron zazwyczaj są oparte o liczbę odwiedzin ale również o liczbę wysłanych na serwer zapytań, które miały miejsce.

Podczas pobierania plików z serwera WWW, przeglądarki mogą stopniowo składać stronę na ekranie w sposób określony przez jego kod HTML, CSS lub inne języki skryptowe. Wszelkie zdjęcia i inne zasoby są włączane do strony, którą użytkownik widzi na ekranie. Większość stron internetowych zawiera hiperłącza umożliwiające bezpośrednie przechodzenie do innych stron z nimi powiązanych, gotowych plików, które można pobierać, dokumentów źródłowych, definicji oraz innych zasobów internetowych. Taki zbiór przydatnych materiałów powiązanych ze sobą za pośrednictwem łączy hipertekstowych, nazwano "siecią informacji". Udostępniając tę sieć w Internecie, Tim Berners-Lee nazwał ją w listopadzie 1990 roku "World Wide Web" (początkowo "WorldWideWeb", jednak ten zapis został później odrzucony).

 

 

Jakie korzyści przynosi WWW 

 

WWW (lub jeszcze krócej: W3) jest realizacją idei nieograniczonego świata informacji. Na jej sukces, poza samym Internetem jako fizycznym nośnikiem, składają się, przede wszystkim, następujące elementy:
  • HyperText Markup Language (HTML) – hipertekstowy język znaczników, zrozumiały dla każdej przeglądarki, służący formatowaniu zawartości strony internetowej;
  • Hypertext Transfer Protocol (HTTP) – protokół komunikacyjny używany do przesyłania stron internetowych;
  • Uniform Resource Identifier (URI) – standard identyfikatora zasobów w Internecie.

 

 Prefiks WWW 

 

Wiele adresów internetowych zaczyna się od "www" ze względu na długoletnią praktykę nazywania hostów internetowych (serwerów) zgodnie z usługami, które oferowały. Nazwa hosta dla serwera Web to najczęściej www, tak jak ftp dla serwera FTP czy news lub nntp dla serwerów informacyjnych Usenet. Te nazwy hostów ukazują się, jako subdomeny w Domain Name System (DNS), jak w przykładzie www.example.com. Stosowanie takich subdomen nie jest wymagane. Pierwszy na świecie serwer Web nazywał się nxoc01.cern.ch, a wiele stron internetowych istnieje bez prefiksu WWW, czy innych takich jak "www2" , "secure" itp. Prefiksy subdomen nie mają żadnego praktycznego znaczenia, są to zwykłe nazwy nadane przez administratorów. Wiele serwerów internetowych jest tak skonfigurowanych, aby korzystać z obu wersji adresu, zarówno samej domeny (example.com) jak i z subdomeną (www.example.com). W praktyce kierują one użytkownika dokładnie do tej samej strony.

W przypadku wpisania tylko jednego specyficznego słowa w pasku adresu przeglądarki, np.: apple <enter>, openoffice <enter> aplikacja sama spróbuje dodać przedrostek www i końcówkę np.: ".com", ".org" lub ".net" i przekieruje nas np. na stronę "http://www.apple.com/", czy http://www.openoffice.org/. Funkcje te zostały wprowadzone we wczesnych wersjach przeglądarki Mozilla Firefox na początku roku 2003. Natomiast Microsoft otrzymał w 2008 patent na to samo rozwiązanie, z tym, że tylko w odniesieniu do urządzeń mobilnych.

Przedrostki "http://" i "https://" należy rozróżniać. Hypertext Transfer Protocol (HTTP) i HTTP Secure wyznaczają protokół komunikacyjny, który ma zostać użyty do wysyłania i pobierania zawartości strony. Protokół HTTP jest podstawowym elementem działania struktury www a HTTPS dodaje niezbędną warstwę ochronną w przypadku, gdy poufne informacje, takie jak hasła czy dane bankowe mają być przesyłane w publicznej sieci Internet. Przeglądarki internetowe również automatycznie dopisują ten element (HTTPS), jeśli zostanie on pominięty. Ogólny zarys RFC 2396 określający postać adresów internetowych to: <protokół>://<host><ścieżka>?<zapytanie>#<fragment> , gdzie <host> to np. serwer internetowy (jak www.example.com) a ścieżka identyfikuje konkretna podstronę. Serwer przetwarza <zapytanie> , które może np. za pośrednictwem formularza wysłać dane do zewnętrznej wyszukiwarki, poprzez to zawartość wyświetlanej strony jest zależna od odebranych informacji zwrotnych. <fragment> nie jest wysyłany do serwera. Określa która część strony ma być wyświetlana użytkownikowi domyślnie.

W języku angielskim www wymawiane jest przez pojedyncze wypowiedzenie ciągu znaków (double-u double-u double-u). Niektóre kręgi użytkowników wymawiają dub-dub-dub, aczkolwiek ten sposób nie jest jeszcze zbyt powszechny. Angielski pisarz Douglas Adams zażartował kiedyś w "The Independent on Sunday (1999): "World Wide Web jest z tego co wiem jedynym wyrażeniem którego skrócona forma jest trzy razy dłuższa od pełnej". Określenie World Wide Web jest powszechnie tłumaczone na język chiński jako: wan wei wǎng, co dosłownie oznacza "mnóstwo wymiarów sieci". Tłumaczenie to bardzo dobrze odzwierciedla koncepcję projektu i założenia WWW. Tim Berners-Lee zdefiniował, iż wyrażenie World Wide Web powinno być pisane jako 3 osobne słowa bez żadnych dodatkowych łączników.

 

 

Prywatność

Użytkownicy komputerów, którzy oszczędzają czas i pieniądze, a także ci, którzy poszukują wygody i rozrywki, są narażeni na utratę prywatności w sieci. Na całym świecie ponad pół miliarda osób korzysta z serwisów społecznościowych, a młodzież dorastająca w dobie Internetu dokonuje kolejnej zmiany pokoleniowej. Z Facebooka, początkowo rozpowszechnionego pośród amerykańskich studentów, korzysta dziś ponad 70% użytkowników z innych państw niż USA. W 2009 roku na portalu uruchomiono test nowych narzędzi, umożliwiających dostosowanie ochrony prywatności, jednakże tylko 20% użytkowników rozpoczęło korzystanie z nich. Same serwisy wykorzystują część powierzonych im danych użytkowników do celów reklamowych. Osoba korzystająca z Internetu ma możliwość usunięcia historii przeglądanych stron, zablokowania niektórych ciasteczek (cookies) oraz wyskakujących okienek, jednak nie zapewnia to pełnej ochrony prywatności.

 

 

Bezpieczeństwo 

 

Sieć Web stała się otwartą drogą dla przestępców rozprzestrzeniających złośliwe oprogramowanie. Cyberprzestępczość prowadzona w internecie może składać się z kradzieży tożsamości, oszustw, szpiegostwa i gromadzenia poufnych informacji. Połączenie z internetem przewyższa tradycyjne zagrożenia dla bezpieczeństwa danych przetwarzanych przy pomocy komputera, a jak szacuje Google, około jedna na dziesięć stron internetowych może zawierać złośliwy kod. Większość ataków opartych na sieci Web odbywa się z poziomu legalnych stron internetowych, a najczęściej, jak szacuje firma Sophos, producent oprogramowania antywirusowego, ataki są prowadzone w Stanach Zjednoczonych, Chinach i Rosji. Najpowszechniejszym typem zagrożeń jest SQL injection. Za pomocą języka HTML i URI sieć Web została również narażona na ataki, takie jak cross-site scripting (XSS), które pojawiły się wraz z wprowadzeniem JavaScript, następnie zostały rozszerzone do pewnego stopnia przez Web 2.0 i Ajax, używające dużych ilości skryptów. Dziś szacunkowo 70% wszystkich stron internetowych jest niezabezpieczonych przed atakami XSS.

 

 

Archiwizacja stron WWW 

 

Z biegiem czasu wiele zasobów publikowanych w Internecie zanika, zostaje przeniesionych, zaktualizowanych lub całkowicie zmienia się ich zawartość. To sprawia, że niektóre odnośniki stają się przestarzałe. Określa się je wtedy mianem "martwych odnośników" (ang. dead links). Problem ten spowodował, że podjęto działania zaradcze, i np. Internet Archive, działające od 1996 roku, jest obecnie najbardziej znaną instytucją zajmującą się archiwizacją zasobów Internetu.

 

 

Standaryzacja 

 

Funkcjonowanie World Wide Web w Internecie oraz wymiana informacji pomiędzy komputerami opiera się na wielu standardach i specyfikacjach technicznych. Duża część tych dokumentów to opracowania World Wide Web Consortium (W3C), kierowanego przez Berners'a-Lee, a niektóre z nich są dziełem Internet Engineering Task Force (IETF) oraz innych organizacji.
Gdy wspominamy o standardach internetowych najczęściej mamy do czynienia z następującymi publikacjami:
  • Zalecenia W3C dla języków znaczników, zwłaszcza HTML i XHTML. Określają one struktury interpretacji dokumentów hipertekstowych.
  • Zalecenia W3C dla arkuszy stylów, szczególnie CSS.
  • Standardy ECMAScript (zazwyczaj w formie JavaScript), z ECMA International.
  • Zalecenia W3C dotyczące modelowania dokumentów obiektowych.
Dodatkowe publikacje dostarczają definicji innych podstawowych technologii stosowanych w World Wide Web, min.:
  • Uniform Resource Identifier (URI), który jest uniwersalnym systemem odniesień do zasobów w Internecie, takich jak dokumenty hipertekstowe i obrazy. URI, często nazywane URL jest definiowane przez IETF RFC 3986 STD / 66: Uniform Resource Identifier (URI): Generic Syntax.
  • Protokół HTTP, a konkretnie RFC 2616: HTTP/1.1 i RFC 2617: Autoryzacja HTTP, które określają, jak przeglądarka i serwer uwierzytelniają siebie nawzajem.

 

 

Dostępność WWW 

 

Na dzień dzisiejszy dostęp do WWW jest możliwy dla wszystkich, bez względu na to, czy użytkownik jest osobą w pełni czy niepełnosprawną. Niezależnie od rodzaju niepełnosprawności, sieć Web służy przesyłaniu, jak również pozyskiwaniu informacji oraz interakcji ze społeczeństwem, przez co niezmiernie ważne jest, aby umożliwić dostęp do sieci osobom niepełnosprawnym, często ograniczonym ruchowo. Tim Berners-Lee twierdzi, iż "potęga internetu polega na jego uniwersalności. Dostępność dla wszystkich, bez względu na niepełnosprawność jest jej głównym aspektem." Wiele krajów wymaga od autorów witryn stosowania ułatwień dostępu. Międzynarodowa ustalenia w ramach "Inicjatywy dostępności do sieci" W3 Consortium (Web Accessibility Initiative) doprowadziły do wystosowania pewnych prostych wytycznych, które autorzy treści internetowych, jak również twórcy oprogramowania mogą wykorzystywać, aby umożliwić "surfowanie" po sieci osobom niepełnosprawnym.

 

 

Obsługa różnych języków 

 

W3C zapewnia, że usługa WWW będzie dostępna we wszystkich językach świata. Na początku 2004 r. Unicode zyskał znaczną popularność i ostatecznie w grudniu 2007 r., jako najczęściej używany system kodowania znaków w sieci Web, wyparł zarówno ASCII jak i zestaw znaków dla Europy Zachodniej. Pierwotnie zbiór RFC 3986 zezwalał obiektom sieci na identyfikację tylko poprzez adresy składające się ze znaków z podgrupy US-ASCII. RFC 3987 uznaje rozszerzony zakres znaków i od tej pory zasoby sieci mogą być identyfikowane poprzez adresowanie w każdym z języków.

 

 

Prędkość transmisji 

 

Przeciążenie infrastruktury Internetu, wywołane przewagą popytu nad podażą, powoduje, nieraz znaczące, opóźnienia w przeglądaniu stron internetowych. Powstało nawet żartobliwa określenie dla WWW: "World Wide Wait" (czyli: "wielkie, światowe czekanie"). Przyspieszenie działania sieci jest ciągle otwartym tematem dyskusji i rozważań użytkowników, specjalistów oraz polem działania technologii QoS. Inne rozwiązania mające na celu przyspieszenie Internetu można znaleźć na stronie W3C.
Standardowe wytyczne dla idealnego czasu odpowiedzi z serwera to:
  • 0,1 sekundy (jedna dziesiąta sekundy). Idealny czas reakcji. Użytkownik nie odczuwa jakichkolwiek opóźnień.
  • 1 sekunda. Największy dopuszczalny czas reakcji. Czas odpowiedzi powyżej 1 sekundy zakłóca pracę użytkownika.
  • 10 sekund. Niedopuszczalny czas reakcji. Przeglądanie zostanie przerwane, a użytkownik prawdopodobnie ujrzy komunikat błędu.

 

 

Statystyki 

 

Według badań z 2001 roku, istniało wtedy więcej niż 550 miliardów dokumentów internetowych, najczęściej dostępnych w tzw. "widocznym WWW" (ang. visible Web lub surface Web) czyli skatalogowanych (zindeksowanych) przez wyszukiwarki internetowe lub w tzw. "ukrytym WWW" (ang. hidden Web lub deep Web) czyli nieskatalogowanych przez wyszukiwarki. W 2002 r. przebadano zawartość 2,024 mln stron WWW, dzięki czemu wiadomo, że zdecydowanie najwięcej zawartości sieci Web była w języku angielskim: 56,4%; następne były strony w języku niemieckim (7,7%), francuskim (5,6%) i japońskim (4,9%). Najnowsze badania, wykorzystywały do zebrania próbek stron internetowych wyszukiwarki internetowe w 75 różnych językach. Ustalono, że od końca stycznia 2005 było ponad 11,5 miliardów publicznie indeksowanych stron internetowych. W marcu 2009, indeksowanych stron było już co najmniej 25,21 miliardów. 25 lipca 2008r, inżynierowie oprogramowania Google Jesse Alpert i Nissan Hajaj ogłosili iż wyszukiwarka odkryła bilion unikalnych adresów URL. Spośród nich 74% było komercyjnych lub były to strony działające w domenach najwyższego poziomu.



Zapraszamy do zapisania się na nasz newsletter!


piątek, 2 września 2011

Witaj na blogu o internecie !


Blog został stworzony dla osób zainteresowanych internetem oraz siecią.

Znajdziesz tu ciekawe informacje dotyczące internetu. 

Dowiesz się czym różni się strona internetowa od sklepu internetowego. 

Nauczymy Cię jak stworzyć swoją stronę internetową. 

Wytłumaczymy różnicę między serwisem internetowym, portalem, stroną oraz blogiem. Podpowiemy czym kierować się w wyborze serwera oraz jak dobrać nazwę do swojej strony aby była jak najprostsza. 

Opiszemy jak pozycjonować swoją stronę internetową oraz co robić żeby zarabiać w sieci. 

Postaramy się podpowiedzieć Ci co zrobić aby Twoją stronę odwiedzało coraz to więcej nowych ludzi oraz co zrobić aby podnieść swój page rank. 

Wytłumaczymy czy warto dodawać swoją stronę do katalogów stron internetowych . 

Odpowiemy czym jest hosting oraz hardware.


Zapraszamy do zapisania się na nasz newsletter !