Wie geht das mit dem Internet
am Montag, 20. August 2007, 18:17 im Topic 'Internet'
Jeder nutzt es jeder kennt es: Das World Wide Web. Aber was steckt dahinter? Nun angefangen hat das alles in der Schweiz an der CERN (Conseil Européen pour la Recherche Nucléaire) wo ein Mann namens Tim Berners-Lee eine Methode suchte einfach wissenschaftliche Informationen zu publizieren. Es sollte jedem möglich sein dort etwas zu schreiben und etwas zu lesen. Schliesslich macht er das so: Es gibt einen Server (eigentlich ein ganz normaler PC) dort läuft ein Programm das Zugriffe auf ein bestimmtes Verzeichnis regelt. Und damit man auch auf dieses Verzeichnis zugreifen kann, bekommt jeder Computer der sich in dieses Netz einloggt eine Nummer, die so genannte IP.
Dies sind 4x3 Zahlen nach dem Schema 000.000.000.000, welche automatisch zugewiesen werden. Diese werden übrigens knapp weshalb im Moment auf eine neue Technologie umgesattelt wir d, IPv6. Dadurch wird eine Hexadezimale (Dort ist 16 zehn, das heisst also das erst bei sechzehn eine zweite Ziffer angehängt wird wobei die zahlen 10-16 durch die Buchstaben a-g ersetzt werden) Zahl in diesem Muster verwendet:
0000:0000:0000:0000:0000:0000:0000:0000
Durch die Hexadezimale Schreibweise sind somit 340,28 Sextillionen IP Adressen verfügbar. Um euch das zu Augen zu führen: Das sind pro Quadratmillimeter der Erde ca. 667 Billiarden Adressen. Das sollte eigentlich genügen ;)
Aber jetzt weiter im Text: Diese IPs waren doch recht umständlich zu handhaben und so hat er noch Domains hinzugefügt. Diese funktionieren so:
http://<-- Das ist das benutze Protokoll (später)
www. <--- Kann auch ein anderer Name sein, zb forum. man nennt das subdomain
google. <--- Der eigentliche Name der Seite
de <--- Der so genannte Top-Level-Domain. Dieser wird von speziellen Anbietern zusammen mit einem Namen vergeben, eben zb Google.
Ausserdem könnte man noch speziell angeben welche Datei man jetzt will.
Ausserdem gibt es noch Transfer Protokolle, hauptsächlich http für normale Webseiten und ftp für Datenübertragung.
Jetzt fehlt uns nur noch etwas: Eine Möglichkeit Texte für dieses System zu schreiben, und vor allem die spezielle Eigenschaft des Internets zu nutzen: Die Links. Dazu hat er HTML (Hypertext Markup Language) entwickelt. Damit schreibt man eigentlich einfach einen Text und kann durch einfache Befehle Schriften simpel formatieren und Links setzten. Natürlich entwickelten sich weitere Sprachen die weit mehr möglich machten, allerdings würde das hier etwas zu weit gehen. Daher machen wir das vielleicht später mal noch.
So jetzt haben wir alles technische aber noch können wir damit nichts anfangen. Jetzt kommt das sogennante Server-Client (Sklave-Kunde) Modell zum Zug: Auf einem Rechner läuft ein Programm das einen Ordner verwaltet in dem die Website liegt. Wenn nun eine Anfrage auf diesen Server kommt dann schickt er die geforderten Daten zurück. Und dort steht der Client Rechner, also zb deiner wenn du das hier liesst. Dort läuft ein Browser der diese Anfragen verfassen kann und auch die Dateien anzeigen kann die er bekommt (eben zb HTML).
Diese Verbindung sucht sich selbst einen Weg durch das Netz, das heisst also das meist kein direkter Kontakt zwischen Client und Server existiert sondern sich irgendwo durch die Welt schlängelt. Heute gibt es 13 Grosse Rechner die solche Anfragen zu einem grossen Teil weiterreichen.
Weil es aber vorkommen kann das nun manche Daten länger haben weil sie einen anderen Weg genommen haben wurden Pakete entwickelt. In diesen sind kurze Sequenzen der Daten gespeichert und dieser werden dann auf dem Client wieder zusammengesetzt.
Noch kurz zur Geschichte des Internets: Zuerst wurde es wie gedacht Hauptsächlich in der CERN verwendet. Irgendwann kam aber das US Militär auf die Idee das eine solches Netz im Kriegsfall besser zu halten wäre als ein Traditionelles da es keinen Zentralen Punkt gibt denn man ausschalten kann. Dadurch wurden viele Universitäten mit dem Internet verbunden weil sie Militärisch wichtig waren. Und bald hatten das fast alle Unis und die Studenten benutzen E-Mail und schrieben Websiten. Irgendwann kam es dann auch an die Öffentlichkeit. Und da ist es passiert: Man schrieb kaum noch im Internet, niemand hatte Zeit und Lust sich in die Technologien einzuarbeiten. Aber das geht jetzt wieder zu ende: Durch Blogs und Dinge wie MySpace oder Foren wird das Internet wieder von den Usern regiert...
Bis bald:
Fanatik
Dies sind 4x3 Zahlen nach dem Schema 000.000.000.000, welche automatisch zugewiesen werden. Diese werden übrigens knapp weshalb im Moment auf eine neue Technologie umgesattelt wir d, IPv6. Dadurch wird eine Hexadezimale (Dort ist 16 zehn, das heisst also das erst bei sechzehn eine zweite Ziffer angehängt wird wobei die zahlen 10-16 durch die Buchstaben a-g ersetzt werden) Zahl in diesem Muster verwendet:
0000:0000:0000:0000:0000:0000:0000:0000
Durch die Hexadezimale Schreibweise sind somit 340,28 Sextillionen IP Adressen verfügbar. Um euch das zu Augen zu führen: Das sind pro Quadratmillimeter der Erde ca. 667 Billiarden Adressen. Das sollte eigentlich genügen ;)
Aber jetzt weiter im Text: Diese IPs waren doch recht umständlich zu handhaben und so hat er noch Domains hinzugefügt. Diese funktionieren so:
http://<-- Das ist das benutze Protokoll (später)
www. <--- Kann auch ein anderer Name sein, zb forum. man nennt das subdomain
google. <--- Der eigentliche Name der Seite
de <--- Der so genannte Top-Level-Domain. Dieser wird von speziellen Anbietern zusammen mit einem Namen vergeben, eben zb Google.
Ausserdem könnte man noch speziell angeben welche Datei man jetzt will.
Ausserdem gibt es noch Transfer Protokolle, hauptsächlich http für normale Webseiten und ftp für Datenübertragung.
Jetzt fehlt uns nur noch etwas: Eine Möglichkeit Texte für dieses System zu schreiben, und vor allem die spezielle Eigenschaft des Internets zu nutzen: Die Links. Dazu hat er HTML (Hypertext Markup Language) entwickelt. Damit schreibt man eigentlich einfach einen Text und kann durch einfache Befehle Schriften simpel formatieren und Links setzten. Natürlich entwickelten sich weitere Sprachen die weit mehr möglich machten, allerdings würde das hier etwas zu weit gehen. Daher machen wir das vielleicht später mal noch.
So jetzt haben wir alles technische aber noch können wir damit nichts anfangen. Jetzt kommt das sogennante Server-Client (Sklave-Kunde) Modell zum Zug: Auf einem Rechner läuft ein Programm das einen Ordner verwaltet in dem die Website liegt. Wenn nun eine Anfrage auf diesen Server kommt dann schickt er die geforderten Daten zurück. Und dort steht der Client Rechner, also zb deiner wenn du das hier liesst. Dort läuft ein Browser der diese Anfragen verfassen kann und auch die Dateien anzeigen kann die er bekommt (eben zb HTML).
Diese Verbindung sucht sich selbst einen Weg durch das Netz, das heisst also das meist kein direkter Kontakt zwischen Client und Server existiert sondern sich irgendwo durch die Welt schlängelt. Heute gibt es 13 Grosse Rechner die solche Anfragen zu einem grossen Teil weiterreichen.
Weil es aber vorkommen kann das nun manche Daten länger haben weil sie einen anderen Weg genommen haben wurden Pakete entwickelt. In diesen sind kurze Sequenzen der Daten gespeichert und dieser werden dann auf dem Client wieder zusammengesetzt.
Noch kurz zur Geschichte des Internets: Zuerst wurde es wie gedacht Hauptsächlich in der CERN verwendet. Irgendwann kam aber das US Militär auf die Idee das eine solches Netz im Kriegsfall besser zu halten wäre als ein Traditionelles da es keinen Zentralen Punkt gibt denn man ausschalten kann. Dadurch wurden viele Universitäten mit dem Internet verbunden weil sie Militärisch wichtig waren. Und bald hatten das fast alle Unis und die Studenten benutzen E-Mail und schrieben Websiten. Irgendwann kam es dann auch an die Öffentlichkeit. Und da ist es passiert: Man schrieb kaum noch im Internet, niemand hatte Zeit und Lust sich in die Technologien einzuarbeiten. Aber das geht jetzt wieder zu ende: Durch Blogs und Dinge wie MySpace oder Foren wird das Internet wieder von den Usern regiert...
Bis bald:
Fanatik