регистрация / вход

File Sharing Systems Essay Research Paper Universitt

File Sharing Systems Essay, Research Paper Universit?t St. Gallen Hochschule f?r Wirtschafts- Rechts- und Sozialwissenschaften ITM / MCM Wahlteil Neue Medien / Medienarchitektur

File Sharing Systems Essay, Research Paper

Universit?t St. Gallen

Hochschule f?r Wirtschafts-

Rechts- und Sozialwissenschaften

ITM / MCM

Wahlteil Neue Medien / Medienarchitektur

Prof. Dr. Beat Schmid

FILE SHARING SYSTEME

P2P

Von Philipp Brunner

Hans Geiser

Roman H?gg

Stefan Kress

Beat Meier

Olivier Salamin

Abgabetermin: 5. Dezember 2000

Inhaltsverzeichnis

Einf?hrung Seite 3

1. Theoretische Grundlagen 3

1.1. Netzarchitekturen 3

1.1.1. Client Server 3

1.1.2. Peer to Peer 4

1.1.3. Verzeichnisserver 4

1.2. Netzwerkprotokolle / TCP/IP 4

1.2.1. Transmission Internet Protocoll 4

1.2.2. Internet Protocoll 5

1.2.3. TCP/IP ist das Internet 6

1.2.4. IP ? Adressierung 6

1.3. Proxyserver 7

2. Fallbeispiele 8

2.1. MP3 8

2.1.1. Allgemeine Aspekte 8

2.1.2. Technische Aspekte 8

2.1.3. Wirtschaftliche Aspekte 9

2.1.4. Konklusion / Extrapolation 9

2.2. Napster 10

2.2.1. Allgemeine Aspekte 10

2.2.2. Technische Aspekte 10

2.2.3. Wirtschaftliche Aspekte 11

2.2.4. Konklusion / Extrapolation 12

2.3. Gnutella 13

2.3.1. Allgemeine Aspekte 13

2.3.2. Technische Aspekte 13

2.3.3. Wirtschaftliche Aspekte 14

2.3.4. Konklusion / Extrapolation 14

2.4. Freenet 15

2.4.1. Allgemeine Aspekte 15

2.4.2. Technische Aspekte 15

2.4.3. Wirtschaftliche Aspekte 16

2.4.4. Konklusion / Extrapolation 16

2.5. Mojonation 17

2.5.1. Allgemeine Aspekte 17

2.5.2. Technische Aspekte 17

2.5.3. Wirtschaftliche Aspekte 18

2.5.4. Konklusion / Extrapolation 19

3. Neue Problematiken / Denkanst?sse 19

3.1. Staat 19

3.2. Juristik 20

3.3. Kriminalit?t / Cyber Terrorismus 20

3.4. Vom gl?sernen B?rger zum gl?sernen Kunden 20

4. Konklusion / Extrapolation 21

4.1. Ausblick: Groovenet 21

4.2. P2P Prognosen 21

4.3. Trendabsch?tzung 22

Anhang I

Literaturverzeichnis I

Abbildungsverzeichnis I

URLs I

CD ? Rom I

Einf?hrung Die als weitgehend institutionalisiert geglaubten, auf Client ? Server ? Modellen basierenden Kommunikationsstrukturen des Internet unterziehen sich zurzeit einem rasanten Wandel, dessen Konsequenzen das Internet und seine Community wieder zu ihren Wurzeln archaischer wie auch basisdemokratischer Verst?ndigung f?hren k?nnte.

Client ? Server ? Modelle, synonym f?r kostenintensive Infrastruktur, Wartung und Bedienung wie aber auch f?r leichte Kontrolle und somit problemlose Einbindung in bestehende Gesch?ftsmodelle der Old Economy, scheinen zurzeit vom Organismus Internet wie ein systemfremdes Bakterium abgestossen zu werden.

Tats?chlich liess der als zentral zu wertende Bereich der Kommunikationsformen als Basis jedweder Verst?ndigung bisher stark Attribute wie Innovationskraft, wie Wandel und Dynamik vermissen.

Innovative File ? Sharing ? Systeme wie namentlich Peer to Peer Modelle (P2P) beginnen zunehmend am althergebrachten Diktat der Client ? Server ?Systeme zu r?tteln, werden wom?glich diese Mauern innerhalb k?rzester Zeit zum Einsturz bringen.

Begleitet vom Hauch des Illegalen, des Subversiven, haben sich diese Modelle mittels einiger Protagonisten dieser Entwicklung (Napster, Gnutella etc.) einen breiten Zuspruch der Internet Community erk?mpft.

Peer ? gleichgestellt; ungleich der hierarchischen (und somit der Grundideologie des Internet quasi systemfremden) Ordnung der Client ? Server ? Systeme agieren bei der P2P Kommunikation alle teilnehmenden Rechner als Client wie auch als Server. Dieses relativ trivial anmutende Prinzip erm?glicht somit die effizente (effizienteste?!) Aufteilung aller technischen Ressourcen wie Speicherkapazit?t, Rechnerleistung und Bandbreite.

Es erstaunt nicht, dass die Exponenten der Old Economy mit einer auf Tausch (sprich: geben und nehmen) basierenden Kommunikationsform M?he bekunden, zumal es noch nicht gelungen ist, dieses Konzept ungeachtet seines Erfolges in bestehende Business ? Modelle einbinden zu k?nnen.

Die vorliegende Arbeit verfolgt die Zielsetzung, dem unkundigen Leser mittels eines deduktiven und ganzheitlichen Ansatzes ein Bild der aktuellen Kommunikationsformen des Internet zu vermitteln. Gem?ss dieser Motivation sollen in einem ersten Schritt die theoretischen Grundlagen f?r ein besseres Verst?ndnis der in einem zweiten Schritt folgenden Fallbeispiele geschaffen werden. Um dem angedeuteten ganzheitlichen Ansatz Rechnung zu tragen, werden in einem dritten Schritt im Sinne von Denkanst?ssen soziale, wirtschaftliche, juristische etc. Aspekte diskutiert. Die Arbeit m?ndet schliesslich in einer Konklusion, einer Beurteilung und m?glichen Extrapolation der Gegenwart seitens der Autoren.

Es wurde bewusst auf eine intensive Illustrierung der Arbeit verzichtet, um eine h?chstm?gliche Informationsdichte und somit einen inhaltlich maximalen Mehrwert zugunsten des Lesers zu gew?hren. In Bezug auf eine detaillierte Illustrierung sei an dieser Stelle auf die der Arbeit im Sinne eines Anhangs beigelegten CD ? Rom verwiesen, welche nebst den zitierten Quellen eine umfangreiche Daten- und Programmsammlung beinhaltet.

1. Theoretische Grundlagen

1.1. Netzarchitekturen

1.1.1. Client-Server Zu Beginn der Computer?ra war sowohl Rechenleistung als auch Speicherplatz stark beschr?nkt und sehr teuer. Gerade aber diese beiden Faktoren machten den Vorteil maschineller Informationsverarbeitung aus und deswegen wurden verschiedene Konzepte entwickelt, die vorhandenen Ressourcen m?glichst effizient zu nutzen.

Man ging in der Regel von einer zentralen Rechenmaschine aus, welche sowohl die Berechnungen ausf?hrte als auch alle Informationen speicherte. Daneben existierten ?dumme? Terminals, welche auf diese Ressourcen zur?ckgreifen konnten. Aus dieser hierarchischen Struktur wurde die Bezeichnung des Client-Server-Modells abgeleitet, welche somit das ?klassische? Netzwerkmodel darstellt.

1.1.2. Peer-to-Peer Mit zunehmender Weiterentwicklung der Computer wurde es nun aber auch m?glich, die Terminals intelligenter werden zu lassen und schlussendlich ganz von ihren Servern zu l?sen. Daraus entstand der klassische Desktop-Computer, welcher als Einzelarbeitsplatzsystem dem Benutzer nun alle Vorteile der maschinellen Informationsverarbeitung direkt bieten konnte, so dass dieser nicht mehr darauf angewiesen war, eine Verbindung zu einem Server zu haben. F?r kleinere Arbeitsstrukturen war es aber sinnvoll, die einzelnen Desktops miteinander zu verbinden. Daraus leitete sich das Peer-to-Peer (P2P)-Modell ab.

1.1.3. Verzeichnisserver In der zunehmenden Informationsflut sowie einer enorm wachsenden Zahl von Peers wurde es aber immer schwieriger, alle spezifischen Informationen auf allen angeschlossenen Netzteilnehmern zu suchen. Die L?sung f?r dieses Problem fand sich in der Idee der Verzeichnisserver, welche ausschliesslich als ?Inhaltsverzeichnis? des grossen Netzverbundes fungierten.

Diese drei Modelle dienen als Grundlage und k?nnen beschr?nkt beliebig skaliert werden. Auf der tiefsten Ebene befindet sich ein LAN (Local Area Network), welches i.d.R. Computer innerhalb eines Geb?udes oder Geb?udekomplexes miteinander verbindet. Die n?chst h?here Stufe ist das WAN (Wide Area Network), welches verschiedene lokale Netze zu einem grossen Ganzen verbindet. Schlussendlich findet sich das GAN (Global Area Network), wie es das Internet darstellt.

1.2. Netzwerkprotokolle / TCP/IP

TCP/IP ist eine Gruppe von zwei unterschiedlichen Protokollen auf unterschiedlichen Ebenen des OSI-Referenzmodelles. TCP (Transmission Control Protocol) ist ein Protokoll der 4. Schicht (Transportschicht), IP (Internet Protocol) befindet sich in der 3. Schicht (Vermittlungsschicht).

TCP/IP gew?hrleistet den Auf- und Abbau der Verbindung zwischen Sender und Empf?nger und sorgt f?r die korrekte Adressierung der Information und deren Aufteilung in einzelne Datenpakete.

1.2.1. Transmission Control Protocol TCP ist eines der Hauptprotokolle des Internet. Es vereinfacht solch hochsensible Aufgaben wie die ?bertragung von Dateien und entfernte Arbeitssitzungen. Die Arbeitsweise von TCP wird als zuverl?ssige ?bertragung bezeichnet. In dieser Hinsicht unterscheidet sich TCP von anderen Protokollen der Protokollfamilie, die als unzuverl?ssig gelten und keine Garantie ?bernehmen, dass die Daten in der gleichen Reihenfolge und dem gleichen Zustand ankommen, in der bzw. dem sie abgesandt wurden. Das TCP-System verl?sst sich auf eine virtuelle Verbindung, die zwischen dem anfragenden und dem Ziel-Rechner etabliert wird. Diese Verbindung wird durch einen dreiteiligen Prozess ge?ffnet, der oft auch als ?three-part-handshake? bezeichnet wird. In der Regel folgt der Prozess dem in Abbildung 4 gezeigten Muster.

Nach ?ffnen der Verbindung k?nnen die Daten simultan in beide Richtungen reisen, was auch als Vollduplex-?bertragung bezeichnet wird. So k?nnen auch w?hrend einer Daten?bertragung (oder einer anderen entfernten Arbeitssitzung) eventuell auftretende Fehler an den anfragenden Rechner ?bertragen werden.

TCP stellt umfangreiche Funktionen zur Fehler?berpr?fung zur Verf?gung. F?r jedes gesendete Datenpaket wird ein numerischer Wert generiert. Die zwei Rechner identifizieren jedes ?bertragene Datenpaket anhand dieses numerischen Wertes. F?r jedes erfolgreich ?bertragene Paket sendet der Empf?nger eine Nachricht an den Absender, dass die ?bertragung erfolgreich war.

Im Gegensatz dazu k?nnen bei nicht erfolgreicher ?bertragung zwei Dinge passieren:

- Der anfragende Rechner erh?lt eine Fehlermeldung

- Der anfragende Rechner erh?lt nichts

Nach Empfang einer Fehlermeldung werden die Daten erneut ?bertragen, ausser wenn es sich um einen schweren Fehler handelt. In diesem Fall wird die ?bertragung gew?hnlich unterbrochen. Ein typisches Beispiel f?r einen schweren Fehler ist z. B. ein Zusammenbrechen der Verbindung.

Ganz ?hnlich dazu werden die Daten ebenfalls erneut ?bertragen, wenn innerhalb eines bestimmten Zeitraums keine Best?tigung empfangen wird. Dieser Prozess wird solange wiederholt, bis die ?bertragung oder die entfernte Arbeitssitzung abgeschlossen ist.

1.2.2. Internet Protocol IP geh?rt zur Netzwerkschicht und ist f?r die ?bertragung von Datenpaketen f?r alle Protokolle der TCP/IP-Protokollfamilie verantwortlich. IP stellt damit das Herz dieses unglaublichen Prozesses dar, mit dem Daten das Internet durchqueren. Abbildung 5 zeigt ein kleines Modell eines IP-Datagramms, das diesen Prozess erkl?rt.

Wie in der Abbildung gezeigt, besteht ein IP-Datagramm aus mehreren Teilen. Der erste Teil, der Reader (Kopfzeile), besteht aus verschiedenen Elementen, u.a. den IP-Adressen des Absenders und des Empf?ngers. Zusammen formen diese Elemente einen kompletten Reader. Der restliche Teil des Datagramms enth?lt die jeweils zu versendenden Daten.

Das erstaunliche am Internet Protocol ist folgendes: Datagramme k?nnen w?hrend ihrer Reise fragmentiert und sp?ter beim Empf?nger wieder zusammengesetzt werden (auch wenn sie nicht in der gleichen Reihenfolge ankommen, in der sie abgesandt wurden).

Ein IP-Datagramm enth?lt noch weitere Informationen, z.B. die Identit?t des gerade benutzten Protokolls, eine Reader-Pr?fsumme und eine Time-to-Live-Spezifikation. Diese Spezifikation ist ein numerischer Wert. W?hrend das Datagramm durch das Internet reist, wird dieser numerische Wert st?ndig vermindert. Wenn er schliesslich null erreicht, wird das Datagramm verworfen. Viele Paket-Typen haben Time-to-Live-Limitationen. Einige Netzwerk-Utilities (wie Traceroute) benutzen das Time-to-Live-Feld als eine Markierung f?r Diagnose-Routinen.

Zusammenfassend kann die Funktion von IP auf folgendes reduziert werden: Es dient der ?bertragung von Datenpaketen ?ber das Internet.

1.2.3. TCP/IP ist das Internet Inzwischen sollte es offensichtlich sein, dass TCP/IP im Grunde genommen das Internet selbst umfasst. Es ist eine komplexe Sammlung von Protokollen, viele davon f?r den Benutzer unsichtbar. Auf den meisten Internet-Servern k?nnen alle der folgenden Netzwerkprotokolle laufen:

- Transmission Control Protocol (TCP)

- Internet Protocol (IP)

- Internet Control Message Protocol (ICMP)

- Address Resolution Protocol (ARP)

In der Anwendungsebene gelten die folgenden Protokolle als Standard:

- File Transfer Protocol (FTP)

- Telnet Protocol (Telnet)

- Gopher Protocol

- Network News Transfer Protocol (NNTP)

- Simple Mail Transfer Protocol (SMTP)

- Hypertext Transfer Protocol (HTTP)

Dies ist nur eine Handvoll der Protokolle, die im Internet laufen. Tats?chlich gibt es Hunderte dieser Protokolle. Mehr als die H?lfte der Implementierungen der wichtigsten Protokolle hatten schon ein oder mehrere Sicherheitsl?cher.

Folgender Punkt ist wesentlich: Das Internet wurde als ein System mit vielfachen Kommunikationswegen entwickelt. Jedes Protokoll stellt einen dieser Wege dar. An sich gibt es also hunderte von Wegen, um Daten ?ber das Internet zu bewegen.

1.2.4. IP-Adressierung Grunds?tzlich werden beim Internet Protocol nur Computer (Hosts) adressiert. M?glicherweise mag das Datenpaket zwar weitere Angaben, wie z. B. den Adressaten einer E-Mail, enthalten – das interessiert die IP-Schicht jedoch nicht. Diese ist nur daf?r zust?ndig, Datenpakete von einer Maschine im Netz zu einer anderen zu schaffen. Normalerweise wird die Zielmaschine das Paket dann genauer untersuchen, um herausfinden, was im einzelnen zu tun ist (und die Nutzdaten z. B. als Nachricht in der Mailbox eines bestimmten Benutzers abzulegen). Eine Analogie: Wenn Sie die zentrale Telefonnummer einer grossen Firma w?hlen, dann erreichen Sie gew?hnlich nicht direkt die Person, mit der Sie sprechen wollen. Das Gespr?ch kann aber von der Gegenstelle leicht an die korrekte Nebenstelle weitervermittelt werden. Wichtig ist, dass Sie unter einer zentralen Nummer, wenn auch indirekt, jeden Mitarbeiter erreichen k?nnen.

Jeder einzelne Host im Internet (man sch?tzt ?brigens, dass Ende 1996 ?ber 10 Millionen Computer online waren) erh?lt als IP-Adresse einen eindeutigen Zahlenwert, sozusagen seine Hausnummer in der Internet-Strasse. Diese Nummer l?sst sich entweder als eine etwas l?ngliche 32-Bit-Zahl ausdr?cken, oder, f?r uns Normalsterbliche etwas ?bersichtlicher, als vier separate Werte zwischen 0 und 255 (also vier Byte a acht Bit, diese Einheit wird im Internet manchmal auch als Oktett bezeichnet). Diese zweite Schreibweise hat sich im Net durchgesetzt, so dass eine IP-Adresse etwa so aussehen kann: 194.23.45.127. Die vier Byte werden einfach durch Punkte voneinander getrennt. (Im IP-Header taucht die Adresse nat?rlich als Folge von 32 Bit auf).

Wenn nun Host A ein Paket an Host B mit der Adresse 194.23.45.127 senden will, dann reicht es vollkommen aus, einen IP-Header mit dieser Adressangabe zu versehen und ihn mitsamt den Nutzdaten ins Netz zu entlassen. Da jeder Rechner im Netz seine eigene, unverwechselbare Hausnummer hat, kann er von jeder anderen Maschine im Netz adressiert werden. Und durch das automatische Routing findet das Paket quasi selbstst?ndig seinen Weg und kommt ordnungsgem?ss bei Host 194.23.45.127 an (meistens). Nat?rlich gibt es dabei noch einige Feinheiten zu beachten, aber im Grossen und Ganzen ist dieses Verfahren wirklich so genial einfach. Zwei Fragen dr?ngen sich nun aber sofort auf: Erstens, wer vergibt denn diese eindeutigen IP-Adressen, wenn es im Netz angeblich keine zentrale Autorit?t gibt? Und zweitens: Warum sieht man diese Ziffernfolgen so gut wie nie als Internet-Adressen, sondern meist Klartextnamen wie http://www.microsoft.com oder Karin.Musterfrau@t-online.de?

Zuerst die Vergabe der Adressen: Diese wird geregelt durch die sogenannten Network Information Center (NIC). Bis vor wenigen Jahren gab es nur das NIC schlechthin in den USA. Mit der steigenden Verbreitung des Internet und der explosionsartigen Zunahme der Hosts wurde es jedoch erforderlich, diese Aufgabe auf mehrere Schultern zu verteilen. Daher wurden in den wichtigsten L?ndern Non-Profit-Organisationen damit beauftragt, die Host-Registrierung und Adressvergabe durchzuf?hren oder wenigstens zu kontrollieren. Diese erhalten einen gr?sseren Block von IP-Adressen, die sie nach eigenem Gutd?nken an lokale Interessenten verteilen. In der Schweiz ist daf?r Switch in Z?rich zust?ndig. Dieses ist eine Vereinigung der wichtigsten Internet-Provider. Die Registrierung dort ist kostenpflichtig, der Betrag ist allerdings relativ niedrig.

Mit einer 32-Bit-Adresse lassen sich theoretisch ?ber 4 Milliarden Hosts ansprechen, das scheint vorderhand eine ausreichend grosse Zahl zu sein. Eine genauere Betrachtung der Struktur von IP-Adressen zeigt allerdings, dass es mit der Theorie (wie ?blich) nicht allzuweit her ist. Eine Internet Adresse wird n?mlich einer von f?nf Gruppen zugeordnet, die von A bis E klassifiziert sind (die Gruppen D und E werden zurzeit allerdings nicht allgemein verwendet). Die Gruppen A bis C sind bitweise je nach Netzwerk ? Gr?sse definiert. Dazu wird die Tatsache herangezogen, dass fast alle Hosts Bestandteil eines eigenst?ndigen Subnetzes im Internet sind. Die 32 Bit der Adresse verteilen sich f?r die drei Gruppen wie folgt:

? Die Gruppe A beschreibt sehr umfangreiche Netze: 0aaaaaaa hhhhhhhh hhhhhhhh hhhhhhhh

? Gruppe B ist f?r mittelgrosse Netze gedacht: 10bbbbbb bbbbbbbb hhhhhhhh hhhhhhhh

? w?hrend Gruppe C kleine Netze abdeckt: 110CCCCC cccccccc cccccccc hhhhhhhh

Dieses Bit-Kauderwelsch heisst im Klartext folgendes: Ein bestimmtes Teil ? Netzwerk in Gruppe A wird durch 7 Bit (aaaaaaa) identifiziert (das h?chstwertige Bit im ersten Byte ist in diesem Fall grunds?tzlich gleich 0). Innerhalb eines solchen Netzwerks sind maximal 24 Bit (hhhhhhhh hhhhhhhh hhhhhhhh) f?r die Host-Numerierung reserviert.

Mit anderen Worten: Es kann weltweit maximal nur 128 (wegen der 7 Bit) grosse Netzwerke geben, die allerdings jeweils bis zu 16?777?216 separate Hosts enthalten k?nnten. Gruppe-A-Netze bleiben daher sehr grossen Organisationen vorbehalten; sie sind leicht daran zu erkennen, dass der erste der vier Adresswerte kleiner als 128 ist. Da allerdings nicht jedes dieser Netze tats?chlich die m?glichen ?ber 16 Millionen Hosts umfasst, werden sehr viele m?gliche Adressen verschwendet.

Gruppe-B-Adressen sind ?hnlich aufgebaut, allerdings sind hier 14 Bit (bbbbbb bbbbbbbb) f?r das Netzwerk (die obersten beiden Bit sind immer 10) und 16 Bit (hhhhhhhh hhhhhhhh) f?r den Host reserviert. Damit k?nnen also bis zu 16?384 Netze mit jeweils maximal 65536 Computern adressiert werden. Diese mittlere Gr?sse wird von vielen gr?sseren Firmen genutzt. Das erste Byte der Adresse liegt bei Gruppe-B-Adressen immer zwischen 128 und 191. Auch hier werden nat?rlich nicht belegte HostAdressen verschwendet. Die Gruppe C schliesslich erm?glicht bis zu 2?097?152 kleine Netze (21-Bit-Netzadresse, immer mit 110 beginnend) mit jeweils bis zu 256 Rechnern (8 Bit f?r den Host). Gruppe-C-Netze erkennt man am Wert 192 bis 223 im ersten Byte. Alle Werte dar?ber sind entweder Gruppe ? D oder ?E ? Netze, auf die ich hier nicht weiter eingehe.

Der Grund f?r diese merkw?rdige Aufteilung in Teilnetze ist die h?here Effizienz des IP-Routings: Die Router m?ssen nicht die Wege zu allen Hosts eines Netzes in ihren Tabellen speichern; es reicht vollkommen aus, nur die Route bis zum betreffenden Subnetz zu vermerken. Das Routing zum korrekten Host kann dann dort lokal erledigt werden. Dieser Vorteil wird heutzutage durch die schon angesprochene Verschwendung ungenutzter Host-Nummern jedoch wieder wettgemacht; sp?testens zur Jahrtausendwende ist leider der Punkt erreicht, an dem die IP-Adressen knapp werden. Zu den Zeiten, als diese Strukturen ersonnen wurden, konnte sich eben niemand vorstellen, dass das Netz einmal so umfangreich werden w?rde. Die IETF versucht allerdings seit geraumer Zeit, diesem Problem mittels eines erweiterten Schemas zur IP-Adressierung beizukommen. Dies ist aber leichter gesagt als getan, denn die 32-Bit-IP Adressen sind so eng mit den TCP/IP ? Protokollen verkn?pft, dass es gar nicht so einfach ist, ein verbessertes Verfahren zu finden, das dennoch zum jetzigen Standard r?ckw?rtskompatibel bleibt.

1.3. Proxyserver

Ein Proxyserver ist zur Hauptsache ein Sicherheitswerkzeug. Er steht an der Schnittstelle eines lokalen PCs, bzw. eines lokalen Netzes und ?berwacht permanent den Datenfluss. Daraus entstehen nun verschiedenste M?glichkeiten, den Zugang zum Internet zu optimieren, bzw. anonymisieren.

- Zwischenspeichern h?ufig nachgefragter Inhalte

- Firewall

- Filterung b?sartiger Inhalte

- Zugangsbeschr?nkungen f?r Adressbereiche, bzw. Ports

- Verbergen eines PC oder ganzer Netze vor dem Internet

Insbesondere die Anonymisierungsfunktion wird in den vorgestellten Filesharing Programmen durch sogenannte ?Transparente Proxies? benutzt. Dies bedeutet f?r den Benutzer folgendes:

Aus der Struktur eines TCP/IP ? Netzes folgt, dass ein solcher Proxy einerseits den lokalen Rechner ?ber TCP/IP erreichen k?nnen muss und dies ist an einem Einzelarbeitsplatz die lokale Standardadresse 127.0.0.1. Nach aussen (remote) erh?lt der Proxy die Adresse, welche ihm vom ISP (Internet Service Provider) dynamisch zugewiesen wurde.

Will man nun die Spur zur?ckverfolgen, auf welcher Route ein Datenpaket an seinen Speicherort gelangt ist, erreicht man irgendeinmal den entsprechenden Proxy. Nach aussen hin ist er derjenige, welcher das Datenpaket abgesandt hat und das ganze lokale Netz dahinter ist vom Rest der Welt abgeschirmt.

Transparent nennt man den Proxy, da andere Anfragen (wie z.B. http – requests) durch den Proxy hindurchgelassen werden und eine direkte Kommunikation auf diesem Weg nicht verunm?glicht wird.

2. Fallbeispiele

Bei der Auswahl der folgenden Fallbeispiele wurde darauf geachtet, ein m?glichst hohes Spektrum der bestehenden Modelle und Entwicklungen abdecken zu k?nnen (so stellt das Fallbeispiel MP3.com mit seiner Client ? Server Architektur einen eigentlichen Kontrapunkt im P2P Kontext dar, darf jedoch in einer umfassenden Betrachtung nicht fehlen).

Um dem angestrebten ganzheitlichen Aspekt Rechnung zu tragen, wurden die bestehenden Anwendungen nicht nur im Hinblick auf rein technische, sondern ebenfalls wirtschaftliche Elemente hin untersucht, wie auch firmenspezifisch entwicklungsgeschichtlich relevante Inhalte in die Betrachtung aufgenommen.

Um eine bessere Vergleichbarkeit zu erm?glichen, wurden die entsprechenden Ergebnisse in ein spezielles Raster gepresst, von welchem jedoch auch situativ abgewichen wird.

2.1. MP3.com / www.mp3.com

2.1.1. Allgemeine Aspekte

Facts & Figures Die Firma MP3.com wurde im M?rz 1998 durch Michael L. Robertson in Delaware USA gegr?ndet und ist seit dem 21. Juli 1999 an der amerikanischen Technologieb?rse NASDAQ unter dem Symbol MPPP kotiert.

Auf der Liste ihrer Hauptaktion?re finden sich klingende Namen wie CS First Boston, Hambrecht & Quist, Bank of Boston, Charles Schwab & Co.

Philosophie der Firma / der Software Als firmeneigene Philosophie verfolgt MP3.com einen Ansatz der Verschmelzung von Musik, ihren Kunden und Anbietern. Intendiert ist ein Auftritt als Musikdienstleister, der einerseits unter Ausschaltung von Zwischenh?ndlern jungen wie etablierten Musikern durch den angebotenen Dienst / das neue Dateiformat als neues effizientes Tr?germedium zur Verf?gung stellt, andererseits dem Kunden ein ungewohnt umfangreiches Angebot zu minimalen Preisen er?ffnet.

Der sehr erfolgreich um mediale Pr?senz bem?hte Gr?nder und CEO von MP3.com, Michael Robertson, stellt mit seinem Dienst das Anrecht der Musiker auf freie Wahl der Vertriebswege ihrer Musik in den Vordergrund.

Ziele & Zwecke der Firma / der Software MP3.com definiert sich als einen Music Service Provider. Das eigentliche Produkt, der zur Verf?gung gestellte Dienst respektive der zugunsten des Kunden geschaffene Mehrwert besteht in dem einzig von der Restriktion eines Internetzugangs abh?ngigen, ansonsten ubiquit?ren Zugang zu der pers?nlichen Musikbibliothek, welche nach individuellen Pr?ferenzen durch MP3.com organisiert werden kann.

Bei MP3.com handelt es sich somit im Wesentlichen um einen Provider von Datenbankkapazit?t im Internet (und nicht um eine auf P2P ? Modellen beruhende Kommunikationsarchitektur).

2.1.2. Technische Aspekte

Benutzung Um als User von den bei MP3.com angebotenen Leistungen profitieren zu k?nnen, gen?gt ein einfaches einloggen auf der Homepage, eine Installation zus?tzlicher Software auf dem eigenen System ist nicht erforderlich.

Kernelement der durch MP3.com angebotenen Leistung ist das Pointcast Tool MyMP3.com, mit welchem User ihre pers?nliche Musiksammlung von jedem beliebigen Internetterminal aus organisieren, erweitern und anh?ren k?nnen.

Durch den Kauf eines neuen Musiktr?gers, wahlweise bei MP3.com oder einem entsprechenden Gesch?ftspartner, l?sst sich die betreffende CD dem bestehenden Account bei MyMP3.com hinzuf?gen, wobei weiter die Option besteht, erworbene CDs vor der eigentlichen physischen Auslieferung bei MP3.com anzuh?ren. Bereits bestehende Datenbest?nde an Musikst?cken k?nnen durch eine spezifische Beam ? it Software dem MyMP3.com Account hinzugef?gt werden. Beim Einlegen der Musik CD in das CD ? Rom Laufwerk identifiziert die Software die neuen St?cke und erg?nzt den pers?nlichen MyMP3.Account entsprechend.

Daten Beim Einlegen der CD ? Rom respektive der folgenden Identifizierung der entsprechenden Musikst?cke durch das Beam ? it Tool und dem somit eingeleiteten Hinzuf?gen der jeweiligen Daten / Songs auf den pers?nlichen MyMP3.com Account werden nicht, wie eventuell intuitiv angenommen werden k?nnte, die Files konvertiert und anschliessend auf den Server geladen.

Die Beam ? it Software identifiziert vielmehr die Referenzen der auf der CD gespeicherten Musikst?cke und gibt diese Referenzen an den zentralen MP3.com Server weiter, auf welchem Millionen von Musiktiteln gespeichert sind. Ist die Referenz identifiziert und dem Server kommuniziert worden, werden die entsprechenden St?cke f?r den Kunden freigeschaltet.

Auf der Tatsache, dass MP3.com zur Umsetzung seines Gesch?ftsmodells eine riesige Datenbank an Musikst?cken unterhalten muss, fussen im ?brigen die Klagen, welche in j?ngster Zeit gegen MP3.com durch die Musikindustrie angestrebt worden sind.

Durch Einloggen auf seinem pers?nlichen MP3.com Account kann der User somit direkt auf seine Musikbibliothek zugreifen und mittels eines speziellen Streaming ? Verfahrens diese anh?ren, ein Download der Files ist jedoch nicht m?glich

P2P Kontext Der pers?nliche MyMP3.com Account ist naturgem?ss passwortgesch?tzt, so dass unberechtigte Dritte hier keine M?glichkeit haben, in pers?nliche Datenbest?nde eindringen zu k?nnen. Der passwortgesch?tzte Zugriff beschr?nkt sich jedoch auf den eigenen Account ? es besteht somit nicht die M?glichkeit eines Tausches mit anderen Usern, MP3.com ist somit kein File ? Sharing ? System (kein P2P Kommunikationsmodell), sondern ein nach der Client ? Server ? Struktur organisierter Dienst.

Sicherheit / Anonymit?t Zur Anmeldung auf dem MP3.com Interface ist die Angabe einer E ? Mail Adresse ausreichend, eine Verifikation der Person oder die Erforderlichkeit dar?ber hinausgehender pers?nlicher Daten ist nicht gegeben. Die Beantwortung zus?tzlicher Fragen (haupts?chlich im Sinne eines Customer Feedback Systems) kann auf freiwilliger Basis erfolgen.

2.1.3. Wirtschaftliche Aspekte

Bei einem Quartalsumsatz von USD 20 Mio. erwirtschaftete MP3.com einen Verlust von USD 4 Mio.

Ein erweitertes Gesch?ftsmodell, welche eine Klassifizierung der angebotenen Dienste in Comfort und Premium Versionen vorsieht ist angek?ndigt und soll mittelfristig implementiert werden, so dass MP3.com demn?chst rentabel werden k?nnte (falls man den Ank?ndigungen des CEOs Michael Robertson glauben schenken will).

2.1.4. Konklusion / Extrapolation

St?rken Als sicher nennenswerte, wenn auch auf weitem Feld isoliert dastehende St?rken sind einerseits der Bekanntheitsgrad (was allerdings wohl gr?sstenteils der gl?cklichen Namensgebung in Anlehnung an ein hochpopul?res Dateiformat zu verdanken ist), andererseits die strategischen Partnerschaften mit diversen Medienfirmen wie Time Warner, Bertelsmann, Sony etc. zu nennen, wie aber auch die starke Finanzierungsbasis der Firma, welche auf potente Kapitalgeber abst?tzen kann.

Schw?chen Im Kontext der Entwicklung zu neuartigen P2P Kommunikationen erscheint MP3.com quasi als Zeugnis vergangener Tage. Technisch veraltet, mutet zus?tzlich der Nutzen des angebotenen Dienstes in Zeiten von mobilen MP3 Playern, Napster etc. fragw?rdig an. Es ist f?r den technischen Stand dieses Dienstes weiter bezeichnend, dass sich MP3.com beispielsweise in direkter Substitutionskonkurrenz mit so althergebrachten Techniken wie portablen CD Playern befindet.

Wie in diesem Umfeld die j?ngst gemachten Gewinnprognosen einzusch?tzen sind, welche im ?brigen auf Massnahmen basieren, welche in Bezug auf das Selbstverst?ndnis des Internet nur als systemfremd qualifiziert werden k?nnen, soll hier der Beantwortung durch den Leser ?berlassen werden.

Das unter diesen Umst?nden durch User wie Fachbl?tter selbst die Benutzerfreundlichkeit von MP3.com in Zweifel gezogen wird, ist hierbei nur noch von sekund?rer Bedeutung.

Schlussbetrachtung Erfolgreich ist es MP3.com gelungen, die herk?mmlichen Vertriebswege f?r Musikdatentr?ger in Frage zu stellen, die lange ?berm?chtige Mittlerposition des Zwischenhandels anzugreifen und die globale Medienindustrie herauszufordern. Selbst unter der Annahme, dass sich die h?chst zweifelhaften Gewinnprognosen eines Tages in diesem hochkompetitiven Umfeld bewahrheiten sollten, droht MP3.com von juristischer Seite ein nur schwer gewinnbarer Kampf. Wie lange die mittlerweile d?nn gewordene Kapitaldecke den kostenintensiven Rechtsstreit mit Exponenten der globalen Medienkonzerne noch tragen kann bleibt in etwa ebenso fragw?rdig, wie die gemachten Gewinnprognosen und MP3.com Entwicklungschancen in einem Markt, in welchem selbst auf neuartigeren Kommunikationsmodellen basierende Dienste wie Napster einer ungewissen Zukunft entgegenblicken.

2.2. Napster / www.napster.com

2.2.1. Allgemeine Aspekte

Facts & Figures Die Firma Napster Inc. wurde im Fr?hling 1999 von dem damals 19 j?hrigen Northeastern University Studienabg?nger und ehemaligen Sozialhilfeempf?nger Shawn Fanning und dessen Onkel und Sponsor John Fanning gegr?ndet. Sie besch?ftigt bis dato rund 50 Angestellte und ist mit ihrem Hauptsitz in Redwood City / CA / USA beheimatet.

Entgegen dem gerne gepflegten Image eines Internet Start Ups verf?gt Napster Inc. ?ber ein hochprofessionelles Management aus erfahrenen Managern, Juristen, Technikern und Venture Capitalists. Den urspr?nglichen Eigent?mern und Gr?ndern Shawn und John Fanning kommt innerhalb des Managements bemerkenswerterweise (auf eigenen Wunsch) keine Entscheidungsmacht zu. Beide sind haupts?chlich f?r die Bereiche Technik und ?ffentlichkeitsarbeit zust?ndig.

Napster Inc. hat bis heute noch keinen Gewinn erwirtschaftet.

Der breiten ?ffentlichkeit bekannt wurde Napster vor allem in j?ngster Zeit durch seine juristischen Streitigkeiten mit globalen Medienunternehmen und Musikk?nstlern wie Metallica, die ihre herk?mmliche Position in der Wertsch?pfungskette der Musikindustrie bzw. ihre Urheberrechte gef?hrdet sehen. Als vorl?ufiger Schlusspunkt in dieser Entwicklung erfolgte eine Allianz mit der Bertelsmann AG.

Das nicht zuletzt in diesem Rechtsstreit gewonnene Image des David, der den Goliath einer grauen globalen Industrie herausfordert, beschied Napster eine ?usserst grosse wie treue Community, welche sich gegen?ber Napster nicht nur aufgrund des Gebrauchs ihres Dienstes verbunden f?hlt.

Philosophie der Firma / der Software Ungeachtet der Tatsache, dass die zurzeit im Internet herrschende kulturelle Revolution ihre Urspr?nge in der Napster ? Architektur findet, verf?gt die Entwicklung der Napster ? Software ?ber keine ideellen Hintergr?nde. Shawn Fanning?s Motivation f?r die Entwicklung von Napster bestand in der Absicht, eine spezielle Suchmaschine f?r MP3 Dateien zu entwickeln, da sich die Suche nach dem damals neuen Dateiformat mit herk?mmlichen Search Engines wie Yahoo als ausserordentlich umst?ndlich gestaltete.

Ziele & Zwecke der Firma / der Software Napster soll seinen Benutzern den freien Austausch von im MP3 Format gespeicherten Musikst?cken erm?glichen, wobei die im Ausdruck ?Austausch? beinhalteten Aspekte Leistung und Gegenleistung heute zunehmend an Relevanz verlieren, da die Zahl der User, die nur Dateien downloaden ohne selbst welche anzubieten, explosiv ansteigt und somit die Napster Groupnets zu eigentlichen Musikbibliotheken degradiert werden.

2.2.2. Technische Aspekte

Benutzung Im Gegensatz zu seinen weiterentwickelten Klonen verf?gt Napster ?ber einen zentralen Server (www.napster.com), auf dem die Napster ? Software auf den eigenen PC zur Installation heruntergeladen werden kann. Nach erfolgter Installation wird der Windows Desktop um ein entsprechendes Icon erg?nzt, welches bei Online ? Verbindung aktiviert werden kann. Das folgend erscheinende Benutzerinterface erm?glicht die nach verschiedenen Begriffen geordnete Suche nach dem gew?nschten Musikst?ck. Gibt der User ein bestimmtes Musikst?ck ein, so werden alle Datenbanken der eingeloggten Napster ? User nach diesem Musikst?ck abgesucht und gefundene Objekte anschliessend auf dem Interface ausgegeben. Die Suchmeldung umfasst neben der Quelle des angestrebten Downloads zus?tzlich Gr?sse des entsprechenden Files (Indikator f?r Qualit?t der Aufnahme), ?bertragungsgeschwindigkeit und andere relevante Aspekte. Der User kann nun aus den angebotenen Suchergebnissen ausw?hlen und via Doppelklick die Datei auf seinen PC downloaden.

Als Zusatz ? Applikationen bietet Napster heute neben seiner haupts?chlichen Funktion als Search Engine auch Chat Rooms, Instant Messaging Systeme, Chartlists etc. an, die den Meinungsaustausch seiner User unterst?tzen sollen.

Daten Jeder PC eines eingeloggten Napster ? Users fungiert im Groupnet als Server, von welchem Dateien heruntergeladen werden k?nnen, wie auch als Client, der die Dateien herunterladen will, dies quasi als digitale Reflektion des urspr?nglich intendierten Austauschgedankens.

Die jeweiligen digitalisierten Musikst?cke, sprich MP3 Files, sind in einem St?ck ohne spezielle Sicherung oder Codierung auf den PCs der User gelagert, nicht jedoch auf dem Napster ? Server. Dieser dient nur als Search Engine, welche das Auffinden der gesuchten Musikdateien erm?glicht. Napster ?bernimmt somit eine reine Verwaltungs- und Koordinationsfunktion der einzelnen Verzeichnisse.

Der eigentliche Download der Daten erfolgt folgerichtig nicht ?ber Napster, sondern wird durch die in zeitlich begrenzter Partnerschaft stehenden Rechner ( Server ? Client) ?ber TCP / IP koordiniert.

Speziell anzumerken ist die Tatsache, dass ?ber Napster ausschliessliche MP3, also keine anderen Dateiformate beispielsweise f?r Video ? Sequenzen, downgeloadet werden k?nnen.

P2P Kontext Napster befindet sich als absoluter Pioneer der P2P Architekturen logischerweise am unteren Ende der evolutiven Entwicklung dieses Kommunikationskonzepts. Im Gegensatz zu seinen weiterentwickelten Klonen besteht beim Napster Modell ein zentraler Server mit fester IP ? Adresse. Napster agiert quasi als Enabler der aus ihr entspringenden P2P Kommunikation seiner User, ist jedoch kein idealtypisches P2P Modell, wie beispielsweise Gnutella.

Sicherheit / Anonymit?t Ganz klar die gr?sste und bisher nur wenig differenziert gew?rdigte Schw?che der Napster Software ist der Sicherheitsaspekt. Dieser bewegt sich auf folgenden zwei Ebenen:

Einerseits steht der Quell – Code der Napster Software seit der Adaption auf Linux ? Plattformen frei im Internet zur Verf?gung, so dass man Gefahr laufen kann, manipulierte Anwendungen zu downloaden, welche das eigene System gegen?ber Hackern verletzlich machen .

Andererseits kann beim Download ?ber Breitband oder ISDN (sogenannt schnelle Verbindungen) die IP Nummer des jeweiligen Rechners der diese Verbindung nutzt, identifiziert werden. Bei schnellen Verbindungen wird jedem Kundenrechner eine eigene IP Adresse zugeordnet, welche die eigentliche Pforte f?r Hackerangriffe darstellt .

Bei analogen Verbindungen mit dem Internet wird dem User alternierend jeweils eine neue IP Adresse zugeordnet (unter der Sub Domain des Providers), weshalb nach erneutem einloggen die vorher verwendete IP nicht mehr g?ltig und somit f?r Hacker nutzlos ist.

Diverse Napster immanente Faktoren verst?rken diesen Gefahrenfaktor noch weiter. Steigt der Server Rechner, von dem downgeloadet wird, aus, so ist der ganze bisher ausgef?hrte Download unbrauchbar . Diese Gefahr kann durch schnellere Verbindungen (mit eigener IP) reduziert werden. Somit treibt Napster seine Kunden eigentlich in eine gesteigerte Verletzlichkeit, zumal der normale Napster User sich dieser Gefahren kaum oder nur mangelhaft bewusst sein d?rfte.

Abgeschw?cht werden diese Aspekte jedoch durch psychologische Eigenheiten der Hacker Community , welche in Napster einen ?Seelenverwandten? zu sehen scheint, und daher mit Angriffen auf Rechnersysteme via Napster bis heute noch sehr zur?ckhaltend gewesen ist .

Folgerichtig ist somit die Anonymit?t der User nur in begrenztem Umfang gew?hrleistet, welche stark von den bei der Napster Nutzung bedingten Gefahren ?berschattet wird.

2.2.3. Wirtschaftliche Aspekte

Die erste Unternehmung, welche aus der breiten Phalanx globaler Medienfirmen ausscherrte und anstelle des juristischen Weges den konstruktiveren Weg der Allianz und Kooperartion mit Napster suchte, ist Bertelsmann.

Von den einst prognostizierten beiden Arten von Koexistenz zwischen herk?mmlichen Medienunternehmen und Napster, Krieg oder Kontrolle , scheint nun der letztere an Akzeptanz in den F?hrungsetagen der althergebrachten Musikindustrie zu gewinnen.

Es erstaunt, dass diese Allianz ? eines der gr?ssten Medienunternehmen der Welt und Napster mit seiner revolution?ren Software ? extreme M?he bekundet, f?r den Napster Dienst ein gewinnbringendes Business Modell zu entwickeln.

Ungeachtet der Studien, welche eine gewisse Zahlungsbereitschaft der bisherigen Napster User f?r den bisher kostenlosen Dienst signalisieren, bleiben die Erfolgsaussichten derartiger Bestrebungen doch ?usserst fragw?rdig. Die Einf?hrung eines kostenpflichtigen zulasten eines bis anhin kostenlosen Dienstes w?rde einen absoluten Kontrapunkt in der Geschichte des Internets darstellen.

Nebstdessen bestehen mit Gnutella und anderen Klonen von Napster bereits jetzt effektive Alternativen zu Napster.

2.2.4. Konklusion / Extrapolation

St?rken Als gr?sste Aktiva wie auch St?rke von Napster ist sein grosser Bekanntheitsgrad und die Treue seiner explosiv wachsenden Community zu nennen. Obwohl technisch seinen Nachfolgern mittlerweile unterlegen, gilt heute Napster als Begr?nder der Filesharing Mentalit?t und Held im Kampf gegen die graue globale Musikindustrie, im Kampf David gegen Goliath .

Speziell im Internetbereich, in dem junge Unternehmen gezwungen sind riesige Betr?ge f?r Marketing richtiggehend zu ?verblasen?, ist der bisher erreichte Bekanntheitsgrad von Napster regelrecht unbezahlbar.

Weiter vereinigt Napster den psychologischen Reiz des Illegalen mit einer hohen Benutzerfreundlichkeit, was ihr auch die Tore zu der breiten Masse technisch weniger versierter Internet Benutzer ge?ffnet hat. Gerade die Benutzerfreundlichkeit k?nnte konkurrierende Systeme, welche gr?sstenteils noch im Betastadium ihrer Entwicklung stecken und dementsprechend durch m?ssige Benutzerfreundlichkeit und Stabilit?t gl?nzen, zumindest mittelfristig von einer ernsthaften Gef?hrdung von Napster abhalten.

Schw?chen Es scheint als ob Napster das tragische Schicksal vieler Pioniere des digitalen Zeitalters teilen und m?glicherweise bald in der Bedeutungslosikeit verschwinden k?nnte.

Aus der technischen Perspektive betrachtet ist festzustellen, dass die unz?hligen und unkontrollierbaren Klone des Napster Modells bereits heute Napster technisch klar ?berlegen sind.

Aspekte wie die Beschr?nkung auf bestimmte Dateiformate (hier MP3) wie auch die Existenz eines zentralen Servers wurden in der technischen Evolution von anderen Diensten bereits weit hinter sich gelassen, die unkontrollierbare Atomisierung von Information erscheint bereits schemenhaft am Horizont.

Die bereits genannten Schw?chen im Bereich der Sicherheit und Benutzeranonymit?t sind sicherlich partiell ein systemimmanenter Teil des P2P Modells, werden jedoch durch konkurrierende Dienste ebenfalls besser gel?st.

Wirtschaftlich gesehen liesse sich die bestehende Napster Architektur zweifellos auf andere Dateiformate ausdehnen und somit das Angebot verbreitern, was jedoch die Problematik eines effizienten Business Modells nicht l?sen w?rde, zumal es fraglich ist, wie die Internet Community Napster?s Allianz mit Bertelsmann honorieren wird.

Schlussbetrachtung Ungeachtet des bestehenden, allgegenw?rtigen Napster ? Hypes ist an dieser Stelle festzuhalten, dass sich die Firma Napster heute an einem tragischen Scheideweg ihrer Entwicklung wiederfindet.

Bereits jetzt scheinen Innovationen im Bereich der Internet – Kommunikationsarchitekturen an ihr vorbeizuziehen und eine Degradierung zu einem rein kommerziellen Ableger von Bertelsmann (mit exotischer Vorgeschichte) scheint wahrscheinlicher als ein erfolgreicher Ritt auf der selbstausgel?sten Welle von P2P Architekturen.

Zwar scheint der vorhandene Bekanntheitsgrad Napster von seiner Konkurrenz abzuheben, doch ist die Akquirierung und Implementierung von Innovationen durch andere, ebenfalls bekannte Dienste in diesem Bereich schnell geschehen, und so findet sich Napster trotz seiner Allianz mit Bertelsmann nur als weiterer Wettbewerber in einem grossen Feld hochkompetenter Konkurrenten wieder.

2.3. Gnutella (kein bestimmter URL)

2.3.1. Allgemeine Aspekte

Facts & Figures Gnutella repr?sentiert eine Technologie, welche den serverunabh?ngigen Austausch von Information und Dateien erm?glicht. Verantwortlich f?r die Entwicklung von Gnutella zeichnen sich die beiden Nullsoft ? Techniker Justin Frankel und Tom Pepper, deren urspr?ngliche Intention es war, Gnutella selbst zu lizensieren und seinen Quell – Code der Allgemeinheit zur Verf?gung zu stellen.

Diese Absicht wurde jedoch erfolgreich durch die Mutterfirma von Nullsoft, AOL, unterbunden . AOL verbot die weitere Entwicklung wie auch jedwede andere T?tigkeit im Zusammenhang mit Gnutella. Zu sp?t, wie sich herausstellen sollte. Bereits zwei Tage nach dem Inkrafttreten des Verbots ver?ffentlichte ein gewisser Bryan Mayland eine selbstentwickelte Gnutella ? Version. Es war Mayland gelungen, mittels Reverse Engineering Techniken den Quell – Code von Gnutella zu entschl?sseln, und somit eine unaufhaltsame Entwicklung auszul?sen, welche bis heute zu einer un?berschaubar gewordenen Anzahl von Gnutella ? Klonen gef?hrt hat.

Der Legendenbildung rund um das Gnutella ? Projekt ist weiter zutr?glich, dass in unregelm?ssigen Abst?nden Ger?chte kursieren, welche eine offizielle Ver?ffentlichung des Quell Codes erhoffen lassen.

Der konspirativ anmutende Charakter Gnutellas wird nicht zuletzt durch seine eigene Namensgebung pointiert widerspiegelt; Gnutella ? GNU , ein Projekt, welches welche sich f?r freie Software einsetzt und Nutella, der allseits beliebte europ?ische Brotaufstrich. Der Name sollte schlicht und einfach ?sexy? sein.

Philosophie der Software / der Firma Die Gnutella zugrundeliegende Vision besteht darin, die Entscheidungsfreiheit ?ber die Verteilung seiner Information in die H?nde des Benutzers zu legen, den basisdemokratischen Aspekt des Internets wiederzuerwecken. Tats?chlich ist die Gnutella zugrunde liegende P2P Technologie haupts?chlich f?r die Entwickler um vieles interessanter, so dass beispielsweise William Wong, Entwickler des Gnutella ? Clients Furi von sich selbst behauptet, das Programm selbst fast nie zu ben?tzen.

2.3.2. Technische Aspekte

Benutzung Der Kern der Gnutella ? Technologie besteht aus dem sogenannten Gnutella ? Client, eine Software, welche einerseits als Suchmaschine wie aber auch als Server der angebotenen Dateien agiert.. Gnutella grenzt sich nun gegen?ber anderen P2P Modellen dadurch ab, dass kein eigentlicher Server existiert. Die Verbindung mit dem eigentlichen Dienst erfordert als weiteres zus?tzliches Element nur noch die Kenntnis der IP ? Nummer eines weiteren Gnutella Users, welche auf speziellen Servern zur Verf?gung steht.

Der eigentliche Suchprozess ist sogenannt rekursiv gestaltet. Die Anfrage des Users gelangt zu seinem Verbindungspartner, welche seine Datenbest?nde auf die gew?nschte Datei hin untersucht. Im Falle eines negativen Suchergebnisses wird die Anfrage nach einem exponentiellen Prinzip auf weitere User ausgedehnt, bis schliesslich ein m?gliche Quelle der gew?nschten Information identifiziert ist. Dies bedingt, das zwischenzeitlich eine hohe Anzahl von Usern in die Suche nach der gew?nschten Information involviert ist.

Der eigentliche Datentransfer wird abschliessend direkt, d.h. ohne Umwege ?ber Dritte, mittels des Gnutella ? Clients durchgef?hrt.

Daten Infolge Ermangelung eines eigentlichen zentralen Servers befinden sich die vorhandenen Daten innerhalb der Systeme der Gnutella ? User. Dies hat implizit zur Folge, dass als weiteres Element zur Teilnahme an der Gnutella – Community die Kenntnis der IP ? Nummer zumindest eines weiteren Gnutella ? Users notwendig ist.

Diese IP ? Nummern sind auf spezifischen Servern, in Newsgroups oder durch IRC in Erfahrung zu bringen.

Der Gnutella User bestimmt eigenverantwortlich welche seiner Daten er Drittpersonen zug?nglich machen will. Das eigentliche Gnutella ? Net wird nur f?r den Suchprozess benutzt, der Datentransfer wird ?ber das http ? Protokoll abgewickelt. W?rde der Datentransfer beispielsweise ?ber die selben Stationen laufen wie der vorgelagerte Suchprozess, so h?tte dies eine massive Einschr?nkung der Bandbreite aller beteiligten User zur Folge.

Trotzdem jedoch absorbiert Gnutella hohe Kapazit?ten der eigenen Bandbreite. Werden Suchanfragen ?ber das Netz geleitet oder Dateien vom eigenen System downgeloadet, so steht nur noch ein relativer kleiner Teil der Bandbreite f?r eigene Aktivit?ten zur Verf?gung, wobei auch Informationspakete, welche durch Gnutella selbst verschickt werden, abgebremst werden.

Um der Gefahr eines Systemzusammenbruchs zu begegnen, werden Datenpakete, die infolge ?berlastung eines Systems nicht mehr aufgenommen werden k?nnen, fallengelassen (?dropped?). Falls bei der Verbindung mit einem anderen User sehr viele Datenpakete fallengelassen werden und somit der Datentransfer erschwert wie auch das Netz ?berlastet wird, so muss die bestehende Verbindung abgebrochen und eine neue aufgebaut werden.

Sicherheit / Anonymit?t Der Schutz der eigenen Person ist w?hrend der Informationssuche nahezu perfekt, da durch das System der rekursiven Suche der Anfang des Suchprozesses respektive die Identit?t des Suchenden quasi unidentifizierbar wird. Beim anschliessenden Download ?ber das http ? Protokoll wird diese Anonymit?t jedoch aufgehoben, der Partner des stattfindenden Datentransfers wird bestimmbar. Analog wird auch beim zum Suchprozess gegengerichteten Angebotsprozess von eigenen Daten die IP ? Adresse des pers?nlichen Systems der Allgemeinheit offenbart.

2.3.3. Wirtschaftliche Aspekte

Gnutella pr?sentiert sich in seiner Ideologie als absolut nicht gewinnorientiertes Unternehmen, die Einbettung oder Entwicklung von profitbringenden Gesch?ftsmodellen ist nicht intendiert. Vielmehr hat sich Gnutella der Open Source Idee verpflichtet, was zu einer weiten Verbreitung von Open Source Clients wie auch Spezifikationen des Gnutella ? Protokolls gef?hrt hat und somit eine kommerzielle Nutzung dieses Dienstes praktisch verunm?glicht.

Einzig die Firma GoneSilent.com ist gegenw?rtig bem?ht, durch die Entwicklung auf Gnutella basierender, system?bergreifender Search ? Engine ? Software eine kommerzielle Nutzung des Gnutella Projekts zu realisieren.

2.3.4. Konklusion / Extrapolation

St?rken Die drei zentralen Erfolgsfaktoren von Gnutella bestehen aus der de facto Unzerst?rbarkeit des Systems, aus der schnellen Informationssuche und dem hohen Grad an gew?hrter Anonymit?t.

Schw?chen Aus der technischen Perspektive ist haupts?chlich der Kapazit?tsverlust eigener Bandbreite zu bedauern, der durch die Benutzung von Gnutella entsteht, wie aber auch unter dem Aspekt der Sicherheit der Verlust der eigenen Anonymit?t beim Downloadprozess.

Im Gegensatz zu Systemen wie Mojonation verf?gt Gnutella ?ber keine Mechanismen um der Freerider Problematik effizient begegnen zu k?nnen, was weiter ein klarer Nachteil gegen?ber konkurrierenden Technologien ist.

Schlussbetrachtung Trotz des grossen aktuellen Erfolges der Gnutella Software sieht sich diese Technologie einer ungewissen Zukunft gegen?ber. Wie jede auf P2P Architekturen beruhende Kommunikation ohne wirksame Mechanismen gegen Freeriding ist Gnutella stark abh?ngig von positiven Netzwerkeffekten, respektive der Gr?sse seiner Community. Sollte die Benutzerzahl infolge technischer Schw?chen (namentlich die Absorbierung von Bandbreitenkapazit?t) oder Abwandern zu konkurrierenden Systemen (beispielsweise Mojonation, Groovenet) unter die kritische Masse fallen, so w?re somit das Schicksal von Gnutella besiegelt.

Um diesen Gefahren entgegenzuwirken und die bestehenden M?ngel der Gnutella Software zu beheben hat sich mittlerweile eine Gruppe um den 18 j?hrigen Studenten Sebastian Lambla gebildet, welche das sogenannte ?Next Generation Protocol? (oder auch ?General Purpose Localization Protocol = gPulp?) entwickeln will. Ziel dieses Projekts sind haupts?chlich Verbesserungen in den Bereichen Anonymit?t, Geheimhaltung und Routing.

Da die Ergebnisse des Projekts jedoch vom Konsens mit der breiten Gnutella Community getragen werden sollen, wird der Erfolgsfaktor Zeit hier stark vernachl?ssigt. Die Vision besteht aus einem Protokoll, welches von allen Gnutella ? Clients verwendet wird. Ansonsten w?re eine Zersplitterung der Gnutella Community in unz?hlige Teilfragmente, die sich unterschiedlicher Gnutella ? Clients bedienen, vorstellbar.

2.4. Freenet / www.freenetproject.org

2.4.1. Allgemeine Aspekte

Facts & Figures Das urspr?ngliche Design von Freenet wurde von Ian Clarke als Abschlussprojekt in KI und Computerwissenschaft an der Universit?t Edinburgh erstellt. Im Juni 1999 wurde das Projekt beendet und auf dem Internet implementiert.

Ian Clarke ist nach wie vor der Projektmanager und wird von Zeit zu Zeit von freiwilligen Entwicklern unterst?tzt.

Philosophie der Firma / Software Freenet ist ein verteiltes Informationsspeichersystem, welches vor allem den Userbed?rfnissen in den Bereichen Privacy und Verf?gbarkeit Rechnung tragen soll. Das System arbeitet als ortsunabh?ngiges Dateisystem ?ber viele an das Internet angeschlossene Rechner und erlaubt Dateien anonym zu speichern und abzurufen.

Die f?nf Hauptziele des Architekturdesigns sind:

? Anonymit?t f?r Produzenten und Konsumenten von Information

? Sicherstellung, dass der Weg, auf welchem Informationen gespeichert wurden, nicht festgestellt werden kann ? Deniability

? Widerstandsf?higkeit gegen?ber Dritten, welche versuchen, das Abrufen von Information zu verhindern

? Effiziente dynamische Speicherung und Informationsrouting

? Dezentralisierung aller Netzwerkfunktionen

Das System wurde entwickelt um adaptiv auf Benutzerbed?rfnisse reagieren zu k?nnen und transparent Dateien zu verschieben, zu replizieren und zu l?schen, um einen effizienten Dienst anbieten zu k?nnen, welcher ohne Suchmaschinen oder zentrale Index-Server auskommt. Es ist nicht beabsichtigt, permanente Speicherung zu garantieren, obwohl gehofft wird, dass gen?gend ?Knoten? teilnehmen, um gen?gend Speicherkapazit?t zur Verf?gung zu stellen. Zus?tzlich arbeitet das System auf dem Application-Layer und nimmt an, dass eine sicherer Transport-Layer existiert, obwohl es damit nicht verkn?pft ist. Es will nicht Anonymit?t f?r ein generelles Netzwerk, sondern f?r die Freenet – Dateioperationen.

2.4.2. Technische Aspekte

Benutzung Freenet wird als File heruntergeladen und ben?tigt zus?tzlich ein Java Runtime Environment JRE 1.1 oder h?her. Die Installation erfolgt rasch und problemlos ? der Benutzer kann die Konfiguration des Proxy ? Servers mit den Standardeinstellungen ?bernehmen.

Die Bedienung f?llt relativ einfach aus: ein File von der Festplatte wird ausgew?hlt und mit einer zus?tzlichen Beschreibung versehen. Ein Klick auf den Button ?Insert? sendet das File nun zun?chst an den lokalen Freenet ? Knoten, wo das File ins Netz gesandt wird. Der Abschluss des Speicherns meldet dem Benutzer nun noch, unter welchem definitiven Schl?ssel sein File abgelegt ist.

Das Herunterladen desselben Files gestaltet sich so, dass der Benutzer den entsprechenden Schl?ssel eingibt und eine Anfrage startet. Das System sucht nun selbst?ndig, wo dieses File abgelegt wurde und liefert es zur?ck.

Daten Freenet ist als Peer ? to ? Peer Netzwerk implementiert, mit Knoten, welche einander gegenseitig abfragen um Daten zu speichern und abzurufen, welche mit ortsunabh?ngigen Schl?sseln gespeichert sind. Jeder Knoten unterh?lt seine eigenes Dateisystem, welches dem Netzwerk Schreiben und Lesen erm?glicht, sowie als dynamische Routing-Tabelle mit den Adressen und Schl?sseln anderer Knoten agiert. Es ist beabsichtigt dass die meisten Benutzer des Systems Knoten betreiben um einerseits Sicherheit gegen unbeabsichtigtes Benutzen eines b?sartigen fremden Knotens zu garantieren, wie auch die Speicherkapazit?t des Netzes als Ganzes zu erh?hen.

Das System kann als kooperatives verteiltes Dateisystem betrachtet werden, welches als ortsunabh?ngiger und transparenter Tr?ger der Replizierung arbeitet. Genau wie Systeme wie z.B. distributed.net, welches Benutzern freie CPU-Kapazit?t vermittelt, erm?glicht Freenet den Usern freien Speicherplatz zu vermitteln. Im Gegensatz zu distributed.net, welches die CPU-Kapazit?t f?r sich selber nutzt, stellt Freenet den Speicherplatz anderen Usern sozusagen als Harddiskerweiterung zur Verf?gung.

Das Basismodel behandelt Dateianfragen so, dass es sie von Knoten zu Knoten weitergibt, wobei jeder Knoten selbstst?ndig entscheidet, wohin er die Anfrage weiterleitet (Dies ?ndert mit jeder Anfrage). Knoten kennen nur ihre unmittelbaren Nachbarn im ganzen Datenfluss. Jeder Anfrage wird ein ?hops-to-live?-Z?hler mitgegeben welcher bei jedem Knoten dekrementiert wird, um Endlosschleifen zu verhindern.

Jeder Anfrage ist auch ein Identifier zugeordnet, so dass Knoten eine Anfrage abweisen k?nnen, sofern sie ihn schon einmal passiert hatte. Wenn dies geschieht, w?hlt der letzte Knoten einfach einen anderen Knoten aus, um die Anfrage weiterzuleiten. Dieser Prozess setzt sich fort, bis entweder die Anfrage befriedigt wurde, oder dann das ?hops-to-live?-Limit erreicht wurde. Das Resultat wird dann entlang der ganzen Kette zur?ckgesendet.

Kein Knoten ist privilegiert, somit existiert auch keine Hierarchie oder eine Achillesferse. Dem Netzwerk beizutreten heisst lediglich, einen oder mehrere Knoten zu lokalisieren und dann mit diesem Kontakt aufzunehmen. Files k?nnen nicht ge?ndert werden, trotzdem ist die Updatef?higkeit als ein Entwicklungsziel vorgesehen. Zus?tzlich ist der Namespace gegenw?rtig flach ? eine Erweiterung hat hohe Priorit?t in der Entwicklung.

2.4.3. Wirtschaftliche Aspekte

Das Freenet-Projekt ist von der Funktionsweise ?hnlich aufgebaut wie Napster, jedoch mit dem Unterschied, dass jegliche Arten von Dateitypen gespeichert werden k?nnen. Das Internet soll sozusagen als ?ffentliche Festplattenerweiterung fungieren. Dieses Prinzip findet sich auf einer philosophisch weniger weit entwickelten, jedoch f?r Benutzer einfacher zu bedienenden Ebene bereits als Anwendung wieder (z.B. Myfiles.de, wo gratis bis zu 300MB Speicherplatz angeboten und gespeicherte Information auch quasi?ffentlich zur Verf?gung gestellt werden kann).

Freenet befindet sich jedoch noch sehr stark in einem Entwicklungsprozess, welcher aber fast ausschliesslich von seinem Gr?nder gef?hrt wird, und wird deshalb in der aktuell vorliegenden Version kaum Zuspruch durch eine breite Benutzerschicht finden, da die Bedienung noch recht umst?ndlich ist und auch keine brauchbaren Suchmechanismen existieren. Des weiteren ist das System nicht f?r dauerhafte Daten konzipiert, so dass eine Speicherung dem Aussenden einer Sonde ins Weltall gleichkommt; Ziel ist die Hoffnung, eines Tages ans Ziel zu kommen.

Aus diesen Gr?nden ? kleiner Entwicklerkreis, keine brauchbare Benutzerschnittstelle, keine effiziente Suche m?glich ? erscheint eine wirtschaftliche Nutzung von Freenet ?usserst fraglich. Gewisse Teilaspekte und Organisationsprinzipien d?rften aber dennoch f?r andere Architekturen weiterentwickelt werden.

2.4.4. Konklusion / Extrapolation

St?rken Die Strukturen des Freenet zeichnen sich analog denjenigen ?hnlicher Dienste durch ihre quasi Unzerst?rbarkeit aus. Als weitaus zentralere St?rke kann jedoch die Java ? Basis genannt werden, welche einen Einsatz auf allen Arten von Plattformen erm?glicht und somit einen extrem vielseitigen Einsatz erm?glicht, was ein klarer Erfolgsfaktor zuk?nftiger Kommunikationstechnologien darstellt.

Des weiteren handelt es sich bei Freenet um ein erfreulich simples Prinzip, welches jedermann kostenlos zur Verf?gung steht und unabh?ngig eingesetzt werden kann.

Schw?chen Die durch den stark limitierten Entwicklerkreis bedingte langsame Entwicklung des Freenet ist hier sehr skeptisch zu beurteilen, da speziell im Internetbereich Geschwindigkeit als wesentlicher Erfolgsfaktor gewertet werden kann.

Die Erschliessung weiter Benutzerkreise, das Erreichen einer kritischen Masse von Usern kann bei den gegenw?rtig bestehenden Defiziten, bei den weitgehend unstrukturierten Suchmaschinen, welche treffend den gesamten Entwicklungsstand des Projekts widerspiegeln (Alpha Phase), als noch weit entfernt eingeordnet werden.

Schlussbetrachtung Das Freenet-Projekt befindet sich noch sehr in der Alpha-Phase (reine Entwicklungsstufe). Der Vergleich mit ?hnlich aufgebauten Netzen (z.B. Mojonation) zeigt, dass es viele andere Projekte gibt, welche seit Beginn 1999 entstanden und zum heutigen Zeitpunkt viel weiter entwickelt sind. Das Prinzip eines lokalen Proxy-Servers zur Knotenbildung ist nicht nur bei Freenet die Grundlage, und damit zeigt es einzig eine weitere technische Variante auf, welche sich irgendwo zwischen Mojonation und Napster bewegt.

Um eine tragende Rolle in der Entwicklung zuk?nftiger Systeme spielen zu k?nnen, m?sste Freenet zum heutigen Zeitpunkt viel st?rker verbreitet sein, bzw. sich bereits in der Beta-Phase befinden. Aus diesem Grund werden wohl h?chstens technische Aspekte aus dem Bereich Benutzerschutz in bestehende Projekte einfliessen, oder das ganze Projekt in ein bestehendes integriert.

2.5. Mojonation / www.mojonation.net

2.5.1. Allgemeine Aspekte

Facts & Figures Mojonation wird produziert, respektive entwickelt durch die Firma AZI (Autonomous Zone Industries), welche eine hundertprozentige Tochterunternehmung der Evil Geniuses for a better Tomorrow Inc. darstellt. Der Hauptsitz der Evil Geniuses befindet sich in Mountain View / CA / USA.

Als Gr?nder und CEO der Firma AZI fungiert Jim McCoy, welcher vor seiner T?tigkeit bei AZI w?hrend 14 Jahren bei Large ? Scale ? Internet ? Services operativ t?tig war.

McCoys eigene Gr?ndermentalit?t wiederspiegelt sich weiter in seinen nebenamtlichen T?tigkeiten bei Start Ups wie Yahoo, Four11, Communities.com und IO.com. Nebst diesen kommerziell orientierten T?tigkeiten zeichnete er sich verantwortlich f?r die universit?ren Information Services der Texas Austin University sowie der Northwestern University.

Philosophie der Firma / der Software Der in allen File ? Sharing ? Systemen grunds?tzlich intendierte Gedanke des Tausches, des Leistungs- Gegenleistungs ? Prinzips, wird durch Mojonation reell. Der allgemeinen Free ? Rider ? Problematik, dem allgegenw?rtig parasit?ren Verhalten einer Mehrzahl der Internet User wird durch die Schaffung einer virtuellen W?hrung, des Mojos, begegnet.

Mojos k?nnen einerseits durch die Einbringung von Texten, Filmen oder anderem digitalen Material (in der Regel wohl zweifelhaften Ursprungs unter dem Aspekt der Urheberrechte) wie auch durch die zur Verf?gungstellung von Ressourcen, namentlich Rechnerkapazit?t, Bandbreite oder Speicherplatz erworben und anschliessend in der Mojonation ? World wieder ausgegeben werden. Interessant und nicht zuletzt auch lukrativ erscheint dies speziell unter dem Aspekt der Konvertierbarkeit digitaler in reelle W?hrung, ein Bereich, der bereits diverse faszinierende Entwicklungen hervorgebracht hat .

Innerhalb der Mojonation wird somit jegliches Free ? Riding ausgeschlossen; der Grundgedanke des Tausches wird erzwungen und vollzogen. Ein sogenannter Overload des Systems, die Situation, in der mehr Ressourcen beansprucht als zur Verf?gung gestellt werden, kann somit vermieden werden.

Im Gegensatz zu Napster wird somit der nutzenoptimierende User an einer Teilung seiner eigenen Ressourcen interessiert sein, und nicht seinen Nutzen dadurch optimieren k?nnen, indem er sich als reiner Freerider profiliert.

2.5.2. Technische Aspekte

Benutzung Der Kern von Mojonation konstituiert sich aus einer einem Broker ? Software ? Applet, welches von Interessierten kostenlos heruntergeladen werden kann . Nach erfolgtem Download und Installation wirkt der Broker als stiller Client, welcher im Hintergrund des Systems permanent auf Abruf ist. Wird er mittels Aufruf durch den Browser aktiviert, kann via des erscheinenden Interface auf die Mojonation Ressourcen zugegriffen werden.

Daten / Verzeichnisse Durch den Broker wird dem User der Zugang zu einer (wie im Internet ?blich) un?berblickbaren Anzahl an MP3 ? Files, Video Clips, Share- und Freeware Programmen etc. bis hin zu kompletten Websites er?ffnet.

Die jeweiligen Files sind durch eine spezifische URL ? Kennung versehen, so dass sie durch den Broker entsprechend identifiziert, gesucht und als m?gliche Suchergebnisse ausgegeben werden k?nnen; hierbei ist anzumerken, dass der Broker nicht die eigentliche interne Search Engine darstellt, sondern diese lediglich kontaktiert und ihre Ergebnisse visuell auswertet.

Vor allem die Perspektive der internen Organisation der Daten ist bei Mojonation ?usserst bemerkenswert, wiederspiegelt sie doch in treffender Weise die sicherlich nicht unbegr?ndeten paranoiden Vorstellungen vieler Softwareentwickler.

Jedwedes ?ber Mojonation editierte File wird in einer ersten Phase in mehrere Teile aufgebrochen, um die somit entstandenen Fragmente in einer zweiten Phase erneut in weitere acht St?ck zu unterteilen. Die nun entstandenen Blocks werden codiert und zur Gew?hrleistung der Zuverl?ssigkeit doppelt abgelegt, wobei der Aufenthaltsort der einzelnen Blocks nur mittels des Brokers durch eine eigens erstellt Sharemap ausfindig gemacht werden kann.

Um ein Missbrauch durch eine Manipulation der Sharemaps zu verhindern, werden auch diese fragmentiert und codiert. Die Teilfragmente der Sharemaps werden in der Mojonation Terminologie als Dinoden bezeichnet; sie stellen die eigentliche Kerninformation dar, ohne welche eine Reproduzierung der vollst?ndigen Sharemaps nicht m?glich ist. Dinoden ? Referenzen erscheinen im Mojonation Interface in der Gestalt von MojoIDs (lesbare URLs). Somit kann vor dem eigentlichen Download nicht zwischen Mojonation Files und anderen Files differenziert werden.

Eine m?glichst effiziente Verteilung der Daten auf bestehende Speicherkapazit?ten wird durch ein eigentliches Marktprinzip gew?hrleistet. Durch Zuhilfenahme dieses Prinzips k?nnen ?berm?ssige Zugriffe auf die Systeme einzelner User vermieden und somit die Risiken von Stauungen oder Systemzusammenbr?chen eliminiert werden.

Sicherheit / Anonymit?t Die dezentrale Architektur von Mojonation garantiert den jeweiligen Usern ein Maximum nicht nur an Sicherheit im Hinblick auf ihre Datenbest?nde, sondern auch an Anonymit?t im Hinblick auf die eigene Person.

Einmal publizierte Daten k?nnen infolge ihrer extrem vielf?ltigen Verteilung und Codierung weder gel?scht noch kontrolliert werden.

Diese Tatsache mag auf den ersten Blick durchaus faszinierend wirken, wirft bei einer vertiefteren Betrachtung doch vor allem schwerwiegende Fragen im Bereich der Internet ? Kriminalit?t auf. Seit Bestehen des Internets z?hlten zu den Protagonisten seiner rasanten Entwicklung nicht zuletzt auch kriminelle Elemente, welche sich nun mittels Mojo

ОТКРЫТЬ САМ ДОКУМЕНТ В НОВОМ ОКНЕ

ДОБАВИТЬ КОММЕНТАРИЙ [можно без регистрации]

Ваше имя:

Комментарий