La réalité structurelle de l'internet.




Il est vrai que le Réseau, du fait qu'il soit exclusivement composé de symboles, semble développer comme système de valeurs principal, l'aptitude à manier ces signes. Dans le Réseau règnent les sophistes ; le surfeur est la mesure de toute chose. La sophistique a trouvé un terrain parfaitement adapté, un lieu exclusivement composé de symboles.

Nous entendons souligner que le Réseau n'est pas exempt de hiérarchies, et qu'au contraire de ce qui est souvent proclamé, le Réseau est en soi porteur de hiérarchies dans son infrastructure ainsi que dans son appareil logiciel.


I. Approche du pouvoir.

Il n'est pas nos intentions de rentrer dans une métaphysique du pouvoir, cependant il est indispensable de clarifier notre point de vue en le mettant en perspective avec notre propos.
L'omniprésence du pouvoir nous pousse à le voir comme un attribut propre à toute relation entre sujets. Mais est-ce une essence ou un effet ? À moins que le pouvoir ne soit qu'une puissance des possibles qui ne se concrétise qu'au besoin ? Peu importe, le pouvoir a de toute façon une manifestation concrète. Nous ne discuterons donc pas de savoir si cela est une actualisation d'une essence ou si la manifestation concrète est la nature même du pouvoir, nous prenons acte que le pouvoir se détermine par des actes, et de l'existence de multiples concrétisations. Ces concrétisations nous permettent de caractériser le pouvoir selon ses effets ou autrement dit, nous permet la différenciation du pouvoir et donc d'en parler au pluriel.

Avant donc sa concrétisation, le pouvoir reste une virtualité, possibilité logique (il n'est pas impossible que je fasse) ou possibilité réelle (j'ai les moyens de faire). La réalité du pouvoir ne se fera sentir que dans son exercice. Remarquons d'emblée la difficulté : c'est l'action concrète qui nous permet de différencier les pouvoirs ; or gageons qu'une même action a plusieurs sorte d'effets, c'est-à-dire une influence dans différents domaines, différents champs d'intelligibilité. Une action pourrait donc être l'actualisation de plusieurs pouvoirs ? Cette ambivalence pragmatique est le cœur du conflit entre pouvoirs.
Donc l'action effective ne peut parfois pas être considérée comme révélatrice de la forme du pouvoir puisque la complexité est de mise, et les conséquences multiples. Les causes ne sont donc pas aisées à cerner. Or connaître la cause, c'est reconnaître l'existence d'un pouvoir. Attribuer la cause d'un effet à un pouvoir, c'est le faire exister.
En tant qu'animaux sociaux, nous sommes toujours en relation (et donc toujours soumis au pouvoir), mais ce n'est certainement pas constamment à la même forme de relation (familiale, amoureuse, politique, etc.), donc au même pouvoir.

Nous nous intéressons spécifiquement au pouvoir politique. Le pouvoir politique, même dans le pire des régimes totalitaires, ne peut se concrétiser continuellement, se faire sentir constamment. D'où la nécessité de se faire reconnaître par des signes pour qu'en dehors de l'exercice effectif du pouvoir, son existence reste attestée. Les signes d'un pouvoir acquièrent de ce fait un pouvoir propre qui se substitue au pouvoir proprement dit, à la contrainte. Même s'il ne faut pas négliger ce pouvoir des signes, il n'en reste pas moins que ceux-ci ne sont que l'incarnation symbolique d'une virtualité ; ils sont le signe d'un pouvoir en puissance. Représentant du pouvoir, il n'agit en lieu et place de celui-ci que tant que cette institution (les signes d'un pouvoir) sera reconnue comme substitut à la contrainte directe du pouvoir. Au cas où les signes du pouvoir ne suffisent plus, le pouvoir doit s'actualiser, c'est-à-dire, de virtuel devenir effectif.

On fera bien attention de ne pas restreindre le pouvoir à ses seuls signes symboliques que nous appellerons institutions sinon l'on ne découvre qu'une tautologie : le pouvoir est représenté, et ses représentations sont le pouvoir. Si l'uniforme du policier peut être inclus dans les institutions, signe symbolique du pouvoir, la matraque du même rappelle que le pouvoir en représentation peut se concrétiser, quitter la sphère des signes et redevenir de l'énergie. C'est cette action concrète, cette relation directe qui est le pouvoir. Et c'est cette nécessaire contiguïté qui est la force et la limite du pouvoir. Le pouvoir ne peut être un signe. Le pouvoir est nécessairement une relation directe (ce qui ne veut pas dire non-médié) d'un sujet à un autre sujet.

Les symboles sont-ils pour autant dépourvu d'effet, de pouvoir ? Certes non, mais l'effet de ces signes ne doit cependant pas faire oublier la cause efficiente, qui n'est pas le signe lui-même, mais l'intériorisation par le sujet d'une équivalence entre un pouvoir et son signe.
Dans son fameux texte sur la servitude volontaire, La Boëtie se demandait comment un seul tyran pouvait tenir sous son joug des milliers de personnes. Il en concluait avec justesse que le tyran ne les tient pas, ils se tiennent eux-mêmes. Le pouvoir des signes a ceci d'infiniment supérieur au pouvoir même : il est reproductible et transportable, contrairement au pouvoir qui se doit d'être une relation directe. Mais le signe a aussi une infériorité criante : son pouvoir est strictement virtuel, non pas comme le pouvoir stricto sensu, dans un sens de possibilité, mais dans le sens acquis avec les nouvelles technologies, celui d'illusion.

Ce long détour fut nécessaire pour saisir d'emblée les qualités mais aussi les limites de la société de l'information qui base sa réalisation sur la connexion généralisée des ordinateurs et l'échange illimité des signes.
Dans notre triptyque Nature/ Territoire/ Réseau, le Réseau est effectivement un lieu sans pouvoir. La promesse de la Société de l'Information serait donc vraie ? Pas exactement. Nous avons bien pris soin de distinguer le pouvoir proprement dit, et celui des signes. Or le pouvoir des signes, s'il n'est qu'illusion, est très efficace. Ainsi, malgré l'absence de pouvoir, les servitudes (pour reprendre le terme de La Boëtie) sont innombrables.
Servitudes certes mais, pourrait-on objecter, de la seule Raison, puisque déduite des seuls signes ; ces servitudes ne peuvent être qu'intelligibles et donc raisonnablement admises ou au contraire refusées ! N'est ce pas là la concrétisation du rêve d'une société raisonnable ?
Là encore, il ne faut pas rêver : les servitudes du Réseau ne se substituent pas aux contraintes et aux servitudes du Territoire, elles s'y ajoutent.


II. Réseaux et pyramides. Les hiérarchies infrastructurelles du Réseau.

Sachant que les conclusions communes véhiculées par les deux formes que sont un réseau et une pyramide sont pour une bonne part produites par les utopies qui les utilisent et non du seul fait de leur nature intrinsèque 1, on peut néanmoins s'interroger de façon légitime sur le fait qu'une structure en réseau soit, sinon l'antinomie, du moins une structure plus ou moins incompatible avec la structure pyramidale.
On notera, toujours dans le sens que l'antinomie entre réseaux et pyramides n'est pas intrinsèque mais bien plutôt une revendication, que la pyramide peut être analysée en tant que réseau. Si cette dernière est une forme particulière de réseau, il faut regarder quels sont les autres grands modèles de réseaux qui lui sont opposés.

Le domaine des télécommunications a l'avantage de posséder différentes formes de réseaux permettant de les nommer et de les comparer. C'est d'ailleurs de ce domaine que sont issus les modèles de réseau qui se sont généralisés à d'autres disciplines. Or ce que nous voulons montrer, c'est que les modèles schématisés (radiophonique, téléphonique et informatique) ne recouvrent pas tout à fait la même réalité, et que les grosses différences de nature entre ces modèles largement diffusés sont en grande partie due à leur simplification biaisée.


le modèle radiophonique.

Ce modèle (figure 1) suggère une domination de l'émetteur sur une multitude de récepteurs, il est dit hiérarchique.
Le modèle de radiodiffusion est l'archétype de la pyramide, une pyramide à un seul niveau. Cependant, pour être plus juste, il faudrait inclure l'existence des relais locaux, créant ainsi une pyramide à plusieurs degrés. On notera que le modèle radiophonique ne figure qu'un seul niveau et donc ne peut faire référence qu'au contenu diffusé (et là encore en faisant abstraction des décrochages locaux), et non à la forme de l'infrastructure de diffusion qui nécessite une multitude d'émetteurs et dont la modélisation serait une pyramide à plusieurs degrés.

L'a priori idéologique sous-entendu avec l'objet réseau (cf. chapitre 2) se révèle encore lorsque l'on considère que l'infrastructure pyramidale par excellence n'est pas le modèle de diffusion radiophonique, mais bien plus le modèle de diffusion par satellite géostationnaire.
En effet le satellite contrôlé par un centre au sol, arrose une multitude de points sans aucun autre intermédiaire. Si la possibilité d'un retour existe, celui-ci n'est pas plus développé que la radiophonie amateur ou la CB. En attendant la création des constellations de satellites en orbites basses (Iridium, Globalstar), le satellite est donc beaucoup plus un objet propre aux organisations pyramidales qu'à celles dites en réseau.
On comprend néanmoins que l'utopie technologique ne saurait disqualifier un tel objet synonyme de progrès, et préfère donc l'appellation modèle radiophonique, qui rappelle vaguement la TSF d'autrefois, à celle pourtant plus juste de modèle satellitaire géostationnaire qui elle, sent bon le progrès technologique et le 3e millénaire.

Ceci dit, il faut néanmoins rappeler que la télévision qui utilise ce mode de diffusion est le média le plus critiqué, étant le parangon de la diffusion pyramidale, et donc du modèle dit radiophonique.

Or si on lit les critiques de la télévision, on trouvera qu'une bonne partie d'entre elles reprochent à celle-ci son manque d'autonomie créative, c'est-à-dire l'application des créateurs de contenu de la télévision à suivre les goûts supposés du grand public, de la ménagère de moins de cinquante ans 2, en bref, de la plus grande masse. Cela est également comparé à la liberté, au fourmillement créatif que représente les radios, locales ou non, depuis la libéralisation de la bande FM.
Pour notre part, nous considérons que l'énorme différence d'investissements nécessaires pour la création de contenus dans ces deux médias expliquent en grande partie ces différences d'attitude.
Mais là n'est pas la question qui nous occupe, nous voulions simplement souligner que le modèle radiophonique (appliqué à la radio et à la télévision) ne rend compte que partiellement et de la circulation des informations (en oubliant le poids de l'audimat qui façonne de manière prononcée la création des contenus), et des infrastructures utilisées (multiples émetteurs locaux importants pour la radio).

Un modèle est forcément imparfait, aussi faut-il le préciser.
En tant que modèle de contenu, le modèle radiophonique ne correspond vraiment qu'aux radios locales, bien moins au radios nationales qui font leur grille de programmation en fonction de leur audience, et encore moins à la télévision qui suit anxieusement les courbes de Médiamétrie.
Si l'on considère uniquement l'infrastructure, il faut rappeler que si ce modèle est complètement valable pour la diffusion par satellite, il ne l'est qu'à un niveau local pour la diffusion hertzienne et par câble. Dans ces deux dernières, les relais locaux sont nécessaires et primordiaux. Qu'on songe à la durée nécessaire pour le 5e et le 6e canal couvre l'ensemble du territoire, qu'on se rappelle que les câblo-opérateur agissant localement, la bataille des concessions est rude. Preuve s'il en faut, que les relais locaux sont beaucoup plus important que le laisse supposer le modèle radiophonique qui les passe purement et simplement sous silence.

Le modèle radiophonique n'est donc pleinement valable qu'à un bout de la chaîne de diffusion, à un niveau local ; dans le seul domaine de l'infrastructure il ne concerne que la diffusion satellite.
Or nous verrons que dès que l'on considère les différents paradigmes (radiophoniques, téléphonique et informatique) à un niveau local, la structure en pyramide, soit pour l'infrastructure, soit pour la création et la circulation du contenu, est commune à tous les modèles.


Le modèle téléphonique.

Le modèle téléphonique (figure 2) est apparemment le modèle égalitaire par excellence. Tous les agents sont reliés à tous les autres, dans un réseau dit de point à point.

On notera d'abord que le modèle téléphonique ne rend pas compte de toute la circulation des contenus, sauf à passer sa vie au téléphone. La grande partie des contenus des conversations téléphoniques sont déterminés en dehors de celui-ci. En effet on ne fait pas un numéro de téléphone par hasard pour parler d'un sujet quelconque. La conversation téléphonique est en cela déterminée par des rapports extérieurs à la relation téléphonique et qui n'apparaissent pas dans la modélisation de ce dernier. Le modèle téléphonique n'est sur le plan du contenu qu'une partie du système de circulation de l'information, celle qui circule par téléphone. Mais la plupart des conversations, des échanges téléphoniques ont leur origine ou leur conclusion sans sa médiation. Ainsi, toutes les conversations téléphoniques reproduisent dans leur contenu les hiérarchies sociales valables en dehors de la conversation téléphonique 3. Si le modèle téléphonique est égalitaire, ce n'est donc pas sur les contenus qu'il véhicule, mais semble-t-il sur l'infrastructure.

Cependant, sur le plan de l'infrastructure, ce modèle fait l'impasse sur tout ce qui est transparent pour l'utilisateur, mais dont l'existence rend pourtant le téléphone beaucoup moins égalitaire qu'il n'y paraît. En effet, les terminaux ne sont pas raccordés les uns aux autres, ils sont raccordés à des autocommutateurs qui centralisent les lignes. Les autocommutateurs locaux sont eux-mêmes centralisés. Au niveau de l'infrastructure, le modèle téléphonique est le suivant :

Or on peut voir que ce modèle n'est autre qu'une pyramide tronquée. En fait le réseau téléphonique est construit sur une base pyramidale tronquée à six niveaux :

  • les terminaux téléphoniques.
  • les unités de raccordement.
  • les commutateurs à autonomie d'acheminement (CAA).
  • les commutateurs de transit secondaire (CTS).
  • les commutateurs de transit primaire (CTP).
  • les commutateurs internationaux.

Il est donc nécessaire de rappeler que l'infrastructure téléphonique n'est pas égalitaire 4. Toutes les lignes sont centralisées vers des commutateurs qui relient les lignes entre elles. Du point de vue de l'utilisateur, le passage obligé par un autocommutateur local le place dans une relation hiérarchique stricte, une structure pyramidale.

Pour donner une idée de la forme étriquée de cette pyramide il est nécessaire de rappeler que le réseau de France Télécom ne comprend que 5 CTP, 75 CTS et 1100 CAA.

Un central téléphonique a donc la même importance technique dans la relation téléphonique, qu'un émetteur relais pour la télévision. S'il ne fait pas le contenu, il permet sa diffusion. Pourtant, ces deux réseaux techniques sont opposés. Certes le téléphone permet la circulation d'informations dans les deux sens, ce que ne permet pas la télévision (ou par un cheminement beaucoup plus long et non personnalisé qu'est l'audimat), il en est pas moins vrai que l'infrastructure téléphonique est fortement hiérarchisée.
Que ne dirait-on pas d'une organisation sociale où pour s'adresser à son voisin, il faudrait faire passer le message par l'intermédiaire de supérieurs, qui feraient alors redescendre le message à son destinataire ? Qu'elle est fortement hiérarchisée... Et malgré le fait que l'infrastructure téléphonique fonctionne selon ce principe, elle est décrite comme un modèle égalitaire !

En fait, l'égalité supposée du modèle téléphonique n'est due qu'à la transparence de sa hiérarchie. Mais transparence ne veut pas dire inexistence. D'ailleurs transparence n'est pas le terme le plus approprié car celui-ci sous-entend la possibilité de voir le fonctionnement. Parler de transparence d'une hiérarchie implique auparavant la reconnaissance de son existence. Or c'est justement là que le bât blesse. La diffusion du modèle téléphonique niant l'existence même d'une hiérarchie et dont est déduit les prétendues conséquences sociales promises par l'avènement de la société de l'information (qui ne sont pas en fait des conséquences, mais des idéologies constituées a priori (cf. chapitre 2)), c'est-à-dire la modélisation des organisations sociales sur cette organisation technique ont surtout pour effet de nier l'existence de hiérarchies, et donc non pas de les rendre transparentes, mais invisibles.

Il serait faux pourtant de dire que l'infrastructure téléphonique est strictement pyramidale. En effet certains commutateurs de même niveau sont reliés entre eux si le trafic le justifie. De même une transversale peut relier un commutateur à un autre non immédiatement supérieur. Ces transversales existent pour des raisons de trafic ou de sécurité en doublant ainsi les voies normales d'acheminement.

Cependant, si l'on considère le réseau téléphonique d'un point de vue statique (c'est-à-dire comme la liaison de points déterminés), on reconnaît une hiérarchie entre ses points (exprimés d'ailleurs dans la dénomination de certains commutateurs, de transit primaire ou secondaire). Malgré l'existence des transversales, certains points du réseau (où se situent les commutateurs) sont d'une importance supérieure à d'autres (et justifie d'ailleurs en cela le doublement des voies d'acheminement vers celui-ci que sont les transversales). Il existe donc bien une hiérarchie dans la structure technique du réseau téléphonique. Et pour l'utilisateur d'un terminal, cette hiérarchie est strictement pyramidale, il n'a d'autre possibilité que d'être relié à un commutateur local, et uniquement à celui-ci.


Le modèle informatique.

Le modèle informatique (figure 3) est le modèle le plus difficile à élaborer.

En effet, la communication informatique utilise de plus en plus les infrastructures téléphoniques, et donc au premier niveau, la communication se fait via une unité de raccordement d'abonnés. Ensuite, son mode d'acheminement diffère de la commutation de lignes, on parle de communication de paquets.

La commutation de lignes, si elle reste indispensable pour faire entrer un terminal dans le réseau de télécommunication, cède ensuite le pas aux routeurs de messages (ou de paquets).
En effet la commutation de ligne consiste à brancher deux points en leur réservant de la bande passante même si leur échange est nul. La commutation par paquets sectionne les messages numérisés et les envoie dynamiquement, c'est-à-dire selon un chemin non prévu, dans le réseau. Le message est ensuite reconstitué par le destinataire. Du fait que cette technologie implique la section des messages, on comprend qu'elle ait été à l'origine réservée à l'Échange de Données Informatiques (EDI). Cependant, comme ces données informatiques tendent à recouvrir n'importe quel contenu, cette manière de transmettre se généralise et semble à terme promise à remplacer le schéma téléphonique, c'est-à-dire la commutation de lignes 5.

Dans ce type de réseau, la hiérarchie des commutateurs n'existe plus. Les routeurs qui sont à chaque nœud du réseau (là où se trouve également les autocommutateurs) dirigent les paquets grâce à leur en-tête (étiquette de destination) vers le routeur le plus proche le moins encombré, et ainsi de suite jusqu'au destinataire.
Malgré cette apparente égalité des points des nouveaux réseaux, il ne faut pas oublier que ceux-ci se sont greffés sur l'ancien. En effet, les routeurs ne font que réorganiser l'utilisation des câbles déjà existants. La hiérarchie dans un réseau de type EDI n'est pas donnée par les
points du réseau, mais par ses chemins. Ainsi, en considérant le réseau dynamiquement, on s'aperçoit que les chemins les plus larges sont les plus importants. Ces câbles (appelés " backbone ") sont la colonne vertébrale des réseaux informatiques. L'image n'est pas anodine mais révèle parfaitement la hiérarchie créée par les capacités en bande passante des câbles. Or, du fait de l'organisation originelle du réseau téléphonique, les câbles principaux se trouvent entre les commutateurs de transit primaire. La hiérarchie dans le réseau reste quasiment inchangée.

En dernier arrive le terminal qui ne fait pas partie du réseau, mais s'y connecte. Sa nature veut qu'il s'y déconnecte, c'est-à-dire qu'il n'en fera plus partie. Pour véritablement faire partie d'un réseau, il faut pouvoir servir de relais. Or ceci est une opération coûteuse et qui nécessite plus que l'achat d'un modem, mais d'un serveur, l'achat d'une adresse internet (non pas une adresse mail, mais une adresse IP qui localisera la machine et permettra l'acheminement de messages à cette destination), etc.

Faire partie du réseau est notablement différent que s'y connecter. Les hiérarchies dans l'internet existent, et elles se nomment bande passante, point d'accès, etc. Cette hiérarchie est une hiérarchie matérielle, infrastructurelle qui repose physiquement sur le territoire. Les cartes des câbles de télécommunications (en France pour la plupart propriété de France Telecom ou de la SNCF pour ceux utilisé par Cégétel) existent. Or leur diffusion est plutôt confidentielle, et leur accès quasi impossible. On peut néanmoins se faire une idée des infrastructures de Cégétel puisque ce sont celles de la SNCF. Voilà un réseau hiérarchisé s'il en est !

Le modèle de communication informatique n'est donc pas plus égalitaire que son homologue téléphonique. Leur fusion programmée laisse plutôt penser à une conservation des hiérarchies actuelles.


III. Les hiérarchies logicielles du Réseau.

Mais la Société de l'Information n'est pas seulement le Réseau, les flux électroniques des paquets d'octets, mais également l'infrastructure telle que décrite ci-dessus. Le Réseau dépend énormément de son infrastructure, il est donc directement dépendant du Territoire. Cette dépendance vis-à-vis de l'infrastructure est en fait l'unique pouvoir stricto sensu (i.e. autre que le pouvoir des signes) dans le Réseau. Le Réseau, matrice de la Société de l'Information, a les pieds dans le Territoire, et c'est là que sont les vrais pouvoirs de la Société de l'Information. Lorsque la conviction du signe ne suffit plus, la coercition technique, c'est-à-dire physique, surgit. Les deux existent bien sûr de concert, mais la technique façonne en partie les symboles car elle délimite leur espace d'expression. Pôle de gravité insensible car structurant, les fondations techniques des signes sur le Réseau sont les enjeux les plus révélateurs car ils montrent les oppositions et les connivences. Mesurer une distance en pieds ou en mètres n'est pas tout à fait équivalent.

Les couches ISO.

C'est donc au point de contact du Réseau et du Territoire que se jouent les enjeux de pouvoir du Réseau. Or cette zone de contact a le mérite d'avoir déjà été structuré par l'ISO (International Standardization Organization), dans le modèle à l'acronyme homonyme ISO (Interconnexion des Systèmes Ouverts) ou OSI (Open Systems Interconnection).
Ce modèle comprend sept couches et décrit parfaitement la frontière entre Réseau et Territoire. En effet, si l'on peut parler de Réseau au singulier c'est grâce à la compatibilité entre les multiples formes existantes de réseaux de télécommunications et des systèmes informatiques par eux reliés. Cette compatibilité se fait grâce à la normalisation de chacune des couches du modèle ISO. Une couche de rang n-1 rend des services à la couche immédiatement supérieure de rang n. Autrement dit, une couche de rang n est dépendante de la couche inférieure. Ce sont les conséquences de cette dépendance qui sont les enjeux de pouvoirs du Réseau. Cette dépendance du niveau inférieure décrit finement en fait la dépendance du Réseau envers le Territoire.

De même le Territoire dépend bien évidemment de la Nature. Pour illustrer cette dépendance, rappelons le sort de l'atoll japonais Okino-Tori-Shima. À la suite d'un mouvement sismique, le sommet de cet atoll s'est enfoncé. Or si la mer était parvenue à le recouvrir, l'atoll en question ne pouvait plus être considéré comme terre émergée. S'en serait suivi la perte de la zone économique exclusive qui s'étend jusqu'à 200 milles nautiques (370 km) de toute terre émergée. Pour pallier à cette probable perte d'une immense zone de pêche, les Japonais ont bétonné le sommet de l'atoll pour le relever et prévenir un éventuel recouvrement. Le Territoire est donc bien dépendant de la Nature, même si celui-ci peut ruser avec celle-ci comme le montre l'expérience d'Okino-Tori-Shima. De même certaines tactiques peuvent permettre au Réseau de ruser avec le Territoire.

Mais toutes les constructions antisismiques, et autres digues ne font que témoigner de l'origine du pouvoir entre Nature et Territoire. Il existe cependant une grosse différence avec le couple Territoire / Nature, c'est que le Territoire n'est pas seulement une entité symbolique, les forces physiques (bétonner un atoll par exemple) y sont possibles, donc le pouvoir au sens restrictif (i.e. une action physique). Le Territoire, au vu de l'évolution de l'état de la planète, a pris le dessus sur la Nature. Mais pour le couple Territoire / Réseau, toutes les possibilités physiques sont du côté du Territoire. Le Réseau reste une sphère purement symbolique qui, si elle peut commander au Territoire, ne peut s'en affranchir 6. Ainsi lorsque le Territoire surgit dans le Réseau, celui-ci ne peut que contempler sa dépendance. Les effondrements de trafic sur l'IRC dû à la déconnexion de certains réseaux sont monnaie courante, donnant l'impression aux utilisateurs connectés que tous les utilisateurs d'un réseau spécifique se déconnectent simultanément. Mais si le direct de l'IRC permet de témoigner de ces ruptures de réseaux, les autres protocoles (SMTP, NNTP, FTP, HTTP), c'est-à-dire les autres utilisations (courriers électroniques, forums, transferts de fichiers, web) ne peuvent témoigner de l'étendue de la déconnexion 7. Soit parce que les communications ne sont pas en direct (forums ou mails), soit parce qu'elles sont ciblées sur une adresse particulière (web et FTP), ne pouvant donc présumer de la déconnexion particulière l'étendue de celle-ci.

Les couches basses dites réseau correspondent aux couches 1, 2 et 3 et ont pour rôle essentiel le transport des informations entre 2 systèmes. Les couches hautes dites application correspondent aux couches 4 à 7 et ont pour rôle essentiel le dialogue entre applications.

Les applications sont des logiciels informatiques. À partir de la couche 7 né l'empire des signes de la Société de l'Information, ce que nous avons appelé le Réseau avec toutes les pratiques sociales qui s'ensuivent, notamment l'absence du pouvoir déjà évoquée.
Les chemins de communication sont des câbles bien réels et parfaitement localisables ou des satellites et leurs antennes émettrices au sol. Ils appartiennent de plein droit au Territoire et sont soumis à la loi des États.
Les routeurs sont les équipements présents sur les nœuds de communication ou se trouve aussi un commutateur si les lignes ne sont pas strictement EDI mais également utilisée en téléphonie.

Ce qu'il est important de retenir, c'est la dépendance physique des couches supérieures envers les couches inférieures, mais également que la finalité des ces dernières est de servir les couches supérieures. Mais la finalité de la structure OSI (couche inférieure sert une supérieure) implique en étendant cette dynamique, que la finalité du Territoire est de servir le Réseau. Cependant, la dépendance reste inverse. Les couches supérieures sont tributaires des couches inférieures. Dans cette optique on retrouve un schéma bien connu : la fin se trouve dépendante des moyens.

Le modèle OSI est l'origine du modèle de la Société de l'Information. Cette dernière n'est que l'extension aux usages sociaux d'un modèle technique. Un objet technique peut sans aucun doute transformer une civilisation (la voiture par exemple), mais il est quand même assez rare qu'on en vienne à vouloir remodeler une civilisation selon un modèle technique ! Même si ce remodelage puise dans des modèles théoriques et utopiques antérieurs comme le saint-simonisme, on peut se demander si cette reconversion soudaine n'en est pas moins qu'une justification théorique de la généralisation des enjeux de pouvoirs que l'on peut décrypter grâce au modèle OSI. Rien de plus utile que l'intérêt général quand il cache le particulier.

Dans le modèle OSI, les enjeux de pouvoir sont pour l'instant clairement identifié au niveau des chemins de communication avec la déréglementation du marché des opérateurs de télécommunication qui en sont généralement propriétaires (à part entière ou en pour partie via des joint-ventures), comme on peut le voir en France entre France Telecom et Cégétel. Là les responsabilités sont encore clairement établies, les États conservent le pouvoir dans ce domaine (même si cela consiste à s'en désaisir via la déréglementation, il s'agit d'un acte dont l'origine est clairement établie).

Un autre enjeu clairement défini est celui qui oppose Microsoft au reste du monde au niveau des couches d'applications. Là l'enjeu est clairement défini comme commercial, voire par certains comme culturel, car comme nous l'avons montré, les couches inférieures déterminent pour une grande part les couches supérieures. Au-delà de la couche 7, on sort du domaine technique pour rentrer dans les usages sociaux des techniques, et il est juste de dire que la technique influe sur ceux-ci. Il existerait donc une différence médiologique entre les outils informatiques Microsoft et d'autres, aussi sûrement qu'entre une plume d'oie et un stylo bille. Le champ à étudier serait large, mais nous pouvons honnêtement avancer que les outils informatiques nécessitant des apprentissages et contribuant ainsi à créer des habitudes, créent des différences qui influent très certainement sur les utilisateurs. Reste à déterminer si ces différences existent réellement et ne sont pas qu'un simple argument commercial de la part des concurrents de Microsoft.

On remarquera que Cisco, le constructeur d'équipements nécessaires au niveau des nœuds de télécommunications, c'est-à-dire essentiellement les couches réseau du modèle ISO, détient environ 80% de ce marché pour le moins stratégique. Or ce quasi-monopole passe totalement inaperçu. D'ailleurs le troisième enjeu de pouvoir décelable est justement à propos de la couche 3 du modèle ISO et du protocole IP dans sa version 6. En effet le succès de l'internet tient dans la généralisation du protocole IP (associé à TCP pour le transport), qui en a fait le protocole de communication par excellence car universellement partagé. Il existe de nombreux autres protocoles réseau, mais tous utilisent IP quand la nécessité de se faire comprendre de tous se fait sentir. On comprend donc que le protocole IP lui-même est un énorme enjeu car devenu le standard incontesté, son évolution aura des répercussions innombrables.

Les enjeux de pouvoir au niveau supérieur et inférieur sont très médiatisés car reconnus pour l'un comme un enjeu économique ou social (Microsoft vs. Le reste du monde) et pour l'autre comme un enjeu économique ou politique (déréglementation des télécommunications), le ou étant ici inclusif. On notera que dans tous les cas, c'est un enjeu économique.

L'enjeu du protocole IP ne semble pas avoir frappé grand monde, il est considéré comme un problème purement technique. Pourtant, on a au moins la preuve que cet enjeu est suffisamment de taille pour être un enjeu économique. En effet, Microsoft, fidèle à sa stratégie du monopole pour l'intérêt général, a lancé il y a quelques années MSN (MicroSoft Network), réseau propriétaire proposant du contenu. La connexion "prête à l'emploi " MSN étant incluse avec les systèmes d'exploitation Windows de Microsoft, l'objectif était clair : faire de MSN le réseau accueillant le plus de personnes (au mieux tous ceux utilisant un système d'exploitation Microsoft, c'est-à-dire pratiquement tous les utilisateurs de PC), pour rendre la connexion à MSN la plus intéressante, voire quasi-obligée pour le commerce électronique. Bref faire de MSN, ce qu'est l'internet actuellement. La différence est cependant énorme, MSN était un réseau propriétaire (c'est-à-dire privé et où les propriétaires font la pluie et le beau temps, notamment dans la définition des normes techniques), alors que l'internet, étant un amalgame de réseaux, la définition des normes techniques passent donc par des organismes publics et se fait beaucoup plus difficilement (du fait des conflits d'intérêt) et la diffusion de ces normes est également assez aléatoire. La plus grande chance de devenir une norme pour l'internet est d'avoir été d'abord adopté par les utilisateurs ! On voit l'énorme différence de gestion entre l'internet et un réseau propriétaire. À l'origine, l'internet n'était que l'interconnexion de réseaux publics, les réseaux propriétaires s'y sont raccordés (comme celui d'AOL) pour gagner en valeur (selon la traditionnelle formule pour les réseaux que plus il y a de connectés, plus se connecter devient intéressant). Le pendant à cela devient clair et est familier en notre époque de mondialisation : on n'est plus maître chez soi. Ainsi les réseaux propriétaires peuvent conserver toutes les spécificités qu'ils veulent, du moment qu'elles soient compatibles avec les caractérisations de l'internet, d'où l'importance de ces dernières. L'aventure MSN s'est terminée, celui-ci a fini par joindre l'internet et doit donc passé sous les fourches caudines de l'Internet Society. Mais on a pu y voir la tentative par Microsoft de dominer le monde réticulaire pour y dicter ses conditions technologiques et commerciales comme il le fait dans le monde de l'informatique personnel 8.
La définition d'une nouvelle norme du protocole IP qui devrait se généraliser progressivement est donc un enjeu plutôt important quoique assez inaperçu.


Un nouveau standard IP version 6.

La partie IP du protocole de TCP/IP a évolué de la version initiale. La norme en 1998 est la version 4. La prochaine version de la norme, IP v6, a été approuvée en janvier 1995 [Cf. RFC n° 1883 http://www.sw.com.sg/Connected/RFC/]. Elle ne se répand que lentement en raison de l'énorme masse existante de logiciels conçue pour la version 4.
Cependant, un consortium d'organismes gouvernementaux et d'universités reconstruise un internet de la deuxième génération, " internet 2 ". Utilisant la même tactique qu'avec l'internet initial, cela commence d'abord comme réseau non commercial à vitesse élevée joignant des universités et des laboratoires de recherches par l'intermédiaire de liaisons principales propriétaires.
L'internet 2 est un banc d'essai pour la prochaine génération de l'internet, et il est exclusivement basé sur IP v6. IP v6 remplace des adresses de 32 bits de la version 4 par des adresses 128 bits, augmentant énormément le nombre d'adresses internet.

Il permet également l'authentification et le chiffrement dans l'en-tête de paquet, ce qui permet de sécuriser les échanges. Il peut étiqueter des paquets de sorte que l'expéditeur puisse demander une manipulation spécifique, c'est-à-dire un envoi plus urgent qui ne doit pas souffrir de délais nuisant à son contenu.
Les paquets sont étiquetés avec des priorités de 0 à 15. De 0 à 7, il s'agit de paquets pouvants souffrir de reports de transmission, et de 8 à 15 sont les priorités des envois "en temps réel ", i.e. ne devant pas souffrir de retard. Le 8 étant le plus prioritaire (vidéo haute définition) et le 15 le moins (son basse qualité). Ainsi, les paquets de données des programmes vidéos peuvent avoir une priorité plus élevée que des paquets de e-mail, parce que des retards affectent la qualité de la vidéo, mais pas celle du courrier électronique.

Très important aussi, la multi-diffusion est possible avec IP v6, et ceci peut notablement réduire l'encombrement de l'internet. Prenons par exemple la diffusion d'un clip vidéo à 12 sites différents par l'intermédiaire de l'internet. Aujourd'hui, les destinataires doivent faire 12 demandes séparées de la vidéo au serveur, imposant au serveur et au routeur un débit proportionnel au nombre de demandes. Avec la multi-diffusion, la diffusion initiale est envoyée à une adresse simple. Le système qui envoie une demande à cette adresse peut ensuite avoir une copie de la liaison binaire (la vidéo codée en binaire) reçue par elle. Comme avec la télévision, la liaison est là, et ceux qui souhaitent se brancher sur elle, le peuvent à volonté, s'ils ont la permission de l'expéditeur.

Cette présentation sommaire de l'IP v6 laisse penser qu'effectivement, il s'agit essentiellement d'une affaire technique. On voit bien la tendance au multimédia sur l'internet, mais cela n'est pas nouveau. L'internet 2 ne sera que la matrice technique de la convergence déjà annoncée de l'informatique, des télécommunications et de l'audiovisuel. Cependant, le protocole IP est devenu un enjeu, notamment en raison de la multiplication du nombre d'adresses possibles.
En effet, l'égalité sur l'internet et particulièrement sur le web qui en est le lieu central, tient surtout au fait que la mise à disposition d'information sur un serveur X n'est pas en soi plus remarquable que si ces informations étaient hébergées sur un serveur Y. Si la facilité de transfert de ces informations dépend effectivement de critères techniques de la liaison, la facilité d'accès à ces informations est techniquement strictement identique. Si l'internet est une mine d'information, trouver le filon est toujours une gageure. Les moteurs de recherche existent mais ils se basent sur les contenus des informations.
Le protocole IP v6 a un en-tête de priorité (un " flag " ou fanion de priorité). On a bien vu que la nécessité de celui-ci était dû à l'encombrement du réseau et au fait que certaines formes de données nécessitent un débit continue et assuré comme la vidéo, alors que d'autres non. Cependant, rien n'assure que le fanion de priorité ne sera utilisé que pour des raisons techniques, il est même fort probable que ce ne sera pas le cas. On peut se demander quelle différence il peut y avoir entre un courrier électronique acheminé en un quart d'heure et un autre qui en 3 secondes. Dans une société où l'instantané est la règle, l'écart peut être lourd de conséquences. On rappellera qu'avant guerre, l'agence Havas a bâti sa fortune en faisant circuler l'information plus vite que les autres. Mais plutôt que de spéculer sur les possibilités induites par le protocole IP v6, remarquons simplement la volonté affirmée de réintroduire une hiérarchie dans le réseau.

Cette hiérarchie technique pourrait ensuite être utilisée comme un critère pertinent par les outils logiciels dans la sélection de l'information. Où un critère purement technique, acquière une portée de sens qui n'a rien à voir avec celui-ci. C'est là la crainte des utopistes du net qui craignent de voir utiliser les fanions de priorité du protocole IP v6 comme autant de coûts supplémentaires pour une diffusion égalitaire et uniforme de l'information. La diffusion d'information sur l'internet n'a actuellement qu'un coût minime et tout le monde est logé à la même enseigne. IP v6 c'est structurellement l'internet à plusieurs vitesses ; on voit donc en quoi cela va à l'encontre de l'idée d'une diffusion de l'information uniforme et surtout égalitaire.

Cependant l'information est la différence remarquable qui la hisse du bruit ambiant. Cette hiérarchisation technique est en fait, une manière de donner du sens au magma qu'est le Réseau. Pouvait-il en être autrement quand le problème n'est pas le manque d'informations mais l'abondance de celles-ci ? Nous ne le croyons pas.
Dans ce cas, le défi du Réseau n'est pas de diffuser au maximum, mais au contraire de hiérarchiser pour redonner du sens. Et plus le Réseau accueillera de trafic, plus la nécessité de différenciation et de hiérarchisation se fera sentir.
L'internet rappelle les grands idéaux de l'école. Pour l'accomplissement de ses buts, l'enseignement, la diffusion du savoir, etc., elle utilise un outil fort commode : la hiérarchisation. Mais cette hiérarchie scolaire est devenue le principal critère de sélection sociale. On arrive presque à l'inverse des buts initiaux quand l'école n'arrive plus qu'à produire cette hiérarchie.
Il ne faut pas se leurrer, les outils technologiques de l'internet sont des outils de sélection, des filtres, et autres moteurs de recherche. C'est grâce à eux que l'internet livre des informations. L'égalité initiale de diffusion sur l'internet, oblige en retour, à une sélection stricte dans la réception. La différence est importante puisque la hiérarchie est définie par le récipiendaire, mais cela ne justifie pas l'oubli que la hiérarchie existe, et qu'elle est même vitale.


La bataille du DNS ou l'internet révèle sa structure douloureusement pyramidale.

Avant tout, il convient de définir ce qu'est le Domain Name System. On a vu que les adresses internet sont des adresses dites IP et qui ont cette forme : 146.221.34.67. Or les adresses utilisées sont des adresses logiques comme telecom.gouv.fr (utilisées quelle que soit la fonction, mail : dupont@telecom.gouv.fr, web : www.telecom.gouv.fr, ou transfert de fichiers : ftp.telecom.gouv.fr), que l'on appelle nom de domaine. Une telle adresse est composée d'un domaine principal, ".fr ", d'un sous-domaine ".gouv " et peut être encore subdivisée selon les besoins (le gouvernement ayant besoin de nombreuses adresses pour ses services, on comprend le pourquoi de celle-ci). La plupart des adresses logiques internet n'ont qu'un domaine et un sous-domaine (ex : microsoft.com).
Or lorsqu'une machine envoie une requête, elle a besoin de connaître non pas l'adresse logique, mais l'adresse IP, qui n'a rien à voir avec celle-ci. Pour ce faire, elle doit d'abord chercher l'adresse IP correspondante à l'adresse logique demandée. Elle s'adresse alors à un Domain Name Server qui est un serveur (un ordinateur connecté en permanence) où sont enregistrés toutes les adresses logiques et leurs correspondances IP (en effet, une entreprise qui change de prestataire internet, change d'adresse IP puisqu'elle utilisera les ordinateurs de son nouveau prestataire, mais ne changera pas d'adresse logique). Pour pouvoir enregistrer une adresse logique, il faut avoir une connexion permanente au réseau, d'où la nécessité pour les particuliers ou des entreprises de passer par un intermédiaire qui est généralement le fournisseur d'accès et de services internet.

On comprend donc l'importance des serveurs DNS qui sont les annuaires indispensables pour trouver et être trouvé. La gestion de ces DNS est confiée à des organismes ad hoc.
Ainsi tous les sous-domaines voulant faire partie de la hiérarchie.fr doivent être enregistrés par le NIC France (Network Information Center http://www.nic.fr), chaque hiérarchie nationale ayant un organisme dédié. Les domaines des pays (dits ISO 3166) sont dépendants d'un organisme régional, le RIPE (Réseau IP Européen http://www.ripe.net) pour l'Europe, l'APNIC (Asia-Pacific Network Information Center http://www.apnic.net) pour l'Asie-Pacifique, et l'InterNIC http://www.internic.net pour les États-Unis et le reste du monde. Ces trois organismes ont des pouvoirs délégués par l'organisme IANA (Internet Assigned Numbers Authority) pour l'attribution des adresses IP.

Pour finir l'organigramme de l'internet, l'IANA est dans l'orbite de l'Internet Society (ISOC) http://www.isoc.org, organisme qui promeut le réseau internet et dont dépend différents organismes qui gèrent l'internet, outre l'IANA, l'IAB (Internet Architecture Board http://www.iab.org/iab/), l'IETF (Internet Engineering Task Force http://www.ietf.cnri.reston.va.us/home.html), et l'IRTF (Internet Research Task Force).

Historiquement, l'administration d'internet était principalement sous les auspices de l'IAB et de l'IANA. L'IAB étant responsable de l'architecture de l'internet alors que l'IANA était responsable de l'allocation d'adresses IP à tous ceux qui voulaient faire partie de l'internet. Au départ, l'IAB et l'IANA travaillaient pour la NSF (National Science Foundation) une agence gouvernementale américaine qui s'occupe en partie des entreprises dans le secteur scientifique et technologique. C'est d'ailleurs son réseau de télécommunications (NSFnet) qui a servi de " backbone " originel à l'internet aux États-Unis. Alors que l'internet grandissait, la NSF a décidé que certains rôles pouvaient être délégués au secteur privé. À la suite d'un appel d'offre pour la gestion des domaines .com, .net et .org, l'entreprise Network Service Inc. (NSI) remporta le contrat qui a expiré en mars 1998. Sur ce, NSI prît donc le contrôle de l'InterNIC pour la gestion de ces domaines (l'InterNIC gère également le domaine .edu), organisme à but non lucratif chargé des allocations de ces adresses. Les deux autres " NICs " (Network Information Center), l'ApNIC qui s'occupe de la zone Asie-Pacifique et RIPE qui couvre l'Europe existaient déjà.

L'InterNIC s'est donc surtout occupé des États-Unis où la croissance était la plus forte, notamment le domaine .com où il existe actuellement 1,4 millions de domaines secondaires et environ 100.000 noms supplémentaires par mois. Tout ceci allait sans problème jusqu'en 1996 lorsque la NSF autorisa NSI à faire payer des honoraires pour l'enregistrement des domaines qu'elle gérait et permettant donc à NSI de faire des profits via l'InterNIC. NSI commença donc à faire des bénéfices substantiels, à la consternation de la communauté de l'internet.

La NSF ajouta à la confusion de la situation quand elle annonça en avril 1997 qu'à l'expiration du contrat de NSI en mars 1998, elle laisserait l'administration des domaines principaux au secteur privé en se retirant définitivement de la gestion de l'internet. Cet abandon de gestion permis de fait à la NSI de clamer la propriété des domaines .com, .org et .net alors que lors de la concession de gestion à NSI, celle-ci n'était absolument pas propriétaire de ces domaines. Mais selon NSI, c'est elle qui a fait de ces domaines ce qu'ils sont aujourd'hui. Selon elle " elle a investi des millions de dollars en personnel, infrastructure et en contrats divers pour administrer ces domaines. Grâce à ses seuls efforts, NSI a pris tous les risques de pertes ou de profits, avec aucune assurance de profits. " C'est avec cette théorie, que NSI clame la propriété des domaines .com, .net et .org.
Conjointement, il est également apparu que les sous-domaines étaient très précieux. L'internet étant un environnement technique, il ne peut y avoir deux sous-domaines identiques dans un même domaine principal. Par exemple il ne peut y avoir qu'un seul cocacola.com.
Mais ce qui semble simple avec Coca, ne l'est pas pour d'autres. Ainsi qui peut réclamer le domaine lyonnaise.com ? La Lyonnaise des Eaux ou la Lyonnaise de Banque  ?
Ainsi est donc né les cybersquatters, des personnes qui se sont précipités sur tous les domaines associés à des marques prestigieuses dans l'espoir de les revendre plus tard au plus haut prix ! Les propriétaires de marques déposés se sont donc indignés et ont demandé à la NSI de régler cette situation. Celle-ci a donc mis au point une procédure compliquée où les propriétaires mécontents pouvaient débouter un propriétaire de nom de domaine, en faisant valoir des droits de marques déposées supérieures à ceux du propriétaire du nom de domaine.

Comme le phénomène du cybersquat s'accentuait, il est devenu clair que l'espace des domaines secondaires était de plus en plus précieux à mesure que celui-ci se réduisait avec l'enregistrement toujours croissant de domaines .com à l'InterNIC.

Sur ce est né IAHC (l'Internet Ad Hoc Comitee) qui a proposé la création d'autres domaines (.firm, .store, .rec, .arts, .web, .info, .nom) menaçant du coup la poule aux œufs d'or de NSI. De plus l'IAHC étant essentiellement (à côté d'entreprises se refusant de dépendre d'une autre entreprise, NSI, pour s'enregistrer sur l'internet) composé des organismes de l'ISOC son but fut aussi d'établir une structure administrative centralisée de l'internet et de contourner NSI dans l'enregistrement de nom de domaines. Cette offensive aboutira finalement à la création de la " nouvelle IANA ", prévu le 30 septembre 1998, organisme international et totalement indépendant du gouvernement américain mais dans lequel NSI conserve une place prédominante.

Mais avant cela, la controverse a fait rage. Et pour mieux la comprendre il est indispensable de comprendre comme marche l'internet. Le cœur de l'internet sont, comme on l'a vu dans la description de l'arbre de nommage (sic) internet, les serveurs racines dans lesquels sont enregistrés les adresses IP correspondant aux adresses logiques. Il y a actuellement neuf serveurs racines, huit aux États-Unis et un en Suède. Techniquement il ne peut y avoir au maximum que treize serveurs racines dénommés de A à M (pour l'instant A à I). Ce sont ces serveurs racines que les serveurs des fournisseurs d'accès ou de services internet (FAI et FSI) contacte pour accéder à l'internet, et faire passer les messages d'un ordinateur à un autre.
Pour que l'internet puisse marcher, il faut que tous les noms de domaines (ex : yahoo.com, gouv.fr, fiat.it, mygale.org, etc.) soient enregistrés sur les serveurs racines afin que toute machine voulant contacter une autre puisse savoir où s'adresser, c'est-à-dire connaître l'adresse IP. (Les adresses IP se créent et changent souvent. Les remises à jours du domaine .fr se font toutes les 3 heures). Lorsque l'on crée un nom de domaine (i.e. une adresse logique, les deux derniers termes d'une adresse internet) on s'enregistre à l'organisme qui gère le domaine principal (donc InterNIC via NSI pour .com, NIC France pour .fr), celui-ci met à son tour à jour la base de données des serveurs racines pour que ces noms de domaines soient accessibles par toute machine, et donc fassent matériellement partie de l'internet.

Mais tous les serveurs racines ne sont pas égaux ! En effet, ils sont organisés en cascade. " A " représentant la ligne principale, le reste étant les lignes de désengorgement.
Étant donné que les serveurs racines sont organisés en cascade, l'enregistrement d'un domaine doit se faire d'abord au serveur A. Or c'est la NSI qui possède et contrôle le serveur A où s'enregistre chaque jour des milliers de nouveaux nom de domaine par la base de données de l'InterNIC gérant donc les domaines .com , .org et .net (contrôlés par NSI) et .edu, ainsi que toutes les autres bases de données de domaines principaux membres de l'APNIC ou de RIPE (comme NIC France). Ensuite le serveur racine A charge à son tour dans les autres serveurs racines, les mises à jour des noms de domaine, c'est-à-dire les concordances entre adresses logiques et adresses IP.
Donc toutes les nouvelles adresses ne peuvent faire partie de l'internet que si elles ont été enregistrées par le serveur A de NSI ! On comprend donc sa position de force dans le milieu de l'internet.

Dans son bras de fer contre l'IAHC (Internet Ad Hoc Comitee), NSI avait publiquement déclaré qu'elle ne pouvait prendre la responsabilité d'accepter des nouveaux noms de domaines principaux, disant qu'une telle responsabilité devait venir d'un "consensus " de la communauté internet. Donc contrairement à tous les autres arrangements, NSI s'affranchit de facto de l'autorité de l'IANA qui était jusque là l'organe approuvant les nouveaux noms de domaines principaux 9. L'IANA faisant sans surprise partie de l'IAHC qui s'oppose aux manœuvres de la NSI, il était difficile à NSI de se soumettre à un organisme prenant le contre-pied de sa gestion. Mais la dure réalité technique et physique étant ce qu'elle est, tout nouveau nom de domaine devant être enregistré dans le serveur racine A, propriété de NSI, il est difficile de ne pas être de l'avis de la NSI, puisque celle-ci a matériellement les moyens d'appliquer sa volonté.
L'IANA a bien menacé d'un réalignement des serveurs racines pour que celui de la NSI ne devienne plus le A. Cependant pour que cela soit, il faut que la NSI entre la nouvelle programmation dans son propre serveur, et rien ne l'oblige à le faire ! Dans ce cas il y aurait donc une partition de l'internet. Deux serveurs racines A proposant deux hiérarchies différentes, et des domaines de chaque hiérarchie ne pourraient donc pas communiquer avec ceux des autres domaines (ex : une machine .firm ne pourrait entrer en contact avec une .com).
La "nouvelle IANA " organisme international, est issu de l'IAHC et NSI, malgré leur opposition toujours d'actualité, n'empêche cependant pas le risque d'une partition de l'internet. La "nouvelle " IANA ne doit pas non plus faire illusion quant à sa finalité. Elle est un organisme international justement parce que les conflits entre entreprises ne pouvaient être réglés que par un tel organisme eu égard à la mondialisation. Les utopistes de l'internet dénonce avec véhémence une mercantilisation de l'internet, organisée par le gouvernement américain 10.

Mais l'avenir de l'internet n'est pas spécifiquement le sujet de ce mémoire. Nous voulons relever certains points primordiaux qui apparaissent à propos de l'internet à l'occasion du conflit IAHC, NSI.

On s'aperçoit que l'appartenance à l'internet dépend in fine d'une seule machine ! Le serveur racine A, ainsi que sept des huit autres serveurs racines qui sont les annuaires de l'internet sont tous sur le territoire américain et soumis aux lois américaines. Ne nous leurrons pas. Si pour une raison quelconque, le Congrès vote une loi pour interdire l'importation d'information en provenance d'un pays, retirer du serveur A les correspondances des adresses internet correspondantes à ce pays, et dans les heures qui suivent, toutes les adresses net de ce pays seront injoignable et ne pourront plus joindre le reste du monde. Même en ayant une adresse .com ou autre, qui sont gérée par un organisme américain pouvant à son tour retirer sélectivement n'importe quelle adresse, il faut reconnaître où est la source du pouvoir sur l'internet ! Celui n'est pas comme le prétend pourtant toute la littérature ou presque, un réseau, par nature a-céphale. Qu'on se rende compte que ce pouvoir sur les adresses existe également pour tous les serveurs gérant les noms de pays. Qu'au même titre, tous les utilisateurs d'un serveur, nom de domaine, sont dépendants du gestionnaire de celui-ci.

Prenons un exemple, l'adresse de l'IEPG http://www-sciences-po.upmf-grenoble.fr

www-sciences-po représente un ordinateur connecté au serveur de l'Université de Grenoble 2 dont l'adresse logique est upmf-grenoble.fr (on ne soulignera jamais assez l'inutilité du "faux " www, qui est suivi d'un tiret et non d'un point et qui ne fait qu'induire en erreur dans la saisie de l'adresse. Le sigle www semble être aussi fascinant pour certaines méninges que XXX pour d'autre organe 11).
L'administrateur de cet ordinateur peut s'il le désire renommer un fichier de celui-ci pour une raison quelconque sans pour autant mettre à jour les liens qui pointent vers celui-ci. Le résultat concret est l'invisibilité de ce fichier devenu ainsi introuvable.

L'administrateur du serveur de l'Université, peut s'il le désire, déconnecter l'ordinateur www-sciences-po (ainsi que tous les terminaux branchés à celui-ci en amont) du serveur de l'UPMF, le coupant du reste du monde. Il reste donc un réseau interne à www-sciences-po (puisque celui-ci à plusieurs terminaux), ce que l'on appelle un intranet, mais la totalité de son contenu reste inaccessible pour le reste de l'internet.

À un niveau supérieur, NIC France peut déconnecter de l'internet le serveur upmf-grenoble.fr, simplement en enlevant la corrélation entre adresse IP et logique de sa base de donnée. Ce serveur deviendra invisible avec la mise à jour des bases de données des serveurs racines.
On peut également faire cela à partir du serveur racine A, c'est-à-dire du territoire américain.

Bref, faire partie de l'internet ne doit qu'au bon vouloir de trois à quatre personnes dans le pire des cas, personnes physiques travaillant sur du matériel bien réel et donc soumis à la loi des États. Le bon vouloir de ceux-ci dans le développement et le maintien de l'internet est donc plus que souhaitable.
On comprend également l'attitude du gouvernement américain qui tend à avoir sur son territoire un maximum de serveurs importants, non seulement pour pouvoir intercepter les communications, mais aussi pour soumettre les machines aux lois américaines et de ce fait, imposer à travers cela une législation américaine pour tout l'internet 12.
En France, les administrateurs de serveurs ferment effectivement tout site ayant du contenu négationniste, sous peine de tomber sous le coup de la loi Gayssot. Il est quasi impossible de trouver ce genre de texte sur des serveurs physiquement présents en France (comme mygale.org) ou appartenant au domaine .fr.
Cela les oblige donc à migrer sur des serveurs américains car le discours négationniste n'est pas interdit aux États-Unis, premier amendement oblige.

Est-ce que faire disparaître l'adresse d'un site est une pratique courante ? Certes non et il est de plus impossible de pouvoir prouver quoi que ce soit. Cependant, Ronda Hauben 13 nous a affirmé que certains sites très critiques quant à la direction mercantile de l'internet voulue par l'IANA et NSI, avaient encouru des isolations forcées.

L'expérience de l'IANA permet de rappeler quelques faits : c'est le gouvernement américain qui volontairement abandonne la gestion de fait de l'internet lorsque la NSF laisse l'IANA s'organiser par elle-même après l'expiration de la concession de gestion des domaines .com, .org et .net à NSI en mars 1998. On s'en convaincra d'autant plus que c'est ce même gouvernement par la voix du Department of Commerce qui a posé l'ultimatum pour une réorganisation au 30 septembre 1998 du fait du retrait de la NSF. L'organisation de l'internet suit donc une volonté politique et n'est pas une entité auto-organisatrice. Certes le volontariat et l'autogestion dans beaucoup de domaines ont été la règle, mais cela uniquement par ce que le politique approuvait cette organisation.

L'indépendance de l'internet vis-à-vis des États n'est donc en rien dû à la nature réticulaire de celui-ci comme l'affirme les tenants de la notion de réseau, toute imprégnée de saint-simonisme, mais bien dû à la volonté de ces États (surtout celle des États-Unis qui seuls ont la capacité matérielle de contrôler l'internet) de ne pas prendre en charge la gestion de celui-ci, tout en sachant pertinemment qu'il reste sous son contrôle, et en faisant tout pour que cette possibilité de contrôle s'accroît.




Notes du chapitre 3.


1. Cf. supra chapitre 2.

2. " directrice des programmes occulte " p.21 in B. Pivot, Remontrance à la ménagère de moins de 50 ans

3. On peut d'ailleurs s'interroger si le téléphone n'amplifie pas les hiérarchies sociales par la capacité qu'il donne de faire cesser unilatéralement la conversation. Cette capacité est-elle exercée de manière uniforme ? C'est peu probable. Par exemple, un employé ne raccrochera guère souvent au nez de son patron, ce que ce dernier peut se permettre sans retenue. Pour preuve, le démarchage commercial, c'est-à-dire la sollicitation d'un acheteur potentiel par un vendeur (et donc une relation avec une hiérarchie fortement marquée, la continuation de la relation dépendant quasi exclusivement du bon vouloir de la personne sollicitée), est un exercice beaucoup plus difficile que la vente où existe un contact physique.

4. Pour exemple l'utilisation par un technicien de France Télécom des priorités d'acheminement des appels (les appels internationaux sont prioritaires) pour être toujours le premier à passer son appel (ou d'un de ses complices) au jeu télévisé de TF1 l'Or à l'Appel.

5. Sprint, le troisième opérateur américain de télécommunications à longue distance a prévu d'abandonner la commutation de circuit pour la commutation de paquet dès 1999.

6. L'affranchissement du Réseau par rapport au Territoire n'est pas d'actualité. Cependant, c'est un sujet largement traité en fiction. Pour un affranchissement maléfique et temporaire de celui-ci, on se référera au film Wargames. D'autres œuvres de science-fiction ont décrit l'affranchissement du Réseau par rapport au Territoire, c'est-à-dire son indépendance fonctionnelle. L'autonomisation fonctionnelle (en fiction, l'accession à la pensée) nécessite, pour une indépendance totale, une autonomie énergétique (pour ne pas être débranché) et une robotisation très poussée (pour pouvoir intervenir " physiquement "). Ces nécessités pointent avec pertinence sur les limites du Réseau, et donc sur les pouvoirs qui peuvent le commander. Dans cette veine voir Terre, de David Brin (2 tomes : La chose au cœur du monde et Message de l'univers), Presses Pocket.

7. Le plus gros effondrement dont l'auteur peut témoigner, fut la nuit de la mort de lady Diana. L'événement a fait augmenter de façon si brutale les échanges transatlantiques que les connexions entre réseaux ont été saturées et ont fini par cédées. L'IRC étant un échange en direct, on peut effectivement voir la déconnexion simultanée des milliers d'utilisateurs d'outre-Atlantique. Pour ces utilisateurs, l'effet fut le même vis-à-vis des connectés européens. La déconnexion d'un réseau est cependant invisible pour les échanges différés comme le courrier électronique. Ce fut la mésaventure d'AOL il y a quelques années. Tous les usagers d'AOL n'ont, l'espace de trois jours, pu accédé à l'internet mais seulement au réseau d'AOL, mais plus grave, aucun courrier électronique à destination des abonnés d'AOL venant de l'extérieur ne pût être acheminé et vice-versa. Il y eut trois jours de silence radio de ces abonnés sans aucune raison apparente, entraînant des conséquences plutôt néfastes pour certains.

8. Microsoft a changé de tactique en distribuant gratuitement son navigateur Internet Explorer avec son système d'exploitation Windows en arguant qu'il en était une partie constitutive. Si la finalité commerciale est connue (et s'en est suivi les différentes procédures judiciaires contre Microsoft), l'utilisation technique l'est moins. En effet les logiciels Microsoft tentent de s'imposer en utilisant des codages différents des autres, rendant ces derniers incompatibles. Si le monde du web évolue très vite et permet de pallier cette pratique par l'utilisation de techniques toujours nouvelles, celui des forums et du courrier évolue bien moins vite. Ainsi poster un article dans un forum avec un logiciel Microsoft (Outlook par exemple), rend souvent cet article incompréhensible à tous les possesseurs de logiciels différents. La gêne occasionnée n'est donc pas décelable pour les utilisateurs de produits Microsoft car ceux-ci lisent bien sûr les standards utilisés par les autres constructeurs. Microsoft veut ainsi jouer sur l'effet de nombre pour imposer ses standards de façon informelle comme avec son système d'exploitation Windows. L'utilité pour l'utilisateur est bien moindre... À quoi bon poster un article publiquement si celui-ci n'est lisible que pour une partie du public ? Demander à un utilisateur de forum de reconfigurer son logiciel selon les critères standards de l'internet pour qu'il soit compris de tous au lieu des critères derniers cris de Microsoft seulement compréhensibles par les clients de ce dernier est monnaie courante sur les forums. Ceci est néanmoins révélateur de l'offensive technique de Microsoft et de l'importance stratégique de ces critères.

9. Nous voyons là une reproduction quasi identique du conflit entre Philippe IV le Bel et le pape Boniface VIII, où un pouvoir effectif cherche à s'imposer avec l'aide d'une légitimité ad hoc. Voir chapitre 4.

10. Voir le compte rendu acerbe de Ronda Hauben de la réunion tenue à Genève, fin juillet 1998 dans l'optique de finaliser la création de la nouvelle IANA http://www.columbia.edu/~rh120/other/ifwp_july.txt

11. Pour comparaison l'adresse de l'IEP de Lyon est http://iep.univ-lyon2.fr

12. Pour voir l'implication des États dans le Réseau, voir Jean Guisnel, Guerre dans le cyberespace, La Découverte, 1997

13. Ronda Hauben est représentative des utopistes de la Société de l'Information, et critique très férocement le gouvernement américain d'abandonner au marché la gestion de l'internet. On peut lire son livre Netizens à http://www.columbia.edu/~hauben/netbook