L'INTERNET

Nous vivons une véritable « révolution industrielle », comparable à celles déclenchées jadis par la machine à vapeur ou l’électricité.

En France, Internet voyage à la vitesse de la lumière.
D'abord parce que près de 80 % des Français peuvent en 2023 prétendre à une connexion par la fibre optique et son signal lumineux, en lieu et place du réseau cuivre et de l'ADSL moins performant, dix ans seulement après le démarrage du plan France très haut débit. Mais aussi parce que l'Etat, les collectivités locales, la Caisse des Dépôts et les opérateurs ont consacré plus de 36 milliards d'euros - dont 12,9 milliards d'argent public - pour déployer à vitesse grand V cette nouvelle infrastructure critique pour l'avenir du pays. C'est un succès éclair.

sommaire

Mise en œuvre du réseau câblé

Utilisée dans les câbles de transmission, la fibre optique, composée de minces cheveux de silice pure, remplace le courant électrique par des ondes lumineuses. Les câbles en fibres optiques transportent indifféremment l’image, le son et les données, et permettent ainsi des liaisons à très haut débit. Les premières études dans le domaine des télécommunications optiques ont été menées aux Etats-Unis dans les années 1960.
C’est à la fin des années 1970, que l’administration des Télécoms décide l’exploration de la technologie de transmission du signal par l’intermédiaire de fibres optiques. Après l’installation du premier réseau câblé en fibre optique, permettant à la fois de tester la télévision par câble et la visiophonie développée par les chercheurs du CNET, le gouvernement décide alors d’équiper la France d’un vaste réseau câblé de télécommunications en fibre optique. Dès lors, les Télécoms français deviennent l’un des principaux câblo-opérateurs. Mais, l’installation des câbles en fibre optique demeure très onéreuse, et est donc abandonnée au profit d’une solution mixte (câbles coaxiaux et câbles en fibre optique).
La fibre optique étant particulièrement bien adaptée aux liaisons à grand débit, elle sera utilisée pour les câbles sous-marins.
Le premier câble sous-marin en fibre optique reliant la Corse au continent est posé en 1987. En 1988, c’est le premier câble sous-marin transatlantique à fibre optique, le TAT 8, qui est mis en service.
Cette innovation technologique va bouleverser le monde des télécommunications, qui voit alors la capacité de ses réseaux s’accroître considérablement. France Télécom va devoir apprendre à gérer le haut débit et la multitude des informations qu’il faut apprendre à utiliser et à valoriser, notamment au sein du Réseau Numérique à Intégration de Services, le RNIS, ouvert en 1988.

A la fin des années 1970, la DGT entreprend de front deux grands projets : d’une part le projet Télématique ; d’autre part, la DGT décide d’élargir le champ de ses activités et cherche à mettre en place son réseau du futur : le réseau numérique à large bande. La France accuse un retard en matière de télédistribution, le CNET dispose de différents produits qui semblent alors au point et adaptés à l’audiovisuel, la DGT cherche de nouveaux grands projets pour se donner un nouveau souffle et élargir son champs d’activité : ce sera une autre occasion de mettre en place un plan de rattrapage, le Plan Câble.
Si le Plan Câble a vu le jour en 1982, des expériences de télévision par câble avaient déjà débutées en 1973 dans sept villes, mais se sont arrêtées en 1975 du fait d’une inquiétude gouvernementale quant à une communication locale incontrôlée. A Biarritz, il fut possible de justifier l’expérience par des zones d’ombres à la réception hertzienne : ce cas fit école. La ville de Metz sera l’une des villes pionnières dans la mise en place un réseau câblé à la fin des années 1970 et refusera de se résoudre à arrêter l’expérience, malgré quelques problèmes juridiques. Elle obtiendra finalement une autorisation dérogatoire d’exploitation, mais ne cherchera pas à mettre en place de chaîne de télévision locale.
A partir du milieu des années 1970, la DGT va chercher à équiper le pays en artères de communication à haut débit, elle va former deux pôles : un autour de Saint-Gobain Thomson et un autour de la CGE. Une Direction de la Communication Optique (DCO) va fonctionner dans ce but à la Direction des Affaires Industrielles et Internationales (DAII) de 1979 à 1981.
C’est une équipe du CNET qui sera à la tête de cet organisme.
Le gouvernement adoptera, en novembre 1982, le plan de développement des réseaux câblés de vidéocommunication, plus couramment appelé le « Plan Câble ». Ce plan était soutenu par un engagement financier de l’Etat de plus de cinquante milliards de francs sur quinze ans et basé sur des options technologiques d’avant-garde (fibre optique, réseau en étoile). Il avait pour objectif l’édification progressive de réseaux numériques multiservices permettant, à terme, d’envisager l’offre d’une vaste gamme de services et de programmes. Répondant à un triple enjeu (industriel, culturel et social), ce plan portait la marque des grands projets, dans la ligne du volontarisme à la française. Il revenait aux collectivités locales, en conformité avec la décentralisation, l’initiative de la décision de câblage. Ce fut la première fois que les télécoms et les collectivités territoriales étaient partenaires dans un grand projet d’aménagement du territoire ce qui eu un impact positif sur le développement de réseaux de télécommunications sur le territoire français : le niveau local était mieux appréhendé grâce à l’action des collectivités territoriales locales (les petites communes, les districts urbains, les départements), qui connaissent mieux l’espace géographique local et ses spécificités, et exercent leurs influences (aménagement, finances, etc.) directement au niveau local. Ceci a permis une meilleure organisation et une meilleure planification dans la mise en place des réseaux de télécommunications par câbles à travers tout l’espace géographique français, en prenant en compte les aspects topographiques (relief), les aspects sociaux (la notion de « service universel »), les aspects aménagement du territoire (optimisation d’un réseau), les
aspects politiques, les aspects financiers (coût de revient du réseau, rentabilité), etc.
Ce plan de câblage en fibres optiques a été créé afin de disposer d’une alternative aux télécommunications par satellites commerciaux, de permettre le développement de chaînes télévisées de proximité, en un mot, de rattraper le retard français en matière de télécommunications et téléservices par câbles.
L’initiateur du Plan Câble fut Albert Glowinski, qui avait dirigé un groupe de travail sur les usages des Nouvelles Technologies de l’Information et de la Communication , à la demande du directeur général des télécommunications, Gérard Théry. Dès 1976, ce groupe prévoyait que l’avenir des télécommunications était dans l’image et les réseaux. L’idée mise en avant fut celle de la profusion d’images, de l’interactivité et de la défense de l’identité nationale60 . Il s’agira de développer un réseau large bande en fibres optiques capable de véhiculer indifféremment à très haut débit la voix, le son, l’image et les données informatiques sur un mode interactif.
L’arrivée de la Gauche au pouvoir en 1981 va propulser bon nombre des membres de cette commission à des postes décisionnels, et la volonté de câblage de la France en fibres optiques va ainsi devenir une réalité sur le terrain. Selon Jean-Paul Simon , l’objectif du Plan Câble est multiple. On notera notamment la volonté de donner aux collectivités locales la maîtrise de la mise en œuvre du câble au niveau local, ainsi que le rapprochement de la DGT du domaine d’activité de Télé Diffusion de France, TDF (quelques années plus tard TDF deviendra filiale de France Télécom, avant de devenir une société indépendante en 2004).
Le Plan Câble va alors connaître un rebondissement qui sera le premier d’une longue série noire : le principal opposant à Gérard Théry (le DG des Télécoms) lui succède à la tête de la DGT, suite à l’arrivée de la Gauche au pouvoir, et de nouvelles décisions au niveau de l’industrie des télécoms vont être prises. Une nouvelle cellule sera mise en place : la Délégation Aux Vidéocommunications (DAV). On va alors décider d’abandonner la fibre optique, et de remettre en question le principe des avances remboursables.

En effet, les résultats de l’appel d’offre lancé auprès des industriels pour la fourniture de réseaux en fibres optiques vont poser un grave problème de faisabilité technique, entraînant un coût de raccordement infiniment plus élevé et une impossibilité de partage financier avec les communes. De plus, la fibre optique et l’architecture prévue (développée par le CNET) ne sont pas encore au point. Il serait en effet impossible de réaliser la solution technique envisagée, c'est-à-dire la 1G (première génération), celle-ci n’étant pas prête technologiquement. On, va donc choisir une solution mixte (dénommée 0G, génération 0) alliant la fibre optique pour les grands axes et le coaxial pour la distribution aux immeubles.
Une autre difficulté résidait dans les autorisations administratives multiples nécessaires à la construction et la gestion de tels réseaux. Il fallait pour la commune demander une autorisation de construction à la DGT, demander une autorisation à la haute autorité de l’audiovisuel, signer une convention entre la DGT et la Société Locale d’Exploitation du Câble (SLEC), cette SLEC devant à son tour négocier avec TDF (qui avait à l’époque le monopole de la télédistribution). Il y avait là de quoi décourager plus d’un élu local, et créer plus d’un blocage avant l’autorisation finale.
A partir de 1984, on va observer de nombreux et importants conflits au sein même de la DGT à propos du Plan Câble. La situation générale est très critique : la fibre optique n’est pas exploitable, les collectivités locales se scandalisent des lenteurs de la DGT, et le Plan Câble se vide petit à petit de sa substance.
Le Câble devra également affronter des outsiders créés par le gouvernement, qui correspondent au lancement des nouvelles chaînes hertziennes : Canal Plus en 1984, puis la Cinq et la Six en 1985. Le gouvernement va alors mettre en place une instance de régulation : la mission câble. Celle-ci va faire pression afin d’assouplir les décrets en préparation sur les exploitants des SLEC (les sociétés d’économie mixte chargées d’exploiter commercialement les réseaux). De part l’échec du partenariat entre la DGT et les collectivités locales, ces dernières, conscientes du risque financier qu’elles encouraient, ont limités, en totale contradiction avec l’esprit premier du plan Câble, leurs engagement financier dans les SLEC.
Le pire des scénarios possible pour la DGT va alors se mettre en place, puisque les SLEC vont, pour une grande partie d’entre elles, concéder l’exploitation de leurs réseaux à des sociétés qui se retrouvent bientôt en situation d’oligopole : la Générale des eaux, la Lyonnaise des Eaux, et la Caisse des Dépôts et Consignations. Partenaires privilégiées des collectivités locales, possédant une structure financière suffisante, habituées à asseoir leur rentabilité sur le long terme et désireuses d’investir dans la communications, ces sociétés ont alors occupé un marché que peu d’entreprises auraient été en mesure de prendre.
En 1988, la droite revient au pouvoir et Gérard Longuet est nommé à la tête du ministère des Postes et des Télécommunications. La loi sur la liberté de communication de septembre 1986 va alors retirer à l’administration française des télécommunications le monopole qu’elle détenait en matière de construction de réseaux câblés et va limiter les usages du câble à la seule télédistribution. Cette loi n’a fait en réalité que prendre acte du quasi abandon du Plan Câble. Fin 1986, Les télécoms n’avaient signés que 52 conventions, 200 collectivités locales étaient concernées, pour un potentiel d’environ 6 millions de prises. L’investisseur public se trouve ainsi dans une situation inconfortable avec sur les bras un projet qui n’a plus de
légitimité politique et qui s’avère, en tant qu’opération industrielle, financièrement désastreux.
D’autre part, le système fibre optique permettait finalement moins de possibilités techniques que l’ancien système, le coaxial.
De 1986 à 1988, la DGT va donc exécuter les obligations contractées lors de la signature des conventions. L’investissement n’est pas rentable, mais il a le mérite de va pas mettre l’activité entre les mains d’opérateurs étrangers qui auraient vu là une infrastructure permettant à terme une remise en cause du monopole sur la téléphonie62 . Durant cette période, le gouvernement.
La fin du monopole de France Télécom au premier janvier 1998, ainsi que les multiples expériences de téléphonie sur le câble menées au milieu des années 1990, nous montrent que ce scénario était bien de l’ordre du possible. lancera un nouveau pavé dans la marre en suscitant un nouveau concurrent au câble : le satellite TDF 1 sera lancé en 1987.
Il sera suivi du projet de télévision à haute définition (TVHD). Cette logique semble pour le moins contradictoire, et pour comprendre les méandres décisionnels du Plan Câble, il convient de rappeler les intérêts principaux en présence :
• pour le CNET, il s’agit là de reproduire le modèle du plan de rattrapage téléphonique des
années 1970. Des enjeux en terme de recherche et de développement industriel sous
tendent à nouveau ce projet.
• Pour la DGT, il s’agit de pouvoir s’offrir un marché nouveau, jusque là chasse gardée de TDF, et ce en construisant à moindre frais un réseau qui sera nécessaire à de multiples usages d’ici la fin du siècle. Un autre avantage du câble était de canaliser les bénéfices vers de nouveaux investissements, et donc de ne pas voir ceux-ci reversés au budget général de l’Etat. Cette stratégie comportait pourtant un risque puisque l’audiovisuel n’est pas le métier de la DGT.
• Pour les collectivités locales, il s’agissait de pouvoir s’octroyer un nouveau domaine de compétence, dont l’image futuriste ne pouvait être que bénéfique à l’équipe en place.
Ce sont ces différents intervenants, développant des stratégies très différentes voire opposées, qui vont mener à la paralysie du système.
En 1982, les prévisions avaient été très positives : on attendait 1,5 millions de foyers câblés avant fin 1987. Dans la réalité, on comptait en septembre 1988 environ 35 000 abonnés pour 670 000 prises installées, soit un taux de pénétration inférieur à 6 %. Le réseau le plus important est alors « hors Plan Câble » : il s’agit de celui de la ville de Metz, géré durant cette période par la caisse des Dépôts et Consignations. De 1988 à 1990, la Gauche va tenter de remettre à flot le Plan Câble, mais en vain.
On retiendra surtout du Plan Câble une mauvaise coordination entre des objectifs centraux lointains, et l’initiative isolée des collectivités locales assumant seules les coûts. Le Plan Câble abandonné, il laissera de nombreuses collectivités endettées. On imagine alors facilement l’origine de la réticence de nombreuses communes françaises dans les années 1995-2000 pour se lancer dans l’aventure de la mise en place du réseau Internet, et ceci d’autant plus qu’on y retrouvait la volonté politique à terme de câblage du territoire en fibres optiques.
Les premières années du câble furent celles de la négociation et des retournements. Elles ne mettaient en scène que des acteurs institutionnels (Ministère et DGT, collectivités locales, opérateurs). Le succès aurait peut-être été au rendez-vous si l’on avait pris en compte le comportement d’un acteur jusqu’ici presque oublié, alors qu’il joue un rôle essentiel dans l’utilisation de tout réseau de télécommunication, c'est-à-dire l’individu, le client.

Evolution de la croissance des réseaux câblés dans le monde depuis 10 ans (1990-2000) :
La câblodistribution forme, avec les mobiles et le fixe, la troisième catégorie de réseau de télécommunications, et peut aujourd’hui prétendre concurrencer les réseaux téléphoniques. La répartition de ce type de réseaux à travers le monde est très variée, certains pays ayant, pour des raisons historiques économiques ou politiques, favorisé le développement de la câblodistribution (USA, Benelux, etc.), alors que d’autres, pour des raisons inverses, ne disposent malheureusement encore en l’an 2000 d’aucun réseau câblé : c’est le cas de l’Italie.
Dans les années 1990, la gestion du réseau messin va revenir à TDF.
Les pays de grande superficie, comme les USA et la Chine, se situent en tête des pays disposant des plus grands réseaux câblés.

Réseau fibre en 1990

Mise en place du réseau Internet dans les années 1990
Le développement des communications semble être l’un des points caractéristiques de la mondialisation de l’économie qui marquera les années 1990. Tant du point de vue économique que politique, l’information apparaît comme une notion à part dans le monde des échanges commerciaux, et l’arrivée de nouvelles technologies de réseaux donne lieu à une redistribution des différents rôles d’acteurs de la communication. Le premier volet important de la mise en place des Nouvelles Technologies de l’Information et de la Communication est la mise en place d’une nouvelle réglementation des télécommunications mieux adaptée, le second est la mesure de l’intervention de l’Etat.

Origines des NTIC
Le projet d’autoroutes de l’information trouve son origine aux Etats-Unis. L’idée fut lancée durant la campagne présidentielle de Clinton, et le principal instigateur en sera Al Gore, vice président américain . Ces politiques devaient avoir les mêmes fonctions symboliques que le plan de la construction des autoroutes des années 1930 dans le cadre du New Deal. En effet, il s’agit là d’augmenter la performance du pays, tout en donnant accès à ces nouvelles technologies aux régions rurales, aux milieux défavorisés et aux écoles. Les usages qui sont mis en avant correspondent également à l’argumentation de mise en place des grands programmes d’innovation technologique : télémédecine (possibilité de diagnostique à
distance), éducation, lutte contre le chômage, etc.
Le plan présenté par l’administration américaine pour promouvoir le National Information Infrastructure comprend neufs points :
1. promouvoir l’implication du secteur privé pour un investissement plus actif.
2. étendre le concept de « service universel »66 pour s’assurer que les sources d’information soient accessibles pour tous et à des prix raisonnables.
3. agir comme catalyseur pour promouvoir la recherche, l’innovation technologique et les nouvelles applications.
4. promouvoir un fonctionnement fluide, interactif et répondant aux besoins des usagers (standardisation et interopérabilité).
5. assurer la sécurité de l’information et la sécurité des réseaux.
6. améliorer la gestion du spectre des fréquences radio.
7. promouvoir la protection de la propriété intellectuelle.
8. coordonner les différentes administrations concernées et se concerter avec les pays tiers.
9. fournir l’accès à l’information administrative et améliorer les procédures d’achat public .

Il n’est en revanche fait aucune mention explicite de la façon dont ces objectifs vont être traités. Le point central du programme est de relancer la croissance par de nouvelles infrastructures

sommaire

Une fibre optique est un fil dont l’âme, très fine, en verre ou en plastique, a la propriété de conduire la lumière et sert pour la fibroscopie, l'éclairage ou la transmission de données numériques. Elle offre un débit d'information nettement supérieur à celui des câbles coaxiaux et peut servir de support à un réseau « large bande » par lequel transitent aussi bien la télévision, le téléphone, la visioconférence ou les données informatiques.
Le principe de la fibre optique date du début du XXe siècle mais ce n'est qu'en 1970 qu'est développée une fibre utilisable pour les télécommunications, dans les laboratoires de l'entreprise américaine Corning Glass Works (actuelle Corning Incorporated).
Lorsqu'un rayon lumineux entre dans une fibre optique à l'une de ses extrémités avec un angle adéquat, il subit de multiples réflexions totales internes. Ce rayon se propage alors jusqu'à l'autre extrémité de la fibre optique sans perte, en empruntant un parcours en zigzag. La propagation de la lumière dans la fibre peut se faire avec très peu de pertes même lorsque la fibre est courbée.
Entourée d'une gaine protectrice, la fibre optique peut être utilisée pour conduire de la lumière entre deux lieux distants de plusieurs centaines, voire milliers, de kilomètres. Le signal lumineux codé par une variation d'intensité est capable de transmettre une grande quantité d'information.
En permettant les communications à très longue distance et à des débits jusqu'alors impossibles, les fibres optiques ont constitué l'un des éléments clés de la révolution des télécommunications. Ses propriétés sont également exploitées dans le domaine des capteurs (température, pression, etc.), dans l'imagerie et dans l'éclairage.

La possibilité de transporter de la lumière le long de fines fibres de verre fut exploitée au cours de la première moitié du XXe siècle. En 1927, Baird et Hansell tentèrent de mettre au point un dispositif d'images de télévision à l'aide de fibres. Hansell put faire breveter son invention, mais elle ne fut jamais vraiment utilisée. Quelques années plus tard, en 1930, Heinrich Lamm réussit à transmettre l'image d'un filament de lampe électrique grâce à un assemblage rudimentaire de fibres de quartz. Cependant, il était encore difficile à cette époque de concevoir que ces fibres de verre puissent trouver une application.

sommaire

La première application fructueuse de la fibre optique eut lieu au début des années 1950, lorsque le fibroscope flexible fut inventé par Abraham van Heel et Harold Hopkins. Cet appareil permettait la transmission d'une image le long de fibres en verre. Il fut particulièrement utilisé en endoscopie, pour observer l'intérieur du corps humain, et pour inspecter des soudures dans des réacteurs d'avion. Malheureusement, la transmission ne pouvait pas être faite sur une grande distance étant donné la piètre qualité des fibres utilisées. En 1957, le fibroscope (endoscope flexible médical) est inventé par Basil Hirschowitz aux États-Unis.

Les télécommunications par fibre optique restèrent impossibles jusqu'à l'invention du laser en 1960.
Le laser offrit en effet la possibilité de transmettre un signal sur une grande distance avec une perte et une dispersion spectrale très faibles.
Dans sa publication de 1964, Charles Kao, des Standard Telecommunications Laboratories, décrivit un système de communication à longue distance et à faible perte en mettant à profit l'utilisation conjointe du laser et de la fibre optique.
Peu après, soit en 1966, il démontra expérimentalement, avec la collaboration de Georges Hockman, qu'il était possible de transporter de l'information sur une grande distance sous forme de lumière grâce à la fibre optique.
Cette expérience est souvent considérée comme la première transmission de données par fibre optique.
Cependant, les pertes dans cette fibre optique étaient telles que le signal disparaissait au bout de quelques centimètres, non par perte de lumière, mais parce que les différents chemins de réflexion du signal contre les parois finissaient par en faire perdre la phase. Cela la rendait encore peu avantageuse par rapport au fil de cuivre traditionnel. Les pertes de phase entraînées par l'usage d'une fibre de verre homogène constituaient le principal obstacle à l'utilisation courante de la fibre optique.

En France, la première thèse de doctorat sur le sujet fut soutenue en janvier 1969 par Luigi d'Auria à l'université de Toulouse.
En 1970, trois scientifiques de la compagnie Corning Glass Works de New York, Robert Maurer, Peter Schultz et Donald Keck, produisirent la première fibre optique avec des pertes de phase suffisamment faibles pour être utilisée dans les réseaux de télécommunications (20 décibels par kilomètre). Leur fibre optique était en mesure de transporter 65 000 fois plus d'information qu'un simple câble de cuivre, ce qui correspondait au rapport des longueurs d'onde utilisées.
Le premier système de communication téléphonique optique fut installé au centre-ville de Chicago en 1977.

Genèse et croissance des NTIC en Europe
En Europe, deux étapes contradictoires marquent la mise en place des politiques concernant les réseaux de l’information : le Livre Blanc et le Rapport Bangemann.
Le Livre Blanc « Croissance, compétitivité, emploi » présenté en décembre 1993 au Conseil des chefs d’Etats et de gouvernement, en réaction au programme américain, fit entrer l’Union Européenne à une cadence accélérée dans la course vers le développement des autoroutes de l’information en Europe. Ce document fut le fruit d’un intense débat entre les services de la Commission Européenne, les services les plus concernés par les télécommunications défendant pour leur part une approche très similaire à celles des américains (avec comme premier objectif l’infrastructure), alors que les services plus généraux étaient plus favorables à la notion de société de l’information.
L’enjeux est évidemment de ne pas se faire dépasser par les américains, et l’on peut ainsi lire dans le Livre Blanc : « Les Etats-Unis ont pris de l’avance : 200 de leurs plus grandes entreprises utilisent déjà les autoroutes de l’information. Au cœur du modèle de développement du XXI ème siècle, c’est un enjeu crucial pour la suivie ou le déclin de l’Europe. » On peut évidement se demander si l’Europe ne réagirait pas par « mimétisme » au plan américain, et l’on ne peut pas exclure totalement cette hypothèse. Il semble pourtant plus probable que l’on trouve là le résultat d’un effort de concertation plus poussé au niveau international.
Le plan d’action proposé par ce Livre Blanc pour les autoroutes de l’information, le fameux réseau Internet, comporte 5 domaines prioritaires :
1. la diffusion de l’exploitation des technologies de l’information (lancement de projets européens d’applications et de services d’intérêts public ; télétravail).
2. la dotation de l’Europe en services de base transeuropéen (développer les réseaux, assurer leur interopérabilité, renforcer la coordination entre les politiques de télécommunication et les interventions des fonds structurels).
3. poursuivre la mise en place d’un cadre réglementaire adapté (supprimer les distorsions de concurrence , fourniture d’un service universel, accélérer le processus de normalisation, étendre le droit de la propriété intellectuelle).
4. développer la formation aux nouvelles technologies (généralisation des NTIC dans l’enseignement et la formation, formation adaptée d’ingénieurs et de chercheurs).
5. renforcer les performances technologiques et industrielles (renforcer l’effort de recherche et développement, valoriser les applications industrielles, négociations internationales pour un marché équitable).

L’investissement massif dans le secteur des télécommunications (et donc dans le réseau Internet) reste, dans ce Livre Blanc, un facteur important. Un rapport va pourtant modifier ces priorités, et c’est sous l’impulsion de Martin Bangemann qu’une commission d’industriels va remodeler ces politiques. En effet, afin de ne pas apparaître comme s’engageant dans une politique d’intervention industrielle de grande ampleur, le Conseil Européen a demandé « qu’un rapport soit établi par un groupe de personnalités pleinement représentatives de toutes les industries concernées dans l’Union, des utilisateurs et des consommateurs » . L’influence des milieux de l’Industrie (informatique surtout) a été moins marquante qu’aux Etats-Unis dans cette phase de mise en place des programmes, et il s’agissait de démontrer à travers cette demande que les politiques proposées étaient destinées à « compléter et stimuler le fonctionnement du marché » et non à le créer de toutes pièces. Ce groupe de personnalités a établi un rapport intitulé « L’Europe et la société de l’information planétaire ». Concernant le financement européen, on y lit que « les investissements publics seront nécessaires, non pas sous forme d’un accroissement des dépenses publiques d’une manière générale, mais plutôt sous la forme d’une redistribution des dépenses actuelles. Une part des investissements que devront consentir les pouvoirs publics, en vue d’application en ce domaine, se traduira par des gains de productivité et par une amélioration de la qualité des services qui devraient permettre de réaliser des économies ».
Il faut savoir que dans ce regroupement de personnalités, les représentants des opérateurs de télécommunications se trouvent en petite minorité. Ce sera donc l’occasion pour les milieux de l’industrie de pousser à son maximum en direction de la déréglementation du secteur des télécommunications. Le message essentiel du rapport est très clair : il faut rompre avec le passé « en ouvrant à la concurrence les infrastructures et les services », « en adaptant les tarifs de toute urgence ».
La volonté première du Livre Blanc de construction « d’infrastructures structurantes » de l’espace géographique, d’aménagement du territoire, sera diminuée au moins en partie, et le point d’orgue des politiques de mises en place des autoroutes de l’information vont se cristalliser sur la déréglementation totale du secteur des télécommunications. L’Etat devra avoir de moins en moins de pouvoir direct sur les opérateurs nationaux jusqu’à leur complète privatisation, et une instance européenne de régulation se mettra en place. Selon le Rapport Bangemann, l’objectif principal est une déréglementation rapide et profonde du secteur, le soutien de l’Etat devant être fortement diminué, et limité uniquement à une fonction de
régulation et de stimulation des marchés.
Le Conseil de l’Europe accueillera très positivement ce rapport. Selon les conclusions du Conseil de l’Europe, « il revient en premier lieu au secteur privé de répondre à ce défi en évaluant les enjeux et en prenant les initiatives nécessaires, notamment en matière de financement ». D’autre part, « la Communauté et les Etats membres ont cependant un rôle important à jouer pour accompagner cette évolution en donnant une impulsion politique, en créant un cadre réglementaire clair et stable […] ainsi qu’en donnant l’exemple dans les domaines qui relèvent de leur compétence » .
En juillet 1994, la Commission élabore son Plan d’action : le développement des NTIC sera essentiellement basé sur un financement privé, la concurrence sera encouragée tout en préservant un service universel ainsi que l’interconnexion des réseaux, et le démarrage de cette mise en place se fera de façon pragmatique par des projets pilotes et des expérimentations. Le 17 novembre 1994, le Conseil des ministres européens des Télécommunications adopte une résolution fixant au premier janvier 1998 le principe de libéralisation intégrale des infrastructures de télécommunications.
Autant au niveau européen que national, c’est l’aspect déréglementation du secteur des télécommunications et de l’audiovisuel qui devient le point central de ces politiques. La mise en place d’une infrastructure de communication à large bande reste certes l’épine dorsale de la société de l’information, mais ce sera au secteur privé de la mettre en place en temps voulu.
Ces décisions politiques de la Communauté Européenne vont fortement marquer les politiques en matière de télécommunication des différents pays membres de la Communauté, et les développements qui verront le jour en France, en Allemagne et en Grande Bretagne en seront directement issus ; leurs programmes de développement au niveau national du réseau Internet et des NTIC seront très similaires.

Genèse et croissance du réseau Internet et des NTIC en France
La législation française sur ce thème se fait elle aussi en deux temps. Elle suit le mouvement international et le gouvernement va définir sa politique de mise en place des autoroutes de l’information dans ce cadre de mise en place européenne, de concurrence et de déréglementation. La Commission Européenne aura eu un impact très important sur l’orientation des politiques françaises en la matière, et la France inscrira ce thème dès le début de l’année 1994 dans son programme politique.
C’est par un rapport officiel80 commandé en février 1994 à Gérard Théry (ancien Directeur Général des Télécommunications) par Edouard Balladur qu’avait réellement débuté la mise en place des politiques françaises sur le thème des « autoroutes de l’information » . Il sera demandé à Gérard Théry de préciser les enjeux de la Société de l’Information, avec modalités et calendrier. Les propositions de ce rapport, remis en septembre 1994, peuvent être résumées ainsi :
(1) Raccorder à l’horizon 2015 tous les foyers et les entreprises de France au réseau Internet ;
(2) Assurer l’accès équitable de tous les citoyens à Internet, afin d’éviter les cassures du type ville-campagne, riches-pauvres, etc.
Avec comme propositions :
- Le développement massif des liaisons par fibre optique avec, comme premier objectif, l’équipement de 4 à 5 millions de foyers et entreprises dans un délai raisonnable mais aussi court que possible ;
- « L’élaboration de plates-formes expérimentales et éventuellement la négociation de leur mise en œuvre avec les différents opérateurs. L’exploitation et la diffusion des résultats et des enseignements qu’elles fourniront » ;
- La généralisation de l’ATM . Le projet de Gérard Théry était donc d’équiper le pays d’un réseau universel à large bande, le réseau Internet, en utilisant des liaisons sous forme de fibres optiques. Ce serait là une façon de relancer le Plan Câble, tout en mettant en place une nouvelle infrastructure.
Le rapport Théry a été écrit dans l’état d’esprit du Livre Blanc du Conseil de l’Europe au printemps 1994. C’était sans compter sur le rapport Bangemann et ses incidences. La recommandation principale de Théry ne sera pas suivie (relance du Plan Câble).
Le 27 octobre 1994 sera la date d’un Comité interministériel des « autoroutes et services de l’information », présidé par Edouard Balladur. Le gouvernement va décider de lancer sous un mois un appel à propositions pour dégager dans les 4 mois suivant une stratégie pour les premières propositions. Cet appel à proposition concernera « tous les acteurs intéressés, publics ou privés, France Télécom devant jouer un rôle moteur mais non exclusif dans ces expérimentations ». Le gouvernement insistera sur la nécessité de développer une industrie de services et de programmes performante dont les enjeux ont été mis en évidence dans un rapport sur les téléservices de Thierry Breton . Ce premier Comité sera le réel coup d’envoi des autoroutes de l’information et la France définit ainsi sa politique de façon pleine et entière dans le cadre des directives européennes. Le 23 novembre 1994, l’appel d’offre pour susciter des plates-formes d’expérimentation dans le domaine des technologies de l’Information et de
la Communication est lancé. Ses objectifs reprendront les idées émises dans le rapport Théry, concernant l’usage de nouveaux services et la structure des distributeurs .
Le 16 octobre 1995, suite au troisième Comité interministériel des autoroutes de l’information, 170 projets seront labellisés. Fin 1995, le gouvernement lancera de nouveaux appels à proposition similaires à ceux de novembre 1994. Ce sera finalement le budget « développement-recherche » des différentes plateformes d’expérimentation qui sera subventionné, à hauteur de 30 % et le « soutien financier aux projets innovants » sera porté de 50 millions de francs en 1995 à 270 millions de francs en 1996.
Les législations se sont donc concentrées sur le second objectif du Rapport Théry (le service télématique), délaissant la question de la construction d’un réseau national en fibre optique.
La loi du 4 février 1995 d’orientation pour l’aménagement du territoire prévoit d’atteindre une couverture du territoire national en réseaux à large bande pour 2015. Depuis lors la libéralisation a été étendue aux infrastructures, et il n’est plus question pour l’Etat d’investir dans ce réseau national, ce sont les opérateurs privés qui prendront le relais pour la construction du réseau Internet. Une législation adaptée va voir le jour : « la Loi relative aux expérimentations dans le domaine des technologies de l’information » du 26 mars 1996. Elle reprendra l’essentiel des dispositifs déjà en place, mais permettra de clarifier le flou juridique en place jusqu’à cette date. Le 10 mai, l’Assemblée Nationale, puis le Sénat le 7 juin 1996 ont
adopté la Loi de Réglementation des Télécommunications (LRT) qui fixa les règles du jeux concurrentiel du 1er janvier 1998. Elle prévoyait, entre autres dispositions, la création de l’Autorité de Régulation des Télécommunications (ART), qui sera en charge de l’application de la réglementation. Cette loi était capitale car en toile de fond apparurent de nouveaux marchés : les services en ligne du type Internet (3,1 milliard de francs de chiffre d’affaires en France en l’an 2000 selon la société d’études américaine IDC) ; la concurrence due aux appels longues distances via Internet (la société Omnicom en Alsace par exemple) ; ou la téléphonie sur le câble et les liaisons satellites (l’Eurotéléport de Roubaix par exemple). Un autre enjeu essentiel de ces nouveaux marchés est celui de la télévision interactive.
Dès le vote de la loi, le marché français a été le théâtre de grandes manœuvres, en particulier de regroupements d’envergure internationale entre acteurs du secteur des télécommunications et de l’audiovisuel. Ces derniers interviennent de manière notable dans le cadre de la mise en place du marché des nouvelles technologies de l’information : la numérisation avancée du son et des images met en effet les secteurs de l’audiovisuel et des télécommunications en concurrence directe. La déréglementation de la concurrence et le désengagement de l’Etat s’étend donc au-delà du domaine des télécommunications, au domaine beaucoup plus vaste de l’audiovisuel, et engendre une réforme totale de ces secteurs. L’élément essentiel pour que puisse intervenir une telle révolution sera la privatisation de France Télécom, avec la volonté gouvernementale de l’entrée en bourse d’une part importante de son capital. Dès lors, une redistribution des cartes dans ces secteurs pourra commencer.
En 1997, le gouvernement Jospin reprend à son compte les grands axes énoncés sous le gouvernement Balladur, et plaide pour la continuation et le renforcement des politiques en place. C’est en juin 1997 que Christian Pierret, secrétaire d’Etat chargé de l’Industrie, donnera les orientations du gouvernement socialiste en matière de mise en place des autoroutes de l’information. Les villes et les élus locaux seraient à la pointe des initiatives et des réalisations en matière de mise en place des autoroutes de l’information, et la dimension politique des expérimentations mettrait le niveau local au centre des communications. La volonté gouvernementale de recentrer le développement des NTIC sur le rôle des collectivités locales
est claire.
Trois niveaux de services sont proposés aux collectivités :
• Les services aux citoyens : aide et création d’emplois, raccordement de tous les établissements secondaires d’enseignement, mise en place d’un réseau Santé Social reliant tous les professionnels de la santé aux Caisses Primaires d’Assurance Maladie, aide au trafic routier, développement de la démocratie participative.
• Les services aux acteurs économiques : offre de services interactifs à moindre coût, développement des communications avec les mobiles, baisse des tarifs téléphoniques, développement du télétravail.
• Les services rendus aux acteurs proprement dits du domaine des technologies de l’information, en particulier aux opérateurs de télécommunications.

sommaire

Dès 1974, les chercheurs du CNET, s’inspirant du premier système couplant réseau téléphonique et terminal informatique, présentent au Salon d’Informatique, de la Communication et de l’Organisation du Bureau, le SICOB à Paris, un premier terminal, baptisé Tictac.
Ce système permettait d’accéder à des pages d’informations diverses et variées. Les principes et les utilisations n’en étaient encore qu’à leur début, mais l’impulsion était donnée, la convergence entre télécommunication et informatique était née.

Au début des années 1980 sont ouverts les premiers réseaux permettant la transmission de données (vidéotexte, annuaire électronique, raccordement au réseau Transpac). Cette entrée est riche d’enseignements pour le monde de la communication au sens large. Pour la première
fois, les Télécoms s’intéressent non plus uniquement à l’art et à la manière de véhiculer les données, mais aussi au contenu des données à transporter
.

1983 L’expérience pionnière de la fibre à Biarritz ( Le billet historique de Patrice Carré sur l’aventure humaine des télécoms.)

A partir de la seconde moitié des années 1970, ce qu’on a appelé « le rattrapage téléphonique » bat son plein. Il s’agit alors de rattraper le retard pris par notre pays dans l’équipement du réseau. C’est l’occasion également d’expérimenter des techniques dont l’avenir allait, bien plus tard, se révéler prometteur…Conçu dans le cadre du 7ème Plan, le Plan d’action prioritaire de 1975 (dédié à l’équipement téléphonique) va permettre un véritable décollage des télécoms. Parties de très loin, les télécommunications françaises ont su – et le mérite en revient à une politique volontariste impulsée à la fois par un corps technique, les pouvoirs publics et la demande pressante du consommateur – se hisser à un niveau exemplaire. Or, parallèlement à ces opérations d’équipement massif et de déploiement du réseau sur l’ensemble du territoire, techniciens et ingénieurs du C.N.E.T. mènent des recherches qui vont conduire à une réelle avancée de l’industrie électronique française : annuaire électronique, expérience de vidéotex interactif de Vélizy mais également travaux sur la fibre optique et la visiophonie, …

Rupture politique mais continuité technique…
En 1979 le président de la République, Valéry Giscard d’Estaing, décide de faire de Biarritz une ville expérimentale où l’on déploierait de la fibre optique et où seraient testés tous ses usages connus et … à venir. Or, l’alternance politique intervenue après la victoire de François Mitterrand le 10 mai 1981 fit craindre une remise en cause des projets déjà lancés. Il n’en fut rien. Les choses étaient claires. On allait poursuivre les projets techniques et notamment dans le domaine de la télématique et de la fibre. D’autant plus que le 3 novembre 1982 le ministre, Louis Mexandeau, annonçait un programme de lancement de réseaux câblés de télécommunications sur l’ensemble du territoire. Le premier objectif de ce qu’on a appelé le « Plan Câble » était l’installation de 1 400 000 prises de raccordement d’ici à 1985. Ce plan – à mettre en relation avec les débats contemporains sur la communication audiovisuelle – aurait dû avoir une portée dépassant l’innovation technique. Il aurait pu amorcer une politique plus large de transformation audiovisuelle annonçant une convergence entre télécommunications et contenus …

Une première mondiale
C’est à Biarritz, en juillet 1983, que fut donc lancée l’une des toutes premières expérimentations mondiale de fibre optique à domicile.
Le projet sera inauguré officiellement par le Président Mitterrand en mai 1984. L’expérimentation durera dix ans. Il s’agissait de tester in vivo ce que pourrait être un « réseau urbain multiservices à large bande », comme on le désigna alors. 1 300 foyers biarrots, 150 lieux institutionnels et 50 sites promotionnels furent connectés à la fibre optique. Le réseau de Biarritz permettait à 1500 abonnés de bénéficier du téléphone, du minitel, de la télévision (15 canaux de télévision dont les chaînes françaises, 2 chaînes espagnoles, 1 chaîne belge et 1 chaîne suisse) et des programmes radiophoniques sonores en FM. L’accès à une vidéothèque en ligne allait également permettre de tester ce qu’on appellerait plus tard – avec le succès que l’on sait- la VOD (Vidéo On Demand).

Une grande nouveauté : la visiophonie
Mais ce qui, sans doute, a suscité alors le plus de curiosité de la part du grand public fut ce qu’on appelait le visiophone.
Le visiophone ou téléphone à images se présentait comme un combiné téléphonique couplé à un petit écran de type TV ; il permettait d’effectuer une transmission de son et d’images, en noir et blanc, entre deux correspondants. Le système installé offrait deux catégories de service. Un service commuté permettant l’établissement à la demande, de liaisons entre deux abonnés. Chaque liaison comportait une voie image (de qualité télévision au standard 625 lignes) et une voie son (voie téléphonique numérisée à 64 kbit/s). A l’exception d’un auteur comme Robida (l’un des pères de la science-fiction) qui, à la fin du 19ème siècle, avait imaginé un Téléphonoscope] ou de quelques expérimentations sporadiques (1937, années 1960, …) l’idée même de visiophonie restait très marginale. Plusieurs études furent réalisées. Elles arrivaient toutes à la même conclusion. L’appropriation de ce dispositif, conçu et promu comme un enrichissement du téléphone, était problématique. Des études marketing montraient des personnes qui s’inquiétaient de devoir être visibles à tout moment, mais… qui, en revanche, appréciaient la possibilité de voir la personne à laquelle elles s’adressaient !
Le fonctionnement de cette expérimentation est lancé le 21 mai 1984, depuis l’Élysée : François Mitterrand est filmé en train de communiquer par visiophone avec le ministre des PTT, Louis Mexandeau, qui est lui à Biarritz. La ville est alors partiellement équipée en fibres optiques jusque chez l’abonné. En plus du son, le Président de la République dispose donc de l’image de son correspondant, auprès de qui il s’enquiert du futur des communications à l’heure du « plan câble ».
Finalement, cette expérimentation n’a pas été déployée à plus grande échelle mais elle aura sans doute été une étape essentielle pour améliorer cette technologie de pointe afin d’arriver aux performances exceptionnelles que l’on connaît aujourd’hui.

Un futur d’avance…
Sans le savoir, on avait testé à Biarritz ce qui allait devenir la convergence entre les télécommunications, l’audiovisuel et l’informatique ! Or, les technologies étaient à cette époque (pas si lointaine) loin d’être totalement maîtrisées et très loin d’être réellement stabilisées. Par ailleurs, se posaient des questions de coûts et de tarification qu’il était particulièrement difficile de résoudre dans le contexte économique et historique d’alors. Et, last but not least, se posait déjà la question des contenus ! A quoi sert un tuyau, si puissant soit-il, s’il n’y a pas des services, des contenus diversifiés pour le remplir ? Pendant les dix années de l’expérimentation, outre la visiophonie, des services tels que la vidéo à la demande, des programmes interactifs de télévision, etc. ont pu être évalués. Ce réseau, il y a bientôt quarante ans, montrait la faisabilité technique du FTTH, et les efforts à faire pour aboutir à un coût permettant son déploiement à grande échelle…

Dans les années 1990, les mutations de la société française vers une « société de l’information », vont inciter les opérateurs de télécommunications à évoluer rapidement, ainsi France Télécom investit certains secteurs de pointe plus éloignés de son métier de base et passe alors des télécommunications à la communication.

Historiquement, France Télécom est entré dans le monde de l’image et de la communication très progressivement. Après avoir organisé, rue de Grenelle, les premières retransmissions de télévision dès 1935, les Télécoms abandonnent à la Radio Télévision Française, la RTF, la transmission de ce type de liaisons. Plus tard, l’ORTF aura la maîtrise du contenu tandis que TéléDiffusion de France, TDF, continuera à assurer la diffusion des images.
En 1962, la première liaison transatlantique de télévision par satellite entre les USA et la France (Pleumeur-Bodou) marque le retour des Télécoms dans le monde de l’image. Il se concrétise également, quelques années plus tard, par l’élaboration de projets spatiaux importants, qui aboutiront au lancement des deux générations de satellites de télécommunications Télécom I et Télécom II.
A la suite du démarrage du Plan Câble, France Télécom devient le principal constructeur et maître d’ouvrage de réseaux câblés.
En 1989, TéléDiffusion de France, TDF, est rattaché à France Télécom. A partir de cette date, France Télécom contrôle alors, en plus des satellites et du câble, l’ensemble du réseau hertzien terrestre de diffusion. Ce regroupement a permis à l’opérateur national de maîtriser l’ensemble de la chaîne de l’image. Sur l’ensemble du groupe France Télécom on comptait en 1995 cinq mille personnes travaillant dans le domaine de l’image, et qui étaient réparties entre la maison mère (France Télécom) et ses quatre filiales : TDF, VTCOM, France Télécom Câble et France Télécom Multimédia.
Depuis 2004, TéléDiffusion de France a retrouvé son statut de société privée indépendante, et ne fait donc plus partie du Groupe France Télécom.
Le secteur de la communication des sons, images et données se développe depuis 10 ans dans de multiples directions, offrant ainsi une gamme de prestations complète aux professionnels de l’audiovisuel et de la communication. En 1992, France Télécom a ainsi assuré la transmission des images, des voix, des textes et des données dans le monde entier à partir d’Albertville, où se sont déroulés les XVI ème Jeux Olympiques d’hiver.
Grâce au Service d’Exploitation Radio Télévisuel Extérieur (SERTE), France Télécom fournit aux télévisions la transmission d’images du monde entier par satellite, des services de vidéotransmission interactifs permettant le dialogue à des milliers de kilomètres de distance, ou encore des possibilités de visioconférences conçues en particulier pour les entreprises. On peut citer l’exemple remarquable de la téléchirurgie : la première expérience de téléchirurgie, c’est-à-dire de chirurgie à distance (le patient était à Strasbourg, relié à un robot qui effectuait l’intervention chirurgicale en direct, le chirurgien était aux USA et effectuait les gestes chirurgicaux à l’aide d’un robot américain relié en temps réel au robot chirurgical de
Strasbourg). Cet exploit de téléchirurgie fut réalisé en 2003 au CHU de Strasbourg, par le Professeur Marescaux, de l’IRCAD88 . La transmission des informations (mouvements des bras articulés des deux robots, images du patient, sons, etc.) entre la France et les USA a été effectuée grâce à une connexion par satellite de télécommunication, mise en œuvre par le Laboratoire France Télécom Recherche&Développement de Lannion. Depuis cette première expérience, qui fut une grande réussite, la téléchirurgie se développe à travers le monde entier.
De plus en plus de Centres Hospitaliers font l’acquisition de robots de téléchirurgie et d’équipement de transmission par satellite.

La multitude des services offerts par les Nouvelles Technologies de l’Information et de la Communication (NTIC) mobilise et parfois même combine l’ensemble des modes de transmission, satellite, réseau câblé (fibres optiques), liaison hertzienne. Ainsi, aux métiers traditionnels des « télécommunicants » (les employés des Télécoms), s’ajoutent d’autres professions venues tout droit du monde de l’audiovisuel : cadreur, ingénieur du son, réalisateur, webmaster, ingénieur réseau, etc. La palette des métiers s’élargit à mesure que France Télécom se diversifie. Mais, pour les grands opérateurs de télécommunications tels que France Télécom, l’Image c’est avant tout le Câble. Jusqu’à son changement de statut en 1991, France Télécom se cantonnait dans un rôle d’investisseur et d’exploitant technique des réseaux, mais n’intervenait pas dans la commercialisation. A partir de 1995 France Télécom s’est affirmé comme un opérateur commercial à part entière : le groupe a ainsi acquis des participations majoritaires dans des sociétés d’exploitation commerciale et a poursuivie sa politique de partenariat avec les autres câblo-opérateurs français en prenant des participations dans le capital de ces sociétés.
Faire vivre et développer les réseaux, mais aussi s’impliquer dans le contenu, tels sont les objectifs des opérateurs de télécommunications à l’heure actuelle. Participer au contenu est le nouvel enjeux des Télécoms, car le contenu types de données diffusées (images, sons, données numériques, pages web, services on-line, etc.), qualité des données (bruits, vitesse de transmission des vidéo, etc.), types de services (téléachat, site web de vulgarisation scientifique, services des impôts, etc.)] conditionne le succès des supports.
Le multimédia a conduit, dès 1995, les grands opérateurs de Télécoms à s’interroger sur l’actualité et la rentabilité de ce qu’on appelait à l’époque les « autoroutes de l’information ».
Ce terme recouvre d’une part les réseaux informatiques reliant les ordinateurs et les réseaux de diffusion large bande et, d’autre part, les futurs réseaux de communication à haute capacité, rendus possibles par la généralisation de la fibre optique et la numérisation. A partir de 1995 les opérateurs de télécommunications ont commencé progressivement à déployer les infrastructures à haut débit les plus modernes afin de répondre aux futurs besoins, mais sans investir de façon massive et prématurée. Les Télécoms se sont alors organisés de manière à favoriser l’apparition de toutes les potentialités à court terme, en valorisant les projets spécifiques à moyen terme : poursuite de la modernisation du réseau, émergence
d’applications multimédias, établissement de partenariat avec les divers acteurs impliqués, notamment les fournisseurs du contenu (hébergeurs de sites web, chaînes de télévision, etc.).

Dès 1995 la structure du réseau commença à se modifier, et se complexifier. La fibre optique prendra peu à peu le relais des câbles coaxiaux ; à terme de dernier refuge du fil de cuivre, ce seront les raccordements d’abonnés.
L’entrée de France Télécom en 1992 dans le monde de la communication a marqué une étape capitale dans son histoire. Sans se détourner de son métier de base, le groupe France Télécom a ainsi cherché à s’enrichir et développer les services en faisant converger le transport de l’information, son contenu et son traitement, de façon à intégrer les besoins des utilisateurs, résidentiels comme professionnels. Le réseau, ou plutôt, les réseaux Internet, après s’être d’abord ouverts gratuitement au monde universitaire et aux applications informatiques, aborde depuis la fin des années 1990 une nouvelle étape, que l’on peut qualifier de commerciale : développement croissant du commerce électronique, mise en ligne croissante de sites web pour les entreprises, etc .

sommaire

Historique du réseau Internet
Les débuts du réseau Internet datent de 1964. A cette époque, la Rank Corporation, Cellule de réflexion diplomatico-scientifico-militaire américaine, développe l’idée de création d’un nouveau type de réseau informatique. Le but de ce réseau était d’assurer la liaison entre les différents ordinateurs le composant, et ceci même dans le cas où une portion entière du réseau serait défectueuse ou détruite. Pour qu’un tel type de réseau puisse fonctionner, il faut obligatoirement que chaque nœud du réseau ait le même poids, donc que le réseau ne soit pas hiérarchique. L’important, dans un réseau de ce type, ce n’est pas le chemin parcouru par les données, mais que les données parviennent à destination. En 1969, un organisme dépendant du Pentagone, l’Advanced Research Project Agency, l’ARPA, décide de créer un premier prototype de réseau en reliant quatre supercalculateurs, ce qui donne naissance au réseau ARPAnet .
A partir de 1972, le réseau ARPAnet est mis à disposition des universitaires et des organismes de recherche (MIT,Harvard, UCLA, etc.), leur permettant ainsi d’utiliser les supercalculateurs et le réseau d’intercommunication informatique ARPAnet .

Naissance du réseau Internet
Premières utilisations du réseau ARPAnet en 1970.
Deux innovations majeures sont alors mises en place, la naissance du courrier électronique et la naissance du protocole d’interconnexion entre réseaux, le protocole TCP, en 1974.
A la même époque, partout à travers le monde occidental, une multitude de réseaux du même type voient le jour (USENET, BITNET, UUCP, etc.) et commencent à s’interconnecter entre eux. Mais on peut situer le démarrage de l’exploitation du réseau Internet en 1981, lorsque la National Science Foundation (NSF) américaine décide de financer la création d’un réseau, le Computer and Science Network (CSNET). L’objectif de ce réseau était de fournir aux universités des services tels que le courrier électronique, le transfert de fichiers, etc.
En 1982, voit le jour le réseau Internet tel que nous le connaissons encore actuellement, grâce à l’invention du protocole IP (Internet Protocol), qui sera associé à TCP. Les réseaux Internet, eux-mêmes interconnectés à l’aide du protocole TCP/IP, définissent l’Internet.
Au cours des dix ans qui vont suivre (1982-1992), l’Internet va se développer à travers le monde entier, le nombre de serveurs connectés passe ainsi de 1 000 en 1984 à 1 000 000 en 1992, en 1987 apparaissent des réseaux plus importants, semi-privés et à but commercial (IBM, MCI, etc.), dès 1990, des prestataires de services d’accès privé à Internet proposent aux particuliers des accès à Internet.
A partir de ce moment là, Internet s’ouvre aux particuliers et aux entreprises privées. Le réseau Internet devient ainsi une entité autonome. La National Science Foundation, qui avait financé le développement du réseau Internet à ses débuts, décide alors de retirer son appui financier au développement d’Internet et de laisser les entreprises privées prendre le relais.
Cette décision marque le début de la privatisation du réseau Internet à travers le monde.
Deux avancées technologiques majeures vont encore voir le jour. En 1992 est créé le Word Wide Web. Le succès du Web sera phénoménal. C’est en s’en inspirant que le vice-président américain, Al Gore, lancera l’idée des « autoroutes de l’information ». En 1993 est créé le premier logiciel de navigation Mosaïc. Il permet de consulter des documents interactifs comportant des images, du texte, du son, etc., de manière simple et conviviale.
On assiste au même moment à une mondialisation du réseau Internet : ainsi dès 1995, le nombre de réseaux situés hors des Etats-Unis dépasse celui des réseaux américains.
Au sujet de la croissance du réseau Internet depuis 10 ans, on peut se référer aux travaux d’Etienne Turpin90 : « Bien que les nouveaux opérateurs de télécommunication n’aient pas à supporter le coût de l’amortissement des équipements précédemment subventionnés, ils doivent faire face à la croissance de la demande (augmentation du nombre de personnes raccordées, diversification des services) et financer les équipements nécessaires au redimensionnement du réseau. En effet, au cours de la dernière décennie, le nombre de réseaux et d’ordinateurs hôtes (host) branchés sur Internet a augmenté exponentiellement ».
Selon certaines estimations, le nombre des applications et services et le nombre des utilisateurs ont augmenté dans les mêmes proportions. En 1994 et 1995, le trafic et le nombre d’usagers d’Internet doublaient tous les trois mois. Les estimations actuelles montrent que le trafic continue à doubler tous les six à douze mois, voire même plus rapidement.

La croissance de la demande de raccordement au réseau Internet est encore forte en 2005. Mais qui dit augmentation du trafic, dit également ralentissement de la transmission et donc dégradation de la qualité du service offert. En effet, une grande partie du réseau Internet mondial est encore composé de liaisons par câbles coaxiaux (lignes téléphoniques) à faible débit (56 Ko/seconde). Les liaisons à haut débit (câbles composés de fibres optiques, réseau hertzien haut débit, etc.) prennent peu à peu le relais auprès des particuliers grâce aux offres proposées par les opérateurs de Télécoms (ADSL à 8 Mo/seconde, etc.). Les entreprises quand à elles, disposent souvent d’un budget téléphonique plus important et investissent le plus souvent dans les offres de connexion haut débit professionnel.
La dégradation de la qualité du réseau, si elle peut être acceptée par une certaine population d’abonnés résidentiels qui profitent du service pour un coût relativement bas, n’est plus acceptable dès lors que l’on s’adresse à des entreprises ou que l’on utilise certains services en temps réel (téléphonie, télévision par câble, etc.). C’est pour faire face à ce problème que l’Internet, à côté du réseau ouvert à tout le monde, a créé des réseaux privé spécialisés : les Réseau Privés Virtuels, RPV, comme par exemple les Intranets ou les Extranets, qui permettent aux entreprises de contrôler leur réseau (sécurité du réseau et qualité du service), tout en utilisant la technologie IP (Internet Protocole).
L’Internet Society, l’ISOC, propose trois définitions de l’Internet :
• « Définition générale : un métaréseau d’information (c’est-à-dire un réseau de réseaux) global et ouvert. »
• « Définition étroite : un groupe d’interréseaux (c’est-à-dire d’interconnexion de réseaux) capables d’acheminer entre eux des paquets suivants l’Internet Protocol. »
• « Définition large : l’interconnexion de réseaux au protocole IP, plus tous les réseaux connectés capables d’acheminer du trafic (ce qui inclut les réseaux utilisant le protocole IP, ceux utilisant un autre protocole qu’IP et les systèmes de niveau applicatifs). »
La définition « large » de l’ISOC peut être considérée comme faisant référence à l’ensemble des réseaux de télécommunication et réseaux informatiques connectés à Internet existant dans le monde. Elle résume très bien l’ambition du World Wide Web, qui est de mettre en relation
tous les ordinateurs existants dans le monde.

sommaire

Le protocole TCP/IP, est un modèle en 4 couches
Le modèle TCP/IP peut en effet être décrit comme une architecture réseau à 4 couches

Le modèle OSI a été mis à côté pour faciliter la comparaison entre les deux modèles.
– La couche hôte réseau
Cette couche est assez « étrange ». En effet, elle semble « regrouper » les couches physique et liaison de données du modèle OSI. En fait, cette couche n’a pas vraiment été spécifiée ; la seule contrainte de cette couche, c’est de permettre un hôte d’envoyer des paquets IP sur le réseau. L’implémentation de cette couche est laissée libre. De manière plus concrète, cette implémentation est typique de la technologie utilisée sur le réseau local. Par exemple, beaucoup de réseaux locaux utilisent Ethernet ; Ethernet est une implémentation de la couche hôte-réseau.
– La couche internet
Cette couche est la clé de voûte de l’architecture. Cette couche réalise l’interconnexion des réseaux (hétérogènes) distants sans connexion. Son rôle est de permettre l’injection de paquets dans n’importe quel réseau et l’acheminement des ces paquets indépendamment les uns des autres jusqu’à destination. Comme aucune connexion n’est établie au préalable, les paquets peuvent arriver dans le désordre ; le contrôle de l’ordre de remise est éventuellement la tâche des couches supérieures.
Du fait du rôle imminent de cette couche dans l’acheminement des paquets, le point critique de cette couche est le routage. C’est en ce sens que l’on peut se permettre de comparer cette couche avec la couche réseau du modèle OSI.
Remarquons que le nom de la couche (« internet ») est écrit avec un i minuscule, pour la simple et bonne raison que le mot internet est pris ici au sens large (littéralement, « interconnexion de réseaux »), même si l’Internet (avec un grand I) utilise cette couche.
– La couche transport
Son rôle est le même que celui de la couche transport du modèle OSI : permettre à des entités paires de soutenir une conversation.
Officiellement, cette couche n’a que deux implémentations : le protocole TCP (Transmission Control Protocol) et le protocole UDP (User Datagram Protocol).
TCP est un protocole fiable, orienté connexion, qui permet l’acheminement sans erreur de paquets issus d’une machine d’un internet à une autre machine du même internet. Son rôle est de fragmenter le message à transmettre de manière à pouvoir le faire passer sur la couche internet. A l’inverse, sur la machine destination, TCP replace dans l’ordre les fragments transmis sur la couche internet pour reconstruire le message initial. TCP s’occupe également du contrôle de flux de la connexion.
UDP est en revanche un protocole plus simple que TCP : il est non fiable et sans connexion. Son utilisation présuppose que l’on n’a pas besoin ni du contrôle de flux, ni de la conservation de l’ordre de remise des paquets. Par exemple, on l’utilise lorsque la couche application se charge de la remise en ordre des messages. On se souvient que dans le modèle OSI, plusieurs couches ont à charge la vérification de l’ordre de remise des messages. C’est là une avantage du modèle TCP/IP sur le modèle OSI, mais nous y reviendrons plus tard. Une autre utilisation d’UDP : la transmission de la voix. En effet, l’inversion de 2 phonèmes ne gêne en rien la compréhension du message final. De manière plus générale, UDP intervient lorsque le temps de remise des paquets est prédominant.
– La couche application
Contrairement au modèle OSI, c’est la couche immédiatement supérieure à la couche transport, tout simplement parce que les couches présentation et session sont apparues inutiles. On s’est en effet aperçu avec l’usage que les logiciels réseau n’utilisent que très rarement ces 2 couches, et finalement, le modèle OSI dépouillé de ces 2 couches ressemble fortement au modèle TCP/IP.
Cette couche contient tous les protocoles de haut niveau, comme par exemple Telnet, TFTP (trivial File Transfer Protocol), SMTP (Simple Mail Transfer Protocol), HTTP (HyperText Transfer Protocol). Le point important pour cette couche est le choix du protocole de transport à utiliser. Par exemple, TFTP (surtout utilisé sur réseaux locaux) utilisera UDP, car on part du principe que les liaisons physiques sont suffisamment fiables et les temps de transmission suffisamment courts pour qu’il n’y ait pas d’inversion de paquets à l’arrivée. Ce choix rend TFTP plus rapide que le protocole FTP qui utilise TCP. A l’inverse, SMTP utilise TCP, car pour la remise du courrier électronique, on veut que tous les messages parviennent intégralement et sans erreurs.

Comparaison avec le modèle OSI et critique
Comparaison avec le modèle OSI
Tout d’abord, les points communs. Les modèles OSI et TCP/IP sont tous les deux fondés sur le concept de pile de protocoles indépendants. Ensuite, les fonctionnalités des couches sont globalement les mêmes.
Au niveau des différences, on peut remarquer la chose suivante : le modèle OSI faisait clairement la différence entre 3 concepts principaux, alors que ce n’est plus tout à fait le cas pour le modèle TCP/IP. Ces 3 concepts sont les concepts de services, interfaces et protocoles. En effet, TCP/IP fait peu la distinction entre ces concepts, et ce malgré les efforts des concepteurs pour se rapprocher de l’OSI. Cela est dû au fait que pour le modèle TCP/IP, ce sont les protocoles qui sont d’abord apparus. Le modèle ne fait finalement que donner une justification théorique aux protocoles, sans les rendre véritablement indépendants les uns des autres.
Enfin, la dernière grande différence est liée au mode de connexion. Certes, les modes orienté connexion et sans connexion sont disponibles dans les deux modèles mais pas à la même couche : pour le modèle OSI, ils ne sont disponibles qu’au niveau de la couche réseau (au niveau de la couche transport, seul le mode orienté connexion n’est disponible), alors qu’ils ne sont disponibles qu’au niveau de la couche transport pour le modèle TCP/IP (la couche internet n’offre que le mode sans connexion). Le modèle TCP/IP a donc cet avantage par rapport au modèle OSI : les applications (qui utilisent directement la couche transport) ont véritablement le choix entre les deux modes de connexion.

Critique du modèle TCP/IP
Une des premières critiques que l’on peut émettre tient au fait que le modèle TCP/IP ne fait pas vraiment la distinction entre les spécifications et l’implémentation : IP est un protocole qui fait partie intégrante des spécifications du modèle.
Une autre critique peut être émise à l’encontre de la couche hôte réseau. En effet, ce n’est pas à proprement parler une couche d’abstraction dans la mesure où sa spécification est trop floue. Les constructeurs sont donc obligés de proposer leurs solutions pour « combler » ce manque. Finalement, on s’aperçoit que les couches physique et liaison de données sont tout aussi importantes que la couche transport. Partant de là, on est en droit de proposer un modèle hybride à 5 couches, rassemblant les points forts des modèles OSI et TCP/IP :
C’est finalement ce modèle qui sert véritablement de référence dans le monde de l’Internet. On a ainsi gardé la plupart des couches de l’OSI (toutes, sauf les couches session et présentation) car correctement spécifiées. En revanche, ses protocoles n’ont pas eu de succès et on a du coup gardé ceux de TCP/IP.

sommaire


Evolution et stratégie des télécommunications en France :

Mais pourquoi parler de modem Adsl, Box sur ce site qui retrace l'épopée du téléphone fixe ?
C'est tout simplement que cette évolution de l'internet jusqu'à l'arrivée de la Fibre Optique, utilise encore le réseau cuivre le RTC (Réseau Téléphonique Commuté) et qu'il est question de mettre fin à ce RTC.

- 15 novembre 2018, Orange (ex France Télécom) ne propose plus d'abonnements au téléphone fixe.
- Orange a mis en place un plan de fermeture du RTC pour les 9,4 millions d'abonnés
encore en fixe.

- En 1999 L'ADSL est ommercialisée, cette technologie a révolutionné le monde numérique. Elle permet de profiter d’Internet et de la télévision, ainsi que de la téléphonie fixe sans coupure et grâce à une seule et même prise.
- En 2000 : 34 millions de téléphones fixes sont reliées sur les commutateurs électroniques temporels, et il y a 54 millions de téléphones mobiles.
- En 2002-2004, grâce au dégroupage (partiel et total), d’autres opérateurs se lancent sur le marché. Une concurrence qui permet aux offres ADSL d’être plus accessibles financièrement et qui motive les FAI à avancer plus rapidement dans l’installation des réseaux câblés en France.
- En 2003 Orange est le premier opérateur en France à lancer la TV sur ADSL, avec le premier décodeur TV et la TV sur mobile.
- Eté 2015 Le record de lignes dégroupées a été atteint avec 11,7 millions de lignes.
- Dans les années 2010, l’objectif est clair : l’ADSL pour tous en 2017.
- L'Arcep estime en 2019 que 99 % des foyers français sont raccordés à l’ADSL. ADSL plus le dégroupage c'est environ 20 millions de lignes fixes en moins.
- En 2022 Il ne reste que 6 millions d'abonnements au fixe dont 13 % d'abonnement en dégroupage partiel, c'est à dire un peu moins d'un tiers des abonnés sur paire cuivre , plus de 99 % de la population âgée de 15 ans ou plus est équipée d’un téléphone ou smartphone.
- Le déclin du dégroupage ADSL est lié à la montée en puissance des offres internet de fibre optique.
- Au 30 juin 2022, selon l'Arcep, il y avait 16,3 millions de clients fibre, contre 11,1 millions d'abonnés sur les réseaux ADSL/VDSL.

- Entre 2023 et 203x le réseau analogique sera coupé progressivement.
(téléphones fixes, centraux téléphoniques commutés, réseau filaire)

À l'été 2020, le gouvernement annoncé sa volonté de généraliser la fibre optique sur tout le territoire d’ici 2025.

- Dans un premier temps, et progressivement jusqu'en 2025, plus aucun abonné internet ne pourra souscrire une offre ADSL. C'est ce qu'on appelle la fermeture commerciale.
- Dans un deuxième temps, à partir de 2026 et jusqu'en 2030, les abonnés cuivre existants devront souscrire à une offre fibre, dès lors qu'ils se trouveront dans une zone fibrée. Ou, le cas échéant, opter pour une solution alternative comme la 4G fixe. C'est ce qu'on appelle la fermeture technique. Néanmoins, promet Fabienne Dulac, PDG d'Orange France, "s'il n'y a pas de très haut débit dans la commune, il n'y aura pas de décommissionnement du cuivre".

sommaire

Pour bien comprendre le concept de dégroupage, il est nécessaire de connaître plusieurs détails sur la structure du réseau Internet.
Voici quelques éléments de réponse sur les différents intermédiaires par lesquels les données numériques transitent pour relier les internautes à la Grande Toile.

Le Backbone International : c'est l'épine dorsale de l'Internet qui permet de connecter les serveurs de tous les pays entre eux. Ce backbone se compose essentiellement de nombreux câbles sous-marins de fibre optique.
Point d'échange Internet : baptisée IX (Internet Exchange), c'est une infrastructure de type "datacenter" qui permet aux fournisseurs d'accès d'échanger du trafic Internet grâce à des accords mutuels de "peering". L'interconnexion peut se faire entre opérateurs, mais également avec des CDN (content delivery network) par exemple.
Point de présence régional : aussi appelés POP (Point of Presence), ces installations sont des points de collecte qui centralisent et agrègent les connexions Internet des clients d'un opérateur pour les remonter vers un PoP national (en général en région parisienne) interconnecté à un point d'échange. Parmi les PoP régionaux d'envergure chez Orange tout comme chez Free et SFR, signalons ceux de Rennes, Nantes, Bordeaux, Toulouse, Marseille, Montpellier, Lyon, Nice, Strasbourg, Dijon et Lille.
Répartiteur / NRA / central téléphonique : Orange gère plus de 21500 centraux téléphoniques. Aussi appelé noeud de raccordement d'abonnés (NRA), un central peut contenir de 50 à plusieurs dizaines de milliers de lignes téléphoniques. Ces lignes sont branchées sur un répartiteur lui-même connecté à des DSLAM qui gèrent les signaux IP (ADSL) injectés sur le réseau téléphonique.
Boucle locale cuivre : on appelle aussi boucle locale "le dernier kilomètre". Il s'agit du réseau téléphonique de distribution situé entre le noeud de raccordement (NRA) et la prise téléphonique de l'internaute. C'est un réseau à très forte capillarité car chaque maison de chaque village est reliée à la boucle locale via des sous-répartiteurs (SR) et des points de concentration. La distance entre le central et votre habitation - on parle d'affaiblissement calculé en décibels - est un facteur déterminant pour le calcul de votre éligibilité à l'ADSL et pour déterminer la vitesse de votre connexion.

sommaire

Le déclin du dégroupage ADSL est lié à la montée en puissance des offres internet de fibre optique.

Pourquoi met-on fin au réseau cuivre et donc à l'ADSL ?

"Le réseau cuivre a su être utilisé bien au-delà de ce pourquoi il avait été conçu et installé. Sans lui, et sans l’ouverture concurrentielle, Internet n’aurait pas eu le rapide développement qu’il a connu. Que tous ceux qui ont participé concrètement à cette grande histoire nationale en soient remerciés." L'hommage est signé de l'Avicca, une association qui regroupe la quasi-totalité des des collectivités qui sont impliqués dans l'aménagement numérique du territoire et il résume parfaitement la situation. Le réseau cuivre nous a rendu service bien au delà de ce pourquoi il a été conçu, mais il a fait son temps et il est temps pour lui de tirer sa révérence.

France Télécom (devenu Orange en 2013), l’opérateur de la boucle locale historique, qui est aussi l’un des principaux artisans du passage à la fibre (il est le premier à l'avoir expérimenté dès 2006, NDR), constate que maintenir deux réseaux filaires n’a plus de sens, tant sur l’aspect des usages que sur les aspects économiques, techniques et environnementaux.

"Pour des raisons de performances techniques et d’obsolescence, mais aussi pour des raisons d’efficacité, de coûts et d’empreinte environnementale, il n’est pas pertinent, à terme, de conserver et d’entretenir deux infrastructures capillaires complètes en parallèle (le réseau cuivre historique et les nouveaux réseaux FttH)", approuve l'Arcep, l'autorité de régulation des télécoms, qui assure que ce processus est déjà engagé dans plusieurs pays européens, à savoir la Norvège, la Suède et l'Espagne.

Sensible aux aléas météorologiques et à l'humidité, le réseau cuivre a atteint aujourd'hui ses limites en termes de débits et ne répond plus aux besoins des Français. Il est peu à peu délaissé par les utilisateurs attirés par le Très Haut Débit. Pour preuve : au 30 juin 2022, selon l'Arcep, il y avait 16,3 millions de clients fibre, contre 11,1 millions d'abonnés sur les réseaux ADSL/VDSL.

Au 2ème trimestre 2022, les réseaux FttH couvraient 75% des locaux (32 millions) et environ 60% des locaux bénéficiaient de la présence des quatre opérateurs commerciaux.
En clair : la fibre optique est devenue l’infrastructure internet fixe de référence. Au niveau européen, la France est le pays le plus avancé dans le déploiement de la fibre et où le déploiement de la fibre progresse le plus vite.
À l'été 2020, le gouvernement annoncé sa volonté de généraliser la fibre optique sur tout le territoire d’ici 2025.

Il faut dire que la fibre optique ne présente que des avantages par rapport à l'ADSL, et notamment en termes de débits. En effet, avec un débit commercial jusqu'à 8 Gb/s, la fibre a l'avantage de la vitesse par rapport aux débit maximum théorique de l'ADSL/VDSL qui est de 95 Mb/s. C'est donc dans la logique des choses que l'ADSL se retire au profit de la fibre. Mais non sans remerciements.

sommaire

Après le haut débit avec ADSL, voici vers l'ère du très haut débit THD avec la Fibre optique (sur ce lien).

La Fibre optique ou réseau FTTH est devenue le nouveau standard de connexion pour être généralisée.

Pour suivre en détail le Déploiement des reseaux FTTH en ZMD (2017) consulter ce document

Pour les foyers et les entreprises, la révolution numérique impose l’accès à une connexion internet rapide.
Plus de 22 millions de prises sont déjà éligibles à la Fibre en janvier 2021.
Avec ses ambitions d’offrir du THD à chacun des foyers d’ici 2025, la France est l’un des pays les mieux équipés au monde.
La 4G Home est une offre internet qui permet de disposer du haut débit chez vous en utilisant le réseau 4G d'Orange.

sommaire

Revenons sur l'histoire d'Internet :

Internet est le résultat d’une œuvre collective conduite par des centaines de chercheurs et d’ingénieurs, de 1961 à 1983, dans des équipes principalement nord-américaines et européennes (Grande-Bretagne, Norvège, France, dans l’ordre chronologique des contributions).
En France, dabord avec les projets CYCLADES et ARPANET du le réseau TRANSPAC
Après l'arrêt du projet Cyclades, la montée en puissance d'Arpanet et d'Internet aux Etats Unis a été occultée en France pendant une douzaine d'années.

Premier témoignage


Michel Elie
ingénieur informaticien a participé à l'équipe projet d'Arpanet à l'UCLA, contribué au projet Cyclades, puis été responsable de l'équipe d'architecture réseau de CII-HB et Bull. Il nous livre son témoignage :
Les vingt cinq premières années d’Arpanet et de son successeur Internet ont permis à Internet de s’enraciner un peu partout dans le monde avant d’exploser dans les 25 années suivantes pour devenir un phénomène planétaire incontournable.
En effet, après une participation française à l’équipe initiale de développement du projet Arpanet puis au développement du réseau Cyclades en France en symbiose avec Arpanet, des voies divergentes ont été poursuivies en France par la direction générale des télécommunications et les constructeurs d’ordinateurs.
Pour ces derniers, l’objectif restait de développer un modèle et des normes pour construire des réseaux d’ordinateurs hétérogènes permettant l’exécution d’applications réparties. Mais le moyen pour y parvenir était de passer par le dispositif de normalisation internationale de l’organisation internationale de normalisation (ISO).
Michel Elie a vécu cette période chez le constructeur CII-Honeywell-Bull (né de la fusion en 1974 de la CII et de Honeywell-Bull) puis Bull en tant que responsable de l’équipe d’architecture réseau. Jusqu’à ce que, vers la fin des années quatre-vingts, Internet réapparaisse et s’impose progressivement en France. C’est sur cette trajectoire française qu’il lui a semblé utile de rappeler la chronologie des évènements et de fournir « de sa lucarne » aux non-initiés quelques points de repères.

Avant 1969 : Aux États-Unis, une nébuleuse d’idées sur le potentiel de l’informatique

Dans le projet du réseau de l’ARPA nommé par la suite Arpanet s’incarne pour la première fois un ensemble d’idées, d’expériences, de concepts et de réflexions prospectives né dans l’après-guerre, essentiellement dans le milieu universitaire états-unien comme le montre l’intéressante thèse d’Alexandre Serres consacrée au processus d’émergence d’Arpanet et l’article de Gérard Le Lann, publié sur le site d'Inria à l'occasion des 50 ans du réseau Arpanet.

1969 - 1984 : Aux États-Unis, naissance et développement d’Arpanet

Arpanet est mis en service le 29 octobre 1969 à partir de l'université de Californie à Los Angeles (UCLA). C’est avant tout un réseau de communication basé sur la commutation de paquets et le principe de transparence d’une information transmise de bout en bout entre égaux (peer to peer). Le but recherché est la mise en communication d’applications installées sur des ordinateurs hétérogènes, en vue de partager les ressources informatiques matérielles et logicielles, les données et les moyens humains pour opérer des applications géographiquement réparties.

Détaché comme assistant de recherche dans le département informatique de l'UCLA, en 1969-1970, je faisais partie du groupe de travail réseau (NWG) qui comprenait plusieurs futurs « pionniers d’Internet » : Vint Cerf, Steve Crocker, Jon Postel… et d’autres moins reconnus : Mike Wingfield, Charlie Kline et un peu plus tard Alex McKenzie. J’ai toujours pensé que le succès de ce type de projet tenait autant à l’intelligence collective de l’équipe qu’à quelques individualités, aussi brillantes fussent-elles.

J’avais la chance de partager le bureau de Jon Postel, futur responsable de l’administration des noms de domaine et donc, d’être aux premières loges pour suivre et discuter de l’évolution des spécifications du réseau.J’y proposai quelques modifications mineures et d’entreprendre la définition d’un langage de contrôle du réseau, le Network Interchange Language (NIL) idée reprise par la suite par le Network Control Language (NCL). J'eus l'occasion d'exposer ce travail à Michel Monpetit et Alain Profit lors de leur visite à l’UCLA début 1970.

Avant mon retour en France je rédigeai une thèse de maîtrise "General purpose computer networks" supervisée par Léonard Kleinrock.
Début 1971, je présentai, pour la première fois en France, le réseau Arpanet dans un exposé à l’IRIA et dans un article "Le réseau d'ordinateurs de I‘ARPA, et les réseaux généraux d'ordinateurs".
Quatre ans plus tard, Arpanet comporte 40 nœuds et 45 serveurs connectés. Le trafic passe d'un million de paquets par jour en 1972 à 2,9 millions de paquets par jour en septembre 1973.
En 1984, tous les sites d’Arpanet basculent sur le standard TCP-IP d’Internet (voir la contribution de Gérard Le Lann).
Il n’y a pas de différence de nature ni d’ADN entre Arpanet et Internet, comme certains ont voulu le faire croire.
C’est le même réseau avec les mêmes applications. Simplement la nouvelle plate-forme de transmission, désormais plus largement acceptée, permet le raccordement d’autres réseaux, et Internet devient davantage un réseau de réseaux. C’est un peu comme le passage de la 4G à la 5G, qui sera invisible des utilisateurs mais leur donnera davantage de possibilités d’évolution.

1972-1977 : En France, le projet Cyclades s’inspire d’Arpanet

En 1972 est lancé à l’IRIA le projet français Cyclades, réalisé par une équipe dirigée par Louis Pouzin. Comme Arpanet, il utilise la commutation de paquets dans le réseau Cigale. Le commutateur de paquets du réseau est développé sur un mini-ordinateur Mitra 15 de la Compagnie Internationale pour l’Informatique (CII), un constructeur français d’ordinateur créée dans le cadre du Plan Calcul. Je suis chargé de la liaison technique entre la CII et le projet Cyclades. Jean Pierre Touchard, ingénieur de la CII, est affecté au développement du commutateur de paquets de Cigale dans l’équipe de Jean Louis Grangé. Le but poursuivi par la CII est d’ intégrer ce commutateur de paquets dans sa gamme de produits. Cigale est mis en service dans sa première version, environ trois ans après Arpanet.
De mon coté, je travaillais avec Hubert Zimmermann sur l’architecture des transmissions et la « station de transport » de bout en bout. Ces travaux furent soumis au groupe de travail INWG d’Arpanet et pris en compte dans les discussions qui aboutiront au protocole TCP (protocole de contrôle de transmissions).

1971-1989 : Évolution de l’architecture de réseau NNA portée par les successeurs de la CII

L'architecture de réseaux adoptée par la CII, baptisée NNA, permettait dans la « fonction de transport » de gérer simultanément les services de circuit virtuel et de datagramme, offerts par la « couche réseau» : elle anticipait la future architecture normalisée OSI. NNA avait été acceptée par nos partenaires d’Unidata.
En 1974 intervint la dissolution d’Unidata et l’annonce de la prochaine fermeture du réseau Cyclades. L'arrêt du projet Cyclades a enrayé en France la coopération avec l'équipe d’Arpanet et la dynamique de participation des utilisateurs universitaires et d’entreprises du secteur public, regroupées dans l’association Inforep, au développement d’applications réparties qu’il avait suscité. Les relations avec les équipes Internet aux États-Unis furent coupées à partir de 1975. À CII-Honeywell-Bull et jusqu’en 1985, nous n’entendrons plus parler d’Internet y compris de la part de notre partenaire américain.
Lors de la fusion entre CII et Honeywell Bull en 1976, la compétence des ingénieurs de la CII dans le domaine des transmissions est reconnue. L’objectif du nouveau frontal développé sur ordinateur mini 6 était de supporter le réseau Transpac pour son ouverture en 1977 (voir l’article de Philippe Picard) et de l’intégrer dans les couches transport de l'architecture de systèmes répartis DSA de CII-Honeywell-Bull, développée entre 1976 et 1978 par une équipe d'origine mixte CII-Honeywell-Bull et Honeywell Information Systems (HIS).

1975 - 1985 : Architecture SNA d’IBM et normalisation de l’interconnexion des systèmes ouverts

Depuis l'apparition en 1975 de l'architecture propriétaire SNA (Systems Network Architecture) d'IBM, la grande préoccupation des autres constructeurs fut de définir une stratégie face au risque de domination du marché des réseaux par IBM par le biais de son architecture de réseaux. Ils se sont vite aperçus que chaque constructeur ne pouvait pas lui opposer sa propre architecture de réseaux : dès lors il fallait choisir entre :
- Adouber SNA comme architecture universelle et fabriquer des produits compatibles SNA en offrant à IBM l'avantage d'être seul à maîtriser les spécifications.
- Ou s'unir pour développer une architecture normalisée reposant sur la notion de système ouvert. Cette option est soutenue en France par les grands utilisateurs qui réclament des normes « ouvertes ».
CII-Honeywell-Bull prend chez les constructeurs la tête du mouvement pour l'établissement de normes d'interconnexion de systèmes ouverts, en injectant dans les circuits de la normalisation ses propres standards DSA et en déléguant des experts pour participer aux discussions. C'est ainsi que sous son impulsion, les constructeurs créent en 1977 le Comité Technique 23 "systèmes ouverts" de l'European Computer Manufacturers Association (ECMA), une association de constructeurs européens créée en 1961 pour participer aux travaux de normalisation en informatique. De son coté l’OSI crée le SC 16 dont la première réunion, en mars 1978, est présidée par Charles Bachmann, responsable de DSA chez Honeywell Information System.
En 1978 c’est aussi la publication du rapport Nora-Minc sur l'informatisation de la société : la question des autoroutes de l’information et de « mettre le monde en réseau » devient réellement à l'ordre du jour. La Commission Européenne encourage et finance le développement des protocoles OSI, à travers le programme ESPRIT (European Scientific Programme for Research in Information Technology), à partir de 1983. Bull participe avec d’autres constructeurs Européens ICL, Siemens, Philips, Olivetti… à plusieurs projets ESPRIT visant à accélérer la disponibilité de produits conformes aux normes OSI.

1980 à 1989 : En France, la DGT prend l’initiative sur les applications de téléinformatique

À partir de 1980, la direction générale des télécommunications développe en France une voie hexagonale minitel/videotex peu suivie à l’extérieur (le service videotex anglais Prestel ou allemand Bildschirmtext ne connurent pas le même succès). Innovant, entre autres par la distribution généralisée des terminaux à l’occasion de la mise en place de l’annuaire électronique et par le système de kiosque qui gère la rémunération des gérants d’application, le videotex a souffert dès le déploiement des ordinateurs personnels de sa dépendance aux terminaux en mode caractère.
En parallèle la direction générale des télécommunications, sous l’impulsion de Hubert Zimmermann, soutient la normalisation de l’OSI à l'Union Internationale des Télécommunications et encourage son adoption par les constructeurs à travers le projet Architel.
Ce n’est que vers 1985 qu’Internet reviendra progressivement en Europe, essentiellement à travers Unix et sa version Berkeley 4.2 offerte aux universitaires qui supporte TCP/IP (mais pas les jeux de caractères autres que l’ASCII).
Le très coûteux « détour » par l’OSI et par la normalisation internationale n’a pas eu que des effets négatifs ; il a permis :
- de sensibiliser un grand nombre d’informaticiens et d’étudiants à la question des réseaux;
- d’établir un modèle et un vocabulaire permettant de caractériser de façon conceptuelle les questions de transport de l’information de bout en bout et de l’enseigner;
- de faire des progrès en matière de langage de description de protocoles et de développement de « souches » portables sous différents OS. Bull qui avait un catalogue d’ordinateurs et de systèmes d’exploitation très hétérogène, a ainsi pu de limiter le nombre de développements.

1989 - 1994 : Aux États-Unis, Internet se structure et s’impose grâce au Web

Le Web proposé en 1989 par Tim Berneers-Lee se présente comme une application d’Internet mais constitue une véritable révolution dans le partage des données et le développement de l’hypertexte et des navigateurs, comme Mosaïc en 1993.
En France le choix d’une voie franco-française minitel/vidéotex, et son succès même, deviennent un frein à la pénétration d’Internet et ce n’est qu’à partir de 1991 que certains entrepreneurs du vidéotex commencent à envisager d’investir dans une migration vers Internet les gains conséquents qu’ils y avaient réalisé (en partie grâce aux messageries roses… mais pas seulement). En témoigne par exemple l’intéressant entretien de Rafi Haladdjian avec Valérie Schafer ou la réussite de Xavier Niel.
Internet se structure par la création de de l’Internet Engineering Task Force (IETF) en 1986 pour assurer son développement technique et de l’Internet Society (ISOC) en 1992, pour faire valoir les points de vue de ses utilisateurs.
À partir de 1993, Al Gore, élu vice-président des États-Unis et persuadé de l’importance stratégique pour son pays de le contrôler, devient le grand soutien politique d’Internet. L’Internet Assigned Numbers Authority (IANA), dirigée par Jon Postel, sera remplacée en 1998 par l’Internet Corporation for Assigned Names and Numbers (ICANN), société de droit californien à but non lucratif chargée d’administrer l'adressage IP et les noms de domaines de premier niveau.
Les États-Unis signifient ainsi au monde qu’ils ont bien l’intention de garder le contrôle d’Internet plutôt que de le déléguer à l’Union internationale des télécommunications, l'agence des Nations-Unies pour les technologies de l'information et de la communication.

Après 1994 : La France rentre dans le jeu et Internet est progressivement envahi par le secteur marchand

Un début d’abord mou : en 1996, France Telecom commence à s’intéresser à Internet en lançant les services Wanadoo, tout en maintenant la priorité sur le minitel, sans le faire évoluer techniquement. Il s’agissait de ne pas tuer prématurément la poule aux œufs d’or. Jusqu’en 2000, les industriels resteront sceptique sur le modèle économique d’Internet.
Mais le détour par le minitel et le videotex avait préparé le grand public à entrer dans l’ère du numérique si bien que le rythme s’accélère, devient exponentiel, mais mal maîtrisé et tardivement réglementé ce qui débouche sur « la bulle internet » qui marquera le début de ce second quart de siècle !

sommaire

Deuxième témoignage
Comment Arpanet est-il devenu Internet ? Quel a été le rôle du projet Cyclades et celui de Stanford University dans la création d'Internet ? Ce témoignage est fondé sur l'expérience et la vision "de l’intérieur" de Gérard Le Lann, qui fut membre de ces deux équipes au cours des années soixante-dix.

Arpanet 1961-1970, les débuts

Le 29 octobre 1969, le réseau Arpanet donnait ses premiers signes de vie (transmission de caractères), aboutissement de travaux financés depuis 1961 par l'Advanced Research Projects Agency (ARPA), devenue DARPA, Department of Defense Advanced Research Project Agency, en 1972. Dans les rapports de Rand Corporation par Paul Baran (classifiés jusqu’en 1964) et dans la thèse de Leonard Kleinrock (MIT, 1961), on trouve tous les concepts fondateurs (« packet switching », « adaptive routing », « store-and-forward », etc.). Arpanet fonctionnait grâce à des Interface Message Processor (IMP), nœuds du réseau chargés de commuter et de router les paquets. Conçus dès le milieu des années soixante, les IMP étaient construits par Bolt Beranek & Newman (BBN), spin-off du MIT.

En 1968
Les concepteurs Nord-américains et anglais (Donald Davies, National Physical Laboratory) avaient figé les choix essentiels :
- paquets (aussi appelés blocks, fragments, avant d’être désignés par datagrams, nom inventé par Harold Bothner-By, ingénieur norvégien) pour le réseau d’IMP ; tout équipement (« host ») était connecté à Arpanet sur un IMP, faisant office de nœud d’entrée et de sortie réseau,
- messages, pour le niveau transport de bout-en-bout (entre équipements connectés),
- fragmentation/réassemblage de messages ; un IMP d’entrée fragmente en paquets tout message reçu localement d’un de ses « hosts » ; un IMP de sortie réassemble tous les paquets qui composent un message avant de livrer ce dernier à l’« host » local destinataire ; l’équivalent d’un « circuit virtuel » est établi entre ces deux IMP ; à l’intérieur du réseau d’IMP, les paquets circulent indépendamment les uns des autres, en empruntant si nécessaire des chemins différents (routage adaptatif et mode « pure datagram ») ; les paquets arrivent sur un IMP de sortie dans un ordre quelconque ; des pertes et des répétitions de paquets, des ruptures de "circuits virtuels" peuvent se produire,
- transport fiable et ordonné de messages de bout-en-bout (end-to-end error and flow control) ; c’est le rôle du protocole NCP (Network Control Program), exécuté dans les "hosts", afin de garantir tout message émis par E est livré correctement, entièrement, chez le destinataire D, toute séquence de messages émise par E est livrée correctement, entièrement, et dans l’ordre des émissions, chez D, absence de saturation par E des capacités de réception de D ; une restriction majeure de NCP, à savoir un seul message en transit entre E et D, sera éliminée dans TCP, le successeur de NCP.

Arpanet 1970-1972, les prémices de la transition vers Internet

Divers réseaux hétérogènes furent connectés au réseau Arpanet. Par exemple, sur le territoire Nord-américain, PRNet (Packet Radio Network)—premier réseau radio à commutation de paquets, et les premiers Ethernet de Xerox Parc (Palo Alto). À l’international, par liaisons satellitaires à commutation de paquets, le réseau NPL anglais, via SatNet (implémenté par Robert Kahn et BBN), et le réseau norvégien (le seul IMP livré en dehors des USA fut installé à Oslo).
Le but était d’expérimenter les solutions qui allaient conduire à la transition entre Arpanet et Internet, consistant en une fédération de réseaux hétérogènes interconnectés.

Internet 1972-1983, de la naissance au déploiement

Outre les expérimentations d'interconnexion de réseaux à Arpanet, la transition d’Arpanet vers Internet repose sur les travaux de révision et amélioration des idées fondatrices. Œuvre collective menée par les auteurs des fameuses Request for Comments (RfC), des notes International Network Working Group (INWG), et des publications phares, qui ont conduit à la définition des protocoles socles d’Internet.
L’article fondateur a pour auteurs Vint Cerf et Robert Kahn : « A Protocol for Packet Network Intercommunication».

Ce protocole fut ensuite modularisé, pour donner TCP (le Transmission Control Protocol) et UDP (le User Datagram Protocol) au niveau "transport", et IP au niveau "réseau".

Donc, à sa naissance, Internet fournissait deux types de services :
- La partie TCP, pour le mode connection-oriented (messages livrés sans pertes et dans l’ordre d’émission) ; c’est sur ce mode que reposent la plupart des services usuels (messageries, échanges de fichiers, transactions, etc.) ; le « sliding window scheme » (la "fenêtre glissante") décrit dans Cerf-Kahn 1974 est le mécanisme fondamental pour la régulation et la fiabilisation des échanges de messages (contrôle de flux, contrôle d'erreur), ainsi que pour leur vitesse d’acheminement : plusieurs messages peuvent être en transit entre un "host" émetteur et un "host" récepteur, "gommant" ainsi les délais de propagation des messages dans les réseaux physiques traversés.
- La partie IP, pour le mode connectionless, qui ne garantit aucune fiabilité des échanges, mais qui peut convenir à certains types d’applications ; celles qui doivent respecter l’ordre chronologique des messages échangés tout en tolérant les pertes intègrent nécessairement un mécanisme de livraisons dans l’ordre des émissions équivalent à celui du « sliding window scheme » de TCP.

La différence entre "paquet" et sa finalisation sous le nom "datagram" est très simple :
Un datagramme est un "paquet universel" dont le format est compris par tout réseau faisant partie d’Internet.
Au lieu d’être assurés par les IMP d’entrée et de sortie, fragmentation et réassemblage sont "remontés" au niveau transport, exécutés par les "hosts" eux-mêmes.

Dès la fin des années soixante-dix, une compétition s’instaura entre les tenants de TCP/IP et les défenseurs de solutions alternatives, notamment celles fondées sur le modèle en couches ISO/OSI et les initiatives EIN et Euronet de la Communauté économique éuropéenne. Les solutions alternatives faisant l’objet de longs débats internationaux (ISO/OSI) et de dissensions franco-britanniques (EIN vs. Euronet), elles furent prises de vitesse par DARPA qui pesa de tout son poids pour généraliser l’adoption de TCP/IP et d’Internet.
Le 1er janvier 1983 (le "flag day"), tous les sites Arpanet (et les sites des réseaux "à la Arpanet") remplacèrent NCP par TCP/IP.
En septembre 1984, la Defense Communications Agency décida de séparer Milnet d’Arpanet, pour ses applications non classifiées. Internet et TCP/IP commençaient leur belle carrière, ouvrant la voie au Web et au succès de compagnies innovantes (Cisco par exemple).

L’invention du moteur thermique a permis la naissance de l’industrie automobile et de ses géants. De la même manière, l’invention d’Internet a été essentielle pour l’avènement de l’industrie du numérique et de ses géants. Par un curieux "retour vers le futur", certains de ces géants sont d’ores et déjà des partenaires de l’industrie des télécommunications, en tant que propriétaires de câbles optiques sous-marins (la quasi totalité du trafic Internet intercontinental est acheminée par de tels câbles). Comme, par exemple, le câble Marea (Facebook et Microsoft), entre la Virginie et Bilbao en Espagne, de capacité 160 Terabits/s, et le câble Dunant (Google), entre la Virginie et Saint-Hilaire de Riez (Vendée), de capacité 250 Terabits/s.

Les contributions Cyclades à la genèse d’Internet
Confié à Louis Pouzin, ce projet démarré en 1972 fut hébergé par l’IRIA. Il fut arrêté en 1977, faute d’utilisation réelle et de transferts visibles vers l’industrie malgré l’implication de la CII (voir le témoignage de Michel Élie). À la naissance de Cyclades, les Nord-américains avaient environ dix ans d’avance, avec Arpanet. Brièvement, ce réseau était une copie d’Arpanet, "adaptée" aux technologies disponibles en France - des Mitra-15 servaient d’IMP. La connexion à Arpanet consistait en une ligne téléphonique du réseau PTT commuté de l’époque, sans aucun rapport avec la commutation de paquets. On dénombre deux contributions Cyclades, citées dans le papier historique de 1974 (références 8 et 11).

"Mitranet" (ref. 11) est le nom anglais pour Cigale. Profitant de l’expérience Arpanet, ce sous-réseau de Cyclades fut d’emblée basé sur les datagrammes, comme l’explique Louis Pouzin lui-même, interrogé par la SIF en 2015 : « J’avais déjà pris l’option datagramme, parce que j’avais étudié à fond les expériences menées au National Physical Lab, et je connaissais assez bien le réseau de paquets de l’ARPA. C’était un service à circuit virtuel, mais son fonctionnement à l’intérieur, c’était du datagramme. ».
L'appellation la plus proche de "datagram" apparaissant dans un document cosigné Cyclades ("lettergram") se trouve dans une note INWG ayant Hubert Zimmermann comme coauteur. Ce dernier n'a jamais tenté d'attirer la "lumière médiatique". Il nous a quittés trop tôt, malheureusement, avant de recevoir la reconnaissance officielle qui lui est due. Tout comme Donald Davies.

Les travaux de simulation sur le mécanisme "sliding window" (ref. 8) entrepris à l’université de Rennes de 1972 à 1973 (l’IRISA ne sera créé qu’en 1975) portaient sur NCP et sur la première version du protocole STST de Cyclades.
Régulation, fiabilisation et rapidité des échanges de messages entre sites distants étaient les questions centrales pour la transition vers Internet. Les problèmes posés étaient entièrement nouveaux. En bref : comment garantir que des processus asynchrones qui communiquent via des canaux à délais finis mais inconnus, ou infinis, utilisés simultanément par plusieurs processus, en présence de défaillances, ont toujours une même vision de leur état global.

Cette classe de problèmes est à présent connue sous le nom de "consensus distribué", qui a fait l’objet de travaux fondamentaux depuis le milieu des années quatre-vingts. Le problème général du "consensus distribué" est posé pour n processus, n > 1. Dans le cas de TCP/IP, n = 2. De nombreuses applications contemporaines (par exemple, bases de données distribuées, clouds, blockchains, cryptomonnaies) sont fondées sur les algorithmes qui garantissent "consensus distribué"). Une autre tendance récente, le "edge computing", a de facto été amorcée en faisant "sortir" des réseaux physiques les fonctionnalités qui sont désormais à la portée des "hosts" contemporains (PC, tablettes et smartphones).

Il convient de remarquer la rapidité avec laquelle, en deux ans (1972-1973), les contributions IRIA ont été intégrées dans les travaux qui ont conduit à la transition entre Arpanet et Internet.

Une belle occasion manquée

En parallèle à Cyclades, la Direction générale des télécommunications expérimentait les circuits virtuels dans le projet Réseau à commutation de paquets (RCP), dirigé par Rémi Després au CCETT à Rennes. Mes relations avec Rémi Després ont toujours été excellentes. L’idée de coordonner les deux projets aurait certainement été fructueuse. Mais, comme l’explique Philippe Picard qui pilota le lancement du réseau Transpac en 1978 (voir son témoignage), malgré les bonnes intentions de départ, la coopération entre les deux projets se révéla impossible pour de multiples raisons.

Pour conclure, Internet est le résultat d’une œuvre collective. Il est bon ici de citer Leonard Kleinrock (UCLA), l’un des plus célèbres pionniers, à propos des "folks" qui ont participé à cette fantastique aventure : « The Internet would have emerged even if none of those folks had ever been born! It was “in the air” and awaiting the technology to catch up with the vision. »

À l’âge de 51 ans, Internet a démontré (une fois de plus) son extraordinaire robustesse. Confronté à une hausse de 30% du trafic depuis la première vague de la pandémie Covid-19, Internet a parfaitement "tenu".

sommaire

Troisième témoignage

Le cinquantenaire du démarrage d’Arpanet a été l’occasion de sortir des archives d’anciennes controverses avec en particulier le débat « datagrammes vs circuit virtuels ». Après vingt ans à la Direction Générale des Télécommunications et dix-sept ans chez Bull, l'ingénieur Philippe Picard raconte l'histoire du passage d'Arpanet à Internet, depuis son costume de télécommunicant.

En 1970 le réseau mondial de télécommunications était essentiellement le réseau téléphonique : les terminaux étaient aussi rudimentaires que possible et toute l’intelligence du fonctionnement du système était dans le réseau.
Ce que l’on appelait téléinformatique était encore balbutiant. L’offre des opérateurs de télécom (les Telcos) était rustique et dérivée du téléphone. Une part importante du marché des transmissions de données était la connexion de terminaux à peine plus « intelligents » que les postes téléphoniques vers des serveurs. Les liaisons inter-ordinateurs balbutiaient et étaient essentiellement des transferts de fichiers.
La loi de Moore est passée par là : 50 ans après, la puissance de traitement en périphérie du réseau (box internet, ordinateurs individuels, smartphones) est devenue dominante : ce qui paraissait impensable en 1970 est aujourd’hui diffusé à des milliards d’exemplaires.
C’est TCP/IP qui, en 1974, a fixé la position du curseur qui répartit les fonctions entre réseau et systèmes terminaux pour Internet.
Un point très sensible a été la gestion de la congestion du réseau (par ce que l’on appelle le contrôle de flux). La vision du monde des « télécommunicants » était que le réseau devait assurer la qualité de service. TCP/IP délègue cette responsabilité aux systèmes d’extrémité par des mécanismes de contrôle de bout en bout. Cette responsabilité suppose une puissance de traitement suffisante dans ces systèmes terminaux.

L’évolution a été lente : la connexion à TCP/IP dans les O.S. ne fut intégrée en natif qu’avec l’UNIX de Berkeley en 1984 et Windows ne s’y est mis qu’en 1995 !

Le darwinisme technologique a tranché :
Internet s’est développé sur la base des principes de TCP/IP et qui est devenu progressivement universel y compris pour la téléphonie … ou le streaming vidéo, au prix de nombreuses évolutions reprenant avec le MPLS certains principes des circuits virtuels.

L’internet d’aujourd’hui est devenu un réseau de télécom presque comme les autres. Son fonctionnement courant est décentralisé sauf pour la gestion des adresses et des noms de domaine. Internet est bien un réseau de réseaux appelés A.S. (Autonomous Systems).
Le graphe des 65 000 A.S. recensés à ce jour a une structure commune à tous les réseaux d’infrastructure (transport, télécom), à savoir une structure hiérarchique en « petit monde» (notion popularisée par le sociologue Stanley Milgram qui, avec son expérience de 1947, a découvert que le nombre de poignées de main séparant deux citoyens quelconques était de 6).
Les opérateurs d’internet sont classés en 3 niveaux d’A.S. (« tier networks ») et leurs règles financières et techniques d’interconnexion sont complexes (transit et interconnexion pair à pair).
Le mécanisme de routage auto-adaptatif entre les A.S., le protocole BGP ne peut fonctionner que grâce à la petite distance entre deux A.S. quelconques (moyenne de 15 réseaux traversés). La lutte contre la congestion d’Internet passe par l’augmentation continue des capacités du réseau (artères en fibre optique, puissance des routeurs).

Une histoire française

Dès 1970, les Telcos réfléchissaient aux futurs réseaux commutés de données, avec une technologie dérivée de la commutation téléphonique temporelle naissante. C’est ainsi qu’en France le CNET initia en 1970 l’étude du projet Hermès. L’hypothèse d’une option , la commutation par paquets (CP), était envisagée.

La connaissance du projet ARPANET commençait à se diffuser en France. Et la technique de CP, dérivée de la commutation de messages était déjà utilisée dans quelques grands réseaux privés spécifiques.

Une mission commune CNET-IRIA dirigée par Alain Profit (Adjoint au Directeur du CNET, responsable du département téléinformatique) et Michel Monpetit (Directeur adjoint de l’IRIA et de la délégation à l’informatique) est allée s’informer et nouer des contacts avec l’équipe ARPANET. Quelques ingénieurs français y travaillaient dont Michel Elie faisait partie.

En 1972 le CNET et l’IRIA lancèrent presque simultanément leurs projets incluant la commutation de paquets. Un accord de coopération fut signé. Mais la fausse bonne idée fut de croire que ces deux projets seraient complémentaires et permettraient une sincère coopération. L’IRIA étant censé sous-traiter au CNET la conception du réseau de télécom, et pas seulement la fourniture gratuite de circuits de transmission !

Pour le CNET, le projet RCP était un prototype destiné à préparer un futur service de transmissions de données par paquets nommé Transpac. Il s’agissait de rédiger un cahier des charges en vue d’une réalisation industrielle et d’acquérir les compétences pour prendre part aux travaux de normalisation internationale. L’objectif du futur service était de pouvoir combiner les avantages de la commutation par paquets (multiplexage statistique efficace, conversion de débit) et contrôle de la qualité de service (taux d’erreurs, congestion).

Le projet CYCLADES, inspiré d’ARPANET s’insérait dans l’écosystème du Plan Calcul. L’objectif était d’étudier une architecture de réseau d’échange de données entre ordinateurs hétérogènes et d’accès à des ressources distantes. Le réseau de transmission par paquets Cigale en était un sous projet (voir le témoignage de Gérard Le Lann).

Fin 1973, la DGT annonça son intention d’ouvrir rapidement un service de commutation par paquets. Cette annonce était due à plusieurs émulations, en particulier l’initiative d’un groupe de grandes entreprises françaises qui étudiait un réseau partagé en technologie de paquets … sans oublier la rivalité avec l’IRIA !

Fin 1974, un conseil interministériel donna un feu vert conditionnel pour le lancement de Transpac :
Transpac devra être exploité par une entité juridique distincte des PTT et les futurs utilisateurs devront pouvoir prendre une participation dans la société ; Les accès au réseau devront respecter une norme internationale ; Un accord technique devra être trouvé avec l’IRIA.

La suite est connue : la recommandation X25 du CCITT fut approuvée en 1976, la réalisation industrielle du système fut confiée à la SESA, le service démarra officiellement fin 1978. Le réseau a vécu pendant plus de 30 ans avec une vraie réussite commerciale pour les réseaux d’entreprise et permit ultérieurement le déploiement d’applications de très grande diffusion comme le Vidéotex (et ses Minitels) ou les terminaux de paiement électronique.

L’environnement international

Fin 1974, une initiative de la Commission Européenne a contribué à faire évoluer les esprits des Telcos européens. Il s’agissait de promouvoir l’information technique et scientifique via un réseau. La plupart des Telcos de la CEPT ont alors pris conscience que seul un réseau de paquets pourrait répondre à la question.
Cette affaire a eu deux conséquences :
- La décision de construire un réseau européen Euronet, exploité par un consortium de PTT européens. Dans cette affaire, il y eut une rude confrontation avec la proposition de l’IRIA d’utiliser le réseau EIN (dérivée de la technologie Cigale) démarré en 1975 ;
- L’émergence d’une position européenne en faveur des réseaux de paquets. La recommandation X25 du CCITT
, officialisée en 1976, fut finalement un compromis technique entre quatre opérateurs très motivés : PTT français, British Post Office, Bell Canada et Telenet (réseau de transmission de données américain créé par Larry Roberts…ancien chef de projet d’ARPANET). Rémi Després, chef du projet RCP, a été un acteur majeur de ce résultat.

Relations avec les industriels de l’informatique

Le succès de Transpac était conditionné par la disponibilité des logiciels de connexion au réseau. IBM était incontournable compte tenu de sa domination du marché. Son attitude fut ambigüe : officiellement peu favorable à la commutation de paquets (non prévue dans SNA), IBM a participé très tôt à des expériences de connexion à RCP, grâce à son labo de Nice / la Gaude.
La CII travaillait étroitement avec Cyclades pour son architecture NNA (voir témoignage de Michel Elie). Après la fusion CII-HB et l’abandon des produits de la CII, la conception de DSA a mieux intégré que SNA l’usage d’X25. Les fortes compétences des équipes de réseau de la CII acquises avec NNA ont été essentielles.
Enfin les industriels de la péri-informatique, ne disposant pas d’architecture propre, étaient très motivés pour développer les connexions X25.

Pour conclure, les décisions de 1975 (Fusion CII-Honeywell-Bull et arrêt d’Unidata, suppression de la délégation informatique) ont retiré au projet Cyclades son support institutionnel.

Sans ces décisions, quel scénario aurait-on pu imaginer ?
Interdire aux PTT de lancer Transpac ? Ou au contraire, admettre (sous réserve de solution juridique) la concurrence entre deux réseaux ?
Aurait-il été réaliste d’exploiter un service commercial de réseau dérivé de Cyclades :
Avec quelle technologie industrielle capable de faire face à un trafic réel ?
Avec quels financements et quelle organisation opérationnelle assurant un vrai service de qualité ?
Comme le prétendent certains, Internet aurait-il pu être français au lieu d’être dominé par les Américains ?

Je n’ai jamais vu la moindre esquisse de tels scénarios de la part de tous ceux qui portent le deuil de la Délégation à l’Informatique et qui accusent les auteurs de leurs malheurs : Valéry Giscard d’Estaing, la CGE d’Ambroise Roux, les PTT, etc.

Je terminerai par une remarque plus personnelle. La tentative de concertation entre les PTT et l’IRIA, prévue par les accords interministériels de fin 1974 a bien eu lieu. L’interlocuteur des PTT désigné par l’IRIA fut Hubert Zimmermann. L’impossibilité d’obtenir un accord technique n’a pas nui à nos relations ultérieures.

Après l’aventure Cyclades, Hubert Zimmermann se consacra au développement et à la promotion de l’OSI (Open Systems Interconnection) : il était président du SC16 de l’ISO, ce qui lui a donné une grande visibilité internationale. Il avait pris des responsabilités au CNET et nous avons collaboré pour décliner l’OSI dans l’architecture du système d’information de France Télécom, (projet Architel). Il eut ensuite jusqu’à sa disparition en 2012, plusieurs autres rebonds remarquables : création de Chorus, poste stratégique chez SUN.

sommaire