L'INTERNET
Nous vivons une véritable « révolution
industrielle », comparable à celles déclenchées
jadis par la machine à vapeur ou lélectricité.
En France, Internet voyage à la vitesse de
la lumière.
D'abord parce que près de 80 % des Français peuvent
en 2023 prétendre à une connexion par la fibre optique
et son signal lumineux, en lieu et place du réseau cuivre et
de l'ADSL moins performant, dix ans seulement après le démarrage
du plan France très haut débit. Mais aussi parce que
l'Etat, les collectivités locales, la Caisse des Dépôts
et les opérateurs ont consacré plus de 36 milliards
d'euros - dont 12,9 milliards d'argent public - pour déployer
à vitesse grand V cette nouvelle infrastructure critique pour
l'avenir du pays. C'est un succès éclair.
sommaire
Mise en uvre du réseau câblé
Utilisée dans les câbles de transmission, la fibre optique,
composée de minces cheveux de silice pure, remplace le courant
électrique par des ondes lumineuses. Les câbles en fibres
optiques transportent indifféremment limage, le son et
les données, et permettent ainsi des liaisons à très
haut débit. Les premières études dans le domaine
des télécommunications optiques ont été
menées aux Etats-Unis dans les années 1960.
Cest à la fin des années 1970, que ladministration
des Télécoms décide lexploration de la
technologie de transmission du signal par lintermédiaire
de fibres optiques. Après linstallation du premier réseau
câblé en fibre optique, permettant à la fois de
tester la télévision par câble et la visiophonie
développée par les chercheurs du CNET, le gouvernement
décide alors déquiper la France dun vaste
réseau câblé de télécommunications
en fibre optique. Dès lors, les Télécoms français
deviennent lun des principaux câblo-opérateurs.
Mais, linstallation des câbles en fibre optique demeure
très onéreuse, et est donc abandonnée au profit
dune solution mixte (câbles coaxiaux et câbles en
fibre optique).
La fibre optique étant particulièrement bien adaptée
aux liaisons à grand débit, elle sera utilisée
pour les câbles sous-marins.
Le premier câble sous-marin en fibre optique reliant la Corse
au continent est posé en 1987. En 1988, cest le premier
câble sous-marin transatlantique à fibre optique, le
TAT 8, qui est mis en service.
Cette innovation technologique va bouleverser le monde des télécommunications,
qui voit alors la capacité de ses réseaux saccroître
considérablement. France Télécom va devoir apprendre
à gérer le haut débit et la multitude des informations
quil faut apprendre à utiliser et à valoriser,
notamment au sein du Réseau Numérique à Intégration
de Services, le RNIS, ouvert en 1988.
A la fin des années 1970, la DGT entreprend de front deux grands
projets : dune part le projet Télématique ; dautre
part, la DGT décide délargir le champ de ses activités
et cherche à mettre en place son réseau du futur : le
réseau numérique à large bande. La France accuse
un retard en matière de télédistribution, le
CNET dispose de différents produits qui semblent alors au point
et adaptés à laudiovisuel, la DGT cherche de nouveaux
grands projets pour se donner un nouveau souffle et élargir
son champs dactivité : ce sera une autre occasion de
mettre en place un plan de rattrapage, le Plan Câble.
Si le Plan Câble a vu le jour en 1982, des expériences
de télévision par câble avaient déjà
débutées en 1973 dans sept villes, mais se sont arrêtées
en 1975 du fait dune inquiétude gouvernementale quant
à une communication locale incontrôlée. A Biarritz,
il fut possible de justifier lexpérience par des zones
dombres à la réception hertzienne : ce cas fit
école. La ville de Metz sera lune des villes pionnières
dans la mise en place un réseau câblé à
la fin des années 1970 et refusera de se résoudre à
arrêter lexpérience, malgré quelques problèmes
juridiques. Elle obtiendra finalement une autorisation dérogatoire
dexploitation, mais ne cherchera pas à mettre en place
de chaîne de télévision locale.
A partir du milieu des années 1970, la DGT va chercher à
équiper le pays en artères de communication à
haut débit, elle va former deux pôles : un autour de
Saint-Gobain Thomson et un autour de la CGE. Une Direction de la Communication
Optique (DCO) va fonctionner dans ce but à la Direction des
Affaires Industrielles et Internationales (DAII) de 1979 à
1981.
Cest une équipe du CNET qui sera à la tête
de cet organisme.
Le gouvernement adoptera, en novembre 1982, le plan de développement
des réseaux câblés de vidéocommunication,
plus couramment appelé le « Plan Câble ».
Ce plan était soutenu par un engagement financier de lEtat
de plus de cinquante milliards de francs sur quinze ans et basé
sur des options technologiques davant-garde (fibre optique,
réseau en étoile). Il avait pour objectif lédification
progressive de réseaux numériques multiservices permettant,
à terme, denvisager loffre dune vaste gamme
de services et de programmes. Répondant à un triple
enjeu (industriel, culturel et social), ce plan portait la marque
des grands projets, dans la ligne du volontarisme à la française.
Il revenait aux collectivités locales, en conformité
avec la décentralisation, linitiative de la décision
de câblage. Ce fut la première fois que les télécoms
et les collectivités territoriales étaient partenaires
dans un grand projet daménagement du territoire ce qui
eu un impact positif sur le développement de réseaux
de télécommunications sur le territoire français
: le niveau local était mieux appréhendé grâce
à laction des collectivités territoriales locales
(les petites communes, les districts urbains, les départements),
qui connaissent mieux lespace géographique local et ses
spécificités, et exercent leurs influences (aménagement,
finances, etc.) directement au niveau local. Ceci a permis une meilleure
organisation et une meilleure planification dans la mise en place
des réseaux de télécommunications par câbles
à travers tout lespace géographique français,
en prenant en compte les aspects topographiques (relief), les aspects
sociaux (la notion de « service universel »), les aspects
aménagement du territoire (optimisation dun réseau),
les
aspects politiques, les aspects financiers (coût de revient
du réseau, rentabilité), etc.
Ce plan de câblage en fibres optiques a été créé
afin de disposer dune alternative aux télécommunications
par satellites commerciaux, de permettre le développement de
chaînes télévisées de proximité,
en un mot, de rattraper le retard français en matière
de télécommunications et téléservices
par câbles.
Linitiateur du Plan Câble fut Albert Glowinski, qui avait
dirigé un groupe de travail sur les usages des Nouvelles Technologies
de lInformation et de la Communication , à la demande
du directeur général des télécommunications,
Gérard Théry. Dès 1976, ce groupe prévoyait
que lavenir des télécommunications était
dans limage et les réseaux. Lidée mise en
avant fut celle de la profusion dimages, de linteractivité
et de la défense de lidentité nationale60 . Il
sagira de développer un réseau large bande en
fibres optiques capable de véhiculer indifféremment
à très haut débit la voix, le son, limage
et les données informatiques sur un mode interactif.
Larrivée de la Gauche au pouvoir en 1981 va propulser
bon nombre des membres de cette commission à des postes décisionnels,
et la volonté de câblage de la France en fibres optiques
va ainsi devenir une réalité sur le terrain. Selon Jean-Paul
Simon , lobjectif du Plan Câble est multiple. On notera
notamment la volonté de donner aux collectivités locales
la maîtrise de la mise en uvre du câble au niveau
local, ainsi que le rapprochement de la DGT du domaine dactivité
de Télé Diffusion de France, TDF (quelques années
plus tard TDF deviendra filiale de France Télécom, avant
de devenir une société indépendante en 2004).
Le Plan Câble va alors connaître un rebondissement qui
sera le premier dune longue série noire : le principal
opposant à Gérard Théry (le DG des Télécoms)
lui succède à la tête de la DGT, suite à
larrivée de la Gauche au pouvoir, et de nouvelles décisions
au niveau de lindustrie des télécoms vont être
prises. Une nouvelle cellule sera mise en place : la Délégation
Aux Vidéocommunications (DAV). On va alors décider dabandonner
la fibre optique, et de remettre en question le principe des avances
remboursables.
En effet, les résultats de lappel doffre lancé
auprès des industriels pour la fourniture de réseaux
en fibres optiques vont poser un grave problème de faisabilité
technique, entraînant un coût de raccordement infiniment
plus élevé et une impossibilité de partage financier
avec les communes. De plus, la fibre optique et larchitecture
prévue (développée par le CNET) ne sont pas encore
au point. Il serait en effet impossible de réaliser la solution
technique envisagée, c'est-à-dire la 1G (première
génération), celle-ci nétant pas prête
technologiquement. On, va donc choisir une solution mixte (dénommée
0G, génération 0) alliant la fibre optique pour les
grands axes et le coaxial pour la distribution aux immeubles.
Une autre difficulté résidait dans les autorisations
administratives multiples nécessaires à la construction
et la gestion de tels réseaux. Il fallait pour la commune demander
une autorisation de construction à la DGT, demander une autorisation
à la haute autorité de laudiovisuel, signer une
convention entre la DGT et la Société Locale dExploitation
du Câble (SLEC), cette SLEC devant à son tour négocier
avec TDF (qui avait à lépoque le monopole de la
télédistribution). Il y avait là de quoi décourager
plus dun élu local, et créer plus dun blocage
avant lautorisation finale.
A partir de 1984, on va observer de nombreux et importants conflits
au sein même de la DGT à propos du Plan Câble.
La situation générale est très critique : la
fibre optique nest pas exploitable, les collectivités
locales se scandalisent des lenteurs de la DGT, et le Plan Câble
se vide petit à petit de sa substance.
Le Câble devra également affronter des outsiders créés
par le gouvernement, qui correspondent au lancement des nouvelles
chaînes hertziennes : Canal Plus en 1984, puis la Cinq et la
Six en 1985. Le gouvernement va alors mettre en place une instance
de régulation : la mission câble. Celle-ci va faire pression
afin dassouplir les décrets en préparation sur
les exploitants des SLEC (les sociétés déconomie
mixte chargées dexploiter commercialement les réseaux).
De part léchec du partenariat entre la DGT et les collectivités
locales, ces dernières, conscientes du risque financier quelles
encouraient, ont limités, en totale contradiction avec lesprit
premier du plan Câble, leurs engagement financier dans les SLEC.
Le pire des scénarios possible pour la DGT va alors se mettre
en place, puisque les SLEC vont, pour une grande partie dentre
elles, concéder lexploitation de leurs réseaux
à des sociétés qui se retrouvent bientôt
en situation doligopole : la Générale des eaux,
la Lyonnaise des Eaux, et la Caisse des Dépôts et Consignations.
Partenaires privilégiées des collectivités locales,
possédant une structure financière suffisante, habituées
à asseoir leur rentabilité sur le long terme et désireuses
dinvestir dans la communications, ces sociétés
ont alors occupé un marché que peu dentreprises
auraient été en mesure de prendre.
En 1988, la droite revient au pouvoir et Gérard Longuet est
nommé à la tête du ministère des Postes
et des Télécommunications. La loi sur la liberté
de communication de septembre 1986 va alors retirer à ladministration
française des télécommunications le monopole
quelle détenait en matière de construction de
réseaux câblés et va limiter les usages du câble
à la seule télédistribution. Cette loi na
fait en réalité que prendre acte du quasi abandon du
Plan Câble. Fin 1986, Les télécoms navaient
signés que 52 conventions, 200 collectivités locales
étaient concernées, pour un potentiel denviron
6 millions de prises. Linvestisseur public se trouve ainsi dans
une situation inconfortable avec sur les bras un projet qui na
plus de
légitimité politique et qui savère, en
tant quopération industrielle, financièrement
désastreux.
Dautre part, le système fibre optique permettait finalement
moins de possibilités techniques que lancien système,
le coaxial.
De 1986 à 1988, la DGT va donc exécuter les obligations
contractées lors de la signature des conventions. Linvestissement
nest pas rentable, mais il a le mérite de va pas mettre
lactivité entre les mains dopérateurs étrangers
qui auraient vu là une infrastructure permettant à terme
une remise en cause du monopole sur la téléphonie62
. Durant cette période, le gouvernement.
La fin du monopole de France Télécom au premier janvier
1998, ainsi que les multiples expériences de téléphonie
sur le câble menées au milieu des années 1990,
nous montrent que ce scénario était bien de lordre
du possible. lancera un nouveau pavé dans la marre en suscitant
un nouveau concurrent au câble : le satellite TDF 1 sera lancé
en 1987.
Il sera suivi du projet de télévision à haute
définition (TVHD). Cette logique semble pour le moins contradictoire,
et pour comprendre les méandres décisionnels du Plan
Câble, il convient de rappeler les intérêts principaux
en présence :
pour le CNET, il sagit là de reproduire le modèle
du plan de rattrapage téléphonique des
années 1970. Des enjeux en terme de recherche et de développement
industriel sous
tendent à nouveau ce projet.
Pour la DGT, il sagit de pouvoir soffrir un marché
nouveau, jusque là chasse gardée de TDF, et ce en construisant
à moindre frais un réseau qui sera nécessaire
à de multiples usages dici la fin du siècle. Un
autre avantage du câble était de canaliser les bénéfices
vers de nouveaux investissements, et donc de ne pas voir ceux-ci reversés
au budget général de lEtat. Cette stratégie
comportait pourtant un risque puisque laudiovisuel nest
pas le métier de la DGT.
Pour les collectivités locales, il sagissait de
pouvoir soctroyer un nouveau domaine de compétence, dont
limage futuriste ne pouvait être que bénéfique
à léquipe en place.
Ce sont ces différents intervenants, développant des
stratégies très différentes voire opposées,
qui vont mener à la paralysie du système.
En 1982, les prévisions avaient été très
positives : on attendait 1,5 millions de foyers câblés
avant fin 1987. Dans la réalité, on comptait en septembre
1988 environ 35 000 abonnés pour 670 000 prises installées,
soit un taux de pénétration inférieur à
6 %. Le réseau le plus important est alors « hors Plan
Câble » : il sagit de celui de la ville de Metz,
géré durant cette période par la caisse des Dépôts
et Consignations. De 1988 à 1990, la Gauche va tenter de remettre
à flot le Plan Câble, mais en vain.
On retiendra surtout du Plan Câble une mauvaise coordination
entre des objectifs centraux lointains, et linitiative isolée
des collectivités locales assumant seules les coûts.
Le Plan Câble abandonné, il laissera de nombreuses collectivités
endettées. On imagine alors facilement lorigine de la
réticence de nombreuses communes françaises dans les
années 1995-2000 pour se lancer dans laventure de la
mise en place du réseau Internet, et ceci dautant plus
quon y retrouvait la volonté politique à terme
de câblage du territoire en fibres optiques.
Les premières années du câble furent celles de
la négociation et des retournements. Elles ne mettaient en
scène que des acteurs institutionnels (Ministère et
DGT, collectivités locales, opérateurs). Le succès
aurait peut-être été au rendez-vous si lon
avait pris en compte le comportement dun acteur jusquici
presque oublié, alors quil joue un rôle essentiel
dans lutilisation de tout réseau de télécommunication,
c'est-à-dire lindividu, le client.
Evolution de la croissance des réseaux câblés
dans le monde depuis 10 ans (1990-2000) :
La câblodistribution forme, avec les mobiles et le fixe, la
troisième catégorie de réseau de télécommunications,
et peut aujourdhui prétendre concurrencer les réseaux
téléphoniques. La répartition de ce type de réseaux
à travers le monde est très variée, certains
pays ayant, pour des raisons historiques économiques ou politiques,
favorisé le développement de la câblodistribution
(USA, Benelux, etc.), alors que dautres, pour des raisons inverses,
ne disposent malheureusement encore en lan 2000 daucun
réseau câblé : cest le cas de lItalie.
Dans les années 1990, la gestion du réseau messin va
revenir à TDF.
Les pays de grande superficie, comme les USA et la Chine, se situent
en tête des pays disposant des plus grands réseaux câblés.
Réseau
fibre en 1990
Mise en place du réseau Internet dans les années 1990
Le développement des communications semble être lun
des points caractéristiques de la mondialisation de léconomie
qui marquera les années 1990. Tant du point de vue économique
que politique, linformation apparaît comme une notion
à part dans le monde des échanges commerciaux, et larrivée
de nouvelles technologies de réseaux donne lieu à une
redistribution des différents rôles dacteurs de
la communication. Le premier volet important de la mise en place des
Nouvelles Technologies de lInformation et de la Communication
est la mise en place dune nouvelle réglementation des
télécommunications mieux adaptée, le second est
la mesure de lintervention de lEtat.
Origines des NTIC
Le projet dautoroutes de linformation trouve son origine
aux Etats-Unis. Lidée fut lancée durant la campagne
présidentielle de Clinton, et le principal instigateur en sera
Al Gore, vice président américain . Ces politiques devaient
avoir les mêmes fonctions symboliques que le plan de la construction
des autoroutes des années 1930 dans le cadre du New Deal. En
effet, il sagit là daugmenter la performance du
pays, tout en donnant accès à ces nouvelles technologies
aux régions rurales, aux milieux défavorisés
et aux écoles. Les usages qui sont mis en avant correspondent
également à largumentation de mise en place des
grands programmes dinnovation technologique : télémédecine
(possibilité de diagnostique à
distance), éducation, lutte contre le chômage, etc.
Le plan présenté par ladministration américaine
pour promouvoir le National Information Infrastructure comprend neufs
points :
1. promouvoir limplication du secteur privé pour un investissement
plus actif.
2. étendre le concept de « service universel »66
pour sassurer que les sources dinformation soient accessibles
pour tous et à des prix raisonnables.
3. agir comme catalyseur pour promouvoir la recherche, linnovation
technologique et les nouvelles applications.
4. promouvoir un fonctionnement fluide, interactif et répondant
aux besoins des usagers (standardisation et interopérabilité).
5. assurer la sécurité de linformation et la sécurité
des réseaux.
6. améliorer la gestion du spectre des fréquences radio.
7. promouvoir la protection de la propriété intellectuelle.
8. coordonner les différentes administrations concernées
et se concerter avec les pays tiers.
9. fournir laccès à linformation administrative
et améliorer les procédures dachat public .
Il nest en revanche fait aucune mention explicite de la façon
dont ces objectifs vont être traités. Le point central
du programme est de relancer la croissance par de nouvelles infrastructures
sommaire
Une fibre optique est un fil dont lâme,
très fine, en verre ou en plastique, a la propriété
de conduire la lumière et sert pour la fibroscopie, l'éclairage
ou la transmission de données numériques. Elle offre
un débit d'information nettement supérieur à
celui des câbles coaxiaux et peut servir de support à
un réseau « large bande » par lequel transitent
aussi bien la télévision, le téléphone,
la visioconférence ou les données informatiques.
Le principe de la fibre optique date du début du XXe siècle
mais ce n'est qu'en 1970 qu'est développée une fibre
utilisable pour les télécommunications, dans les laboratoires
de l'entreprise américaine Corning Glass Works (actuelle Corning
Incorporated).
Lorsqu'un rayon lumineux entre dans une fibre optique à l'une
de ses extrémités avec un angle adéquat, il subit
de multiples réflexions totales internes. Ce rayon se propage
alors jusqu'à l'autre extrémité de la fibre optique
sans perte, en empruntant un parcours en zigzag. La propagation de
la lumière dans la fibre peut se faire avec très peu
de pertes même lorsque la fibre est courbée.
Entourée d'une gaine protectrice, la fibre optique peut être
utilisée pour conduire de la lumière entre deux lieux
distants de plusieurs centaines, voire milliers, de kilomètres.
Le signal lumineux codé par une variation d'intensité
est capable de transmettre une grande quantité d'information.
En permettant les communications à très longue distance
et à des débits jusqu'alors impossibles, les fibres
optiques ont constitué l'un des éléments clés
de la révolution des télécommunications. Ses
propriétés sont également exploitées dans
le domaine des capteurs (température, pression, etc.), dans
l'imagerie et dans l'éclairage.
La possibilité de transporter de la lumière le long
de fines fibres de verre fut exploitée au cours de la première
moitié du XXe siècle. En 1927, Baird et Hansell tentèrent
de mettre au point un dispositif d'images de télévision
à l'aide de fibres. Hansell put faire breveter son invention,
mais elle ne fut jamais vraiment utilisée. Quelques années
plus tard, en 1930, Heinrich Lamm réussit à transmettre
l'image d'un filament de lampe électrique grâce à
un assemblage rudimentaire de fibres de quartz. Cependant, il était
encore difficile à cette époque de concevoir que ces
fibres de verre puissent trouver une application.
sommaire
La première application fructueuse de la fibre
optique eut lieu au début des années 1950, lorsque le
fibroscope flexible fut inventé par Abraham van Heel et Harold
Hopkins. Cet appareil permettait la transmission d'une image le long
de fibres en verre. Il fut particulièrement utilisé
en endoscopie, pour observer l'intérieur du corps humain, et
pour inspecter des soudures dans des réacteurs d'avion. Malheureusement,
la transmission ne pouvait pas être faite sur une grande distance
étant donné la piètre qualité des fibres
utilisées. En 1957, le fibroscope (endoscope flexible médical)
est inventé par Basil Hirschowitz aux États-Unis.
Les télécommunications par fibre optique
restèrent impossibles jusqu'à l'invention du laser en
1960.
Le laser offrit en effet la possibilité de transmettre un signal
sur une grande distance avec une perte et une dispersion spectrale
très faibles.
Dans sa publication de 1964, Charles Kao, des Standard Telecommunications
Laboratories, décrivit un système de communication à
longue distance et à faible perte en mettant à profit
l'utilisation conjointe du laser et de la fibre optique.
Peu après, soit en 1966, il démontra expérimentalement,
avec la collaboration de Georges Hockman, qu'il était possible
de transporter de l'information sur une grande distance sous forme
de lumière grâce à la fibre optique.
Cette expérience est souvent considérée comme
la première transmission de données par fibre optique.
Cependant, les pertes dans cette fibre optique étaient telles
que le signal disparaissait au bout de quelques centimètres,
non par perte de lumière, mais parce que les différents
chemins de réflexion du signal contre les parois finissaient
par en faire perdre la phase. Cela la rendait encore peu avantageuse
par rapport au fil de cuivre traditionnel. Les pertes de phase entraînées
par l'usage d'une fibre de verre homogène constituaient le
principal obstacle à l'utilisation courante de la fibre optique.
En France, la première thèse de doctorat
sur le sujet fut soutenue en janvier 1969 par Luigi d'Auria à
l'université de Toulouse.
En 1970, trois scientifiques de la compagnie Corning Glass
Works de New York, Robert Maurer, Peter Schultz et Donald Keck, produisirent
la première fibre optique avec des pertes de phase suffisamment
faibles pour être utilisée dans les réseaux de
télécommunications (20 décibels par kilomètre).
Leur fibre optique était en mesure de transporter 65
000 fois plus d'information qu'un simple câble de cuivre,
ce qui correspondait au rapport des longueurs d'onde utilisées.
Le premier système de communication téléphonique
optique fut installé au centre-ville de Chicago en 1977.
Genèse et croissance des NTIC en Europe
En Europe, deux étapes contradictoires marquent la mise en
place des politiques concernant les réseaux de linformation
: le Livre Blanc et le Rapport Bangemann.
Le Livre Blanc « Croissance, compétitivité, emploi
» présenté en décembre 1993 au Conseil
des chefs dEtats et de gouvernement, en réaction au programme
américain, fit entrer lUnion Européenne à
une cadence accélérée dans la course vers le
développement des autoroutes de linformation en Europe.
Ce document fut le fruit dun intense débat entre les
services de la Commission Européenne, les services les plus
concernés par les télécommunications défendant
pour leur part une approche très similaire à celles
des américains (avec comme premier objectif linfrastructure),
alors que les services plus généraux étaient
plus favorables à la notion de société de linformation.
Lenjeux est évidemment de ne pas se faire dépasser
par les américains, et lon peut ainsi lire dans le Livre
Blanc : « Les Etats-Unis ont pris de lavance : 200 de
leurs plus grandes entreprises utilisent déjà les autoroutes
de linformation. Au cur du modèle de développement
du XXI ème siècle, cest un enjeu crucial pour
la suivie ou le déclin de lEurope. » On peut évidement
se demander si lEurope ne réagirait pas par « mimétisme
» au plan américain, et lon ne peut pas exclure
totalement cette hypothèse. Il semble pourtant plus probable
que lon trouve là le résultat dun effort
de concertation plus poussé au niveau international.
Le plan daction proposé par ce Livre Blanc pour les autoroutes
de linformation, le fameux réseau Internet, comporte
5 domaines prioritaires :
1. la diffusion de lexploitation des technologies de linformation
(lancement de projets européens dapplications et de services
dintérêts public ; télétravail).
2. la dotation de lEurope en services de base transeuropéen
(développer les réseaux, assurer leur interopérabilité,
renforcer la coordination entre les politiques de télécommunication
et les interventions des fonds structurels).
3. poursuivre la mise en place dun cadre réglementaire
adapté (supprimer les distorsions de concurrence , fourniture
dun service universel, accélérer le processus
de normalisation, étendre le droit de la propriété
intellectuelle).
4. développer la formation aux nouvelles technologies (généralisation
des NTIC dans lenseignement et la formation, formation adaptée
dingénieurs et de chercheurs).
5. renforcer les performances technologiques et industrielles (renforcer
leffort de recherche et développement, valoriser les
applications industrielles, négociations internationales pour
un marché équitable).
Linvestissement massif dans le secteur des télécommunications
(et donc dans le réseau Internet) reste, dans ce Livre Blanc,
un facteur important. Un rapport va pourtant modifier ces priorités,
et cest sous limpulsion de Martin Bangemann quune
commission dindustriels va remodeler ces politiques. En effet,
afin de ne pas apparaître comme sengageant dans une politique
dintervention industrielle de grande ampleur, le Conseil Européen
a demandé « quun rapport soit établi par
un groupe de personnalités pleinement représentatives
de toutes les industries concernées dans lUnion, des
utilisateurs et des consommateurs » . Linfluence des milieux
de lIndustrie (informatique surtout) a été moins
marquante quaux Etats-Unis dans cette phase de mise en place
des programmes, et il sagissait de démontrer à
travers cette demande que les politiques proposées étaient
destinées à « compléter et stimuler le
fonctionnement du marché » et non à le créer
de toutes pièces. Ce groupe de personnalités a établi
un rapport intitulé « LEurope et la société
de linformation planétaire ». Concernant le financement
européen, on y lit que « les investissements publics
seront nécessaires, non pas sous forme dun accroissement
des dépenses publiques dune manière générale,
mais plutôt sous la forme dune redistribution des dépenses
actuelles. Une part des investissements que devront consentir les
pouvoirs publics, en vue dapplication en ce domaine, se traduira
par des gains de productivité et par une amélioration
de la qualité des services qui devraient permettre de réaliser
des économies ».
Il faut savoir que dans ce regroupement de personnalités, les
représentants des opérateurs de télécommunications
se trouvent en petite minorité. Ce sera donc loccasion
pour les milieux de lindustrie de pousser à son maximum
en direction de la déréglementation du secteur des télécommunications.
Le message essentiel du rapport est très clair : il faut rompre
avec le passé « en ouvrant à la concurrence les
infrastructures et les services », « en adaptant les tarifs
de toute urgence ».
La volonté première du Livre Blanc de construction «
dinfrastructures structurantes » de lespace géographique,
daménagement du territoire, sera diminuée au moins
en partie, et le point dorgue des politiques de mises en place
des autoroutes de linformation vont se cristalliser sur la déréglementation
totale du secteur des télécommunications. LEtat
devra avoir de moins en moins de pouvoir direct sur les opérateurs
nationaux jusquà leur complète privatisation,
et une instance européenne de régulation se mettra en
place. Selon le Rapport Bangemann, lobjectif principal est une
déréglementation rapide et profonde du secteur, le soutien
de lEtat devant être fortement diminué, et limité
uniquement à une fonction de
régulation et de stimulation des marchés.
Le Conseil de lEurope accueillera très positivement ce
rapport. Selon les conclusions du Conseil de lEurope, «
il revient en premier lieu au secteur privé de répondre
à ce défi en évaluant les enjeux et en prenant
les initiatives nécessaires, notamment en matière de
financement ». Dautre part, « la Communauté
et les Etats membres ont cependant un rôle important à
jouer pour accompagner cette évolution en donnant une impulsion
politique, en créant un cadre réglementaire clair et
stable [
] ainsi quen donnant lexemple dans les domaines
qui relèvent de leur compétence » .
En juillet 1994, la Commission élabore son Plan daction
: le développement des NTIC sera essentiellement basé
sur un financement privé, la concurrence sera encouragée
tout en préservant un service universel ainsi que linterconnexion
des réseaux, et le démarrage de cette mise en place
se fera de façon pragmatique par des projets pilotes et des
expérimentations. Le 17 novembre 1994, le Conseil des ministres
européens des Télécommunications adopte une résolution
fixant au premier janvier 1998 le principe de libéralisation
intégrale des infrastructures de télécommunications.
Autant au niveau européen que national, cest laspect
déréglementation du secteur des télécommunications
et de laudiovisuel qui devient le point central de ces politiques.
La mise en place dune infrastructure de communication à
large bande reste certes lépine dorsale de la société
de linformation, mais ce sera au secteur privé de la
mettre en place en temps voulu.
Ces décisions politiques de la Communauté Européenne
vont fortement marquer les politiques en matière de télécommunication
des différents pays membres de la Communauté, et les
développements qui verront le jour en France, en Allemagne
et en Grande Bretagne en seront directement issus ; leurs programmes
de développement au niveau national du réseau Internet
et des NTIC seront très similaires.
Genèse et croissance du réseau Internet et des NTIC
en France
La législation française sur ce thème se fait
elle aussi en deux temps. Elle suit le mouvement international et
le gouvernement va définir sa politique de mise en place des
autoroutes de linformation dans ce cadre de mise en place européenne,
de concurrence et de déréglementation. La Commission
Européenne aura eu un impact très important sur lorientation
des politiques françaises en la matière, et la France
inscrira ce thème dès le début de lannée
1994 dans son programme politique.
Cest par un rapport officiel80 commandé en février
1994 à Gérard Théry (ancien Directeur Général
des Télécommunications) par Edouard Balladur quavait
réellement débuté la mise en place des politiques
françaises sur le thème des « autoroutes de linformation
» . Il sera demandé à Gérard Théry
de préciser les enjeux de la Société de lInformation,
avec modalités et calendrier. Les propositions de ce rapport,
remis en septembre 1994, peuvent être résumées
ainsi :
(1) Raccorder à lhorizon 2015 tous les foyers et les
entreprises de France au réseau Internet ;
(2) Assurer laccès équitable de tous les citoyens
à Internet, afin déviter les cassures du type
ville-campagne, riches-pauvres, etc.
Avec comme propositions :
- Le développement massif des liaisons par fibre optique avec,
comme premier objectif, léquipement de 4 à 5 millions
de foyers et entreprises dans un délai raisonnable mais aussi
court que possible ;
- « Lélaboration de plates-formes expérimentales
et éventuellement la négociation de leur mise en uvre
avec les différents opérateurs. Lexploitation
et la diffusion des résultats et des enseignements quelles
fourniront » ;
- La généralisation de lATM . Le projet de Gérard
Théry était donc déquiper le pays dun
réseau universel à large bande, le réseau Internet,
en utilisant des liaisons sous forme de fibres optiques. Ce serait
là une façon de relancer le Plan Câble, tout en
mettant en place une nouvelle infrastructure.
Le rapport Théry a été écrit dans létat
desprit du Livre Blanc du Conseil de lEurope au printemps
1994. Cétait sans compter sur le rapport Bangemann et
ses incidences. La recommandation principale de Théry ne sera
pas suivie (relance du Plan Câble).
Le 27 octobre 1994 sera la date dun Comité interministériel
des « autoroutes et services de linformation »,
présidé par Edouard Balladur. Le gouvernement va décider
de lancer sous un mois un appel à propositions pour dégager
dans les 4 mois suivant une stratégie pour les premières
propositions. Cet appel à proposition concernera « tous
les acteurs intéressés, publics ou privés, France
Télécom devant jouer un rôle moteur mais non exclusif
dans ces expérimentations ». Le gouvernement insistera
sur la nécessité de développer une industrie
de services et de programmes performante dont les enjeux ont été
mis en évidence dans un rapport sur les téléservices
de Thierry Breton . Ce premier Comité sera le réel coup
denvoi des autoroutes de linformation et la France définit
ainsi sa politique de façon pleine et entière dans le
cadre des directives européennes. Le 23 novembre 1994, lappel
doffre pour susciter des plates-formes dexpérimentation
dans le domaine des technologies de lInformation et de
la Communication est lancé. Ses objectifs reprendront les idées
émises dans le rapport Théry, concernant lusage
de nouveaux services et la structure des distributeurs .
Le 16 octobre 1995, suite au troisième Comité interministériel
des autoroutes de linformation, 170 projets seront labellisés.
Fin 1995, le gouvernement lancera de nouveaux appels à proposition
similaires à ceux de novembre 1994. Ce sera finalement le budget
« développement-recherche » des différentes
plateformes dexpérimentation qui sera subventionné,
à hauteur de 30 % et le « soutien financier aux projets
innovants » sera porté de 50 millions de francs en 1995
à 270 millions de francs en 1996.
Les législations se sont donc concentrées sur le second
objectif du Rapport Théry (le service télématique),
délaissant la question de la construction dun réseau
national en fibre optique.
La loi du 4 février 1995 dorientation pour laménagement
du territoire prévoit datteindre une couverture du territoire
national en réseaux à large bande pour 2015. Depuis
lors la libéralisation a été étendue aux
infrastructures, et il nest plus question pour lEtat dinvestir
dans ce réseau national, ce sont les opérateurs privés
qui prendront le relais pour la construction du réseau Internet.
Une législation adaptée va voir le jour : « la
Loi relative aux expérimentations dans le domaine des technologies
de linformation » du 26 mars 1996. Elle reprendra lessentiel
des dispositifs déjà en place, mais permettra de clarifier
le flou juridique en place jusquà cette date. Le 10 mai,
lAssemblée Nationale, puis le Sénat le 7 juin
1996 ont
adopté la Loi de Réglementation des Télécommunications
(LRT) qui fixa les règles du jeux concurrentiel du 1er janvier
1998. Elle prévoyait, entre autres dispositions, la création
de lAutorité de Régulation des Télécommunications
(ART), qui sera en charge de lapplication de la réglementation.
Cette loi était capitale car en toile de fond apparurent de
nouveaux marchés : les services en ligne du type Internet (3,1
milliard de francs de chiffre daffaires en France en lan
2000 selon la société détudes américaine
IDC) ; la concurrence due aux appels longues distances via Internet
(la société Omnicom en Alsace par exemple) ; ou la téléphonie
sur le câble et les liaisons satellites (lEurotéléport
de Roubaix par exemple). Un autre enjeu essentiel de ces nouveaux
marchés est celui de la télévision interactive.
Dès le vote de la loi, le marché français a été
le théâtre de grandes manuvres, en particulier
de regroupements denvergure internationale entre acteurs du
secteur des télécommunications et de laudiovisuel.
Ces derniers interviennent de manière notable dans le cadre
de la mise en place du marché des nouvelles technologies de
linformation : la numérisation avancée du son
et des images met en effet les secteurs de laudiovisuel et des
télécommunications en concurrence directe. La déréglementation
de la concurrence et le désengagement de lEtat sétend
donc au-delà du domaine des télécommunications,
au domaine beaucoup plus vaste de laudiovisuel, et engendre
une réforme totale de ces secteurs. Lélément
essentiel pour que puisse intervenir une telle révolution sera
la privatisation de France Télécom, avec la volonté
gouvernementale de lentrée en bourse dune part
importante de son capital. Dès lors, une redistribution des
cartes dans ces secteurs pourra commencer.
En 1997, le gouvernement Jospin reprend à son compte les grands
axes énoncés sous le gouvernement Balladur, et plaide
pour la continuation et le renforcement des politiques en place. Cest
en juin 1997 que Christian Pierret, secrétaire dEtat
chargé de lIndustrie, donnera les orientations du gouvernement
socialiste en matière de mise en place des autoroutes de linformation.
Les villes et les élus locaux seraient à la pointe des
initiatives et des réalisations en matière de mise en
place des autoroutes de linformation, et la dimension politique
des expérimentations mettrait le niveau local au centre des
communications. La volonté gouvernementale de recentrer le
développement des NTIC sur le rôle des collectivités
locales
est claire.
Trois niveaux de services sont proposés aux collectivités
:
Les services aux citoyens : aide et création demplois,
raccordement de tous les établissements secondaires denseignement,
mise en place dun réseau Santé Social reliant
tous les professionnels de la santé aux Caisses Primaires dAssurance
Maladie, aide au trafic routier, développement de la démocratie
participative.
Les services aux acteurs économiques : offre de services
interactifs à moindre coût, développement des
communications avec les mobiles, baisse des tarifs téléphoniques,
développement du télétravail.
Les services rendus aux acteurs proprement dits du domaine
des technologies de linformation, en particulier aux opérateurs
de télécommunications.
sommaire
Dès 1974, les chercheurs du CNET, sinspirant du premier
système couplant réseau téléphonique et
terminal informatique, présentent au Salon dInformatique,
de la Communication et de lOrganisation du Bureau, le SICOB
à Paris, un premier terminal, baptisé Tictac.
Ce système permettait daccéder à des pages
dinformations diverses et variées. Les principes et les
utilisations nen étaient encore quà leur
début, mais limpulsion était donnée, la
convergence entre télécommunication et informatique
était née.
Au début des années 1980 sont ouverts les premiers réseaux
permettant la transmission de données (vidéotexte, annuaire
électronique, raccordement au réseau Transpac). Cette
entrée est riche denseignements pour le monde de la communication
au sens large. Pour la première
fois, les Télécoms sintéressent non plus
uniquement à lart et à la manière de véhiculer
les données, mais aussi au contenu des données à
transporter .
1983 Lexpérience
pionnière de la fibre à Biarritz ( Le billet
historique de Patrice Carré sur laventure humaine
des télécoms.)
A partir de la seconde moitié des années
1970, ce quon a appelé « le rattrapage téléphonique
» bat son plein. Il sagit alors de rattraper le
retard pris par notre pays dans léquipement du
réseau. Cest loccasion également dexpérimenter
des techniques dont lavenir allait, bien plus tard, se
révéler prometteur
Conçu dans le cadre
du 7ème Plan, le Plan daction prioritaire de 1975
(dédié à léquipement téléphonique)
va permettre un véritable décollage des télécoms.
Parties de très loin, les télécommunications
françaises ont su et le mérite en revient
à une politique volontariste impulsée à
la fois par un corps technique, les pouvoirs publics et la demande
pressante du consommateur se hisser à un niveau
exemplaire. Or, parallèlement à ces opérations
déquipement massif et de déploiement du
réseau sur lensemble du territoire, techniciens
et ingénieurs du C.N.E.T. mènent des recherches
qui vont conduire à une réelle avancée
de lindustrie électronique française : annuaire
électronique, expérience de vidéotex interactif
de Vélizy mais également travaux sur la fibre
optique et la visiophonie,
Rupture politique mais continuité technique
En 1979 le président de la République, Valéry
Giscard dEstaing, décide de faire de Biarritz une
ville expérimentale où lon déploierait
de la fibre optique et où seraient testés tous
ses usages connus et
à venir. Or, lalternance
politique intervenue après la victoire de François
Mitterrand le 10 mai 1981 fit craindre une remise en cause des
projets déjà lancés. Il nen fut rien.
Les choses étaient claires. On allait poursuivre les
projets techniques et notamment dans le domaine de la télématique
et de la fibre. Dautant plus que le 3 novembre 1982 le
ministre, Louis Mexandeau, annonçait un programme de
lancement de réseaux câblés de télécommunications
sur lensemble du territoire. Le premier objectif de ce
quon a appelé le « Plan Câble »
était linstallation de 1 400 000 prises de raccordement
dici à 1985. Ce plan à mettre en
relation avec les débats contemporains sur la communication
audiovisuelle aurait dû avoir une portée
dépassant linnovation technique. Il aurait pu amorcer
une politique plus large de transformation audiovisuelle annonçant
une convergence entre télécommunications et contenus
Une première mondiale
Cest à Biarritz, en juillet 1983, que fut
donc lancée lune des toutes premières expérimentations
mondiale de fibre optique à domicile.
Le projet sera inauguré officiellement par le Président
Mitterrand en mai 1984. Lexpérimentation durera
dix ans. Il sagissait de tester in vivo ce que pourrait
être un « réseau urbain multiservices à
large bande », comme on le désigna alors. 1 300
foyers biarrots, 150 lieux institutionnels et 50 sites promotionnels
furent connectés à la fibre optique. Le réseau
de Biarritz permettait à 1500 abonnés de bénéficier
du téléphone, du minitel, de la télévision
(15 canaux de télévision dont les chaînes
françaises, 2 chaînes espagnoles, 1 chaîne
belge et 1 chaîne suisse) et des programmes radiophoniques
sonores en FM. Laccès à une vidéothèque
en ligne allait également permettre de tester ce quon
appellerait plus tard avec le succès que lon
sait- la VOD (Vidéo On Demand).
Une grande nouveauté : la visiophonie
Mais ce qui, sans doute, a suscité alors le plus de curiosité
de la part du grand public fut ce quon appelait le visiophone.
Le visiophone ou téléphone à images se
présentait comme un combiné téléphonique
couplé à un petit écran de type TV ; il
permettait deffectuer une transmission de son et dimages,
en noir et blanc, entre deux correspondants. Le système
installé offrait deux catégories de service. Un
service commuté permettant létablissement
à la demande, de liaisons entre deux abonnés.
Chaque liaison comportait une voie image (de qualité
télévision au standard 625 lignes) et une voie
son (voie téléphonique numérisée
à 64 kbit/s). A lexception dun auteur comme
Robida (lun des pères de la science-fiction) qui,
à la fin du 19ème siècle, avait imaginé
un Téléphonoscope] ou de quelques expérimentations
sporadiques (1937, années 1960,
) lidée
même de visiophonie restait très marginale. Plusieurs
études furent réalisées. Elles arrivaient
toutes à la même conclusion. Lappropriation
de ce dispositif, conçu et promu comme un enrichissement
du téléphone, était problématique.
Des études marketing montraient des personnes qui sinquiétaient
de devoir être visibles à tout moment, mais
qui, en revanche, appréciaient la possibilité
de voir la personne à laquelle elles sadressaient
!
Le fonctionnement de cette expérimentation est lancé
le 21 mai 1984, depuis lÉlysée : François
Mitterrand est filmé en train de communiquer par visiophone
avec le ministre des PTT, Louis Mexandeau, qui est lui à
Biarritz. La ville est alors partiellement équipée
en fibres optiques jusque chez labonné. En plus
du son, le Président de la République dispose
donc de limage de son correspondant, auprès de
qui il senquiert du futur des communications à
lheure du « plan câble ».
Finalement, cette expérimentation na pas été
déployée à plus grande échelle mais
elle aura sans doute été une étape essentielle
pour améliorer cette technologie de pointe afin darriver
aux performances exceptionnelles que lon connaît
aujourdhui.
Un futur davance
Sans le savoir, on avait testé à Biarritz ce qui
allait devenir la convergence entre les télécommunications,
laudiovisuel et linformatique ! Or, les technologies
étaient à cette époque (pas si lointaine)
loin dêtre totalement maîtrisées et
très loin dêtre réellement stabilisées.
Par ailleurs, se posaient des questions de coûts et de
tarification quil était particulièrement
difficile de résoudre dans le contexte économique
et historique dalors. Et, last but not least, se posait
déjà la question des contenus ! A quoi sert un
tuyau, si puissant soit-il, sil ny a pas des services,
des contenus diversifiés pour le remplir ? Pendant les
dix années de lexpérimentation, outre la
visiophonie, des services tels que la vidéo à
la demande, des programmes interactifs de télévision,
etc. ont pu être évalués. Ce réseau,
il y a bientôt quarante ans, montrait la faisabilité
technique du FTTH, et les efforts à faire pour aboutir
à un coût permettant son déploiement à
grande échelle
|
Dans les années 1990, les mutations de la société
française vers une « société de linformation
», vont inciter les opérateurs de télécommunications
à évoluer rapidement, ainsi France Télécom
investit certains secteurs de pointe plus éloignés de
son métier de base et passe alors des télécommunications
à la communication.
Historiquement, France Télécom est entré dans
le monde de limage et de la communication très progressivement.
Après avoir organisé, rue de Grenelle, les premières
retransmissions de télévision dès 1935, les Télécoms
abandonnent à la Radio Télévision Française,
la RTF, la transmission de ce type de liaisons. Plus tard, lORTF
aura la maîtrise du contenu tandis que TéléDiffusion
de France, TDF, continuera à assurer la diffusion des images.
En 1962, la première liaison transatlantique de télévision
par satellite entre les USA et la France (Pleumeur-Bodou) marque le
retour des Télécoms dans le monde de limage. Il
se concrétise également, quelques années plus
tard, par lélaboration de projets spatiaux importants,
qui aboutiront au lancement des deux générations de
satellites de télécommunications Télécom
I et Télécom II.
A la suite du démarrage du Plan Câble, France Télécom
devient le principal constructeur et maître douvrage de
réseaux câblés.
En 1989, TéléDiffusion de France, TDF, est rattaché
à France Télécom. A partir de cette date, France
Télécom contrôle alors, en plus des satellites
et du câble, lensemble du réseau hertzien terrestre
de diffusion. Ce regroupement a permis à lopérateur
national de maîtriser lensemble de la chaîne de
limage. Sur lensemble du groupe France Télécom
on comptait en 1995 cinq mille personnes travaillant dans le domaine
de limage, et qui étaient réparties entre la maison
mère (France Télécom) et ses quatre filiales
: TDF, VTCOM, France Télécom Câble et France Télécom
Multimédia.
Depuis 2004, TéléDiffusion de France a retrouvé
son statut de société privée indépendante,
et ne fait donc plus partie du Groupe France Télécom.
Le secteur de la communication des sons, images et données
se développe depuis 10 ans dans de multiples directions, offrant
ainsi une gamme de prestations complète aux professionnels
de laudiovisuel et de la communication. En 1992, France Télécom
a ainsi assuré la transmission des images, des voix, des textes
et des données dans le monde entier à partir dAlbertville,
où se sont déroulés les XVI ème Jeux Olympiques
dhiver.
Grâce au Service dExploitation Radio Télévisuel
Extérieur (SERTE), France Télécom fournit aux
télévisions la transmission dimages du monde entier
par satellite, des services de vidéotransmission interactifs
permettant le dialogue à des milliers de kilomètres
de distance, ou encore des possibilités de visioconférences
conçues en particulier pour les entreprises. On peut citer
lexemple remarquable de la téléchirurgie : la
première expérience de téléchirurgie,
cest-à-dire de chirurgie à distance (le patient
était à Strasbourg, relié à un robot qui
effectuait lintervention chirurgicale en direct, le chirurgien
était aux USA et effectuait les gestes chirurgicaux à
laide dun robot américain relié en temps
réel au robot chirurgical de
Strasbourg). Cet exploit de téléchirurgie fut réalisé
en 2003 au CHU de Strasbourg, par le Professeur Marescaux, de lIRCAD88
. La transmission des informations (mouvements des bras articulés
des deux robots, images du patient, sons, etc.) entre la France et
les USA a été effectuée grâce à
une connexion par satellite de télécommunication, mise
en uvre par le Laboratoire France Télécom Recherche&Développement
de Lannion. Depuis cette première expérience, qui fut
une grande réussite, la téléchirurgie se développe
à travers le monde entier.
De plus en plus de Centres Hospitaliers font lacquisition de
robots de téléchirurgie et déquipement
de transmission par satellite.
La multitude des services offerts par les Nouvelles Technologies de
lInformation et de la Communication (NTIC) mobilise et parfois
même combine lensemble des modes de transmission, satellite,
réseau câblé (fibres optiques), liaison hertzienne.
Ainsi, aux métiers traditionnels des « télécommunicants
» (les employés des Télécoms), sajoutent
dautres professions venues tout droit du monde de laudiovisuel
: cadreur, ingénieur du son, réalisateur, webmaster,
ingénieur réseau, etc. La palette des métiers
sélargit à mesure que France Télécom
se diversifie. Mais, pour les grands opérateurs de télécommunications
tels que France Télécom, lImage cest avant
tout le Câble. Jusquà son changement de statut
en 1991, France Télécom se cantonnait dans un rôle
dinvestisseur et dexploitant technique des réseaux,
mais nintervenait pas dans la commercialisation. A partir de
1995 France Télécom sest affirmé comme
un opérateur commercial à part entière : le groupe
a ainsi acquis des participations majoritaires dans des sociétés
dexploitation commerciale et a poursuivie sa politique de partenariat
avec les autres câblo-opérateurs français en prenant
des participations dans le capital de ces sociétés.
Faire vivre et développer les réseaux, mais aussi simpliquer
dans le contenu, tels sont les objectifs des opérateurs de
télécommunications à lheure actuelle. Participer
au contenu est le nouvel enjeux des Télécoms, car le
contenu types de données diffusées (images, sons, données
numériques, pages web, services on-line, etc.), qualité
des données (bruits, vitesse de transmission des vidéo,
etc.), types de services (téléachat, site web de vulgarisation
scientifique, services des impôts, etc.)] conditionne le succès
des supports.
Le multimédia a conduit, dès 1995, les grands opérateurs
de Télécoms à sinterroger sur lactualité
et la rentabilité de ce quon appelait à lépoque
les « autoroutes de linformation ».
Ce terme recouvre dune part les réseaux informatiques
reliant les ordinateurs et les réseaux de diffusion large bande
et, dautre part, les futurs réseaux de communication
à haute capacité, rendus possibles par la généralisation
de la fibre optique et la numérisation. A partir de 1995 les
opérateurs de télécommunications ont commencé
progressivement à déployer les infrastructures à
haut débit les plus modernes afin de répondre aux futurs
besoins, mais sans investir de façon massive et prématurée.
Les Télécoms se sont alors organisés de manière
à favoriser lapparition de toutes les potentialités
à court terme, en valorisant les projets spécifiques
à moyen terme : poursuite de la modernisation du réseau,
émergence
dapplications multimédias, établissement de partenariat
avec les divers acteurs impliqués, notamment les fournisseurs
du contenu (hébergeurs de sites web, chaînes de télévision,
etc.).
Dès 1995 la structure du réseau commença à
se modifier, et se complexifier. La fibre optique prendra peu à
peu le relais des câbles coaxiaux ; à terme de dernier
refuge du fil de cuivre, ce seront les raccordements dabonnés.
Lentrée de France Télécom en 1992 dans
le monde de la communication a marqué une étape capitale
dans son histoire. Sans se détourner de son métier de
base, le groupe France Télécom a ainsi cherché
à senrichir et développer les services en faisant
converger le transport de linformation, son contenu et son traitement,
de façon à intégrer les besoins des utilisateurs,
résidentiels comme professionnels. Le réseau, ou plutôt,
les réseaux Internet, après sêtre dabord
ouverts gratuitement au monde universitaire et aux applications informatiques,
aborde depuis la fin des années 1990 une nouvelle étape,
que lon peut qualifier de commerciale : développement
croissant du commerce électronique, mise en ligne croissante
de sites web pour les entreprises, etc .
sommaire
Historique du réseau Internet
Les débuts du réseau Internet datent de 1964. A cette
époque, la Rank Corporation, Cellule de réflexion diplomatico-scientifico-militaire
américaine, développe lidée de création
dun nouveau type de réseau informatique. Le but de ce
réseau était dassurer la liaison entre les différents
ordinateurs le composant, et ceci même dans le cas où
une portion entière du réseau serait défectueuse
ou détruite. Pour quun tel type de réseau puisse
fonctionner, il faut obligatoirement que chaque nud du réseau
ait le même poids, donc que le réseau ne soit pas hiérarchique.
Limportant, dans un réseau de ce type, ce nest
pas le chemin parcouru par les données, mais que les données
parviennent à destination. En 1969, un organisme dépendant
du Pentagone, lAdvanced Research Project Agency, lARPA,
décide de créer un premier prototype de réseau
en reliant quatre supercalculateurs, ce qui donne naissance au réseau
ARPAnet .
A partir de 1972, le réseau ARPAnet est mis à disposition
des universitaires et des organismes de recherche (MIT,Harvard, UCLA,
etc.), leur permettant ainsi dutiliser les supercalculateurs
et le réseau dintercommunication informatique ARPAnet
.
Naissance
du réseau Internet
Premières utilisations du réseau ARPAnet
en 1970.
Deux innovations majeures sont alors mises en place,
la naissance du courrier électronique et la naissance du protocole
dinterconnexion entre réseaux, le protocole TCP, en 1974.
A la même époque, partout à travers le monde occidental,
une multitude de réseaux du même type voient le jour
(USENET, BITNET, UUCP, etc.) et commencent à sinterconnecter
entre eux. Mais on peut situer le démarrage de lexploitation
du réseau Internet en 1981, lorsque la National Science Foundation
(NSF) américaine décide de financer la création
dun réseau, le Computer and Science Network (CSNET).
Lobjectif de ce réseau était de fournir aux universités
des services tels que le courrier électronique, le transfert
de fichiers, etc.
En 1982, voit le jour le réseau Internet tel que nous le connaissons
encore actuellement, grâce à linvention du protocole
IP (Internet Protocol), qui sera associé à TCP. Les
réseaux Internet, eux-mêmes interconnectés à
laide du protocole TCP/IP, définissent lInternet.
Au cours des dix ans qui vont suivre (1982-1992), lInternet
va se développer à travers le monde entier, le nombre
de serveurs connectés passe ainsi de 1 000 en 1984 à
1 000 000 en 1992, en 1987 apparaissent des réseaux plus importants,
semi-privés et à but commercial (IBM, MCI, etc.), dès
1990, des prestataires de services daccès privé
à Internet proposent aux particuliers des accès à
Internet.
A partir de ce moment là, Internet souvre aux particuliers
et aux entreprises privées. Le réseau Internet devient
ainsi une entité autonome. La National Science Foundation,
qui avait financé le développement du réseau
Internet à ses débuts, décide alors de retirer
son appui financier au développement dInternet et de
laisser les entreprises privées prendre le relais.
Cette décision marque le début de la privatisation du
réseau Internet à travers le monde.
Deux avancées technologiques majeures vont encore voir le jour.
En 1992 est créé le Word Wide Web. Le succès
du Web sera phénoménal. Cest en sen inspirant
que le vice-président américain, Al Gore, lancera lidée
des « autoroutes de linformation ». En 1993 est
créé le premier logiciel de navigation Mosaïc.
Il permet de consulter des documents interactifs comportant des images,
du texte, du son, etc., de manière simple et conviviale.
On assiste au même moment à une mondialisation du réseau
Internet : ainsi dès 1995, le nombre de réseaux situés
hors des Etats-Unis dépasse celui des réseaux américains.
Au sujet de la croissance du réseau Internet depuis 10 ans,
on peut se référer aux travaux dEtienne Turpin90
: « Bien que les nouveaux opérateurs de télécommunication
naient pas à supporter le coût de lamortissement
des équipements précédemment subventionnés,
ils doivent faire face à la croissance de la demande (augmentation
du nombre de personnes raccordées, diversification des services)
et financer les équipements nécessaires au redimensionnement
du réseau. En effet, au cours de la dernière décennie,
le nombre de réseaux et dordinateurs hôtes (host)
branchés sur Internet a augmenté exponentiellement ».
Selon certaines estimations, le nombre des applications et services
et le nombre des utilisateurs ont augmenté dans les mêmes
proportions. En 1994 et 1995, le trafic et le nombre dusagers
dInternet doublaient tous les trois mois. Les estimations actuelles
montrent que le trafic continue à doubler tous les six à
douze mois, voire même plus rapidement.
La croissance de la demande de raccordement au réseau Internet
est encore forte en 2005. Mais qui dit augmentation du trafic, dit
également ralentissement de la transmission et donc dégradation
de la qualité du service offert. En effet, une grande partie
du réseau Internet mondial est encore composé de liaisons
par câbles coaxiaux (lignes téléphoniques) à
faible débit (56 Ko/seconde). Les liaisons à haut débit
(câbles composés de fibres optiques, réseau hertzien
haut débit, etc.) prennent peu à peu le relais auprès
des particuliers grâce aux offres proposées par les opérateurs
de Télécoms (ADSL à 8 Mo/seconde, etc.). Les
entreprises quand à elles, disposent souvent dun budget
téléphonique plus important et investissent le plus
souvent dans les offres de connexion haut débit professionnel.
La dégradation de la qualité du réseau, si elle
peut être acceptée par une certaine population dabonnés
résidentiels qui profitent du service pour un coût relativement
bas, nest plus acceptable dès lors que lon sadresse
à des entreprises ou que lon utilise certains services
en temps réel (téléphonie, télévision
par câble, etc.). Cest pour faire face à ce problème
que lInternet, à côté du réseau ouvert
à tout le monde, a créé des réseaux privé
spécialisés : les Réseau Privés Virtuels,
RPV, comme par exemple les Intranets ou les Extranets, qui permettent
aux entreprises de contrôler leur réseau (sécurité
du réseau et qualité du service), tout en utilisant
la technologie IP (Internet Protocole).
LInternet Society, lISOC, propose trois définitions
de lInternet :
« Définition générale : un métaréseau
dinformation (cest-à-dire un réseau de réseaux)
global et ouvert. »
« Définition étroite : un groupe dinterréseaux
(cest-à-dire dinterconnexion de réseaux)
capables dacheminer entre eux des paquets suivants lInternet
Protocol. »
« Définition large : linterconnexion de
réseaux au protocole IP, plus tous les réseaux connectés
capables dacheminer du trafic (ce qui inclut les réseaux
utilisant le protocole IP, ceux utilisant un autre protocole quIP
et les systèmes de niveau applicatifs). »
La définition « large » de lISOC peut être
considérée comme faisant référence à
lensemble des réseaux de télécommunication
et réseaux informatiques connectés à Internet
existant dans le monde. Elle résume très bien lambition
du World Wide Web, qui est de mettre en relation
tous les ordinateurs existants dans le monde.
sommaire
Le protocole TCP/IP, est un modèle en 4 couches
Le modèle TCP/IP peut en effet être décrit
comme une architecture réseau à 4 couches
Le modèle OSI a été mis à côté
pour faciliter la comparaison entre les deux modèles.
La couche hôte réseau
Cette couche est assez « étrange ». En effet, elle
semble « regrouper » les couches physique et liaison de
données du modèle OSI. En fait, cette couche na
pas vraiment été spécifiée ; la seule
contrainte de cette couche, cest de permettre un hôte
denvoyer des paquets IP sur le réseau. Limplémentation
de cette couche est laissée libre. De manière plus concrète,
cette implémentation est typique de la technologie utilisée
sur le réseau local. Par exemple, beaucoup de réseaux
locaux utilisent Ethernet ; Ethernet est une implémentation
de la couche hôte-réseau.
La couche internet
Cette couche est la clé de voûte de larchitecture.
Cette couche réalise linterconnexion des réseaux
(hétérogènes) distants sans connexion. Son rôle
est de permettre linjection de paquets dans nimporte quel
réseau et lacheminement des ces paquets indépendamment
les uns des autres jusquà destination. Comme aucune connexion
nest établie au préalable, les paquets peuvent
arriver dans le désordre ; le contrôle de lordre
de remise est éventuellement la tâche des couches supérieures.
Du fait du rôle imminent de cette couche dans lacheminement
des paquets, le point critique de cette couche est le routage. Cest
en ce sens que lon peut se permettre de comparer cette couche
avec la couche réseau du modèle OSI.
Remarquons que le nom de la couche (« internet ») est
écrit avec un i minuscule, pour la simple et bonne raison que
le mot internet est pris ici au sens large (littéralement,
« interconnexion de réseaux »), même si lInternet
(avec un grand I) utilise cette couche.
La couche transport
Son rôle est le même que celui de la couche transport
du modèle OSI : permettre à des entités paires
de soutenir une conversation.
Officiellement, cette couche na que deux implémentations
: le protocole TCP (Transmission Control Protocol) et le protocole
UDP (User Datagram Protocol).
TCP est un protocole fiable, orienté connexion, qui
permet lacheminement sans erreur de paquets issus dune
machine dun internet à une autre machine du même
internet. Son rôle est de fragmenter le message à transmettre
de manière à pouvoir le faire passer sur la couche internet.
A linverse, sur la machine destination, TCP replace dans lordre
les fragments transmis sur la couche internet pour reconstruire le
message initial. TCP soccupe également du contrôle
de flux de la connexion.
UDP est en revanche un protocole plus
simple que TCP : il est non fiable et sans connexion. Son utilisation
présuppose que lon na pas besoin ni du contrôle
de flux, ni de la conservation de lordre de remise des paquets.
Par exemple, on lutilise lorsque la couche application se charge
de la remise en ordre des messages. On se souvient que dans le modèle
OSI, plusieurs couches ont à charge la vérification
de lordre de remise des messages. Cest là une avantage
du modèle TCP/IP sur le modèle OSI, mais nous y reviendrons
plus tard. Une autre utilisation dUDP : la transmission de la
voix. En effet, linversion de 2 phonèmes ne gêne
en rien la compréhension du message final. De manière
plus générale, UDP intervient lorsque le temps de remise
des paquets est prédominant.
La couche application
Contrairement au modèle OSI,
cest la couche immédiatement supérieure à
la couche transport, tout simplement parce que les couches présentation
et session sont apparues inutiles. On sest en effet aperçu
avec lusage que les logiciels réseau nutilisent
que très rarement ces 2 couches, et finalement, le modèle
OSI dépouillé de ces 2 couches ressemble fortement au
modèle TCP/IP.
Cette couche contient tous les protocoles de
haut niveau, comme par exemple Telnet, TFTP (trivial File Transfer
Protocol), SMTP (Simple Mail Transfer Protocol), HTTP (HyperText Transfer
Protocol). Le point important pour cette couche est le choix du protocole
de transport à utiliser. Par exemple, TFTP (surtout utilisé
sur réseaux locaux) utilisera UDP, car on part du principe
que les liaisons physiques sont suffisamment fiables et les temps
de transmission suffisamment courts pour quil ny ait pas
dinversion de paquets à larrivée. Ce choix
rend TFTP plus rapide que le protocole FTP qui utilise TCP. A linverse,
SMTP utilise TCP, car pour la remise du courrier électronique,
on veut que tous les messages parviennent intégralement et
sans erreurs.
Comparaison avec le modèle OSI et critique
Comparaison avec le modèle OSI
Tout dabord, les points communs. Les modèles
OSI et TCP/IP sont tous les deux fondés sur le concept de pile
de protocoles indépendants. Ensuite, les fonctionnalités
des couches sont globalement les mêmes.
Au niveau des différences, on peut remarquer
la chose suivante : le modèle OSI faisait clairement la différence
entre 3 concepts principaux, alors que ce nest plus tout à
fait le cas pour le modèle TCP/IP. Ces 3 concepts sont les
concepts de services, interfaces et protocoles. En effet, TCP/IP fait
peu la distinction entre ces concepts, et ce malgré les efforts
des concepteurs pour se rapprocher de lOSI. Cela est dû
au fait que pour le modèle TCP/IP, ce sont les protocoles qui
sont dabord apparus. Le modèle ne fait finalement que
donner une justification théorique aux protocoles, sans les
rendre véritablement indépendants les uns des autres.
Enfin, la dernière grande différence est liée
au mode de connexion. Certes, les modes orienté connexion et
sans connexion sont disponibles dans les deux modèles mais
pas à la même couche : pour le modèle OSI, ils
ne sont disponibles quau niveau de la couche réseau (au
niveau de la couche transport, seul le mode orienté connexion
nest disponible), alors quils ne sont disponibles quau
niveau de la couche transport pour le modèle TCP/IP (la couche
internet noffre que le mode sans connexion). Le modèle
TCP/IP a donc cet avantage par rapport au modèle OSI : les
applications (qui utilisent directement la couche transport) ont véritablement
le choix entre les deux modes de connexion.
Critique du modèle TCP/IP
Une des premières critiques que lon
peut émettre tient au fait que le modèle TCP/IP ne fait
pas vraiment la distinction entre les spécifications et limplémentation
: IP est un protocole qui fait partie intégrante des spécifications
du modèle.
Une autre critique peut être émise
à lencontre de la couche hôte réseau. En
effet, ce nest pas à proprement parler une couche dabstraction
dans la mesure où sa spécification est trop floue. Les
constructeurs sont donc obligés de proposer leurs solutions
pour « combler » ce manque. Finalement, on saperçoit
que les couches physique et liaison de données sont tout aussi
importantes que la couche transport. Partant de là, on est
en droit de proposer un modèle hybride à 5 couches,
rassemblant les points forts des modèles OSI et TCP/IP :
Cest finalement ce modèle qui sert
véritablement de référence dans le monde de lInternet.
On a ainsi gardé la plupart des couches de lOSI (toutes,
sauf les couches session et présentation) car correctement
spécifiées. En revanche, ses protocoles nont pas
eu de succès et on a du coup gardé ceux de TCP/IP.
sommaire
Evolution et stratégie des télécommunications
en France :
Mais pourquoi parler de modem Adsl, Box sur ce
site qui retrace l'épopée du téléphone
fixe ?
C'est tout simplement que cette évolution de l'internet jusqu'à
l'arrivée de la Fibre Optique, utilise encore le réseau
cuivre le RTC (Réseau Téléphonique Commuté)
et qu'il est question de mettre fin
à ce RTC.
- 15 novembre 2018, Orange
(ex France Télécom)
ne propose plus d'abonnements au téléphone fixe.
- Orange a mis en place un plan de fermeture
du RTC pour les 9,4 millions d'abonnés
encore en fixe.
- En 1999 L'ADSL est ommercialisée, cette technologie
a révolutionné le monde numérique. Elle permet
de profiter dInternet et de la télévision,
ainsi que de la téléphonie fixe sans coupure
et grâce à une seule et même prise.
- En 2000 : 34 millions de téléphones
fixes sont reliées sur les commutateurs électroniques
temporels, et il y a 54 millions de téléphones
mobiles.
- En 2002-2004, grâce au dégroupage
(partiel et total), dautres opérateurs se lancent sur
le marché. Une concurrence qui permet aux offres ADSL dêtre
plus accessibles financièrement et qui motive les FAI à
avancer plus rapidement dans linstallation des réseaux
câblés en France.
- En 2003 Orange est le premier opérateur en France
à lancer la TV sur ADSL, avec le premier décodeur TV
et la TV sur mobile.
- Eté 2015 Le record de lignes dégroupées
a été atteint avec 11,7 millions de lignes.
- Dans les années 2010, lobjectif est clair : lADSL
pour tous en 2017.
- L'Arcep estime en 2019 que 99 % des foyers français sont
raccordés à lADSL. ADSL plus le dégroupage
c'est environ 20 millions de lignes fixes en moins.
- En 2022 Il ne reste que 6 millions d'abonnements au
fixe dont 13 % d'abonnement en dégroupage partiel, c'est
à dire un peu moins d'un tiers des abonnés sur paire
cuivre , plus de 99 % de la population âgée de 15 ans
ou plus est équipée dun téléphone
ou smartphone.
- Le déclin du dégroupage ADSL est lié à
la montée en puissance des offres internet de fibre optique.
- Au 30 juin 2022, selon l'Arcep, il y avait 16,3 millions
de clients fibre, contre 11,1 millions d'abonnés sur
les réseaux ADSL/VDSL.
- Entre 2023 et 203x le réseau analogique sera coupé
progressivement. (téléphones fixes,
centraux téléphoniques commutés, réseau
filaire)
À l'été 2020, le gouvernement annoncé
sa volonté de généraliser la fibre optique sur
tout le territoire dici 2025.
- Dans un premier temps, et progressivement jusqu'en 2025, plus aucun
abonné internet ne pourra souscrire une offre ADSL. C'est ce
qu'on appelle la fermeture commerciale.
- Dans un deuxième temps, à partir de 2026 et jusqu'en
2030, les abonnés cuivre existants devront souscrire à
une offre fibre, dès lors qu'ils se trouveront dans une zone
fibrée. Ou, le cas échéant, opter pour une solution
alternative comme la 4G fixe. C'est ce qu'on appelle la fermeture
technique. Néanmoins, promet Fabienne Dulac, PDG d'Orange France,
"s'il n'y a pas de très haut débit dans la commune,
il n'y aura pas de décommissionnement du cuivre".
sommaire
Pour bien comprendre le concept de dégroupage,
il est nécessaire de connaître plusieurs détails
sur la structure du réseau Internet.
Voici quelques éléments de réponse sur les différents
intermédiaires par lesquels les données numériques
transitent pour relier les internautes à la Grande Toile.
Le Backbone International : c'est l'épine
dorsale de l'Internet qui permet de connecter les serveurs de tous
les pays entre eux. Ce backbone se compose essentiellement de nombreux
câbles sous-marins de fibre optique.
Point d'échange Internet : baptisée IX
(Internet Exchange), c'est une infrastructure de type "datacenter"
qui permet aux fournisseurs d'accès d'échanger du trafic
Internet grâce à des accords mutuels de "peering".
L'interconnexion peut se faire entre opérateurs, mais également
avec des CDN (content delivery network) par exemple.
Point de présence régional : aussi appelés
POP (Point of Presence), ces installations sont des points de collecte
qui centralisent et agrègent les connexions Internet des clients
d'un opérateur pour les remonter vers un PoP national (en général
en région parisienne) interconnecté à un point
d'échange. Parmi les PoP régionaux d'envergure chez
Orange tout comme chez Free et SFR, signalons ceux de Rennes, Nantes,
Bordeaux, Toulouse, Marseille, Montpellier, Lyon, Nice, Strasbourg,
Dijon et Lille.
Répartiteur / NRA / central téléphonique : Orange
gère plus de 21500 centraux téléphoniques. Aussi
appelé noeud de raccordement d'abonnés (NRA), un central
peut contenir de 50 à plusieurs dizaines de milliers de lignes
téléphoniques. Ces lignes sont branchées sur
un répartiteur lui-même connecté à des
DSLAM qui gèrent les signaux IP (ADSL) injectés sur
le réseau téléphonique.
Boucle locale cuivre : on appelle aussi boucle locale
"le dernier kilomètre". Il s'agit du réseau
téléphonique de distribution situé entre le noeud
de raccordement (NRA) et la prise téléphonique de l'internaute.
C'est un réseau à très forte capillarité
car chaque maison de chaque village est reliée à la
boucle locale via des sous-répartiteurs (SR) et des points
de concentration. La distance entre le central et votre habitation
- on parle d'affaiblissement calculé en décibels - est
un facteur déterminant pour le calcul de votre éligibilité
à l'ADSL et pour déterminer la vitesse de votre connexion.
sommaire
Le déclin du dégroupage ADSL est lié à
la montée en puissance des offres internet de fibre optique.
Pourquoi met-on fin au réseau cuivre et
donc à l'ADSL ?
"Le réseau cuivre a su être utilisé
bien au-delà de ce pourquoi il avait été conçu
et installé. Sans lui, et sans louverture concurrentielle,
Internet naurait pas eu le rapide développement quil
a connu. Que tous ceux qui ont participé concrètement
à cette grande histoire nationale en soient remerciés."
L'hommage est signé de l'Avicca, une association qui regroupe
la quasi-totalité des des collectivités qui sont impliqués
dans l'aménagement numérique du territoire et il résume
parfaitement la situation. Le réseau cuivre nous a rendu service
bien au delà de ce pourquoi il a été conçu,
mais il a fait son temps et il est temps pour lui de tirer sa révérence.
France Télécom (devenu Orange en 2013),
lopérateur de la boucle locale historique, qui est aussi
lun des principaux artisans du passage à la fibre (il
est le premier à l'avoir expérimenté dès
2006, NDR), constate que maintenir deux réseaux filaires na
plus de sens, tant sur laspect des usages que sur les aspects
économiques, techniques et environnementaux.
"Pour des raisons de performances techniques
et dobsolescence, mais aussi pour des raisons defficacité,
de coûts et dempreinte environnementale, il nest
pas pertinent, à terme, de conserver et dentretenir deux
infrastructures capillaires complètes en parallèle (le
réseau cuivre historique et les nouveaux réseaux FttH)",
approuve l'Arcep, l'autorité de régulation des télécoms,
qui assure que ce processus est déjà engagé dans
plusieurs pays européens, à savoir la Norvège,
la Suède et l'Espagne.
Sensible aux aléas météorologiques
et à l'humidité, le réseau cuivre a atteint aujourd'hui
ses limites en termes de débits et ne répond plus aux
besoins des Français. Il est peu à peu délaissé
par les utilisateurs attirés par le Très Haut Débit.
Pour preuve : au 30 juin 2022, selon l'Arcep, il y avait 16,3 millions
de clients fibre, contre 11,1 millions d'abonnés sur les réseaux
ADSL/VDSL.
Au 2ème trimestre 2022, les réseaux
FttH couvraient 75% des locaux (32 millions) et environ 60% des locaux
bénéficiaient de la présence des quatre opérateurs
commerciaux.
En clair : la fibre optique est devenue linfrastructure
internet fixe de référence. Au niveau européen,
la France est le pays le plus avancé dans le déploiement
de la fibre et où le déploiement de la fibre progresse
le plus vite.
À l'été 2020, le gouvernement annoncé
sa volonté de généraliser la fibre optique sur
tout le territoire dici 2025.
Il faut dire que la fibre optique ne présente
que des avantages par rapport à l'ADSL, et notamment en termes
de débits. En effet, avec un débit commercial jusqu'à
8 Gb/s, la fibre a l'avantage de la vitesse par rapport aux débit
maximum théorique de l'ADSL/VDSL qui est de 95 Mb/s. C'est
donc dans la logique des choses que l'ADSL se retire au profit de
la fibre. Mais non sans remerciements.
sommaire
Après le haut débit avec ADSL, voici
vers l'ère du très haut débit THD avec
la Fibre optique
(sur ce lien).
La Fibre optique
ou réseau FTTH est devenue le nouveau standard de connexion
pour être généralisée.
Pour suivre en détail le Déploiement des reseaux
FTTH en ZMD (2017) consulter
ce document
Pour les foyers et les entreprises, la révolution numérique
impose laccès à une connexion internet rapide.
Plus de 22 millions de prises sont déjà éligibles
à la Fibre en janvier 2021.
Avec ses ambitions doffrir du THD à chacun des foyers
dici 2025, la France est lun des pays les mieux équipés
au monde.
La 4G Home est une offre internet qui permet de disposer du haut débit
chez vous en utilisant le réseau 4G d'Orange.
sommaire
Revenons sur l'histoire d'Internet :
Internet est le résultat dune uvre
collective conduite par des centaines de chercheurs et dingénieurs,
de 1961 à 1983, dans des équipes principalement nord-américaines
et européennes (Grande-Bretagne, Norvège, France, dans
lordre chronologique des contributions).
En France, dabord avec les projets CYCLADES
et ARPANET du le réseau TRANSPAC
Après l'arrêt du projet Cyclades, la montée en
puissance d'Arpanet et d'Internet aux Etats Unis a été
occultée en France pendant une douzaine d'années.
Premier témoignage
Michel Elie ingénieur informaticien a participé
à l'équipe projet d'Arpanet à l'UCLA, contribué
au projet Cyclades, puis été responsable de l'équipe
d'architecture réseau de CII-HB et Bull. Il nous livre son
témoignage :
Les vingt cinq premières années dArpanet et de
son successeur Internet ont permis à Internet de senraciner
un peu partout dans le monde avant dexploser dans les 25 années
suivantes pour devenir un phénomène planétaire
incontournable.
En effet, après une participation française à
léquipe initiale de développement du projet Arpanet
puis au développement du réseau Cyclades en France en
symbiose avec Arpanet, des voies divergentes ont été
poursuivies en France par la direction générale des
télécommunications et les constructeurs dordinateurs.
Pour ces derniers, lobjectif restait de développer un
modèle et des normes pour construire des réseaux dordinateurs
hétérogènes permettant lexécution
dapplications réparties. Mais le moyen pour y parvenir
était de passer par le dispositif de normalisation internationale
de lorganisation internationale de normalisation (ISO).
Michel Elie a vécu cette période chez le constructeur
CII-Honeywell-Bull (né de la fusion en 1974 de la CII et de
Honeywell-Bull) puis Bull en tant que responsable de léquipe
darchitecture réseau. Jusquà ce que, vers
la fin des années quatre-vingts, Internet réapparaisse
et simpose progressivement en France. Cest sur cette trajectoire
française quil lui a semblé utile de rappeler
la chronologie des évènements et de fournir «
de sa lucarne » aux non-initiés quelques points de repères.
Avant 1969 : Aux États-Unis, une nébuleuse didées
sur le potentiel de linformatique
Dans le projet du réseau de lARPA nommé
par la suite Arpanet sincarne pour la première fois un
ensemble didées, dexpériences, de concepts
et de réflexions prospectives né dans laprès-guerre,
essentiellement dans le milieu universitaire états-unien comme
le montre lintéressante thèse dAlexandre
Serres consacrée au processus démergence dArpanet
et larticle de Gérard Le Lann, publié sur le site
d'Inria à l'occasion des 50 ans du réseau Arpanet.
1969 - 1984 : Aux États-Unis, naissance et développement
dArpanet
Arpanet est mis en service le 29 octobre 1969 à
partir de l'université de Californie à Los Angeles (UCLA).
Cest avant tout un réseau de communication basé
sur la commutation de paquets et le principe de transparence dune
information transmise de bout en bout entre égaux (peer to
peer). Le but recherché est la mise en communication dapplications
installées sur des ordinateurs hétérogènes,
en vue de partager les ressources informatiques matérielles
et logicielles, les données et les moyens humains pour opérer
des applications géographiquement réparties.
Détaché comme assistant de recherche
dans le département informatique de l'UCLA, en 1969-1970, je
faisais partie du groupe de travail réseau (NWG) qui comprenait
plusieurs futurs « pionniers dInternet » : Vint
Cerf, Steve Crocker, Jon Postel
et dautres moins reconnus
: Mike Wingfield, Charlie Kline et un peu plus tard Alex McKenzie.
Jai toujours pensé que le succès de ce type de
projet tenait autant à lintelligence collective de léquipe
quà quelques individualités, aussi brillantes
fussent-elles.
Javais la chance de partager le bureau de Jon
Postel, futur responsable de ladministration des noms de domaine
et donc, dêtre aux premières loges pour suivre
et discuter de lévolution des spécifications du
réseau.Jy proposai quelques modifications mineures et
dentreprendre la définition dun langage de contrôle
du réseau, le Network Interchange Language (NIL) idée
reprise par la suite par le Network Control Language (NCL). J'eus
l'occasion d'exposer ce travail à Michel Monpetit et Alain
Profit lors de leur visite à lUCLA début 1970.
Avant mon retour en France je rédigeai une
thèse de maîtrise "General purpose computer networks"
supervisée par Léonard Kleinrock.
Début 1971, je présentai, pour la première fois
en France, le réseau Arpanet dans un exposé à
lIRIA et dans un article "Le réseau d'ordinateurs
de IARPA, et les réseaux généraux d'ordinateurs".
Quatre ans plus tard, Arpanet comporte 40 nuds et 45 serveurs
connectés. Le trafic passe d'un million de paquets par jour
en 1972 à 2,9 millions de paquets par jour en septembre 1973.
En 1984, tous les sites dArpanet basculent sur le standard
TCP-IP dInternet (voir la contribution de Gérard
Le Lann).
Il ny a pas de différence de nature ni dADN entre
Arpanet et Internet, comme certains ont voulu le faire croire.
Cest le même réseau avec les mêmes applications.
Simplement la nouvelle plate-forme de transmission, désormais
plus largement acceptée, permet le raccordement dautres
réseaux, et Internet devient davantage un réseau de
réseaux. Cest un peu comme le passage de la 4G à
la 5G, qui sera invisible des utilisateurs mais leur donnera davantage
de possibilités dévolution.
1972-1977 : En France, le projet Cyclades sinspire dArpanet
En 1972 est lancé à lIRIA le projet français
Cyclades, réalisé par une équipe dirigée
par Louis Pouzin. Comme Arpanet, il utilise la commutation de paquets
dans le réseau Cigale. Le commutateur de paquets du réseau
est développé sur un mini-ordinateur Mitra 15 de la
Compagnie Internationale pour lInformatique (CII), un constructeur
français dordinateur créée dans le cadre
du Plan Calcul. Je suis chargé de la liaison technique entre
la CII et le projet Cyclades. Jean Pierre Touchard, ingénieur
de la CII, est affecté au développement du commutateur
de paquets de Cigale dans léquipe de Jean Louis Grangé.
Le but poursuivi par la CII est d intégrer ce commutateur
de paquets dans sa gamme de produits. Cigale est mis en service dans
sa première version, environ trois ans après Arpanet.
De mon coté, je travaillais avec Hubert Zimmermann sur larchitecture
des transmissions et la « station de transport » de bout
en bout. Ces travaux furent soumis au groupe de travail INWG dArpanet
et pris en compte dans les discussions qui aboutiront au protocole
TCP (protocole de contrôle de transmissions).
1971-1989 : Évolution de larchitecture de réseau
NNA portée par les successeurs de la CII
L'architecture de réseaux adoptée par
la CII, baptisée NNA, permettait dans la « fonction de
transport » de gérer simultanément les services
de circuit virtuel et de datagramme, offerts par la « couche
réseau» : elle anticipait la future architecture normalisée
OSI. NNA avait été acceptée par nos partenaires
dUnidata.
En 1974 intervint la dissolution dUnidata et lannonce
de la prochaine fermeture du réseau Cyclades. L'arrêt
du projet Cyclades a enrayé en France la coopération
avec l'équipe dArpanet et la dynamique de participation
des utilisateurs universitaires et dentreprises du secteur public,
regroupées dans lassociation Inforep, au développement
dapplications réparties quil avait suscité.
Les relations avec les équipes Internet aux États-Unis
furent coupées à partir de 1975. À CII-Honeywell-Bull
et jusquen 1985, nous nentendrons plus parler dInternet
y compris de la part de notre partenaire américain.
Lors de la fusion entre CII et Honeywell Bull en 1976, la compétence
des ingénieurs de la CII dans le domaine des transmissions
est reconnue. Lobjectif du nouveau frontal développé
sur ordinateur mini 6 était de supporter le réseau Transpac
pour son ouverture en 1977 (voir larticle de Philippe Picard)
et de lintégrer dans les couches transport de l'architecture
de systèmes répartis DSA de CII-Honeywell-Bull, développée
entre 1976 et 1978 par une équipe d'origine mixte CII-Honeywell-Bull
et Honeywell Information Systems (HIS).
1975 - 1985 : Architecture SNA dIBM et normalisation de linterconnexion
des systèmes ouverts
Depuis l'apparition en 1975 de l'architecture propriétaire
SNA (Systems Network Architecture) d'IBM, la grande préoccupation
des autres constructeurs fut de définir une stratégie
face au risque de domination du marché des réseaux par
IBM par le biais de son architecture de réseaux. Ils se sont
vite aperçus que chaque constructeur ne pouvait pas lui opposer
sa propre architecture de réseaux : dès lors il fallait
choisir entre :
- Adouber SNA comme architecture universelle et fabriquer des produits
compatibles SNA en offrant à IBM l'avantage d'être seul
à maîtriser les spécifications.
- Ou s'unir pour développer une architecture normalisée
reposant sur la notion de système ouvert. Cette option est
soutenue en France par les grands utilisateurs qui réclament
des normes « ouvertes ».
CII-Honeywell-Bull prend chez les constructeurs la tête du mouvement
pour l'établissement de normes d'interconnexion de systèmes
ouverts, en injectant dans les circuits de la normalisation ses propres
standards DSA et en déléguant des experts pour participer
aux discussions. C'est ainsi que sous son impulsion, les constructeurs
créent en 1977 le Comité Technique 23 "systèmes
ouverts" de l'European Computer Manufacturers Association (ECMA),
une association de constructeurs européens créée
en 1961 pour participer aux travaux de normalisation en informatique.
De son coté lOSI crée le SC 16 dont la première
réunion, en mars 1978, est présidée par Charles
Bachmann, responsable de DSA chez Honeywell Information System.
En 1978 cest aussi la publication du rapport Nora-Minc sur l'informatisation
de la société : la question des autoroutes de linformation
et de « mettre le monde en réseau » devient réellement
à l'ordre du jour. La Commission Européenne encourage
et finance le développement des protocoles OSI, à travers
le programme ESPRIT (European Scientific Programme for Research in
Information Technology), à partir de 1983. Bull participe avec
dautres constructeurs Européens ICL, Siemens, Philips,
Olivetti
à plusieurs projets ESPRIT visant à accélérer
la disponibilité de produits conformes aux normes OSI.
1980 à 1989 : En France, la DGT prend linitiative
sur les applications de téléinformatique
À partir de 1980, la direction générale
des télécommunications développe en France une
voie hexagonale minitel/videotex peu suivie à lextérieur
(le service videotex anglais Prestel ou allemand Bildschirmtext ne
connurent pas le même succès). Innovant, entre autres
par la distribution généralisée des terminaux
à loccasion de la mise en place de lannuaire électronique
et par le système de kiosque qui gère la rémunération
des gérants dapplication, le videotex a souffert dès
le déploiement des ordinateurs personnels de sa dépendance
aux terminaux en mode caractère.
En parallèle la direction générale des télécommunications,
sous limpulsion de Hubert Zimmermann, soutient la normalisation
de lOSI à l'Union Internationale des Télécommunications
et encourage son adoption par les constructeurs à travers le
projet Architel.
Ce nest que vers 1985 quInternet reviendra progressivement
en Europe, essentiellement à travers Unix et sa version
Berkeley 4.2 offerte aux universitaires qui supporte TCP/IP (mais
pas les jeux de caractères autres que lASCII).
Le très coûteux « détour » par lOSI
et par la normalisation internationale na pas eu que des effets
négatifs ; il a permis :
- de sensibiliser un grand nombre dinformaticiens et détudiants
à la question des réseaux;
- détablir un modèle et un vocabulaire permettant
de caractériser de façon conceptuelle les questions
de transport de linformation de bout en bout et de lenseigner;
- de faire des progrès en matière de langage de description
de protocoles et de développement de « souches »
portables sous différents OS. Bull qui avait un catalogue dordinateurs
et de systèmes dexploitation très hétérogène,
a ainsi pu de limiter le nombre de développements.
1989 - 1994 : Aux États-Unis, Internet se structure et simpose
grâce au Web
Le Web proposé en 1989 par Tim Berneers-Lee
se présente comme une application dInternet mais constitue
une véritable révolution dans le partage des données
et le développement de lhypertexte et des navigateurs,
comme Mosaïc en 1993.
En France le choix dune voie franco-française minitel/vidéotex,
et son succès même, deviennent un frein à la pénétration
dInternet et ce nest quà partir de 1991 que
certains entrepreneurs du vidéotex commencent à envisager
dinvestir dans une migration vers Internet les gains conséquents
quils y avaient réalisé (en partie grâce
aux messageries roses
mais pas seulement). En témoigne
par exemple lintéressant entretien de Rafi Haladdjian
avec Valérie Schafer ou la réussite de Xavier Niel.
Internet se structure par la création de de lInternet
Engineering Task Force (IETF) en 1986 pour assurer son développement
technique et de lInternet Society (ISOC) en 1992, pour faire
valoir les points de vue de ses utilisateurs.
À partir de 1993, Al Gore, élu vice-président
des États-Unis et persuadé de limportance stratégique
pour son pays de le contrôler, devient le grand soutien politique
dInternet. LInternet Assigned Numbers Authority (IANA),
dirigée par Jon Postel, sera remplacée en 1998 par lInternet
Corporation for Assigned Names and Numbers (ICANN), société
de droit californien à but non lucratif chargée dadministrer
l'adressage IP et les noms de domaines de premier niveau.
Les États-Unis signifient ainsi au monde quils ont bien
lintention de garder le contrôle dInternet plutôt
que de le déléguer à lUnion internationale
des télécommunications, l'agence des Nations-Unies pour
les technologies de l'information et de la communication.
Après 1994 : La France rentre dans le jeu et Internet est
progressivement envahi par le secteur marchand
Un début dabord mou : en
1996, France Telecom commence à sintéresser à
Internet en lançant les services Wanadoo, tout en maintenant
la priorité sur le minitel, sans le faire évoluer techniquement.
Il sagissait de ne pas tuer prématurément la poule
aux ufs dor. Jusquen 2000, les industriels resteront
sceptique sur le modèle économique dInternet.
Mais le détour par le minitel et le videotex avait préparé
le grand public à entrer dans lère du numérique
si bien que le rythme saccélère, devient exponentiel,
mais mal maîtrisé et tardivement réglementé
ce qui débouche sur « la bulle internet » qui marquera
le début de ce second quart de siècle !
sommaire
Deuxième témoignage
Comment Arpanet est-il devenu Internet ? Quel a été le
rôle du projet Cyclades et celui de Stanford University dans la
création d'Internet ? Ce témoignage est fondé sur
l'expérience et la vision "de lintérieur"
de Gérard Le Lann, qui fut membre de ces deux équipes
au cours des années soixante-dix.
Arpanet 1961-1970, les débuts
Le 29 octobre 1969, le réseau Arpanet donnait
ses premiers signes de vie (transmission de caractères), aboutissement
de travaux financés depuis 1961 par l'Advanced Research Projects
Agency (ARPA), devenue DARPA, Department of Defense Advanced Research
Project Agency, en 1972. Dans les rapports de Rand Corporation par
Paul Baran (classifiés jusquen 1964) et dans la thèse
de Leonard Kleinrock (MIT, 1961), on trouve tous les concepts fondateurs
(« packet switching », « adaptive routing »,
« store-and-forward », etc.). Arpanet fonctionnait grâce
à des Interface Message Processor (IMP), nuds du réseau
chargés de commuter et de router les paquets. Conçus
dès le milieu des années soixante, les IMP étaient
construits par Bolt Beranek & Newman (BBN), spin-off du MIT.
En 1968
Les concepteurs Nord-américains et anglais (Donald Davies,
National Physical Laboratory) avaient figé les choix essentiels
:
- paquets (aussi appelés blocks, fragments, avant dêtre
désignés par datagrams, nom inventé par Harold
Bothner-By, ingénieur norvégien) pour le réseau
dIMP ; tout équipement (« host ») était
connecté à Arpanet sur un IMP, faisant office de nud
dentrée et de sortie réseau,
- messages, pour le niveau transport de bout-en-bout (entre
équipements connectés),
- fragmentation/réassemblage de messages ; un IMP dentrée
fragmente en paquets tout message reçu localement dun
de ses « hosts » ; un IMP de sortie réassemble
tous les paquets qui composent un message avant de livrer ce dernier
à l« host » local destinataire ; léquivalent
dun « circuit virtuel » est établi entre
ces deux IMP ; à lintérieur du réseau dIMP,
les paquets circulent indépendamment les uns des autres, en
empruntant si nécessaire des chemins différents (routage
adaptatif et mode « pure datagram ») ; les paquets arrivent
sur un IMP de sortie dans un ordre quelconque ; des pertes et des
répétitions de paquets, des ruptures de "circuits
virtuels" peuvent se produire,
- transport fiable et ordonné de messages de bout-en-bout
(end-to-end error and flow control) ; cest le rôle du
protocole NCP (Network Control Program), exécuté dans
les "hosts", afin de garantir tout message émis par
E est livré correctement, entièrement, chez le destinataire
D, toute séquence de messages émise par E est livrée
correctement, entièrement, et dans lordre des émissions,
chez D, absence de saturation par E des capacités de réception
de D ; une restriction majeure de NCP, à savoir un seul message
en transit entre E et D, sera éliminée dans TCP, le
successeur de NCP.
Arpanet 1970-1972, les prémices de la
transition vers Internet
Divers réseaux hétérogènes
furent connectés au réseau Arpanet. Par exemple, sur
le territoire Nord-américain, PRNet (Packet Radio Network)premier
réseau radio à commutation de paquets, et les premiers
Ethernet de Xerox Parc (Palo Alto). À linternational,
par liaisons satellitaires à commutation de paquets, le réseau
NPL anglais, via SatNet (implémenté par Robert Kahn
et BBN), et le réseau norvégien (le seul IMP livré
en dehors des USA fut installé à Oslo).
Le but était dexpérimenter les solutions qui allaient
conduire à la transition entre Arpanet et Internet, consistant
en une fédération de réseaux hétérogènes
interconnectés.
Internet 1972-1983, de la naissance au déploiement
Outre les expérimentations d'interconnexion
de réseaux à Arpanet, la transition dArpanet vers
Internet repose sur les travaux de révision et amélioration
des idées fondatrices. uvre collective menée par
les auteurs des fameuses Request for Comments (RfC), des notes International
Network Working Group (INWG), et des publications phares, qui ont
conduit à la définition des protocoles socles dInternet.
Larticle fondateur a pour auteurs Vint Cerf et Robert Kahn :
« A Protocol for Packet Network Intercommunication».
Ce protocole fut ensuite modularisé, pour donner TCP
(le Transmission Control Protocol) et UDP (le User Datagram
Protocol) au niveau "transport", et IP au niveau
"réseau".
Donc, à sa naissance, Internet fournissait deux types de services
:
- La partie TCP, pour le mode connection-oriented (messages
livrés sans pertes et dans lordre démission)
; cest sur ce mode que reposent la plupart des services usuels
(messageries, échanges de fichiers, transactions, etc.) ; le
« sliding window scheme » (la "fenêtre glissante")
décrit dans Cerf-Kahn 1974 est le mécanisme fondamental
pour la régulation et la fiabilisation des échanges
de messages (contrôle de flux, contrôle d'erreur), ainsi
que pour leur vitesse dacheminement : plusieurs messages peuvent
être en transit entre un "host" émetteur et
un "host" récepteur, "gommant" ainsi les
délais de propagation des messages dans les réseaux
physiques traversés.
- La partie IP, pour le mode connectionless, qui ne
garantit aucune fiabilité des échanges, mais qui peut
convenir à certains types dapplications ; celles qui
doivent respecter lordre chronologique des messages échangés
tout en tolérant les pertes intègrent nécessairement
un mécanisme de livraisons dans lordre des émissions
équivalent à celui du « sliding window scheme
» de TCP.
La différence entre "paquet" et sa
finalisation sous le nom "datagram" est très simple
:
Un datagramme est un "paquet universel" dont le format est
compris par tout réseau faisant partie dInternet.
Au lieu dêtre assurés par les IMP dentrée
et de sortie, fragmentation et réassemblage sont "remontés"
au niveau transport, exécutés par les "hosts"
eux-mêmes.
Dès la fin des années soixante-dix,
une compétition sinstaura entre les tenants de TCP/IP
et les défenseurs de solutions alternatives, notamment celles
fondées sur le modèle en couches ISO/OSI et les initiatives
EIN et Euronet de la Communauté économique éuropéenne.
Les solutions alternatives faisant lobjet de longs débats
internationaux (ISO/OSI) et de dissensions franco-britanniques (EIN
vs. Euronet), elles furent prises de vitesse par DARPA qui pesa de
tout son poids pour généraliser ladoption de TCP/IP
et dInternet.
Le 1er janvier 1983 (le "flag day"), tous
les sites Arpanet (et les sites des réseaux "à
la Arpanet") remplacèrent NCP par TCP/IP.
En septembre 1984, la Defense Communications Agency
décida de séparer Milnet dArpanet, pour ses applications
non classifiées. Internet et TCP/IP commençaient leur
belle carrière, ouvrant la voie au Web et au succès
de compagnies innovantes (Cisco par exemple).
Linvention du moteur thermique a permis la naissance
de lindustrie automobile et de ses géants. De la même
manière, linvention dInternet a été
essentielle pour lavènement de lindustrie du numérique
et de ses géants. Par un curieux "retour vers le futur",
certains de ces géants sont dores et déjà
des partenaires de lindustrie des télécommunications,
en tant que propriétaires de câbles optiques sous-marins
(la quasi totalité du trafic Internet intercontinental est
acheminée par de tels câbles). Comme, par exemple, le
câble Marea (Facebook et Microsoft), entre la Virginie et Bilbao
en Espagne, de capacité 160 Terabits/s, et le câble Dunant
(Google), entre la Virginie et Saint-Hilaire de Riez (Vendée),
de capacité 250 Terabits/s.
Les contributions Cyclades à la genèse dInternet
Confié à Louis Pouzin, ce projet démarré
en 1972 fut hébergé par lIRIA. Il fut arrêté
en 1977, faute dutilisation réelle et de transferts visibles
vers lindustrie malgré limplication de la CII (voir
le témoignage de Michel Élie). À la naissance
de Cyclades, les Nord-américains avaient environ dix ans davance,
avec Arpanet. Brièvement, ce réseau était une
copie dArpanet, "adaptée" aux technologies
disponibles en France - des Mitra-15 servaient dIMP. La connexion
à Arpanet consistait en une ligne téléphonique
du réseau PTT commuté de lépoque, sans
aucun rapport avec la commutation de paquets. On dénombre deux
contributions Cyclades, citées dans le papier historique de
1974 (références 8 et 11).
"Mitranet" (ref. 11) est le nom anglais
pour Cigale. Profitant de lexpérience Arpanet, ce sous-réseau
de Cyclades fut demblée basé sur les datagrammes,
comme lexplique Louis Pouzin lui-même, interrogé
par la SIF en 2015 : « Javais déjà pris
loption datagramme, parce que javais étudié
à fond les expériences menées au National Physical
Lab, et je connaissais assez bien le réseau de paquets de lARPA.
Cétait un service à circuit virtuel, mais son
fonctionnement à lintérieur, cétait
du datagramme. ».
L'appellation la plus proche de "datagram" apparaissant
dans un document cosigné Cyclades ("lettergram")
se trouve dans une note INWG ayant Hubert Zimmermann comme coauteur.
Ce dernier n'a jamais tenté d'attirer la "lumière
médiatique". Il nous a quittés trop tôt,
malheureusement, avant de recevoir la reconnaissance officielle qui
lui est due. Tout comme Donald Davies.
Les travaux de simulation sur le mécanisme
"sliding window" (ref. 8) entrepris à luniversité
de Rennes de 1972 à 1973 (lIRISA ne sera créé
quen 1975) portaient sur NCP et sur la première version
du protocole STST de Cyclades.
Régulation, fiabilisation et rapidité des échanges
de messages entre sites distants étaient les questions centrales
pour la transition vers Internet. Les problèmes posés
étaient entièrement nouveaux. En bref : comment garantir
que des processus asynchrones qui communiquent via des canaux à
délais finis mais inconnus, ou infinis, utilisés simultanément
par plusieurs processus, en présence de défaillances,
ont toujours une même vision de leur état global.
Cette classe de problèmes est à présent
connue sous le nom de "consensus distribué", qui
a fait lobjet de travaux fondamentaux depuis le milieu des années
quatre-vingts. Le problème général du "consensus
distribué" est posé pour n processus, n > 1.
Dans le cas de TCP/IP, n = 2. De nombreuses applications contemporaines
(par exemple, bases de données distribuées, clouds,
blockchains, cryptomonnaies) sont fondées sur les algorithmes
qui garantissent "consensus distribué"). Une autre
tendance récente, le "edge computing", a de facto
été amorcée en faisant "sortir" des
réseaux physiques les fonctionnalités qui sont désormais
à la portée des "hosts" contemporains (PC,
tablettes et smartphones).
Il convient de remarquer la rapidité avec laquelle,
en deux ans (1972-1973), les contributions IRIA ont été
intégrées dans les travaux qui ont conduit à
la transition entre Arpanet et Internet.
Une belle occasion manquée
En parallèle à Cyclades, la Direction
générale des télécommunications expérimentait
les circuits virtuels dans le projet Réseau à commutation
de paquets (RCP), dirigé par Rémi Després au
CCETT à Rennes. Mes relations avec Rémi Després
ont toujours été excellentes. Lidée de
coordonner les deux projets aurait certainement été
fructueuse. Mais, comme lexplique Philippe Picard qui pilota
le lancement du réseau Transpac en 1978 (voir son témoignage),
malgré les bonnes intentions de départ, la coopération
entre les deux projets se révéla impossible pour de
multiples raisons.
Pour conclure, Internet est le résultat dune
uvre collective. Il est bon ici de citer Leonard Kleinrock (UCLA),
lun des plus célèbres pionniers, à propos
des "folks" qui ont participé à cette fantastique
aventure : « The Internet would have emerged even if none of
those folks had ever been born! It was in the air and
awaiting the technology to catch up with the vision. »
À lâge de 51 ans, Internet a démontré
(une fois de plus) son extraordinaire robustesse. Confronté
à une hausse de 30% du trafic depuis la première vague
de la pandémie Covid-19, Internet a parfaitement "tenu".
sommaire
Troisième témoignage
Le cinquantenaire du démarrage dArpanet a été
loccasion de sortir des archives danciennes controverses
avec en particulier le débat « datagrammes vs circuit
virtuels ». Après vingt ans à la Direction Générale
des Télécommunications et dix-sept ans chez Bull, l'ingénieur
Philippe Picard raconte l'histoire du passage d'Arpanet à
Internet, depuis son costume de télécommunicant.
En 1970 le réseau mondial de télécommunications
était essentiellement le réseau téléphonique
: les terminaux étaient aussi rudimentaires que possible et
toute lintelligence du fonctionnement du système était
dans le réseau.
Ce que lon appelait téléinformatique
était encore balbutiant. Loffre des opérateurs
de télécom (les Telcos) était rustique et dérivée
du téléphone. Une part importante du marché des
transmissions de données était la connexion de terminaux
à peine plus « intelligents » que les postes téléphoniques
vers des serveurs. Les liaisons inter-ordinateurs balbutiaient et
étaient essentiellement des transferts de fichiers.
La loi de Moore est passée par là
: 50 ans après, la puissance de traitement en périphérie
du réseau (box internet, ordinateurs individuels, smartphones)
est devenue dominante : ce qui paraissait impensable en 1970 est aujourdhui
diffusé à des milliards dexemplaires.
Cest TCP/IP qui, en 1974, a fixé la position du curseur
qui répartit les fonctions entre réseau et systèmes
terminaux pour Internet.
Un point très sensible a été la gestion de la
congestion du réseau (par ce que lon appelle le contrôle
de flux). La vision du monde des « télécommunicants
» était que le réseau devait assurer la qualité
de service. TCP/IP délègue cette responsabilité
aux systèmes dextrémité par des mécanismes
de contrôle de bout en bout. Cette responsabilité suppose
une puissance de traitement suffisante dans ces systèmes terminaux.
Lévolution a été lente
: la connexion à TCP/IP dans les O.S. ne fut intégrée
en natif quavec lUNIX de Berkeley en 1984 et Windows ne
sy est mis quen 1995 !
Le darwinisme technologique a tranché
:
Internet sest développé sur la base des principes
de TCP/IP et qui est devenu progressivement universel y compris pour
la téléphonie
ou le streaming vidéo, au
prix de nombreuses évolutions reprenant avec le MPLS certains
principes des circuits virtuels.
Linternet daujourdhui est devenu
un réseau de télécom presque comme les autres.
Son fonctionnement courant est décentralisé sauf pour
la gestion des adresses et des noms de domaine. Internet est bien
un réseau de réseaux appelés A.S. (Autonomous
Systems).
Le graphe des 65 000 A.S. recensés à ce jour a une structure
commune à tous les réseaux dinfrastructure (transport,
télécom), à savoir une structure hiérarchique
en « petit monde» (notion popularisée par le sociologue
Stanley Milgram qui, avec son expérience de 1947, a découvert
que le nombre de poignées de main séparant deux citoyens
quelconques était de 6).
Les opérateurs dinternet sont classés en 3 niveaux
dA.S. (« tier networks ») et leurs règles
financières et techniques dinterconnexion sont complexes
(transit et interconnexion pair à pair).
Le mécanisme de routage auto-adaptatif
entre les A.S., le protocole BGP ne peut fonctionner que grâce
à la petite distance entre deux A.S. quelconques (moyenne de
15 réseaux traversés). La lutte contre la congestion
dInternet passe par laugmentation continue des capacités
du réseau (artères en fibre optique, puissance des routeurs).
Une histoire française
Dès 1970, les Telcos réfléchissaient
aux futurs réseaux commutés de données, avec
une technologie dérivée de la commutation téléphonique
temporelle naissante. Cest ainsi quen France le CNET initia
en 1970 létude du projet Hermès. Lhypothèse
dune option , la commutation par paquets
(CP), était envisagée.
La connaissance du projet ARPANET commençait
à se diffuser en France. Et la technique de CP, dérivée
de la commutation de messages était déjà utilisée
dans quelques grands réseaux privés spécifiques.
Une mission commune CNET-IRIA dirigée par Alain
Profit (Adjoint au Directeur du CNET, responsable du département
téléinformatique) et Michel Monpetit (Directeur adjoint
de lIRIA et de la délégation à linformatique)
est allée sinformer et nouer des contacts avec léquipe
ARPANET. Quelques ingénieurs français y travaillaient
dont Michel Elie faisait partie.
En 1972 le CNET et lIRIA lancèrent
presque simultanément leurs projets incluant la commutation
de paquets. Un accord de coopération fut signé. Mais
la fausse bonne idée fut de croire que ces deux projets seraient
complémentaires et permettraient une sincère coopération.
LIRIA étant censé sous-traiter au CNET la conception
du réseau de télécom, et pas seulement la fourniture
gratuite de circuits de transmission !
Pour le CNET, le projet RCP était un prototype
destiné à préparer un futur service de transmissions
de données par paquets nommé Transpac. Il sagissait
de rédiger un cahier des charges en vue dune réalisation
industrielle et dacquérir les compétences pour
prendre part aux travaux de normalisation internationale. Lobjectif
du futur service était de pouvoir combiner les avantages de
la commutation par paquets (multiplexage statistique efficace, conversion
de débit) et contrôle de la qualité de service
(taux derreurs, congestion).
Le projet CYCLADES, inspiré dARPANET
sinsérait dans lécosystème du Plan
Calcul. Lobjectif était détudier une architecture
de réseau déchange de données entre ordinateurs
hétérogènes et daccès à des
ressources distantes. Le réseau de transmission par paquets
Cigale en était un sous projet (voir le témoignage de
Gérard Le Lann).
Fin 1973, la DGT annonça son
intention douvrir rapidement un service de commutation par paquets.
Cette annonce était due à plusieurs émulations,
en particulier linitiative dun groupe de grandes entreprises
françaises qui étudiait un réseau partagé
en technologie de paquets
sans oublier la rivalité avec
lIRIA !
Fin 1974, un conseil interministériel
donna un feu vert conditionnel pour le lancement de Transpac :
Transpac devra être exploité par
une entité juridique distincte des PTT et les futurs utilisateurs
devront pouvoir prendre une participation dans la société
; Les accès au réseau devront respecter une norme internationale
; Un accord technique devra être trouvé avec lIRIA.
La suite est connue : la recommandation X25
du CCITT fut approuvée en 1976, la réalisation industrielle
du système fut confiée à la SESA, le service
démarra officiellement fin 1978. Le réseau a vécu
pendant plus de 30 ans avec une vraie réussite commerciale
pour les réseaux dentreprise et permit ultérieurement
le déploiement dapplications de très grande diffusion
comme le Vidéotex (et ses Minitels) ou les terminaux de paiement
électronique.
Lenvironnement international
Fin 1974, une initiative de la Commission
Européenne a contribué à faire évoluer
les esprits des Telcos européens. Il sagissait de promouvoir
linformation technique et scientifique via un réseau.
La plupart des Telcos de la CEPT ont alors pris conscience que seul
un réseau de paquets pourrait répondre à la question.
Cette affaire a eu deux conséquences
:
- La décision de construire un réseau
européen Euronet, exploité par un consortium de PTT
européens. Dans cette affaire, il y eut une rude confrontation
avec la proposition de lIRIA dutiliser le réseau
EIN (dérivée de la technologie Cigale) démarré
en 1975 ;
- Lémergence dune position européenne en
faveur des réseaux de paquets. La recommandation X25 du CCITT
, officialisée en 1976, fut finalement
un compromis technique entre quatre opérateurs très
motivés : PTT français, British Post Office, Bell Canada
et Telenet (réseau de transmission de données américain
créé par Larry Roberts
ancien chef de projet dARPANET).
Rémi Després, chef du projet RCP, a été
un acteur majeur de ce résultat.
Relations avec les industriels de linformatique
Le succès de Transpac était conditionné
par la disponibilité des logiciels de connexion au réseau.
IBM était incontournable compte tenu de sa domination du marché.
Son attitude fut ambigüe : officiellement peu favorable à
la commutation de paquets (non prévue dans SNA), IBM a participé
très tôt à des expériences de connexion
à RCP, grâce à son labo de Nice / la Gaude.
La CII travaillait étroitement avec Cyclades
pour son architecture NNA (voir témoignage de Michel Elie).
Après la fusion CII-HB et labandon des produits de la
CII, la conception de DSA a mieux intégré que SNA lusage
dX25. Les fortes compétences des équipes de réseau
de la CII acquises avec NNA ont été essentielles.
Enfin les industriels de la péri-informatique,
ne disposant pas darchitecture propre, étaient très
motivés pour développer les connexions X25.
Pour conclure, les décisions
de 1975 (Fusion CII-Honeywell-Bull et arrêt dUnidata,
suppression de la délégation informatique) ont retiré
au projet Cyclades son support institutionnel.
Sans ces décisions, quel scénario aurait-on
pu imaginer ?
Interdire aux PTT de lancer Transpac ? Ou au
contraire, admettre (sous réserve de solution juridique) la
concurrence entre deux réseaux ?
Aurait-il été réaliste dexploiter un service
commercial de réseau dérivé de Cyclades :
Avec quelle technologie industrielle capable de faire face à
un trafic réel ?
Avec quels financements et quelle organisation opérationnelle
assurant un vrai service de qualité ?
Comme le prétendent certains, Internet aurait-il pu être
français au lieu dêtre dominé par les Américains
?
Je nai jamais vu la moindre esquisse de tels
scénarios de la part de tous ceux qui portent le deuil de la
Délégation à lInformatique et qui accusent
les auteurs de leurs malheurs : Valéry Giscard dEstaing,
la CGE dAmbroise Roux, les PTT, etc.
Je terminerai par une remarque plus personnelle. La
tentative de concertation entre les PTT et lIRIA, prévue
par les accords interministériels de fin 1974 a bien eu lieu.
Linterlocuteur des PTT désigné par lIRIA
fut Hubert Zimmermann. Limpossibilité dobtenir
un accord technique na pas nui à nos relations ultérieures.
Après laventure Cyclades, Hubert Zimmermann
se consacra au développement et à la promotion de lOSI
(Open Systems Interconnection) : il était président
du SC16 de lISO, ce qui lui a donné une grande visibilité
internationale. Il avait pris des responsabilités au CNET et
nous avons collaboré pour décliner lOSI dans larchitecture
du système dinformation de France Télécom,
(projet Architel). Il eut ensuite jusquà sa disparition
en 2012, plusieurs autres rebonds remarquables : création de
Chorus, poste stratégique chez SUN.
sommaire
|