Nous vivons une véritable « révolution
industrielle », comparable à celles déclenchées
jadis par la machine à vapeur ou l’électricité.
En France, Internet voyage à la vitesse de
la lumière.
D'abord parce que près de 80 % des Français peuvent
en 2023 prétendre à une connexion par la fibre optique
et son signal lumineux, en lieu et place du réseau cuivre et
de l'ADSL moins performant, dix ans seulement après le démarrage
du plan France très haut débit. Mais aussi parce que
l'Etat, les collectivités locales, la Caisse des Dépôts
et les opérateurs ont consacré plus de 36 milliards
d'euros - dont 12,9 milliards d'argent public - pour déployer
à vitesse grand V cette nouvelle infrastructure critique pour
l'avenir du pays. C'est un succès éclair.
Utilisée dans les câbles de transmission, la fibre optique,
composée de minces cheveux de silice pure, remplace le courant
électrique par des ondes lumineuses. Les câbles en fibres
optiques transportent indifféremment l’image, le son et
les données, et permettent ainsi des liaisons à très
haut débit. Les premières études dans le domaine
des télécommunications optiques ont été
menées aux Etats-Unis dans les années 1960.
C’est à la fin des années 1970, que l’administration
des Télécoms décide l’exploration de la
technologie de transmission du signal par l’intermédiaire
de fibres optiques. Après l’installation du premier réseau
câblé en fibre optique, permettant à la fois de
tester la télévision par câble et la visiophonie
développée par les chercheurs du CNET, le gouvernement
décide alors d’équiper la France d’un vaste
réseau câblé de télécommunications
en fibre optique. Dès lors, les Télécoms français
deviennent l’un des principaux câblo-opérateurs.
Mais, l’installation des câbles en fibre optique demeure
très onéreuse, et est donc abandonnée au profit
d’une solution mixte (câbles coaxiaux et câbles en
fibre optique).
La fibre optique étant particulièrement bien adaptée
aux liaisons à grand débit, elle sera utilisée
pour les câbles sous-marins.
Le premier câble sous-marin en fibre optique reliant la Corse
au continent est posé en 1987. En 1988, c’est le premier
câble sous-marin transatlantique à fibre optique, le
TAT 8, qui est mis en service.
Cette innovation technologique va bouleverser le monde des télécommunications,
qui voit alors la capacité de ses réseaux s’accroître
considérablement. France Télécom va devoir apprendre
à gérer le haut débit et la multitude des informations
qu’il faut apprendre à utiliser et à valoriser,
notamment au sein du Réseau Numérique à Intégration
de Services, le RNIS, ouvert en 1988.
A la fin des années 1970, la DGT entreprend de front deux grands
projets : d’une part le projet Télématique ; d’autre
part, la DGT décide d’élargir le champ de ses activités
et cherche à mettre en place son réseau du futur : le
réseau numérique à large bande. La France accuse
un retard en matière de télédistribution, le
CNET dispose de différents produits qui semblent alors au point
et adaptés à l’audiovisuel, la DGT cherche de nouveaux
grands projets pour se donner un nouveau souffle et élargir
son champs d’activité : ce sera une autre occasion de
mettre en place un plan de rattrapage, le Plan Câble.
Si le Plan Câble a vu le jour en 1982, des expériences
de télévision par câble avaient déjà
débutées en 1973 dans sept villes, mais se sont arrêtées
en 1975 du fait d’une inquiétude gouvernementale quant
à une communication locale incontrôlée. A Biarritz,
il fut possible de justifier l’expérience par des zones
d’ombres à la réception hertzienne : ce cas fit
école. La ville de Metz sera l’une des villes pionnières
dans la mise en place un réseau câblé à
la fin des années 1970 et refusera de se résoudre à
arrêter l’expérience, malgré quelques problèmes
juridiques. Elle obtiendra finalement une autorisation dérogatoire
d’exploitation, mais ne cherchera pas à mettre en place
de chaîne de télévision locale.
A partir du milieu des années 1970, la DGT va chercher à
équiper le pays en artères de communication à
haut débit, elle va former deux pôles : un autour de
Saint-Gobain Thomson et un autour de la CGE. Une Direction de la Communication
Optique (DCO) va fonctionner dans ce but à la Direction des
Affaires Industrielles et Internationales (DAII) de 1979 à
1981.
C’est une équipe du CNET qui sera à la tête
de cet organisme.
Le gouvernement adoptera, en novembre 1982, le plan de développement
des réseaux câblés de vidéocommunication,
plus couramment appelé le « Plan Câble ».
Ce plan était soutenu par un engagement financier de l’Etat
de plus de cinquante milliards de francs sur quinze ans et basé
sur des options technologiques d’avant-garde (fibre optique,
réseau en étoile). Il avait pour objectif l’édification
progressive de réseaux numériques multiservices permettant,
à terme, d’envisager l’offre d’une vaste gamme
de services et de programmes. Répondant à un triple
enjeu (industriel, culturel et social), ce plan portait la marque
des grands projets, dans la ligne du volontarisme à la française.
Il revenait aux collectivités locales, en conformité
avec la décentralisation, l’initiative de la décision
de câblage. Ce fut la première fois que les télécoms
et les collectivités territoriales étaient partenaires
dans un grand projet d’aménagement du territoire ce qui
eu un impact positif sur le développement de réseaux
de télécommunications sur le territoire français
: le niveau local était mieux appréhendé grâce
à l’action des collectivités territoriales locales
(les petites communes, les districts urbains, les départements),
qui connaissent mieux l’espace géographique local et ses
spécificités, et exercent leurs influences (aménagement,
finances, etc.) directement au niveau local. Ceci a permis une meilleure
organisation et une meilleure planification dans la mise en place
des réseaux de télécommunications par câbles
à travers tout l’espace géographique français,
en prenant en compte les aspects topographiques (relief), les aspects
sociaux (la notion de « service universel »), les aspects
aménagement du territoire (optimisation d’un réseau),
les
aspects politiques, les aspects financiers (coût de revient
du réseau, rentabilité), etc.
Ce plan de câblage en fibres optiques a été créé
afin de disposer d’une alternative aux télécommunications
par satellites commerciaux, de permettre le développement de
chaînes télévisées de proximité,
en un mot, de rattraper le retard français en matière
de télécommunications et téléservices
par câbles.
L’initiateur du Plan Câble fut Albert Glowinski, qui avait
dirigé un groupe de travail sur les usages des Nouvelles Technologies
de l’Information et de la Communication , à la demande
du directeur général des télécommunications,
Gérard Théry. Dès 1976, ce groupe prévoyait
que l’avenir des télécommunications était
dans l’image et les réseaux. L’idée mise en
avant fut celle de la profusion d’images, de l’interactivité
et de la défense de l’identité nationale60 . Il
s’agira de développer un réseau large bande en
fibres optiques capable de véhiculer indifféremment
à très haut débit la voix, le son, l’image
et les données informatiques sur un mode interactif.
L’arrivée de la Gauche au pouvoir en 1981 va propulser
bon nombre des membres de cette commission à des postes décisionnels,
et la volonté de câblage de la France en fibres optiques
va ainsi devenir une réalité sur le terrain. Selon Jean-Paul
Simon , l’objectif du Plan Câble est multiple. On notera
notamment la volonté de donner aux collectivités locales
la maîtrise de la mise en œuvre du câble au niveau
local, ainsi que le rapprochement de la DGT du domaine d’activité
de Télé Diffusion de France, TDF (quelques années
plus tard TDF deviendra filiale de France Télécom, avant
de devenir une société indépendante en 2004).
Le Plan Câble va alors connaître un rebondissement qui
sera le premier d’une longue série noire : le principal
opposant à Gérard Théry (le DG des Télécoms)
lui succède à la tête de la DGT, suite à
l’arrivée de la Gauche au pouvoir, et de nouvelles décisions
au niveau de l’industrie des télécoms vont être
prises. Une nouvelle cellule sera mise en place : la Délégation
Aux Vidéocommunications (DAV). On va alors décider d’abandonner
la fibre optique, et de remettre en question le principe des avances
remboursables.
En effet, les résultats de l’appel d’offre lancé
auprès des industriels pour la fourniture de réseaux
en fibres optiques vont poser un grave problème de faisabilité
technique, entraînant un coût de raccordement infiniment
plus élevé et une impossibilité de partage financier
avec les communes. De plus, la fibre optique et l’architecture
prévue (développée par le CNET) ne sont pas encore
au point. Il serait en effet impossible de réaliser la solution
technique envisagée, c'est-à-dire la 1G (première
génération), celle-ci n’étant pas prête
technologiquement. On, va donc choisir une solution mixte (dénommée
0G, génération 0) alliant la fibre optique pour les
grands axes et le coaxial pour la distribution aux immeubles.
Une autre difficulté résidait dans les autorisations
administratives multiples nécessaires à la construction
et la gestion de tels réseaux. Il fallait pour la commune demander
une autorisation de construction à la DGT, demander une autorisation
à la haute autorité de l’audiovisuel, signer une
convention entre la DGT et la Société Locale d’Exploitation
du Câble (SLEC), cette SLEC devant à son tour négocier
avec TDF (qui avait à l’époque le monopole de la
télédistribution). Il y avait là de quoi décourager
plus d’un élu local, et créer plus d’un blocage
avant l’autorisation finale.
A partir de 1984, on va observer de nombreux et importants conflits
au sein même de la DGT à propos du Plan Câble.
La situation générale est très critique : la
fibre optique n’est pas exploitable, les collectivités
locales se scandalisent des lenteurs de la DGT, et le Plan Câble
se vide petit à petit de sa substance.
Le Câble devra également affronter des outsiders créés
par le gouvernement, qui correspondent au lancement des nouvelles
chaînes hertziennes : Canal Plus en 1984, puis la Cinq et la
Six en 1985. Le gouvernement va alors mettre en place une instance
de régulation : la mission câble. Celle-ci va faire pression
afin d’assouplir les décrets en préparation sur
les exploitants des SLEC (les sociétés d’économie
mixte chargées d’exploiter commercialement les réseaux).
De part l’échec du partenariat entre la DGT et les collectivités
locales, ces dernières, conscientes du risque financier qu’elles
encouraient, ont limités, en totale contradiction avec l’esprit
premier du plan Câble, leurs engagement financier dans les SLEC.
Le pire des scénarios possible pour la DGT va alors se mettre
en place, puisque les SLEC vont, pour une grande partie d’entre
elles, concéder l’exploitation de leurs réseaux
à des sociétés qui se retrouvent bientôt
en situation d’oligopole : la Générale des eaux,
la Lyonnaise des Eaux, et la Caisse des Dépôts et Consignations.
Partenaires privilégiées des collectivités locales,
possédant une structure financière suffisante, habituées
à asseoir leur rentabilité sur le long terme et désireuses
d’investir dans la communications, ces sociétés
ont alors occupé un marché que peu d’entreprises
auraient été en mesure de prendre.
En 1988, la droite revient au pouvoir et Gérard Longuet est
nommé à la tête du ministère des Postes
et des Télécommunications. La loi sur la liberté
de communication de septembre 1986 va alors retirer à l’administration
française des télécommunications le monopole
qu’elle détenait en matière de construction de
réseaux câblés et va limiter les usages du câble
à la seule télédistribution. Cette loi n’a
fait en réalité que prendre acte du quasi abandon du
Plan Câble. Fin 1986, Les télécoms n’avaient
signés que 52 conventions, 200 collectivités locales
étaient concernées, pour un potentiel d’environ
6 millions de prises. L’investisseur public se trouve ainsi dans
une situation inconfortable avec sur les bras un projet qui n’a
plus de
légitimité politique et qui s’avère, en
tant qu’opération industrielle, financièrement
désastreux.
D’autre part, le système fibre optique permettait finalement
moins de possibilités techniques que l’ancien système,
le coaxial.
De 1986 à 1988, la DGT va donc exécuter les obligations
contractées lors de la signature des conventions. L’investissement
n’est pas rentable, mais il a le mérite de va pas mettre
l’activité entre les mains d’opérateurs étrangers
qui auraient vu là une infrastructure permettant à terme
une remise en cause du monopole sur la téléphonie62
. Durant cette période, le gouvernement.
La fin du monopole de France Télécom au premier janvier
1998, ainsi que les multiples expériences de téléphonie
sur le câble menées au milieu des années 1990,
nous montrent que ce scénario était bien de l’ordre
du possible. lancera un nouveau pavé dans la marre en suscitant
un nouveau concurrent au câble : le satellite TDF 1 sera lancé
en 1987.
Il sera suivi du projet de télévision à haute
définition (TVHD). Cette logique semble pour le moins contradictoire,
et pour comprendre les méandres décisionnels du Plan
Câble, il convient de rappeler les intérêts principaux
en présence :
• pour le CNET, il s’agit là de reproduire le modèle
du plan de rattrapage téléphonique des années
1970. Des enjeux en terme de recherche et de développement
industriel sous tendent à nouveau ce projet.
• Pour la DGT, il s’agit de pouvoir s’offrir un marché
nouveau, jusque là chasse gardée de TDF, et ce en construisant
à moindre frais un réseau qui sera nécessaire
à de multiples usages d’ici la fin du siècle. Un
autre avantage du câble était de canaliser les bénéfices
vers de nouveaux investissements, et donc de ne pas voir ceux-ci reversés
au budget général de l’Etat. Cette stratégie
comportait pourtant un risque puisque l’audiovisuel n’est
pas le métier de la DGT.
• Pour les collectivités locales, il s’agissait de
pouvoir s’octroyer un nouveau domaine de compétence, dont
l’image futuriste ne pouvait être que bénéfique
à l’équipe en place.
Ce sont ces différents intervenants, développant des
stratégies très différentes voire opposées,
qui vont mener à la paralysie du système.
En 1982, les prévisions avaient été très
positives : on attendait 1,5 millions de foyers câblés
avant fin 1987. Dans la réalité, on comptait en septembre
1988 environ 35 000 abonnés pour 670 000 prises installées,
soit un taux de pénétration inférieur à
6 %. Le réseau le plus important est alors « hors Plan
Câble » : il s’agit de celui de la ville de Metz,
géré durant cette période par la caisse des Dépôts
et Consignations. De 1988 à 1990, la Gauche va tenter de remettre
à flot le Plan Câble, mais en vain.
On retiendra surtout du Plan Câble une mauvaise coordination
entre des objectifs centraux lointains, et l’initiative isolée
des collectivités locales assumant seules les coûts.
Le Plan Câble abandonné, il laissera de nombreuses collectivités
endettées. On imagine alors facilement l’origine de la
réticence de nombreuses communes françaises dans les
années 1995-2000 pour se lancer dans l’aventure de la
mise en place du réseau Internet, et ceci d’autant plus
qu’on y retrouvait la volonté politique à terme
de câblage du territoire en fibres optiques.
Les premières années du câble furent celles de
la négociation et des retournements. Elles ne mettaient en
scène que des acteurs institutionnels (Ministère et
DGT, collectivités locales, opérateurs). Le succès
aurait peut-être été au rendez-vous si l’on
avait pris en compte le comportement d’un acteur jusqu’ici
presque oublié, alors qu’il joue un rôle essentiel
dans l’utilisation de tout réseau de télécommunication,
c'est-à-dire l’individu, le client.
Evolution de la croissance des réseaux câblés
dans le monde depuis 10 ans (1990-2000) :
La câblodistribution forme, avec les mobiles et le fixe, la
troisième catégorie de réseau de télécommunications,
et peut aujourd’hui prétendre concurrencer les réseaux
téléphoniques. La répartition de ce type de réseaux
à travers le monde est très variée, certains
pays ayant, pour des raisons historiques économiques ou politiques,
favorisé le développement de la câblodistribution
(USA, Benelux, etc.), alors que d’autres, pour des raisons inverses,
ne disposent malheureusement encore en l’an 2000 d’aucun
réseau câblé : c’est le cas de l’Italie.
Dans les années 1990, la gestion du réseau messin va
revenir à TDF.
Les pays de grande superficie, comme les USA et la Chine, se situent
en tête des pays disposant des plus grands réseaux câblés.
Réseau
fibre en 1990
Mise en place du réseau Internet dans les années 1990
Le développement des communications semble être l’un
des points caractéristiques de la mondialisation de l’économie
qui marquera les années 1990. Tant du point de vue économique
que politique, l’information apparaît comme une notion
à part dans le monde des échanges commerciaux, et l’arrivée
de nouvelles technologies de réseaux donne lieu à une
redistribution des différents rôles d’acteurs de
la communication. Le premier volet important de la mise en place des
Nouvelles Technologies de l’Information et de la Communication
est la mise en place d’une nouvelle réglementation des
télécommunications mieux adaptée, le second est
la mesure de l’intervention de l’Etat.
Origines des NTIC
Le projet d’autoroutes de l’information trouve son origine
aux Etats-Unis. L’idée fut lancée durant la campagne
présidentielle de Clinton, et le principal instigateur en sera
Al Gore, vice président américain . Ces politiques devaient
avoir les mêmes fonctions symboliques que le plan de la construction
des autoroutes des années 1930 dans le cadre du New Deal. En
effet, il s’agit là d’augmenter la performance du
pays, tout en donnant accès à ces nouvelles technologies
aux régions rurales, aux milieux défavorisés
et aux écoles. Les usages qui sont mis en avant correspondent
également à l’argumentation de mise en place des
grands programmes d’innovation technologique : télémédecine
(possibilité de diagnostique à
distance), éducation, lutte contre le chômage, etc.
Le plan présenté par l’administration américaine
pour promouvoir le National Information Infrastructure comprend neufs
points :
1. promouvoir l’implication du secteur privé pour un investissement
plus actif.
2. étendre le concept de « service universel »66
pour s’assurer que les sources d’information soient accessibles
pour tous et à des prix raisonnables.
3. agir comme catalyseur pour promouvoir la recherche, l’innovation
technologique et les nouvelles applications.
4. promouvoir un fonctionnement fluide, interactif et répondant
aux besoins des usagers (standardisation et interopérabilité).
5. assurer la sécurité de l’information et la sécurité
des réseaux.
6. améliorer la gestion du spectre des fréquences radio.
7. promouvoir la protection de la propriété intellectuelle.
8. coordonner les différentes administrations concernées
et se concerter avec les pays tiers.
9. fournir l’accès à l’information administrative
et améliorer les procédures d’achat public .
Il n’est en revanche fait aucune mention explicite de la façon
dont ces objectifs vont être traités. Le point central
du programme est de relancer la croissance par de nouvelles infrastructures
sommaire Une fibre optique est un fil dont l’âme,
très fine, en verre ou en plastique, a la propriété
de conduire la lumière et sert pour la fibroscopie, l'éclairage
ou la transmission de données numériques. Elle offre
un débit d'information nettement supérieur à
celui des câbles coaxiaux et peut servir de support à
un réseau « large bande » par lequel transitent
aussi bien la télévision, le téléphone,
la visioconférence ou les données informatiques.
Le principe de la fibre optique date du début du XXe siècle
mais ce n'est qu'en 1970 qu'est développée une fibre
utilisable pour les télécommunications, dans les laboratoires
de l'entreprise américaine Corning Glass Works (actuelle Corning
Incorporated).
Lorsqu'un rayon lumineux entre dans une fibre optique à l'une
de ses extrémités avec un angle adéquat, il subit
de multiples réflexions totales internes. Ce rayon se propage
alors jusqu'à l'autre extrémité de la fibre optique
sans perte, en empruntant un parcours en zigzag. La propagation de
la lumière dans la fibre peut se faire avec très peu
de pertes même lorsque la fibre est courbée.
Entourée d'une gaine protectrice, la fibre optique peut être
utilisée pour conduire de la lumière entre deux lieux
distants de plusieurs centaines, voire milliers, de kilomètres.
Le signal lumineux codé par une variation d'intensité
est capable de transmettre une grande quantité d'information.
En permettant les communications à très longue distance
et à des débits jusqu'alors impossibles, les fibres
optiques ont constitué l'un des éléments clés
de la révolution des télécommunications. Ses
propriétés sont également exploitées dans
le domaine des capteurs (température, pression, etc.), dans
l'imagerie et dans l'éclairage.
La possibilité de transporter de la lumière le long
de fines fibres de verre fut exploitée au cours de la première
moitié du XXe siècle. En 1927, Baird et Hansell tentèrent
de mettre au point un dispositif d'images de télévision
à l'aide de fibres. Hansell put faire breveter son invention,
mais elle ne fut jamais vraiment utilisée. Quelques années
plus tard, en 1930, Heinrich Lamm réussit à transmettre
l'image d'un filament de lampe électrique grâce à
un assemblage rudimentaire de fibres de quartz. Cependant, il était
encore difficile à cette époque de concevoir que ces
fibres de verre puissent trouver une application.
La première application fructueuse de la fibre
optique eut lieu au début des années 1950, lorsque le
fibroscope flexible fut inventé par Abraham van Heel et Harold
Hopkins. Cet appareil permettait la transmission d'une image le long
de fibres en verre. Il fut particulièrement utilisé
en endoscopie, pour observer l'intérieur du corps humain, et
pour inspecter des soudures dans des réacteurs d'avion. Malheureusement,
la transmission ne pouvait pas être faite sur une grande distance
étant donné la piètre qualité des fibres
utilisées. En 1957, le fibroscope (endoscope flexible médical)
est inventé par Basil Hirschowitz aux États-Unis.
Les télécommunications par fibre optique
restèrent impossibles jusqu'à l'invention du laser en
1960.
Le laser offrit en effet la possibilité de transmettre un signal
sur une grande distance avec une perte et une dispersion spectrale
très faibles.
Dans sa publication de 1964, Charles Kao, des Standard Telecommunications
Laboratories, décrivit un système de communication à
longue distance et à faible perte en mettant à profit
l'utilisation conjointe du laser et de la fibre optique.
Peu après, soit en 1966, il démontra expérimentalement,
avec la collaboration de Georges Hockman, qu'il était possible
de transporter de l'information sur une grande distance sous forme
de lumière grâce à la fibre optique.
Cette expérience est souvent considérée comme
la première transmission de données par fibre optique.
Cependant, les pertes dans cette fibre optique étaient telles
que le signal disparaissait au bout de quelques centimètres,
non par perte de lumière, mais parce que les différents
chemins de réflexion du signal contre les parois finissaient
par en faire perdre la phase. Cela la rendait encore peu avantageuse
par rapport au fil de cuivre traditionnel. Les pertes de phase entraînées
par l'usage d'une fibre de verre homogène constituaient le
principal obstacle à l'utilisation courante de la fibre optique.
En France, la première thèse de doctorat
sur le sujet fut soutenue en janvier 1969 par Luigi d'Auria à
l'université de Toulouse. En 1970, trois scientifiques de la compagnie Corning Glass
Works de New York, Robert Maurer, Peter Schultz et Donald Keck, produisirent
la première fibre optique avec des pertes de phase suffisamment
faibles pour être utilisée dans les réseaux de
télécommunications (20 décibels par kilomètre).
Leur fibre optique était en mesure de transporter 65
000 fois plus d'information qu'un simple câble de cuivre,
ce qui correspondait au rapport des longueurs d'onde utilisées.
Le premier système de communication téléphonique
optique fut installé au centre-ville de Chicago en 1977.
Genèse et croissance des NTIC en Europe
En Europe, deux étapes contradictoires marquent la mise en
place des politiques concernant les réseaux de l’information
: le Livre Blanc et le Rapport Bangemann.
Le Livre Blanc « Croissance, compétitivité, emploi
» présenté en décembre 1993 au Conseil
des chefs d’Etats et de gouvernement, en réaction au programme
américain, fit entrer l’Union Européenne à
une cadence accélérée dans la course vers le
développement des autoroutes de l’information en Europe.
Ce document fut le fruit d’un intense débat entre les
services de la Commission Européenne, les services les plus
concernés par les télécommunications défendant
pour leur part une approche très similaire à celles
des américains (avec comme premier objectif l’infrastructure),
alors que les services plus généraux étaient
plus favorables à la notion de société de l’information.
L’enjeux est évidemment de ne pas se faire dépasser
par les américains, et l’on peut ainsi lire dans le Livre
Blanc : « Les Etats-Unis ont pris de l’avance : 200 de
leurs plus grandes entreprises utilisent déjà les autoroutes
de l’information. Au cœur du modèle de développement
du XXI ème siècle, c’est un enjeu crucial pour
la suivie ou le déclin de l’Europe. » On peut évidement
se demander si l’Europe ne réagirait pas par « mimétisme
» au plan américain, et l’on ne peut pas exclure
totalement cette hypothèse. Il semble pourtant plus probable
que l’on trouve là le résultat d’un effort
de concertation plus poussé au niveau international.
Le plan d’action proposé par ce Livre Blanc pour les autoroutes
de l’information, le fameux réseau Internet, comporte
5 domaines prioritaires :
1. la diffusion de l’exploitation des technologies de l’information
(lancement de projets européens d’applications et de services
d’intérêts public ; télétravail).
2. la dotation de l’Europe en services de base transeuropéen
(développer les réseaux, assurer leur interopérabilité,
renforcer la coordination entre les politiques de télécommunication
et les interventions des fonds structurels).
3. poursuivre la mise en place d’un cadre réglementaire
adapté (supprimer les distorsions de concurrence , fourniture
d’un service universel, accélérer le processus
de normalisation, étendre le droit de la propriété
intellectuelle).
4. développer la formation aux nouvelles technologies (généralisation
des NTIC dans l’enseignement et la formation, formation adaptée
d’ingénieurs et de chercheurs).
5. renforcer les performances technologiques et industrielles (renforcer
l’effort de recherche et développement, valoriser les
applications industrielles, négociations internationales pour
un marché équitable).
L’investissement massif dans le secteur des télécommunications
(et donc dans le réseau Internet) reste, dans ce Livre Blanc,
un facteur important. Un rapport va pourtant modifier ces priorités,
et c’est sous l’impulsion de Martin Bangemann qu’une
commission d’industriels va remodeler ces politiques. En effet,
afin de ne pas apparaître comme s’engageant dans une politique
d’intervention industrielle de grande ampleur, le Conseil Européen
a demandé « qu’un rapport soit établi par
un groupe de personnalités pleinement représentatives
de toutes les industries concernées dans l’Union, des
utilisateurs et des consommateurs » . L’influence des milieux
de l’Industrie (informatique surtout) a été moins
marquante qu’aux Etats-Unis dans cette phase de mise en place
des programmes, et il s’agissait de démontrer à
travers cette demande que les politiques proposées étaient
destinées à « compléter et stimuler le
fonctionnement du marché » et non à le créer
de toutes pièces. Ce groupe de personnalités a établi
un rapport intitulé « L’Europe et la société
de l’information planétaire ». Concernant le financement
européen, on y lit que « les investissements publics
seront nécessaires, non pas sous forme d’un accroissement
des dépenses publiques d’une manière générale,
mais plutôt sous la forme d’une redistribution des dépenses
actuelles. Une part des investissements que devront consentir les
pouvoirs publics, en vue d’application en ce domaine, se traduira
par des gains de productivité et par une amélioration
de la qualité des services qui devraient permettre de réaliser
des économies ».
Il faut savoir que dans ce regroupement de personnalités, les
représentants des opérateurs de télécommunications
se trouvent en petite minorité. Ce sera donc l’occasion
pour les milieux de l’industrie de pousser à son maximum
en direction de la déréglementation du secteur des télécommunications.
Le message essentiel du rapport est très clair : il faut rompre
avec le passé « en ouvrant à la concurrence les
infrastructures et les services », « en adaptant les tarifs
de toute urgence ».
La volonté première du Livre Blanc de construction «
d’infrastructures structurantes » de l’espace géographique,
d’aménagement du territoire, sera diminuée au moins
en partie, et le point d’orgue des politiques de mises en place
des autoroutes de l’information vont se cristalliser sur la déréglementation
totale du secteur des télécommunications. L’Etat
devra avoir de moins en moins de pouvoir direct sur les opérateurs
nationaux jusqu’à leur complète privatisation,
et une instance européenne de régulation se mettra en
place. Selon le Rapport Bangemann, l’objectif principal est une
déréglementation rapide et profonde du secteur, le soutien
de l’Etat devant être fortement diminué, et limité
uniquement à une fonction de
régulation et de stimulation des marchés.
Le Conseil de l’Europe accueillera très positivement ce
rapport. Selon les conclusions du Conseil de l’Europe, «
il revient en premier lieu au secteur privé de répondre
à ce défi en évaluant les enjeux et en prenant
les initiatives nécessaires, notamment en matière de
financement ». D’autre part, « la Communauté
et les Etats membres ont cependant un rôle important à
jouer pour accompagner cette évolution en donnant une impulsion
politique, en créant un cadre réglementaire clair et
stable […] ainsi qu’en donnant l’exemple dans les domaines
qui relèvent de leur compétence » .
En juillet 1994, la Commission élabore son Plan d’action
: le développement des NTIC sera essentiellement basé
sur un financement privé, la concurrence sera encouragée
tout en préservant un service universel ainsi que l’interconnexion
des réseaux, et le démarrage de cette mise en place
se fera de façon pragmatique par des projets pilotes et des
expérimentations. Le 17 novembre 1994, le Conseil des ministres
européens des Télécommunications adopte une résolution
fixant au premier janvier 1998 le principe de libéralisation
intégrale des infrastructures de télécommunications.
Autant au niveau européen que national, c’est l’aspect
déréglementation du secteur des télécommunications
et de l’audiovisuel qui devient le point central de ces politiques.
La mise en place d’une infrastructure de communication à
large bande reste certes l’épine dorsale de la société
de l’information, mais ce sera au secteur privé de la
mettre en place en temps voulu.
Ces décisions politiques de la Communauté Européenne
vont fortement marquer les politiques en matière de télécommunication
des différents pays membres de la Communauté, et les
développements qui verront le jour en France, en Allemagne
et en Grande Bretagne en seront directement issus ; leurs programmes
de développement au niveau national du réseau Internet
et des NTIC seront très similaires.
Genèse et croissance du réseau Internet et des NTIC
en France
La législation française sur ce thème se fait
elle aussi en deux temps. Elle suit le mouvement international et
le gouvernement va définir sa politique de mise en place des
autoroutes de l’information dans ce cadre de mise en place européenne,
de concurrence et de déréglementation. La Commission
Européenne aura eu un impact très important sur l’orientation
des politiques françaises en la matière, et la France
inscrira ce thème dès le début de l’année
1994 dans son programme politique.
C’est par un rapport officiel80 commandé en février
1994 à Gérard Théry (ancien Directeur Général
des Télécommunications) par Edouard Balladur qu’avait
réellement débuté la mise en place des politiques
françaises sur le thème des « autoroutes de l’information
» . Il sera demandé à Gérard Théry
de préciser les enjeux de la Société de l’Information,
avec modalités et calendrier. Les propositions de ce rapport,
remis en septembre 1994, peuvent être résumées
ainsi :
(1) Raccorder à l’horizon 2015 tous les foyers et les
entreprises de France au réseau Internet ;
(2) Assurer l’accès équitable de tous les citoyens
à Internet, afin d’éviter les cassures du type
ville-campagne, riches-pauvres, etc.
Avec comme propositions :
- Le développement massif des liaisons par fibre optique avec,
comme premier objectif, l’équipement de 4 à 5 millions
de foyers et entreprises dans un délai raisonnable mais aussi
court que possible ;
- « L’élaboration de plates-formes expérimentales
et éventuellement la négociation de leur mise en œuvre
avec les différents opérateurs. L’exploitation
et la diffusion des résultats et des enseignements qu’elles
fourniront » ;
- La généralisation de l’ATM . Le projet de Gérard
Théry était donc d’équiper le pays d’un
réseau universel à large bande, le réseau Internet,
en utilisant des liaisons sous forme de fibres optiques. Ce serait
là une façon de relancer le Plan Câble, tout en
mettant en place une nouvelle infrastructure.
Le rapport Théry a été écrit dans l’état
d’esprit du Livre Blanc du Conseil de l’Europe au printemps
1994. C’était sans compter sur le rapport Bangemann et
ses incidences. La recommandation principale de Théry ne sera
pas suivie (relance du Plan Câble).
Le 27 octobre 1994 sera la date d’un Comité interministériel
des « autoroutes et services de l’information »,
présidé par Edouard Balladur. Le gouvernement va décider
de lancer sous un mois un appel à propositions pour dégager
dans les 4 mois suivant une stratégie pour les premières
propositions. Cet appel à proposition concernera « tous
les acteurs intéressés, publics ou privés, France
Télécom devant jouer un rôle moteur mais non exclusif
dans ces expérimentations ». Le gouvernement insistera
sur la nécessité de développer une industrie
de services et de programmes performante dont les enjeux ont été
mis en évidence dans un rapport sur les téléservices
de Thierry Breton . Ce premier Comité sera le réel coup
d’envoi des autoroutes de l’information et la France définit
ainsi sa politique de façon pleine et entière dans le
cadre des directives européennes. Le 23 novembre 1994, l’appel
d’offre pour susciter des plates-formes d’expérimentation
dans le domaine des technologies de l’Information et de
la Communication est lancé. Ses objectifs reprendront les idées
émises dans le rapport Théry, concernant l’usage
de nouveaux services et la structure des distributeurs .
Le 16 octobre 1995, suite au troisième Comité interministériel
des autoroutes de l’information, 170 projets seront labellisés.
Fin 1995, le gouvernement lancera de nouveaux appels à proposition
similaires à ceux de novembre 1994. Ce sera finalement le budget
« développement-recherche » des différentes
plateformes d’expérimentation qui sera subventionné,
à hauteur de 30 % et le « soutien financier aux projets
innovants » sera porté de 50 millions de francs en 1995
à 270 millions de francs en 1996.
Les législations se sont donc concentrées sur le second
objectif du Rapport Théry (le service télématique),
délaissant la question de la construction d’un réseau
national en fibre optique.
La loi du 4 février 1995 d’orientation pour l’aménagement
du territoire prévoit d’atteindre une couverture du territoire
national en réseaux à large bande pour 2015. Depuis
lors la libéralisation a été étendue aux
infrastructures, et il n’est plus question pour l’Etat d’investir
dans ce réseau national, ce sont les opérateurs privés
qui prendront le relais pour la construction du réseau Internet.
Une législation adaptée va voir le jour : « la
Loi relative aux expérimentations dans le domaine des technologies
de l’information » du 26 mars 1996. Elle reprendra l’essentiel
des dispositifs déjà en place, mais permettra de clarifier
le flou juridique en place jusqu’à cette date. Le 10 mai,
l’Assemblée Nationale, puis le Sénat le 7 juin
1996 ont
adopté la Loi de Réglementation des Télécommunications
(LRT) qui fixa les règles du jeux concurrentiel du 1er janvier
1998. Elle prévoyait, entre autres dispositions, la création
de l’Autorité de Régulation des Télécommunications
(ART), qui sera en charge de l’application de la réglementation.
Cette loi était capitale car en toile de fond apparurent de
nouveaux marchés : les services en ligne du type Internet (3,1
milliard de francs de chiffre d’affaires en France en l’an
2000 selon la société d’études américaine
IDC) ; la concurrence due aux appels longues distances via Internet
(la société Omnicom en Alsace par exemple) ; ou la téléphonie
sur le câble et les liaisons satellites (l’Eurotéléport
de Roubaix par exemple). Un autre enjeu essentiel de ces nouveaux
marchés est celui de la télévision interactive.
Dès le vote de la loi, le marché français a été
le théâtre de grandes manœuvres, en particulier
de regroupements d’envergure internationale entre acteurs du
secteur des télécommunications et de l’audiovisuel.
Ces derniers interviennent de manière notable dans le cadre
de la mise en place du marché des nouvelles technologies de
l’information : la numérisation avancée du son
et des images met en effet les secteurs de l’audiovisuel et des
télécommunications en concurrence directe. La déréglementation
de la concurrence et le désengagement de l’Etat s’étend
donc au-delà du domaine des télécommunications,
au domaine beaucoup plus vaste de l’audiovisuel, et engendre
une réforme totale de ces secteurs. L’élément
essentiel pour que puisse intervenir une telle révolution sera
la privatisation de France Télécom, avec la volonté
gouvernementale de l’entrée en bourse d’une part
importante de son capital. Dès lors, une redistribution des
cartes dans ces secteurs pourra commencer.
En 1997, le gouvernement Jospin reprend à son compte les grands
axes énoncés sous le gouvernement Balladur, et plaide
pour la continuation et le renforcement des politiques en place. C’est
en juin 1997 que Christian Pierret, secrétaire d’Etat
chargé de l’Industrie, donnera les orientations du gouvernement
socialiste en matière de mise en place des autoroutes de l’information.
Les villes et les élus locaux seraient à la pointe des
initiatives et des réalisations en matière de mise en
place des autoroutes de l’information, et la dimension politique
des expérimentations mettrait le niveau local au centre des
communications. La volonté gouvernementale de recentrer le
développement des NTIC sur le rôle des collectivités
locales
est claire.
Trois niveaux de services sont proposés aux collectivités
:
• Les services aux citoyens : aide et création d’emplois,
raccordement de tous les établissements secondaires d’enseignement,
mise en place d’un réseau Santé Social reliant
tous les professionnels de la santé aux Caisses Primaires d’Assurance
Maladie, aide au trafic routier, développement de la démocratie
participative.
• Les services aux acteurs économiques : offre de services
interactifs à moindre coût, développement des
communications avec les mobiles, baisse des tarifs téléphoniques,
développement du télétravail.
• Les services rendus aux acteurs proprement dits du domaine
des technologies de l’information, en particulier aux opérateurs
de télécommunications.
Dès 1974, les chercheurs du CNET, s’inspirant du premier
système couplant réseau téléphonique et
terminal informatique, présentent au Salon d’Informatique,
de la Communication et de l’Organisation du Bureau, le SICOB
à Paris, un premier terminal, baptisé Tictac.
Ce système permettait d’accéder à des pages
d’informations diverses et variées. Les principes et les
utilisations n’en étaient encore qu’à leur
début, mais l’impulsion était donnée, la
convergence entre télécommunication et informatique
était née.
Au début des années 1980 sont ouverts les premiers réseaux
permettant la transmission de données (vidéotexte, annuaire
électronique, raccordement au réseau Transpac). Cette
entrée est riche d’enseignements pour le monde de la communication
au sens large. Pour la première
fois, les Télécoms s’intéressent non plus
uniquement à l’art et à la manière de véhiculer
les données, mais aussi au contenu des données à
transporter .
1983 L’expérience
pionnière de la fibre à Biarritz( Le billet
historique de Patrice Carré sur l’aventure humaine
des télécoms.)
A partir de la seconde moitié des années
1970, ce qu’on a appelé « le rattrapage téléphonique
» bat son plein. Il s’agit alors de rattraper le
retard pris par notre pays dans l’équipement du
réseau. C’est l’occasion également d’expérimenter
des techniques dont l’avenir allait, bien plus tard, se
révéler prometteur…Conçu dans le cadre
du 7ème Plan, le Plan d’action prioritaire de 1975
(dédié à l’équipement téléphonique)
va permettre un véritable décollage des télécoms.
Parties de très loin, les télécommunications
françaises ont su – et le mérite en revient
à une politique volontariste impulsée à
la fois par un corps technique, les pouvoirs publics et la demande
pressante du consommateur – se hisser à un niveau
exemplaire. Or, parallèlement à ces opérations
d’équipement massif et de déploiement du
réseau sur l’ensemble du territoire, techniciens
et ingénieurs du C.N.E.T. mènent des recherches
qui vont conduire à une réelle avancée
de l’industrie électronique française : annuaire
électronique, expérience de vidéotex interactif
de Vélizy mais également travaux sur la fibre
optique et la visiophonie, …
Rupture politique mais continuité technique…
En 1979 le président de la République, Valéry
Giscard d’Estaing, décide de faire de Biarritz une
ville expérimentale où l’on déploierait
de la fibre optique et où seraient testés tous
ses usages connus et … à venir. Or, l’alternance
politique intervenue après la victoire de François
Mitterrand le 10 mai 1981 fit craindre une remise en cause des
projets déjà lancés. Il n’en fut rien.
Les choses étaient claires. On allait poursuivre les
projets techniques et notamment dans le domaine de la télématique
et de la fibre. D’autant plus que le 3 novembre 1982 le
ministre, Louis Mexandeau, annonçait un programme de
lancement de réseaux câblés de télécommunications
sur l’ensemble du territoire. Le premier objectif de ce
qu’on a appelé le « Plan Câble »
était l’installation de 1 400 000 prises de raccordement
d’ici à 1985. Ce plan – à mettre en
relation avec les débats contemporains sur la communication
audiovisuelle – aurait dû avoir une portée
dépassant l’innovation technique. Il aurait pu amorcer
une politique plus large de transformation audiovisuelle annonçant
une convergence entre télécommunications et contenus
…
Une première mondiale C’est à Biarritz, en juillet 1983, que fut
donc lancée l’une des toutes premières expérimentations
mondiale de fibre optique à domicile.
Le projet sera inauguré officiellement par le Président
Mitterrand en mai 1984. L’expérimentation durera
dix ans. Il s’agissait de tester in vivo ce que pourrait
être un « réseau urbain multiservices à
large bande », comme on le désigna alors. 1 300
foyers biarrots, 150 lieux institutionnels et 50 sites promotionnels
furent connectés à la fibre optique. Le réseau
de Biarritz permettait à 1500 abonnés de bénéficier
du téléphone, du minitel, de la télévision
(15 canaux de télévision dont les chaînes
françaises, 2 chaînes espagnoles, 1 chaîne
belge et 1 chaîne suisse) et des programmes radiophoniques
sonores en FM. L’accès à une vidéothèque
en ligne allait également permettre de tester ce qu’on
appellerait plus tard – avec le succès que l’on
sait- la VOD (Vidéo On Demand).
Une grande nouveauté : la visiophonie
Mais ce qui, sans doute, a suscité alors le plus de curiosité
de la part du grand public fut ce qu’on appelait le visiophone.
Le visiophone ou téléphone à images se
présentait comme un combiné téléphonique
couplé à un petit écran de type TV ; il
permettait d’effectuer une transmission de son et d’images,
en noir et blanc, entre deux correspondants. Le système
installé offrait deux catégories de service. Un
service commuté permettant l’établissement
à la demande, de liaisons entre deux abonnés.
Chaque liaison comportait une voie image (de qualité
télévision au standard 625 lignes) et une voie
son (voie téléphonique numérisée
à 64 kbit/s). A l’exception d’un auteur comme
Robida (l’un des pères de la science-fiction) qui,
à la fin du 19ème siècle, avait imaginé
un Téléphonoscope] ou de quelques expérimentations
sporadiques (1937, années 1960, …) l’idée
même de visiophonie restait très marginale. Plusieurs
études furent réalisées. Elles arrivaient
toutes à la même conclusion. L’appropriation
de ce dispositif, conçu et promu comme un enrichissement
du téléphone, était problématique.
Des études marketing montraient des personnes qui s’inquiétaient
de devoir être visibles à tout moment, mais…
qui, en revanche, appréciaient la possibilité
de voir la personne à laquelle elles s’adressaient
!
Le fonctionnement de cette expérimentation est lancé
le 21 mai 1984, depuis l’Élysée : François
Mitterrand est filmé en train de communiquer par visiophone
avec le ministre des PTT, Louis Mexandeau, qui est lui à
Biarritz. La ville est alors partiellement équipée
en fibres optiques jusque chez l’abonné. En plus
du son, le Président de la République dispose
donc de l’image de son correspondant, auprès de
qui il s’enquiert du futur des communications à
l’heure du « plan câble ».
Finalement, cette expérimentation n’a pas été
déployée à plus grande échelle mais
elle aura sans doute été une étape essentielle
pour améliorer cette technologie de pointe afin d’arriver
aux performances exceptionnelles que l’on connaît
aujourd’hui.
Un futur d’avance…
Sans le savoir, on avait testé à Biarritz ce qui
allait devenir la convergence entre les télécommunications,
l’audiovisuel et l’informatique ! Or, les technologies
étaient à cette époque (pas si lointaine)
loin d’être totalement maîtrisées et
très loin d’être réellement stabilisées.
Par ailleurs, se posaient des questions de coûts et de
tarification qu’il était particulièrement
difficile de résoudre dans le contexte économique
et historique d’alors. Et, last but not least, se posait
déjà la question des contenus ! A quoi sert un
tuyau, si puissant soit-il, s’il n’y a pas des services,
des contenus diversifiés pour le remplir ? Pendant les
dix années de l’expérimentation, outre la
visiophonie, des services tels que la vidéo à
la demande, des programmes interactifs de télévision,
etc. ont pu être évalués. Ce réseau,
il y a bientôt quarante ans, montrait la faisabilité
technique du FTTH, et les efforts à faire pour aboutir
à un coût permettant son déploiement à
grande échelle…
Dans les années 1990, les mutations de la société
française vers une « société de l’information
», vont inciter les opérateurs de télécommunications
à évoluer rapidement, ainsi France Télécom
investit certains secteurs de pointe plus éloignés de
son métier de base et passe alors des télécommunications
à la communication.
Historiquement, France Télécom est entré dans
le monde de l’image et de la communication très progressivement.
Après avoir organisé, rue de Grenelle, les premières
retransmissions de télévision dès 1935, les Télécoms
abandonnent à la Radio Télévision Française,
la RTF, la transmission de ce type de liaisons. Plus tard, l’ORTF
aura la maîtrise du contenu tandis que TéléDiffusion
de France, TDF, continuera à assurer la diffusion des images.
En 1962, la première liaison transatlantique de télévision
par satellite entre les USA et la France (Pleumeur-Bodou) marque le
retour des Télécoms dans le monde de l’image. Il
se concrétise également, quelques années plus
tard, par l’élaboration de projets spatiaux importants,
qui aboutiront au lancement des deux générations de
satellites de télécommunications Télécom
I et Télécom II.
A la suite du démarrage du Plan Câble, France Télécom
devient le principal constructeur et maître d’ouvrage de
réseaux câblés.
En 1989, TéléDiffusion de France, TDF, est rattaché
à France Télécom. A partir de cette date, France
Télécom contrôle alors, en plus des satellites
et du câble, l’ensemble du réseau hertzien terrestre
de diffusion. Ce regroupement a permis à l’opérateur
national de maîtriser l’ensemble de la chaîne de
l’image. Sur l’ensemble du groupe France Télécom
on comptait en 1995 cinq mille personnes travaillant dans le domaine
de l’image, et qui étaient réparties entre la maison
mère (France Télécom) et ses quatre filiales
: TDF, VTCOM, France Télécom Câble et France Télécom
Multimédia.
Depuis 2004, TéléDiffusion de France a retrouvé
son statut de société privée indépendante,
et ne fait donc plus partie du Groupe France Télécom.
Le secteur de la communication des sons, images et données
se développe depuis 10 ans dans de multiples directions, offrant
ainsi une gamme de prestations complète aux professionnels
de l’audiovisuel et de la communication. En 1992, France Télécom
a ainsi assuré la transmission des images, des voix, des textes
et des données dans le monde entier à partir d’Albertville,
où se sont déroulés les XVI ème Jeux Olympiques
d’hiver.
Grâce au Service d’Exploitation Radio Télévisuel
Extérieur (SERTE), France Télécom fournit aux
télévisions la transmission d’images du monde entier
par satellite, des services de vidéotransmission interactifs
permettant le dialogue à des milliers de kilomètres
de distance, ou encore des possibilités de visioconférences
conçues en particulier pour les entreprises. On peut citer
l’exemple remarquable de la téléchirurgie : la
première expérience de téléchirurgie,
c’est-à-dire de chirurgie à distance (le patient
était à Strasbourg, relié à un robot qui
effectuait l’intervention chirurgicale en direct, le chirurgien
était aux USA et effectuait les gestes chirurgicaux à
l’aide d’un robot américain relié en temps
réel au robot chirurgical de
Strasbourg). Cet exploit de téléchirurgie fut réalisé
en 2003 au CHU de Strasbourg, par le Professeur Marescaux, de l’IRCAD88
. La transmission des informations (mouvements des bras articulés
des deux robots, images du patient, sons, etc.) entre la France et
les USA a été effectuée grâce à
une connexion par satellite de télécommunication, mise
en œuvre par le Laboratoire France Télécom Recherche&Développement
de Lannion. Depuis cette première expérience, qui fut
une grande réussite, la téléchirurgie se développe
à travers le monde entier.
De plus en plus de Centres Hospitaliers font l’acquisition de
robots de téléchirurgie et d’équipement
de transmission par satellite.
La multitude des services offerts par les Nouvelles Technologies de
l’Information et de la Communication (NTIC) mobilise et parfois
même combine l’ensemble des modes de transmission, satellite,
réseau câblé (fibres optiques), liaison hertzienne.
Ainsi, aux métiers traditionnels des « télécommunicants
» (les employés des Télécoms), s’ajoutent
d’autres professions venues tout droit du monde de l’audiovisuel
: cadreur, ingénieur du son, réalisateur, webmaster,
ingénieur réseau, etc. La palette des métiers
s’élargit à mesure que France Télécom
se diversifie. Mais, pour les grands opérateurs de télécommunications
tels que France Télécom, l’Image c’est avant
tout le Câble. Jusqu’à son changement de statut
en 1991, France Télécom se cantonnait dans un rôle
d’investisseur et d’exploitant technique des réseaux,
mais n’intervenait pas dans la commercialisation. A partir de
1995 France Télécom s’est affirmé comme
un opérateur commercial à part entière : le groupe
a ainsi acquis des participations majoritaires dans des sociétés
d’exploitation commerciale et a poursuivie sa politique de partenariat
avec les autres câblo-opérateurs français en prenant
des participations dans le capital de ces sociétés.
Faire vivre et développer les réseaux, mais aussi s’impliquer
dans le contenu, tels sont les objectifs des opérateurs de
télécommunications à l’heure actuelle. Participer
au contenu est le nouvel enjeux des Télécoms, car le
contenu types de données diffusées (images, sons, données
numériques, pages web, services on-line, etc.), qualité
des données (bruits, vitesse de transmission des vidéo,
etc.), types de services (téléachat, site web de vulgarisation
scientifique, services des impôts, etc.)] conditionne le succès
des supports.
Le multimédia a conduit, dès 1995, les grands opérateurs
de Télécoms à s’interroger sur l’actualité
et la rentabilité de ce qu’on appelait à l’époque
les « autoroutes de l’information ».
Ce terme recouvre d’une part les réseaux informatiques
reliant les ordinateurs et les réseaux de diffusion large bande
et, d’autre part, les futurs réseaux de communication
à haute capacité, rendus possibles par la généralisation
de la fibre optique et la numérisation. A partir de 1995 les
opérateurs de télécommunications ont commencé
progressivement à déployer les infrastructures à
haut débit les plus modernes afin de répondre aux futurs
besoins, mais sans investir de façon massive et prématurée.
Les Télécoms se sont alors organisés de manière
à favoriser l’apparition de toutes les potentialités
à court terme, en valorisant les projets spécifiques
à moyen terme : poursuite de la modernisation du réseau,
émergence
d’applications multimédias, établissement de partenariat
avec les divers acteurs impliqués, notamment les fournisseurs
du contenu (hébergeurs de sites web, chaînes de télévision,
etc.).
Dès 1995 la structure du réseau commença à
se modifier, et se complexifier. La fibre optique prendra peu à
peu le relais des câbles coaxiaux ; à terme de dernier
refuge du fil de cuivre, ce seront les raccordements d’abonnés.
L’entrée de France Télécom en 1992 dans
le monde de la communication a marqué une étape capitale
dans son histoire. Sans se détourner de son métier de
base, le groupe France Télécom a ainsi cherché
à s’enrichir et développer les services en faisant
converger le transport de l’information, son contenu et son traitement,
de façon à intégrer les besoins des utilisateurs,
résidentiels comme professionnels. Le réseau, ou plutôt,
les réseaux Internet, après s’être d’abord
ouverts gratuitement au monde universitaire et aux applications informatiques,
aborde depuis la fin des années 1990 une nouvelle étape,
que l’on peut qualifier de commerciale : développement
croissant du commerce électronique, mise en ligne croissante
de sites web pour les entreprises, etc .
Historique du réseau Internet
Les débuts du réseau Internet datent de 1964. A cette
époque, la Rank Corporation, Cellule de réflexion diplomatico-scientifico-militaire
américaine, développe l’idée de création
d’un nouveau type de réseau informatique. Le but de ce
réseau était d’assurer la liaison entre les différents
ordinateurs le composant, et ceci même dans le cas où
une portion entière du réseau serait défectueuse
ou détruite. Pour qu’un tel type de réseau puisse
fonctionner, il faut obligatoirement que chaque nœud du réseau
ait le même poids, donc que le réseau ne soit pas hiérarchique.
L’important, dans un réseau de ce type, ce n’est
pas le chemin parcouru par les données, mais que les données
parviennent à destination. En 1969, un organisme dépendant
du Pentagone, l’Advanced Research Project Agency, l’ARPA,
décide de créer un premier prototype de réseau
en reliant quatre supercalculateurs, ce qui donne naissance au réseau
ARPAnet .
A partir de 1972, le réseau ARPAnet est mis à disposition
des universitaires et des organismes de recherche (MIT,Harvard, UCLA,
etc.), leur permettant ainsi d’utiliser les supercalculateurs
et le réseau d’intercommunication informatique ARPAnet
. Naissance
du réseau Internet
Premières utilisations du réseau ARPAnet
en 1970.
Deux innovations majeures sont alors mises en place,
la naissance du courrier électronique et la naissance du protocole
d’interconnexion entre réseaux, le protocole TCP, en 1974.
A la même époque, partout à travers le monde occidental,
une multitude de réseaux du même type voient le jour
(USENET, BITNET, UUCP, etc.) et commencent à s’interconnecter
entre eux. Mais on peut situer le démarrage de l’exploitation
du réseau Internet en 1981, lorsque la National Science Foundation
(NSF) américaine décide de financer la création
d’un réseau, le Computer and Science Network (CSNET).
L’objectif de ce réseau était de fournir aux universités
des services tels que le courrier électronique, le transfert
de fichiers, etc.
En 1982, voit le jour le réseau Internet tel que nous le connaissons
encore actuellement, grâce à l’invention du protocole
IP (Internet Protocol), qui sera associé à TCP. Les
réseaux Internet, eux-mêmes interconnectés à
l’aide du protocole TCP/IP, définissent l’Internet.
Au cours des dix ans qui vont suivre (1982-1992), l’Internet
va se développer à travers le monde entier, le nombre
de serveurs connectés passe ainsi de 1 000 en 1984 à
1 000 000 en 1992, en 1987 apparaissent des réseaux plus importants,
semi-privés et à but commercial (IBM, MCI, etc.), dès
1990, des prestataires de services d’accès privé
à Internet proposent aux particuliers des accès à
Internet.
A partir de ce moment là, Internet s’ouvre aux particuliers
et aux entreprises privées. Le réseau Internet devient
ainsi une entité autonome. La National Science Foundation,
qui avait financé le développement du réseau
Internet à ses débuts, décide alors de retirer
son appui financier au développement d’Internet et de
laisser les entreprises privées prendre le relais.
Cette décision marque le début de la privatisation du
réseau Internet à travers le monde.
Deux avancées technologiques majeures vont encore voir le jour.
En 1992 est créé le Word Wide Web. Le succès
du Web sera phénoménal. C’est en s’en inspirant
que le vice-président américain, Al Gore, lancera l’idée
des « autoroutes de l’information ». En 1993 est
créé le premier logiciel de navigation Mosaïc.
Il permet de consulter des documents interactifs comportant des images,
du texte, du son, etc., de manière simple et conviviale.
On assiste au même moment à une mondialisation du réseau
Internet : ainsi dès 1995, le nombre de réseaux situés
hors des Etats-Unis dépasse celui des réseaux américains.
Au sujet de la croissance du réseau Internet depuis 10 ans,
on peut se référer aux travaux d’Etienne Turpin90
: « Bien que les nouveaux opérateurs de télécommunication
n’aient pas à supporter le coût de l’amortissement
des équipements précédemment subventionnés,
ils doivent faire face à la croissance de la demande (augmentation
du nombre de personnes raccordées, diversification des services)
et financer les équipements nécessaires au redimensionnement
du réseau. En effet, au cours de la dernière décennie,
le nombre de réseaux et d’ordinateurs hôtes (host)
branchés sur Internet a augmenté exponentiellement ».
Selon certaines estimations, le nombre des applications et services
et le nombre des utilisateurs ont augmenté dans les mêmes
proportions. En 1994 et 1995, le trafic et le nombre d’usagers
d’Internet doublaient tous les trois mois. Les estimations actuelles
montrent que le trafic continue à doubler tous les six à
douze mois, voire même plus rapidement.
La croissance de la demande de raccordement au réseau Internet
est encore forte en 2005. Mais qui dit augmentation du trafic, dit
également ralentissement de la transmission et donc dégradation
de la qualité du service offert. En effet, une grande partie
du réseau Internet mondial est encore composé de liaisons
par câbles coaxiaux (lignes téléphoniques) à
faible débit (56 Ko/seconde). Les liaisons à haut débit
(câbles composés de fibres optiques, réseau hertzien
haut débit, etc.) prennent peu à peu le relais auprès
des particuliers grâce aux offres proposées par les opérateurs
de Télécoms (ADSL à 8 Mo/seconde, etc.). Les
entreprises quand à elles, disposent souvent d’un budget
téléphonique plus important et investissent le plus
souvent dans les offres de connexion haut débit professionnel.
La dégradation de la qualité du réseau, si elle
peut être acceptée par une certaine population d’abonnés
résidentiels qui profitent du service pour un coût relativement
bas, n’est plus acceptable dès lors que l’on s’adresse
à des entreprises ou que l’on utilise certains services
en temps réel (téléphonie, télévision
par câble, etc.). C’est pour faire face à ce problème
que l’Internet, à côté du réseau ouvert
à tout le monde, a créé des réseaux privé
spécialisés : les Réseau Privés Virtuels,
RPV, comme par exemple les Intranets ou les Extranets, qui permettent
aux entreprises de contrôler leur réseau (sécurité
du réseau et qualité du service), tout en utilisant
la technologie IP (Internet Protocole).
L’Internet Society, l’ISOC, propose trois définitions
de l’Internet :
• « Définition générale : un métaréseau
d’information (c’est-à-dire un réseau de réseaux)
global et ouvert. »
• « Définition étroite : un groupe d’interréseaux
(c’est-à-dire d’interconnexion de réseaux)
capables d’acheminer entre eux des paquets suivants l’Internet
Protocol. »
• « Définition large : l’interconnexion de
réseaux au protocole IP, plus tous les réseaux connectés
capables d’acheminer du trafic (ce qui inclut les réseaux
utilisant le protocole IP, ceux utilisant un autre protocole qu’IP
et les systèmes de niveau applicatifs). »
La définition « large » de l’ISOC peut être
considérée comme faisant référence à
l’ensemble des réseaux de télécommunication
et réseaux informatiques connectés à Internet
existant dans le monde. Elle résume très bien l’ambition
du World Wide Web, qui est de mettre en relation
tous les ordinateurs existants dans le monde.
Il faut se rappeler qu'à l'origine, le web,
cet échec hexagonal conséquence du cloisonnement de
la société, était une invention française.
Alors que dans les années 80, le gouvernement français
investit massivement pour développer le Minitel,
cela fait déjà une décennie que l’ingénieur
Louis Pouzin a développé le réseau
Cyclades, ancêtre d’internet.
Louis Pouzin a vraiment innové dans la conception des réseaux
de transmission de données, en inventant le datagramme (commutation
de paquets) qui a permis l’invention et le lancement d’internet
tel que nous le connaissons aujourd’hui.
Apparu en 1980, le Minitel
s'est imposé dans les foyers français avant d'être
progressivement remplacé par les ordinateurs avec accès
à internet.
Le bourguignon Louis Pouzin, né en 1931, est
un ingénieur informaticien « depuis avant que le mot
n'existe » qui a inventé le datagramme et a contribué
au développement des réseaux à commutation de
paquets, précurseurs d'Internet. Ses travaux ont été
utilisés par Vint Cerf pour la mise au point de l'internet
et du protocole TCP/IP sur lequel fonctionne toujours l’internet.
Polytechnicien, il est embauché à
la Compagnie Industrielle des Téléphones
(CIT, qui deviendra plus tard CIT-Alcatel). En 1957, passé
chez Bull (acquise plus tard par
General Electric), il y dirige le service qui met au point les programmes
pour les clients qui ont acheté un ordinateur Bull, programmes
qu'une équipe de techniciens transforme en cartes perforées.
Ses camarades de l'X ne comprennent pas pourquoi il s'est fourvoyé
dans un domaine et une fonction aussi peu intéressants : la
programmation est une tâche de technicien et les calculateurs
ne servent qu'à la comptabilité. Il fait partie des
trois seuls diplômés de sa promotion (1950) à
s'intéresser à cette nouvelle discipline qui deviendra
l'informatique.
En 1967, Louis Pouzin quitte Bull et se fait
embaucher par une jeune société, SACS, qui donnera naissance
à la Société d'économie et de mathématiques
appliquées (SEMA, future Atos).
Au tout début des années 1970, la France
apprend l'existence du projet américain Arpanet, le
premier réseau d'ordinateurs partagés à l'échelle
d'un pays. On envoie donc aux Etats-Unis Philippe Renard, fonctionnaire
du Plan Calcul et inventeur du mot "logiciel", où,
accompagné de Louis Pouzin, il visite les sociétés
d’informatique à la pointe. Ils découvrent notamment
ce réseau Arpanet, le premier réseau informatique américain.
En 1971, il est décidé de faire la même chose
en France avec l'appui industriel de la Compagnie internationale pour
l'informatique (CII) créée en 1966 par la fusion de
plusieurs sociétés, avec le premier Plan Calcul, un
programme lancé par le général de Gaulle, destiné
à créer une industrie informatique française
indépendante, prévu pour une durée de cinq ans.
L’objectif gaulliste de ce plan est très simple : comme
ce marché est dominé par les Américains, il faut
que la France ait une industrie de l’informatique digne de ce
nom.
Le réseau “Cyclades”
C’est ainsi que Louis Pouzin rejoint, à Rocquencourt l'Institut
de recherches d'informatique et d'automatique (IRIA), présidé
par Maurice Allègre, délégué à
l’informatique du Plan Calcul, avec l’objectif de créer
un réseau capable de relier une vingtaine d'ordinateurs hétérogènes
de différentes institutions de recherche et d'universités
françaises. Maurice Allègre déclare à
la télévision : "L’industrie de l’informatique
sera dans quelques années devenue la première industrie
mondiale…". La principale innovation de Cyclades est le concept de datagrammes
Louis Pouzin, monte de bric et de broc, une équipe
avec Jean Le Bihan à l’organisation, Jean-Louis Grangé,
responsable du réseau de commutation, Najah Naffah en charge
des protocoles terminaux virtuels et de la bureautique, Hubert Zimmerman
en charge du protocole de communication et Michel Gien en charge des
systèmes d’exploitation.
De 1971 à 1975, l’équipe travaille
donc à la fondation d’un réseau d’ordinateurs
concurrent de l’Arpanet, Cyclades ; ce sera, l’un des premiers
réseaux informatiques au monde. Un projet doté du budget,
énorme pour l'époque, de 5 millions de francs (760.000
€) par an pendant 5 ans. On va révolutionner les grandes
lignes techniques du fameux Arpanet avec l’introduction de la
notion de "datagramme" petits paquets d'information circulant
librement et indépendamment sur un réseau, sans se soucier
de leur ordre d’arrivée, car réassemblés
en bout de course, une innovation qui a permis la transition Arpanet/Internet
et sera au coeur de l'Internet.
En 1975, le réseau Cyclades relie 25
ordinateurs répartis sur le territoire, plus un à Rome
et un à Londres.
En 1976, il fonctionne de manière routinière ; Cyclades
est au sommet de sa gloire.
Louis Pouzin organise une démonstration du projet dans un congrès
à Toronto, au Canada. Il illustre de manière claire
et humoristique la guerre des réseaux qui allait avoir lieu
dans le monde informatique entre l’approche IBM et les constructeurs
informatiques d’un côté, l’approche Télécoms/PTT
de l’autre et, au milieu, l’approche Cyclades/Internet/Arpanet
pour faire fonctionner tout cela ensemble. C'est un succès
total.
Affrontement au niveau technique mais surtout politique,
Cyclades se heurte au Ministère des Postes et Télécommunications.
Les forces que Louis Pouzin combat sont beaucoup plus puissantes que
lui. Le Plan Calcul initié par le général De
Gaulle et soutenu par son successeur, le président Georges
Pompidou, est remis en question en 1974 lorsque Valéry Giscard
d’Estaing accède au pouvoir.
C’est la fin de la délégation à
l'informatique et, partant, de l'intérêt pour Cyclades.
« On nous a dit en substance : "Messieurs les chercheurs,
vous avez bien travaillé, maintenant, il faut laisser faire
les industriels", se souvient Louis Pouzin. Pour les responsables
de l'époque, il était clair que la recherche en informatique,
c'était fini. Il fallait désormais trouver des applications
pour "informatiser la société", nous disait-on.
»
Le gouvernement français décide
de laisser tomber Cyclades. Sur instruction du ministère de
l’Industrie, les crédits sont coupés et le projet
est enterré. Le réseau continuera de fonctionner quelque
temps et sera finalement dissous en 1978, trois ans à peine
après sa mise en service.
Internet est désormais le monopole des
Américains. La décision politique fut prise
de fusionner la Compagnie internationale pour l'informatique (qui
produisait les machines du réseau Cyclades) avec Honeywell-Bull,
contre la volonté de son patron et de ses personnels mais à
la demande d'un de ses actionnaires, la CGE, dont le PDG, Ambroise
Roux, dont on dira qu’il fut le véritable artisan de cette
calamiteuse erreur de la France.
On développe le réseau Transpac,
un réseau fermé, sous contrôle de l’État.
Transpac devient alors le réseau national français de
transmissions de données. C’est sur cette base qu’apparait
le Minitel dans le début des années
80.
Maurice Allègre, délégué
à l'informatique du Plan Calcul : « Louis Pouzin, avait
proposé un projet de réseau maillé d'ordinateurs
totalement nouveau : la commutation de paquets. Nous aurions pu être
parmi les pionniers du monde Internet ; nous n'en sommes que des utilisateurs,
fort distants des lieux où s'élabore l'avenir. »
L’abandon des recherches françaises autour d’internet
. Le “Minitel”. En 1974, l'arrivée de Valéry
Giscard d'Estaing à l'Elysée a sonné la fin de
la délégation à l'informatique et, partant, de
l'intérêt pour Cyclades. « On nous a dit en substance
: "Messieurs les chercheurs, vous avez bien travaillé,
maintenant, il faut laisser faire les industriels", se souvient
Louis Pouzin. Pour les responsables de l'époque, il était
clair que la recherche en informatique, c'était fini. Il fallait
désormais trouver des applications pour "informatiser
la société", nous disait-on. »
Si Internet n’a finalement pas été
développé en France, c’est d’une part pour
des raisons corporatistes : les représentants de l’«
establishment des télécoms » de l’époque,
à l'origine de l'invention du Minitel, ne veulent pas perdre
leurs prérogatives dans le domaine des réseaux de transmission
de données et s'opposent par principe aux avancées technologiques
proposées par les informaticiens. D’autre part, l’abandon
du réseau Cyclades est lié à un conflit entre
industriels opposant Ambroise Roux, ancien patron de la CGE, à
Paul Richard, ancien patron de Thomson. Thomson souhaitait en effet
disputer à la CGE le marché des captifs des commutateurs
téléphoniques. Pour éviter que son principal
concurrent ne prenne trop de pouvoir, Ambroise Roux conseille alors
au président Valéry Giscard d’Estaing d’abandonner
les recherches autour du datagramme et de se focaliser sur la démocratisation
du Minitel.
Dès lors, deux américains vont
s'emparer de l'invention du datagramme, que Louis Pouzin avait partagé
auprès de scientifiques européens et américains
dans l’optique de mettre au point une norme commune internationale.
A ce moment-là, Bob Kahn et Vint Cerf, pour mettre au point
l'internet et le protocole TCP/IP, ont rusé. Ils ont prétendu
être trop en avance pour attendre ces nouvelles spécifications,
et ils ont lancé leur propre réseau en prenant le datagramme
de Louis Pouzin. Ils l’ont juste un peu modifié pour pouvoir
donner leur nom.
Début 2022, Louis Pouzin est encore impliqué
dans l’initiative RINA (Recursive InterNetwork Architecture),
une nouvelle approche d’architecture pour sécuriser davantage
le réseau Internet.
Pourquoi Internet s’appelle Internet ? Internet est un réseau informatique mondial sur lequel
circulent des informations de toutes sortes. C’est même
un réseau de réseaux. Et c’est ce qui explique
pourquoi il s’appelle ainsi.
On confond aisément Internet et Web et inversement. Pourtant,
ce n’est pas du tout la même chose. Le web est un système
qui permet de relier des ressources entre elles, via un système
appelé hypertexte. Des liens sur une ressource, typiquement
une page web, permettent de diriger les internautes sur une autre
ressource, une autre page web.
Toutes ces ressources, tous ces liens, toutes
ces pages et sites web sont en fait répartis (c’est-à-dire
hébergés) sur des serveurs informatiques, disséminés
un peu partout dans le monde. Et ce sont ces machines qui constituent
Internet. Ils en sont la réalité physique et ils sont
reliés entre eux par d’immenses réseaux de télécommunications,
essentiellement des câbles qui passent notamment au fond des
mers.
Preuve que le web et Internet sont deux objets
distincts, leur date de naissance n’est pas la même. Le
web a vu le jour au tournant des années 90. Les origines d’Internet
remontent à beaucoup plus loin. S’il existait des travaux
et des réflexions sur un réseau informatique global
après la Seconde Guerre mondiale, l’ancêtre d’Internet
se structure à la fin des années 60. Et son nom lui
ressemble déjà : Arpanet.
C’est en 1984 qu’Arpanet devient Internet,
avec pour les sites d’Arpanet le passage au standard TCP-IP d’Internet.
À ce sujet, l’Inria explique : « il n’y a pas
de différence de nature ni d’ADN entre Arpanet et Internet.
C’est le même réseau avec les mêmes applications.
Simplement, la nouvelle plateforme de transmission permet le raccordement
d’autres réseaux et Internet devient davantage un réseau
de réseaux. »
Et c’est là une autre particularité
d’Internet : il ne s’agit pas exactement d’un réseau
unique, mais d’un réseau de réseaux (network of
networks). C’est d’ailleurs un surnom que l’on croise
de temps en temps, parce qu’il s’agit en fait de relier
entre eux différents réseaux informatiques, de toutes
tailles, avec leurs propres règles, qui se trouvent sur tous
les continents.
Et c’est cette spécificité
qui a donné à Internet le nom d’Internet. On trouve
dans les archives de l’IETF (Internet Engineering Task Force),
une structure qui a pour mission de normaliser les protocoles sur
le net, un document de 1974 signé par Vinton Cerf, Yogan Dalal
et Carl Sunshine sur la première spécification du protocole
TCP (Transmission Control Protocol), mentionnant Internet.
Dans l’introduction, les trois auteurs,
qui sont justement considérés comme des pionniers d’Internet
pour leur contribution au protocole TCP, expliquent ainsi qu’il
s’agit de pouvoir faire dialoguer les réseaux informatiques
interconnectés entre eux, donc interconnecter des systèmes
entre eux (internetwork / Internetworking). Et Internet en est tout
simplement le diminutif.
Le document de 1974 débute ainsi : «
le présent document décrit les fonctions à exécuter
par le protocole de contrôle de transmissions [TCP] d’Internetwork
et son interface avec les programmes ou les utilisateurs qui ont besoin
de ses services ». Mais dès le titre du document, une
version raccourcie est proposée, où on parle de protocole
de contrôle de transmissions d’Internet.
Pendant un temps, un terme alternatif aurait
pu s’imposer : catenet, pour signifier concatenated network (réseau
concaténé, en français). L’idée a
été émise par le Français Louis Pouzin,
un autre pionnier d’Internet, et a été employée
par Vinton Cerf dans ses papiers, dans les années 70. À
la réflexion, cela aurait pu avoir son charme : après
tout, les chats (cats, en anglais) ne sont-ils pas devenus les stars
des réseaux.
sommaire
Le protocole TCP/IP, est un modèle en 4 couches Le modèle TCP/IP peut en effet être décrit
comme une architecture réseau à 4 couches
Le modèle OSI a été mis à côté
pour faciliter la comparaison entre les deux modèles. – La couche hôte réseau
Cette couche est assez « étrange ». En effet, elle
semble « regrouper » les couches physique et liaison de
données du modèle OSI. En fait, cette couche n’a
pas vraiment été spécifiée ; la seule
contrainte de cette couche, c’est de permettre un hôte
d’envoyer des paquets IP sur le réseau. L’implémentation
de cette couche est laissée libre. De manière plus concrète,
cette implémentation est typique de la technologie utilisée
sur le réseau local. Par exemple, beaucoup de réseaux
locaux utilisent Ethernet ; Ethernet est une implémentation
de la couche hôte-réseau. – La couche internet Cette couche est la clé de voûte de l’architecture.
Cette couche réalise l’interconnexion des réseaux
(hétérogènes) distants sans connexion. Son rôle
est de permettre l’injection de paquets dans n’importe quel
réseau et l’acheminement des ces paquets indépendamment
les uns des autres jusqu’à destination. Comme aucune connexion
n’est établie au préalable, les paquets peuvent
arriver dans le désordre ; le contrôle de l’ordre
de remise est éventuellement la tâche des couches supérieures.
Du fait du rôle imminent de cette couche dans l’acheminement
des paquets, le point critique de cette couche est le routage. C’est
en ce sens que l’on peut se permettre de comparer cette couche
avec la couche réseau du modèle OSI.
Remarquons que le nom de la couche (« internet ») est
écrit avec un i minuscule, pour la simple et bonne raison que
le mot internet est pris ici au sens large (littéralement,
« interconnexion de réseaux »), même si l’Internet
(avec un grand I) utilise cette couche. – La couche transport Son rôle est le même que celui de la couche transport
du modèle OSI : permettre à des entités paires
de soutenir une conversation.
Officiellement, cette couche n’a que deux implémentations
: le protocole TCP (Transmission Control Protocol) et le protocole
UDP (User Datagram Protocol). TCP est un protocole fiable, orienté connexion, qui
permet l’acheminement sans erreur de paquets issus d’une
machine d’un internet à une autre machine du même
internet. Son rôle est de fragmenter le message à transmettre
de manière à pouvoir le faire passer sur la couche internet.
A l’inverse, sur la machine destination, TCP replace dans l’ordre
les fragments transmis sur la couche internet pour reconstruire le
message initial. TCP s’occupe également du contrôle
de flux de la connexion. UDP est en revanche un protocole plus
simple que TCP : il est non fiable et sans connexion. Son utilisation
présuppose que l’on n’a pas besoin ni du contrôle
de flux, ni de la conservation de l’ordre de remise des paquets.
Par exemple, on l’utilise lorsque la couche application se charge
de la remise en ordre des messages. On se souvient que dans le modèle
OSI, plusieurs couches ont à charge la vérification
de l’ordre de remise des messages. C’est là une avantage
du modèle TCP/IP sur le modèle OSI, mais nous y reviendrons
plus tard. Une autre utilisation d’UDP : la transmission de la
voix. En effet, l’inversion de 2 phonèmes ne gêne
en rien la compréhension du message final. De manière
plus générale, UDP intervient lorsque le temps de remise
des paquets est prédominant. – La couche application Contrairement au modèle OSI,
c’est la couche immédiatement supérieure à
la couche transport, tout simplement parce que les couches présentation
et session sont apparues inutiles. On s’est en effet aperçu
avec l’usage que les logiciels réseau n’utilisent
que très rarement ces 2 couches, et finalement, le modèle
OSI dépouillé de ces 2 couches ressemble fortement au
modèle TCP/IP.
Cette couche contient tous les protocoles de
haut niveau, comme par exemple Telnet, TFTP (trivial File Transfer
Protocol), SMTP (Simple Mail Transfer Protocol), HTTP (HyperText Transfer
Protocol). Le point important pour cette couche est le choix du protocole
de transport à utiliser. Par exemple, TFTP (surtout utilisé
sur réseaux locaux) utilisera UDP, car on part du principe
que les liaisons physiques sont suffisamment fiables et les temps
de transmission suffisamment courts pour qu’il n’y ait pas
d’inversion de paquets à l’arrivée. Ce choix
rend TFTP plus rapide que le protocole FTP qui utilise TCP. A l’inverse,
SMTP utilise TCP, car pour la remise du courrier électronique,
on veut que tous les messages parviennent intégralement et
sans erreurs.
Comparaison avec le modèle OSI et critique
– Comparaison avec le modèle OSI
Tout d’abord, les points communs. Les modèles
OSI et TCP/IP sont tous les deux fondés sur le concept de pile
de protocoles indépendants. Ensuite, les fonctionnalités
des couches sont globalement les mêmes.
Au niveau des différences, on peut remarquer
la chose suivante : le modèle OSI faisait clairement la différence
entre 3 concepts principaux, alors que ce n’est plus tout à
fait le cas pour le modèle TCP/IP. Ces 3 concepts sont les
concepts de services, interfaces et protocoles. En effet, TCP/IP fait
peu la distinction entre ces concepts, et ce malgré les efforts
des concepteurs pour se rapprocher de l’OSI. Cela est dû
au fait que pour le modèle TCP/IP, ce sont les protocoles qui
sont d’abord apparus. Le modèle ne fait finalement que
donner une justification théorique aux protocoles, sans les
rendre véritablement indépendants les uns des autres.
Enfin, la dernière grande différence est liée
au mode de connexion. Certes, les modes orienté connexion et
sans connexion sont disponibles dans les deux modèles mais
pas à la même couche : pour le modèle OSI, ils
ne sont disponibles qu’au niveau de la couche réseau (au
niveau de la couche transport, seul le mode orienté connexion
n’est disponible), alors qu’ils ne sont disponibles qu’au
niveau de la couche transport pour le modèle TCP/IP (la couche
internet n’offre que le mode sans connexion). Le modèle
TCP/IP a donc cet avantage par rapport au modèle OSI : les
applications (qui utilisent directement la couche transport) ont véritablement
le choix entre les deux modes de connexion.
– Critique du modèle TCP/IP
Une des premières critiques que l’on
peut émettre tient au fait que le modèle TCP/IP ne fait
pas vraiment la distinction entre les spécifications et l’implémentation
: IP est un protocole qui fait partie intégrante des spécifications
du modèle.
Une autre critique peut être émise
à l’encontre de la couche hôte réseau. En
effet, ce n’est pas à proprement parler une couche d’abstraction
dans la mesure où sa spécification est trop floue. Les
constructeurs sont donc obligés de proposer leurs solutions
pour « combler » ce manque. Finalement, on s’aperçoit
que les couches physique et liaison de données sont tout aussi
importantes que la couche transport. Partant de là, on est
en droit de proposer un modèle hybride à 5 couches,
rassemblant les points forts des modèles OSI et TCP/IP :
C’est finalement ce modèle qui sert
véritablement de référence dans le monde de l’Internet.
On a ainsi gardé la plupart des couches de l’OSI (toutes,
sauf les couches session et présentation) car correctement
spécifiées. En revanche, ses protocoles n’ont pas
eu de succès et on a du coup gardé ceux de TCP/IP.
Le PAM, "point d'accès multimédia",
l’ancêtre du smartphone. est né… dans les Ardennes
!
Il était grand, gros, pas très beau, mais il réalisait
tout ce que fait aujourd'hui le smartphone : le PAM, le point d'accès
multimédia, est né dans les Ardennes en 1996.
Ce 12 mars 2019, 30 ans après la naissance d'internet, retour
sur cette aventure multimédia en Champagne-Ardenne.
Internet était inventé par un physicien du CERN, passionné
d'informatique. Il faudra attendre le milieu des années 90
pour accéder à internet en Champagne-Ardenne. Vous allez
voir, que l'on était loin d'imaginer tout ce que l'on connait
aujourd'hui.
Petit à petit, les cours dans les écoles et lycées
s'orientent vers un apprentissage et une découverte du réseau
internet. En 1996, des jeunes du collège Léo Lagrange
de Charleville-Mézières dans les Ardennes découvraient
pour la première fois internet.
Les Ardennes, toujours à la pointe dans les nouvelles technologies,
développent avec France Télécom le réseau
Rimbaud. Du nom du poète ardennais, ce réseau est
en fait un nœud de raccordement local au réseau internet
avec un débit élevé, utilisant la technologie
RTC et ADSL. Car en 1996, les particulier ne pouvait être directement
raccordé à internet. Il devait y avoir des nœuds,
sorte de gros hub qui concentrait les connexions locales pour les
acheminer sur le réseau internet. Aujourd'hui, c'est le rôle
des opérateurs internet.
Grâce à ce réseau Rimbaud,
développé aussi avec le concours et le financement de
la Chambre de Commerce et d'Industrie des Ardennes, les entreprises
locales ont pu créer des pages de présentation de leur
société, une révolution à l'époque.
On parle alors d'opportunité économique pour les entreprises
ardennaises et leur développement à l'étranger
notamment.
Evolution et stratégie des télécommunications
en France :
Mais pourquoi parler de modemAdsl, Box sur ce
site qui retrace l'épopée du téléphone
fixe ?
C'est tout simplement que cette évolution de l'internet jusqu'à
l'arrivée de la Fibre Optique, utilise encore le réseau
cuivre le RTC (Réseau Téléphonique Commuté)
et qu'il est question de mettre fin
à ce RTC.
- 15 novembre 2018, Orange
(ex France Télécom)
ne propose plus d'abonnements au téléphone fixe.
- Orange a mis en place un plan de fermeture
du RTC pour les 9,4 millions d'abonnésencore en fixe.
- En 1999 L'ADSL est ommercialisée, cette technologie
a révolutionné le monde numérique. Elle permet
de profiter d’Internet et de la télévision,
ainsi que de la téléphonie fixe sans coupure
et grâce à une seule et même prise.
- En 2000 : 34millions de téléphones
fixes sont reliées sur les commutateurs électroniques
temporels, et il y a 54millions de téléphones
mobiles.
- En 2002-2004, grâce au dégroupage
(partiel et total), d’autres opérateurs se lancent sur
le marché. Une concurrence qui permet aux offres ADSL d’être
plus accessibles financièrement et qui motive les FAI à
avancer plus rapidement dans l’installation des réseaux
câblés en France.
- En 2003 Orange est le premier opérateur en France
à lancer la TV sur ADSL, avec le premier décodeur TV
et la TV sur mobile.
- Eté 2015 Le record de lignes dégroupées
a été atteint avec 11,7 millions de lignes.
- Dans les années 2010, l’objectif est clair : l’ADSL
pour tous en 2017.
- L'Arcep estime en 2019 que 99 % des foyers français sont
raccordés à l’ADSL. ADSL plus le dégroupage
c'est environ 20 millions de lignes fixes en moins.
- En 2022 Il ne reste que 6 millions d'abonnements au
fixe dont 13 % d'abonnement en dégroupage partiel, c'est
à dire un peu moins d'un tiers des abonnés sur paire
cuivre , plus de 99 % de la population âgée de 15 ans
ou plus est équipée d’un téléphone
ou smartphone.
- Le déclin du dégroupage ADSL est lié à
la montée en puissance des offres internet de fibre optique.
- Au 30 juin 2022, selon l'Arcep, il y avait 16,3 millions
de clients fibre, contre 11,1 millions d'abonnés sur
les réseaux ADSL/VDSL.
- Entre 2023 et 203x le réseau analogique sera coupé
progressivement. (téléphones fixes,
centraux téléphoniques commutés, réseau
filaire)
À l'été 2020, le gouvernement annoncé
sa volonté de généraliser la fibre optique sur
tout le territoire d’ici 2025.
- Dans un premier temps, et progressivement jusqu'en 2025, plus aucun
abonné internet ne pourra souscrire une offre ADSL. C'est ce
qu'on appelle la fermeture commerciale.
- Dans un deuxième temps, à partir de 2026 et jusqu'en
2030, les abonnés cuivre existants devront souscrire à
une offre fibre, dès lors qu'ils se trouveront dans une zone
fibrée. Ou, le cas échéant, opter pour une solution
alternative comme la 4G fixe. C'est ce qu'on appelle la fermeture
technique. Néanmoins, promet Fabienne Dulac, PDG d'Orange France,
"s'il n'y a pas de très haut débit dans la commune,
il n'y aura pas de décommissionnement du cuivre".
Pour bien comprendre le concept de dégroupage,
il est nécessaire de connaître plusieurs détails
sur la structure du réseau Internet.
Voici quelques éléments de réponse sur les différents
intermédiaires par lesquels les données numériques
transitent pour relier les internautes à la Grande Toile.
Le Backbone International : c'est l'épine
dorsale de l'Internet qui permet de connecter les serveurs de tous
les pays entre eux. Ce backbone se compose essentiellement de nombreux
câbles sous-marins de fibre optique. Point d'échange Internet : baptisée IX
(Internet Exchange), c'est une infrastructure de type "datacenter"
qui permet aux fournisseurs d'accès d'échanger du trafic
Internet grâce à des accords mutuels de "peering".
L'interconnexion peut se faire entre opérateurs, mais également
avec des CDN (content delivery network) par exemple. Point de présence régional : aussi appelés
POP (Point of Presence), ces installations sont des points de collecte
qui centralisent et agrègent les connexions Internet des clients
d'un opérateur pour les remonter vers un PoP national (en général
en région parisienne) interconnecté à un point
d'échange. Parmi les PoP régionaux d'envergure chez
Orange tout comme chez Free et SFR, signalons ceux de Rennes, Nantes,
Bordeaux, Toulouse, Marseille, Montpellier, Lyon, Nice, Strasbourg,
Dijon et Lille.
Répartiteur / NRA / central téléphonique : Orange
gère plus de 21500 centraux téléphoniques. Aussi
appelé noeud de raccordement d'abonnés (NRA), un central
peut contenir de 50 à plusieurs dizaines de milliers de lignes
téléphoniques. Ces lignes sont branchées sur
un répartiteur lui-même connecté à des
DSLAM qui gèrent les signaux IP (ADSL) injectés sur
le réseau téléphonique. Boucle locale cuivre : on appelle aussi boucle locale
"le dernier kilomètre". Il s'agit du réseau
téléphonique de distribution situé entre le noeud
de raccordement (NRA) et la prise téléphonique de l'internaute.
C'est un réseau à très forte capillarité
car chaque maison de chaque village est reliée à la
boucle locale via des sous-répartiteurs (SR) et des points
de concentration. La distance entre le central et votre habitation
- on parle d'affaiblissement calculé en décibels - est
un facteur déterminant pour le calcul de votre éligibilité
à l'ADSL et pour déterminer la vitesse de votre connexion.
Le déclin du dégroupage ADSL est lié à
la montée en puissance des offres internet de fibre optique.
Pourquoi met-on fin au réseau cuivre et
donc à l'ADSL ?
"Le réseau cuivre a su être utilisé
bien au-delà de ce pourquoi il avait été conçu
et installé. Sans lui, et sans l’ouverture concurrentielle,
Internet n’aurait pas eu le rapide développement qu’il
a connu. Que tous ceux qui ont participé concrètement
à cette grande histoire nationale en soient remerciés."
L'hommage est signé de l'Avicca, une association qui regroupe
la quasi-totalité des des collectivités qui sont impliqués
dans l'aménagement numérique du territoire et il résume
parfaitement la situation. Le réseau cuivre nous a rendu service
bien au delà de ce pourquoi il a été conçu,
mais il a fait son temps et il est temps pour lui de tirer sa révérence.
France Télécom (devenu Orange en 2013),
l’opérateur de la boucle locale historique, qui est aussi
l’un des principaux artisans du passage à la fibre (il
est le premier à l'avoir expérimenté dès
2006, NDR), constate que maintenir deux réseaux filaires n’a
plus de sens, tant sur l’aspect des usages que sur les aspects
économiques, techniques et environnementaux.
"Pour des raisons de performances techniques
et d’obsolescence, mais aussi pour des raisons d’efficacité,
de coûts et d’empreinte environnementale, il n’est
pas pertinent, à terme, de conserver et d’entretenir deux
infrastructures capillaires complètes en parallèle (le
réseau cuivre historique et les nouveaux réseaux FttH)",
approuve l'Arcep, l'autorité de régulation des télécoms,
qui assure que ce processus est déjà engagé dans
plusieurs pays européens, à savoir la Norvège,
la Suède et l'Espagne.
Sensible aux aléas météorologiques
et à l'humidité, le réseau cuivre a atteint aujourd'hui
ses limites en termes de débits et ne répond plus aux
besoins des Français. Il est peu à peu délaissé
par les utilisateurs attirés par le Très Haut Débit.
Pour preuve : au 30 juin 2022, selon l'Arcep, il y avait 16,3 millions
de clients fibre, contre 11,1 millions d'abonnés sur les réseaux
ADSL/VDSL.
Au 2ème trimestre 2022, les réseaux
FttH couvraient 75% des locaux (32 millions) et environ 60% des locaux
bénéficiaient de la présence des quatre opérateurs
commerciaux. En clair : la fibre optique est devenue l’infrastructure
internet fixe de référence. Au niveau européen,
la France est le pays le plus avancé dans le déploiement
de la fibre et où le déploiement de la fibre progresse
le plus vite.
À l'été 2020, le gouvernement annoncé
sa volonté de généraliser la fibre optique sur
tout le territoire d’ici 2025.
Il faut dire que la fibre optique ne présente
que des avantages par rapport à l'ADSL, et notamment en termes
de débits. En effet, avec un débit commercial jusqu'à
8 Gb/s, la fibre a l'avantage de la vitesse par rapport aux débit
maximum théorique de l'ADSL/VDSL qui est de 95 Mb/s. C'est
donc dans la logique des choses que l'ADSL se retire au profit de
la fibre. Mais non sans remerciements.
La Fibre optiqueou réseau FTTH est devenue le nouveau standard de connexion
pour être généralisée.
Pour suivre en détail le Déploiement des reseaux
FTTH en ZMD (2017)consulter
ce document Pour les foyers et les entreprises, la révolution numérique
impose l’accès à une connexion internet rapide.
Plus de 22 millions de prises sont déjà éligibles
à la Fibre en janvier 2021.
Avec ses ambitions d’offrir du THD à chacun des foyers
d’ici 2025, la France est l’un des pays les mieux équipés
au monde.
La 4G Home est une offre internet qui permet de disposer du haut débit
chez vous en utilisant le réseau 4G d'Orange.
Internet est le résultat d’une œuvre
collective conduite par des centaines de chercheurs et d’ingénieurs,
de 1961 à 1983, dans des équipes principalement nord-américaines
et européennes (Grande-Bretagne, Norvège, France, dans
l’ordre chronologique des contributions).
En France, dabord avec les projets CYCLADES
et ARPANET du le réseau TRANSPAC
Après l'arrêt du projet Cyclades, la montée en
puissance d'Arpanet et d'Internet aux Etats Unis a été
occultée en France pendant une douzaine d'années.
Premier témoignage
Michel Elie ingénieur informaticien a participé
à l'équipe projet d'Arpanet à l'UCLA, contribué
au projet Cyclades, puis été responsable de l'équipe
d'architecture réseau de CII-HB et Bull. Il nous livre son
témoignage :
Les vingt cinq premières années d’Arpanet et de
son successeur Internet ont permis à Internet de s’enraciner
un peu partout dans le monde avant d’exploser dans les 25 années
suivantes pour devenir un phénomène planétaire
incontournable.
En effet, après une participation française à
l’équipe initiale de développement du projet Arpanet
puis au développement du réseau Cyclades en France en
symbiose avec Arpanet, des voies divergentes ont été
poursuivies en France par la direction générale des
télécommunications et les constructeurs d’ordinateurs.
Pour ces derniers, l’objectif restait de développer un
modèle et des normes pour construire des réseaux d’ordinateurs
hétérogènes permettant l’exécution
d’applications réparties. Mais le moyen pour y parvenir
était de passer par le dispositif de normalisation internationale
de l’organisation internationale de normalisation (ISO).
Michel Elie a vécu cette période chez le constructeur
CII-Honeywell-Bull (né de la fusion en 1974 de la CII et de
Honeywell-Bull) puis Bull en tant que responsable de l’équipe
d’architecture réseau. Jusqu’à ce que, vers
la fin des années quatre-vingts, Internet réapparaisse
et s’impose progressivement en France. C’est sur cette trajectoire
française qu’il lui a semblé utile de rappeler
la chronologie des évènements et de fournir «
de sa lucarne » aux non-initiés quelques points de repères.
Avant 1969 : Aux États-Unis, une nébuleuse d’idées
sur le potentiel de l’informatique
Dans le projet du réseau de l’ARPA nommé
par la suite Arpanet s’incarne pour la première fois un
ensemble d’idées, d’expériences, de concepts
et de réflexions prospectives né dans l’après-guerre,
essentiellement dans le milieu universitaire états-unien comme
le montre l’intéressante thèse d’Alexandre
Serres consacrée au processus d’émergence d’Arpanet
et l’article de Gérard Le Lann, publié sur le site
d'Inria à l'occasion des 50 ans du réseau Arpanet.
1969 - 1984 : Aux États-Unis, naissance et développement
d’Arpanet
Arpanet est mis en service le 29 octobre 1969 à
partir de l'université de Californie à Los Angeles (UCLA).
C’est avant tout un réseau de communication basé
sur la commutation de paquets et le principe de transparence d’une
information transmise de bout en bout entre égaux (peer to
peer). Le but recherché est la mise en communication d’applications
installées sur des ordinateurs hétérogènes,
en vue de partager les ressources informatiques matérielles
et logicielles, les données et les moyens humains pour opérer
des applications géographiquement réparties.
Détaché comme assistant de recherche
dans le département informatique de l'UCLA, en 1969-1970, je
faisais partie du groupe de travail réseau (NWG) qui comprenait
plusieurs futurs « pionniers d’Internet » : Vint
Cerf, Steve Crocker, Jon Postel… et d’autres moins reconnus
: Mike Wingfield, Charlie Kline et un peu plus tard Alex McKenzie.
J’ai toujours pensé que le succès de ce type de
projet tenait autant à l’intelligence collective de l’équipe
qu’à quelques individualités, aussi brillantes
fussent-elles.
J’avais la chance de partager le bureau de Jon
Postel, futur responsable de l’administration des noms de domaine
et donc, d’être aux premières loges pour suivre
et discuter de l’évolution des spécifications du
réseau.J’y proposai quelques modifications mineures et
d’entreprendre la définition d’un langage de contrôle
du réseau, le Network Interchange Language (NIL) idée
reprise par la suite par le Network Control Language (NCL). J'eus
l'occasion d'exposer ce travail à Michel Monpetit et Alain
Profit lors de leur visite à l’UCLA début 1970.
Avant mon retour en France je rédigeai une
thèse de maîtrise "General purpose computer networks"
supervisée par Léonard Kleinrock.
Début 1971, je présentai, pour la première fois
en France, le réseau Arpanet dans un exposé à
l’IRIA et dans un article "Le réseau d'ordinateurs
de I‘ARPA, et les réseaux généraux d'ordinateurs".
Quatre ans plus tard, Arpanet comporte 40 nœuds et 45 serveurs
connectés. Le trafic passe d'un million de paquets par jour
en 1972 à 2,9 millions de paquets par jour en septembre 1973.
En 1984, tous les sites d’Arpanet basculent sur le standard
TCP-IP d’Internet (voir la contribution de Gérard
Le Lann).
Il n’y a pas de différence de nature ni d’ADN entre
Arpanet et Internet, comme certains ont voulu le faire croire.
C’est le même réseau avec les mêmes applications.
Simplement la nouvelle plate-forme de transmission, désormais
plus largement acceptée, permet le raccordement d’autres
réseaux, et Internet devient davantage un réseau de
réseaux. C’est un peu comme le passage de la 4G à
la 5G, qui sera invisible des utilisateurs mais leur donnera davantage
de possibilités d’évolution.
1972-1977 : En France, le projet Cyclades s’inspire d’Arpanet
En 1972 est lancé à l’IRIA le projet français
Cyclades, réalisé par une équipe dirigée
par Louis Pouzin. Comme Arpanet, il utilise la commutation de paquets
dans le réseau Cigale. Le commutateur de paquets du réseau
est développé sur un mini-ordinateur Mitra 15 de la
Compagnie Internationale pour l’Informatique (CII), un constructeur
français d’ordinateur créée dans le cadre
du Plan Calcul. Je suis chargé de la liaison technique entre
la CII et le projet Cyclades. Jean Pierre Touchard, ingénieur
de la CII, est affecté au développement du commutateur
de paquets de Cigale dans l’équipe de Jean Louis Grangé.
Le but poursuivi par la CII est d’ intégrer ce commutateur
de paquets dans sa gamme de produits. Cigale est mis en service dans
sa première version, environ trois ans après Arpanet.
De mon coté, je travaillais avec Hubert Zimmermann sur l’architecture
des transmissions et la « station de transport » de bout
en bout. Ces travaux furent soumis au groupe de travail INWG d’Arpanet
et pris en compte dans les discussions qui aboutiront au protocole
TCP (protocole de contrôle de transmissions).
1971-1989 : Évolution de l’architecture de réseau
NNA portée par les successeurs de la CII
L'architecture de réseaux adoptée par
la CII, baptisée NNA, permettait dans la « fonction de
transport » de gérer simultanément les services
de circuit virtuel et de datagramme, offerts par la « couche
réseau» : elle anticipait la future architecture normalisée
OSI. NNA avait été acceptée par nos partenaires
d’Unidata.
En 1974 intervint la dissolution d’Unidata et l’annonce
de la prochaine fermeture du réseau Cyclades. L'arrêt
du projet Cyclades a enrayé en France la coopération
avec l'équipe d’Arpanet et la dynamique de participation
des utilisateurs universitaires et d’entreprises du secteur public,
regroupées dans l’association Inforep, au développement
d’applications réparties qu’il avait suscité.
Les relations avec les équipes Internet aux États-Unis
furent coupées à partir de 1975. À CII-Honeywell-Bull
et jusqu’en 1985, nous n’entendrons plus parler d’Internet
y compris de la part de notre partenaire américain.
Lors de la fusion entre CII et Honeywell Bull en 1976, la compétence
des ingénieurs de la CII dans le domaine des transmissions
est reconnue. L’objectif du nouveau frontal développé
sur ordinateur mini 6 était de supporter le réseau Transpac
pour son ouverture en 1977 (voir l’article de Philippe Picard)
et de l’intégrer dans les couches transport de l'architecture
de systèmes répartis DSA de CII-Honeywell-Bull, développée
entre 1976 et 1978 par une équipe d'origine mixte CII-Honeywell-Bull
et Honeywell Information Systems (HIS).
1975 - 1985 : Architecture SNA d’IBM et normalisation de l’interconnexion
des systèmes ouverts
Depuis l'apparition en 1975 de l'architecture propriétaire
SNA (Systems Network Architecture) d'IBM, la grande préoccupation
des autres constructeurs fut de définir une stratégie
face au risque de domination du marché des réseaux par
IBM par le biais de son architecture de réseaux. Ils se sont
vite aperçus que chaque constructeur ne pouvait pas lui opposer
sa propre architecture de réseaux : dès lors il fallait
choisir entre :
- Adouber SNA comme architecture universelle et fabriquer des produits
compatibles SNA en offrant à IBM l'avantage d'être seul
à maîtriser les spécifications.
- Ou s'unir pour développer une architecture normalisée
reposant sur la notion de système ouvert. Cette option est
soutenue en France par les grands utilisateurs qui réclament
des normes « ouvertes ».
CII-Honeywell-Bull prend chez les constructeurs la tête du mouvement
pour l'établissement de normes d'interconnexion de systèmes
ouverts, en injectant dans les circuits de la normalisation ses propres
standards DSA et en déléguant des experts pour participer
aux discussions. C'est ainsi que sous son impulsion, les constructeurs
créent en 1977 le Comité Technique 23 "systèmes
ouverts" de l'European Computer Manufacturers Association (ECMA),
une association de constructeurs européens créée
en 1961 pour participer aux travaux de normalisation en informatique.
De son coté l’OSI crée le SC 16 dont la première
réunion, en mars 1978, est présidée par Charles
Bachmann, responsable de DSA chez Honeywell Information System.
En 1978 c’est aussi la publication du rapport Nora-Minc sur l'informatisation
de la société : la question des autoroutes de l’information
et de « mettre le monde en réseau » devient réellement
à l'ordre du jour. La Commission Européenne encourage
et finance le développement des protocoles OSI, à travers
le programme ESPRIT (European Scientific Programme for Research in
Information Technology), à partir de 1983. Bull participe avec
d’autres constructeurs Européens ICL, Siemens, Philips,
Olivetti… à plusieurs projets ESPRIT visant à accélérer
la disponibilité de produits conformes aux normes OSI.
1980 à 1989 : En France, la DGT prend l’initiative
sur les applications de téléinformatique
À partir de 1980, la direction générale
des télécommunications développe en France une
voie hexagonale minitel/videotex peu suivie à l’extérieur
(le service videotex anglais Prestel ou allemand Bildschirmtext ne
connurent pas le même succès). Innovant, entre autres
par la distribution généralisée des terminaux
à l’occasion de la mise en place de l’annuaire électronique
et par le système de kiosque qui gère la rémunération
des gérants d’application, le videotex a souffert dès
le déploiement des ordinateurs personnels de sa dépendance
aux terminaux en mode caractère.
En parallèle la direction générale des télécommunications,
sous l’impulsion de Hubert Zimmermann, soutient la normalisation
de l’OSI à l'Union Internationale des Télécommunications
et encourage son adoption par les constructeurs à travers le
projet Architel. Ce n’est que vers 1985 qu’Internet reviendra progressivement
en Europe, essentiellement à travers Unix et sa version
Berkeley 4.2 offerte aux universitaires qui supporte TCP/IP (mais
pas les jeux de caractères autres que l’ASCII).
Le très coûteux « détour » par l’OSI
et par la normalisation internationale n’a pas eu que des effets
négatifs ; il a permis :
- de sensibiliser un grand nombre d’informaticiens et d’étudiants
à la question des réseaux;
- d’établir un modèle et un vocabulaire permettant
de caractériser de façon conceptuelle les questions
de transport de l’information de bout en bout et de l’enseigner;
- de faire des progrès en matière de langage de description
de protocoles et de développement de « souches »
portables sous différents OS. Bull qui avait un catalogue d’ordinateurs
et de systèmes d’exploitation très hétérogène,
a ainsi pu de limiter le nombre de développements.
1989 - 1994 : Aux États-Unis, Internet se structure et s’impose
grâce au Web
Le Web proposé en 1989 par Tim Berneers-Lee
se présente comme une application d’Internet mais constitue
une véritable révolution dans le partage des données
et le développement de l’hypertexte et des navigateurs,
comme Mosaïc en 1993.
En France le choix d’une voie franco-française minitel/vidéotex,
et son succès même, deviennent un frein à la pénétration
d’Internet et ce n’est qu’à partir de 1991 que
certains entrepreneurs du vidéotex commencent à envisager
d’investir dans une migration vers Internet les gains conséquents
qu’ils y avaient réalisé (en partie grâce
aux messageries roses… mais pas seulement). En témoigne
par exemple l’intéressant entretien de Rafi Haladdjian
avec Valérie Schafer ou la réussite de Xavier Niel.
Internet se structure par la création de de l’Internet
Engineering Task Force (IETF) en 1986 pour assurer son développement
technique et de l’Internet Society (ISOC) en 1992, pour faire
valoir les points de vue de ses utilisateurs.
À partir de 1993, Al Gore, élu vice-président
des États-Unis et persuadé de l’importance stratégique
pour son pays de le contrôler, devient le grand soutien politique
d’Internet. L’Internet Assigned Numbers Authority (IANA),
dirigée par Jon Postel, sera remplacée en 1998 par l’Internet
Corporation for Assigned Names and Numbers (ICANN), société
de droit californien à but non lucratif chargée d’administrer
l'adressage IP et les noms de domaines de premier niveau.
Les États-Unis signifient ainsi au monde qu’ils ont bien
l’intention de garder le contrôle d’Internet plutôt
que de le déléguer à l’Union internationale
des télécommunications, l'agence des Nations-Unies pour
les technologies de l'information et de la communication.
Après 1994 : La France rentre dans le jeu et Internet est
progressivement envahi par le secteur marchand
Un début d’abord mou : en
1996, France Telecom commence à s’intéresser à
Internet en lançant les services Wanadoo, tout en maintenant
la priorité sur le minitel, sans le faire évoluer techniquement.
Il s’agissait de ne pas tuer prématurément la poule
aux œufs d’or. Jusqu’en 2000, les industriels resteront
sceptique sur le modèle économique d’Internet.
Mais le détour par le minitel et le videotex avait préparé
le grand public à entrer dans l’ère du numérique
si bien que le rythme s’accélère, devient exponentiel,
mais mal maîtrisé et tardivement réglementé
ce qui débouche sur « la bulle internet » qui marquera
le début de ce second quart de siècle !
Deuxième témoignage
Comment Arpanet est-il devenu Internet ? Quel a été le
rôle du projet Cyclades et celui de Stanford University dans la
création d'Internet ? Ce témoignage est fondé sur
l'expérience et la vision "de l’intérieur"
de Gérard Le Lann, qui fut membre de ces deux équipes
au cours des années soixante-dix.
Arpanet 1961-1970, les débuts
Le 29 octobre 1969, le réseau Arpanet donnait
ses premiers signes de vie (transmission de caractères), aboutissement
de travaux financés depuis 1961 par l'Advanced Research Projects
Agency (ARPA), devenue DARPA, Department of Defense Advanced Research
Project Agency, en 1972. Dans les rapports de Rand Corporation par
Paul Baran (classifiés jusqu’en 1964) et dans la thèse
de Leonard Kleinrock (MIT, 1961), on trouve tous les concepts fondateurs
(« packet switching », « adaptive routing »,
« store-and-forward », etc.). Arpanet fonctionnait grâce
à des Interface Message Processor (IMP), nœuds du réseau
chargés de commuter et de router les paquets. Conçus
dès le milieu des années soixante, les IMP étaient
construits par Bolt Beranek & Newman (BBN), spin-off du MIT.
En 1968
Les concepteurs Nord-américains et anglais (Donald Davies,
National Physical Laboratory) avaient figé les choix essentiels
:
- paquets (aussi appelés blocks, fragments, avant d’être
désignés par datagrams, nom inventé par Harold
Bothner-By, ingénieur norvégien) pour le réseau
d’IMP ; tout équipement (« host ») était
connecté à Arpanet sur un IMP, faisant office de nœud
d’entrée et de sortie réseau,
- messages, pour le niveau transport de bout-en-bout (entre
équipements connectés),
- fragmentation/réassemblage de messages ; un IMP d’entrée
fragmente en paquets tout message reçu localement d’un
de ses « hosts » ; un IMP de sortie réassemble
tous les paquets qui composent un message avant de livrer ce dernier
à l’« host » local destinataire ; l’équivalent
d’un « circuit virtuel » est établi entre
ces deux IMP ; à l’intérieur du réseau d’IMP,
les paquets circulent indépendamment les uns des autres, en
empruntant si nécessaire des chemins différents (routage
adaptatif et mode « pure datagram ») ; les paquets arrivent
sur un IMP de sortie dans un ordre quelconque ; des pertes et des
répétitions de paquets, des ruptures de "circuits
virtuels" peuvent se produire,
- transport fiable et ordonné de messages de bout-en-bout
(end-to-end error and flow control) ; c’est le rôle du
protocole NCP (Network Control Program), exécuté dans
les "hosts", afin de garantir tout message émis par
E est livré correctement, entièrement, chez le destinataire
D, toute séquence de messages émise par E est livrée
correctement, entièrement, et dans l’ordre des émissions,
chez D, absence de saturation par E des capacités de réception
de D ; une restriction majeure de NCP, à savoir un seul message
en transit entre E et D, sera éliminée dans TCP, le
successeur de NCP.
Arpanet 1970-1972, les prémices de la
transition vers Internet
Divers réseaux hétérogènes
furent connectés au réseau Arpanet. Par exemple, sur
le territoire Nord-américain, PRNet (Packet Radio Network)—premier
réseau radio à commutation de paquets, et les premiers
Ethernet de Xerox Parc (Palo Alto). À l’international,
par liaisons satellitaires à commutation de paquets, le réseau
NPL anglais, via SatNet (implémenté par Robert Kahn
et BBN), et le réseau norvégien (le seul IMP livré
en dehors des USA fut installé à Oslo).
Le but était d’expérimenter les solutions qui allaient
conduire à la transition entre Arpanet et Internet, consistant
en une fédération de réseaux hétérogènes
interconnectés.
Internet 1972-1983, de la naissance au déploiement
Outre les expérimentations d'interconnexion
de réseaux à Arpanet, la transition d’Arpanet vers
Internet repose sur les travaux de révision et amélioration
des idées fondatrices. Œuvre collective menée par
les auteurs des fameuses Request for Comments (RfC), des notes International
Network Working Group (INWG), et des publications phares, qui ont
conduit à la définition des protocoles socles d’Internet.
L’article fondateur a pour auteurs Vint Cerf et Robert Kahn :
« A Protocol for Packet Network Intercommunication».
Ce protocole fut ensuite modularisé, pour donner TCP
(le Transmission Control Protocol) et UDP (le User Datagram
Protocol) au niveau "transport", et IP au niveau
"réseau".
Donc, à sa naissance, Internet fournissait deux types de services
:
- La partie TCP, pour le mode connection-oriented (messages
livrés sans pertes et dans l’ordre d’émission)
; c’est sur ce mode que reposent la plupart des services usuels
(messageries, échanges de fichiers, transactions, etc.) ; le
« sliding window scheme » (la "fenêtre glissante")
décrit dans Cerf-Kahn 1974 est le mécanisme fondamental
pour la régulation et la fiabilisation des échanges
de messages (contrôle de flux, contrôle d'erreur), ainsi
que pour leur vitesse d’acheminement : plusieurs messages peuvent
être en transit entre un "host" émetteur et
un "host" récepteur, "gommant" ainsi les
délais de propagation des messages dans les réseaux
physiques traversés.
- La partie IP, pour le mode connectionless, qui ne
garantit aucune fiabilité des échanges, mais qui peut
convenir à certains types d’applications ; celles qui
doivent respecter l’ordre chronologique des messages échangés
tout en tolérant les pertes intègrent nécessairement
un mécanisme de livraisons dans l’ordre des émissions
équivalent à celui du « sliding window scheme
» de TCP.
La différence entre "paquet" et sa
finalisation sous le nom "datagram" est très simple
:
Un datagramme est un "paquet universel" dont le format est
compris par tout réseau faisant partie d’Internet.
Au lieu d’être assurés par les IMP d’entrée
et de sortie, fragmentation et réassemblage sont "remontés"
au niveau transport, exécutés par les "hosts"
eux-mêmes.
Dès la fin des années soixante-dix,
une compétition s’instaura entre les tenants de TCP/IP
et les défenseurs de solutions alternatives, notamment celles
fondées sur le modèle en couches ISO/OSI et les initiatives
EIN et Euronet de la Communauté économique éuropéenne.
Les solutions alternatives faisant l’objet de longs débats
internationaux (ISO/OSI) et de dissensions franco-britanniques (EIN
vs. Euronet), elles furent prises de vitesse par DARPA qui pesa de
tout son poids pour généraliser l’adoption de TCP/IP
et d’Internet. Le 1er janvier 1983 (le "flag day"), tous
les sites Arpanet (et les sites des réseaux "à
la Arpanet") remplacèrent NCP par TCP/IP. En septembre 1984, la Defense Communications Agency
décida de séparer Milnet d’Arpanet, pour ses applications
non classifiées. Internet et TCP/IP commençaient leur
belle carrière, ouvrant la voie au Web et au succès
de compagnies innovantes (Cisco par exemple).
L’invention du moteur thermique a permis la naissance
de l’industrie automobile et de ses géants. De la même
manière, l’invention d’Internet a été
essentielle pour l’avènement de l’industrie du numérique
et de ses géants. Par un curieux "retour vers le futur",
certains de ces géants sont d’ores et déjà
des partenaires de l’industrie des télécommunications,
en tant que propriétaires de câbles optiques sous-marins
(la quasi totalité du trafic Internet intercontinental est
acheminée par de tels câbles). Comme, par exemple, le
câble Marea (Facebook et Microsoft), entre la Virginie et Bilbao
en Espagne, de capacité 160 Terabits/s, et le câble Dunant
(Google), entre la Virginie et Saint-Hilaire de Riez (Vendée),
de capacité 250 Terabits/s.
Les contributions Cyclades à la genèse d’Internet
Confié à Louis Pouzin, ce projet démarré
en 1972 fut hébergé par l’IRIA. Il fut arrêté
en 1977, faute d’utilisation réelle et de transferts visibles
vers l’industrie malgré l’implication de la CII (voir
le témoignage de Michel Élie). À la naissance
de Cyclades, les Nord-américains avaient environ dix ans d’avance,
avec Arpanet. Brièvement, ce réseau était une
copie d’Arpanet, "adaptée" aux technologies
disponibles en France - des Mitra-15 servaient d’IMP. La connexion
à Arpanet consistait en une ligne téléphonique
du réseau PTT commuté de l’époque, sans
aucun rapport avec la commutation de paquets. On dénombre deux
contributions Cyclades, citées dans le papier historique de
1974 (références 8 et 11).
"Mitranet" (ref. 11) est le nom anglais
pour Cigale. Profitant de l’expérience Arpanet, ce sous-réseau
de Cyclades fut d’emblée basé sur les datagrammes,
comme l’explique Louis Pouzin lui-même, interrogé
par la SIF en 2015 : « J’avais déjà pris
l’option datagramme, parce que j’avais étudié
à fond les expériences menées au National Physical
Lab, et je connaissais assez bien le réseau de paquets de l’ARPA.
C’était un service à circuit virtuel, mais son
fonctionnement à l’intérieur, c’était
du datagramme. ».
L'appellation la plus proche de "datagram" apparaissant
dans un document cosigné Cyclades ("lettergram")
se trouve dans une note INWG ayant Hubert Zimmermann comme coauteur.
Ce dernier n'a jamais tenté d'attirer la "lumière
médiatique". Il nous a quittés trop tôt,
malheureusement, avant de recevoir la reconnaissance officielle qui
lui est due. Tout comme Donald Davies.
Les travaux de simulation sur le mécanisme
"sliding window" (ref. 8) entrepris à l’université
de Rennes de 1972 à 1973 (l’IRISA ne sera créé
qu’en 1975) portaient sur NCP et sur la première version
du protocole STST de Cyclades.
Régulation, fiabilisation et rapidité des échanges
de messages entre sites distants étaient les questions centrales
pour la transition vers Internet. Les problèmes posés
étaient entièrement nouveaux. En bref : comment garantir
que des processus asynchrones qui communiquent via des canaux à
délais finis mais inconnus, ou infinis, utilisés simultanément
par plusieurs processus, en présence de défaillances,
ont toujours une même vision de leur état global.
Cette classe de problèmes est à présent
connue sous le nom de "consensus distribué", qui
a fait l’objet de travaux fondamentaux depuis le milieu des années
quatre-vingts. Le problème général du "consensus
distribué" est posé pour n processus, n > 1.
Dans le cas de TCP/IP, n = 2. De nombreuses applications contemporaines
(par exemple, bases de données distribuées, clouds,
blockchains, cryptomonnaies) sont fondées sur les algorithmes
qui garantissent "consensus distribué"). Une autre
tendance récente, le "edge computing", a de facto
été amorcée en faisant "sortir" des
réseaux physiques les fonctionnalités qui sont désormais
à la portée des "hosts" contemporains (PC,
tablettes et smartphones).
Il convient de remarquer la rapidité avec laquelle,
en deux ans (1972-1973), les contributions IRIA ont été
intégrées dans les travaux qui ont conduit à
la transition entre Arpanet et Internet.
Une belle occasion manquée
En parallèle à Cyclades, la Direction
générale des télécommunications expérimentait
les circuits virtuels dans le projet Réseau à commutation
de paquets (RCP), dirigé par Rémi Després au
CCETT à Rennes. Mes relations avec Rémi Després
ont toujours été excellentes. L’idée de
coordonner les deux projets aurait certainement été
fructueuse. Mais, comme l’explique Philippe Picard qui pilota
le lancement du réseau Transpac en 1978 (voir son témoignage),
malgré les bonnes intentions de départ, la coopération
entre les deux projets se révéla impossible pour de
multiples raisons.
Pour conclure, Internet est le résultat d’une
œuvre collective. Il est bon ici de citer Leonard Kleinrock (UCLA),
l’un des plus célèbres pionniers, à propos
des "folks" qui ont participé à cette fantastique
aventure : « The Internet would have emerged even if none of
those folks had ever been born! It was “in the air” and
awaiting the technology to catch up with the vision. »
À l’âge de 51 ans, Internet a démontré
(une fois de plus) son extraordinaire robustesse. Confronté
à une hausse de 30% du trafic depuis la première vague
de la pandémie Covid-19, Internet a parfaitement "tenu".
Le cinquantenaire du démarrage d’Arpanet a été
l’occasion de sortir des archives d’anciennes controverses
avec en particulier le débat « datagrammes vs circuit
virtuels ». Après vingt ans à la Direction Générale
des Télécommunications et dix-sept ans chez Bull, l'ingénieur
Philippe Picard raconte l'histoire du passage d'Arpanet à
Internet, depuis son costume de télécommunicant.
En 1970 le réseau mondial de télécommunications
était essentiellement le réseau téléphonique
: les terminaux étaient aussi rudimentaires que possible et
toute l’intelligence du fonctionnement du système était
dans le réseau.
Ce que l’on appelait téléinformatique
était encore balbutiant. L’offre des opérateurs
de télécom (les Telcos) était rustique et dérivée
du téléphone. Une part importante du marché des
transmissions de données était la connexion de terminaux
à peine plus « intelligents » que les postes téléphoniques
vers des serveurs. Les liaisons inter-ordinateurs balbutiaient et
étaient essentiellement des transferts de fichiers.
La loi de Moore est passée par là
: 50 ans après, la puissance de traitement en périphérie
du réseau (box internet, ordinateurs individuels, smartphones)
est devenue dominante : ce qui paraissait impensable en 1970 est aujourd’hui
diffusé à des milliards d’exemplaires.
C’est TCP/IP qui, en 1974, a fixé la position du curseur
qui répartit les fonctions entre réseau et systèmes
terminaux pour Internet.
Un point très sensible a été la gestion de la
congestion du réseau (par ce que l’on appelle le contrôle
de flux). La vision du monde des « télécommunicants
» était que le réseau devait assurer la qualité
de service. TCP/IP délègue cette responsabilité
aux systèmes d’extrémité par des mécanismes
de contrôle de bout en bout. Cette responsabilité suppose
une puissance de traitement suffisante dans ces systèmes terminaux.
L’évolution a été lente
: la connexion à TCP/IP dans les O.S. ne fut intégrée
en natif qu’avec l’UNIX de Berkeley en 1984 et Windows ne
s’y est mis qu’en 1995 !
Le darwinisme technologique a tranché
:
Internet s’est développé sur la base des principes
de TCP/IP et qui est devenu progressivement universel y compris pour
la téléphonie … ou le streaming vidéo, au
prix de nombreuses évolutions reprenant avec le MPLS certains
principes des circuits virtuels.
L’internet d’aujourd’hui est devenu
un réseau de télécom presque comme les autres.
Son fonctionnement courant est décentralisé sauf pour
la gestion des adresses et des noms de domaine. Internet est bien
un réseau de réseaux appelés A.S. (Autonomous
Systems).
Le graphe des 65 000 A.S. recensés à ce jour a une structure
commune à tous les réseaux d’infrastructure (transport,
télécom), à savoir une structure hiérarchique
en « petit monde» (notion popularisée par le sociologue
Stanley Milgram qui, avec son expérience de 1947, a découvert
que le nombre de poignées de main séparant deux citoyens
quelconques était de 6).
Les opérateurs d’internet sont classés en 3 niveaux
d’A.S. (« tier networks ») et leurs règles
financières et techniques d’interconnexion sont complexes
(transit et interconnexion pair à pair).
Le mécanisme de routage auto-adaptatif
entre les A.S., le protocole BGP ne peut fonctionner que grâce
à la petite distance entre deux A.S. quelconques (moyenne de
15 réseaux traversés). La lutte contre la congestion
d’Internet passe par l’augmentation continue des capacités
du réseau (artères en fibre optique, puissance des routeurs).
Une histoire française
Dès 1970, les Telcos réfléchissaient
aux futurs réseaux commutés de données, avec
une technologie dérivée de la commutation téléphonique
temporelle naissante. C’est ainsi qu’en France le CNET initia
en 1970 l’étude du projet Hermès. L’hypothèse
d’une option , la commutation par paquets
(CP), était envisagée.
La connaissance du projet ARPANET commençait
à se diffuser en France. Et la technique de CP, dérivée
de la commutation de messages était déjà utilisée
dans quelques grands réseaux privés spécifiques.
Une mission commune CNET-IRIA dirigée par Alain
Profit (Adjoint au Directeur du CNET, responsable du département
téléinformatique) et Michel Monpetit (Directeur adjoint
de l’IRIA et de la délégation à l’informatique)
est allée s’informer et nouer des contacts avec l’équipe
ARPANET. Quelques ingénieurs français y travaillaient
dont Michel Elie faisait partie.
En 1972 le CNET et l’IRIA lancèrent
presque simultanément leurs projets incluant la commutation
de paquets. Un accord de coopération fut signé. Mais
la fausse bonne idée fut de croire que ces deux projets seraient
complémentaires et permettraient une sincère coopération.
L’IRIA étant censé sous-traiter au CNET la conception
du réseau de télécom, et pas seulement la fourniture
gratuite de circuits de transmission !
Pour le CNET, le projet RCP était un prototype
destiné à préparer un futur service de transmissions
de données par paquets nommé Transpac. Il s’agissait
de rédiger un cahier des charges en vue d’une réalisation
industrielle et d’acquérir les compétences pour
prendre part aux travaux de normalisation internationale. L’objectif
du futur service était de pouvoir combiner les avantages de
la commutation par paquets (multiplexage statistique efficace, conversion
de débit) et contrôle de la qualité de service
(taux d’erreurs, congestion).
Le projet CYCLADES, inspiré d’ARPANET
s’insérait dans l’écosystème du Plan
Calcul. L’objectif était d’étudier une architecture
de réseau d’échange de données entre ordinateurs
hétérogènes et d’accès à des
ressources distantes. Le réseau de transmission par paquets
Cigale en était un sous projet (voir le témoignage de
Gérard Le Lann).
Fin 1973, la DGT annonça son
intention d’ouvrir rapidement un service de commutation par paquets.
Cette annonce était due à plusieurs émulations,
en particulier l’initiative d’un groupe de grandes entreprises
françaises qui étudiait un réseau partagé
en technologie de paquets … sans oublier la rivalité avec
l’IRIA !
Fin 1974, un conseil interministériel
donna un feu vert conditionnel pour le lancement de Transpac :
Transpac devra être exploité par
une entité juridique distincte des PTT et les futurs utilisateurs
devront pouvoir prendre une participation dans la société
; Les accès au réseau devront respecter une norme internationale
; Un accord technique devra être trouvé avec l’IRIA.
La suite est connue : la recommandation X25
du CCITT fut approuvée en 1976, la réalisation industrielle
du système fut confiée à la SESA, le service
démarra officiellement fin 1978. Le réseau a vécu
pendant plus de 30 ans avec une vraie réussite commerciale
pour les réseaux d’entreprise et permit ultérieurement
le déploiement d’applications de très grande diffusion
comme le Vidéotex (et ses Minitels) ou les terminaux de paiement
électronique.
L’environnement international
Fin 1974, une initiative de la Commission
Européenne a contribué à faire évoluer
les esprits des Telcos européens. Il s’agissait de promouvoir
l’information technique et scientifique via un réseau.
La plupart des Telcos de la CEPT ont alors pris conscience que seul
un réseau de paquets pourrait répondre à la question.
Cette affaire a eu deux conséquences
:
- La décision de construire un réseau
européen Euronet, exploité par un consortium de PTT
européens. Dans cette affaire, il y eut une rude confrontation
avec la proposition de l’IRIA d’utiliser le réseau
EIN (dérivée de la technologie Cigale) démarré
en 1975 ;
- L’émergence d’une position européenne en
faveur des réseaux de paquets. La recommandation X25 du CCITT
, officialisée en 1976, fut finalement
un compromis technique entre quatre opérateurs très
motivés : PTT français, British Post Office, Bell Canada
et Telenet (réseau de transmission de données américain
créé par Larry Roberts…ancien chef de projet d’ARPANET).
Rémi Després, chef du projet RCP, a été
un acteur majeur de ce résultat.
Relations avec les industriels de l’informatique
Le succès de Transpac était conditionné
par la disponibilité des logiciels de connexion au réseau.
IBM était incontournable compte tenu de sa domination du marché.
Son attitude fut ambigüe : officiellement peu favorable à
la commutation de paquets (non prévue dans SNA), IBM a participé
très tôt à des expériences de connexion
à RCP, grâce à son labo de Nice / la Gaude.
La CII travaillait étroitement avec Cyclades
pour son architecture NNA (voir témoignage de Michel Elie).
Après la fusion CII-HB et l’abandon des produits de la
CII, la conception de DSA a mieux intégré que SNA l’usage
d’X25. Les fortes compétences des équipes de réseau
de la CII acquises avec NNA ont été essentielles.
Enfin les industriels de la péri-informatique,
ne disposant pas d’architecture propre, étaient très
motivés pour développer les connexions X25.
Pour conclure, les décisions
de 1975 (Fusion CII-Honeywell-Bull et arrêt d’Unidata,
suppression de la délégation informatique) ont retiré
au projet Cyclades son support institutionnel.
Sans ces décisions, quel scénario aurait-on
pu imaginer ?
Interdire aux PTT de lancer Transpac ? Ou au
contraire, admettre (sous réserve de solution juridique) la
concurrence entre deux réseaux ?
Aurait-il été réaliste d’exploiter un service
commercial de réseau dérivé de Cyclades :
Avec quelle technologie industrielle capable de faire face à
un trafic réel ?
Avec quels financements et quelle organisation opérationnelle
assurant un vrai service de qualité ?
Comme le prétendent certains, Internet aurait-il pu être
français au lieu d’être dominé par les Américains
?
Je n’ai jamais vu la moindre esquisse de tels
scénarios de la part de tous ceux qui portent le deuil de la
Délégation à l’Informatique et qui accusent
les auteurs de leurs malheurs : Valéry Giscard d’Estaing,
la CGE d’Ambroise Roux, les PTT, etc.
Je terminerai par une remarque plus personnelle. La
tentative de concertation entre les PTT et l’IRIA, prévue
par les accords interministériels de fin 1974 a bien eu lieu.
L’interlocuteur des PTT désigné par l’IRIA
fut Hubert Zimmermann. L’impossibilité d’obtenir
un accord technique n’a pas nui à nos relations ultérieures.
Après l’aventure Cyclades, Hubert Zimmermann
se consacra au développement et à la promotion de l’OSI
(Open Systems Interconnection) : il était président
du SC16 de l’ISO, ce qui lui a donné une grande visibilité
internationale. Il avait pris des responsabilités au CNET et
nous avons collaboré pour décliner l’OSI dans l’architecture
du système d’information de France Télécom,
(projet Architel). Il eut ensuite jusqu’à sa disparition
en 2012, plusieurs autres rebonds remarquables : création de
Chorus, poste stratégique chez SUN.