INFORMATIQUE et télématique

Retour Histoire de l'Informatique
dernière mise à jour de la page 03-Mar-2003

Cette note est un travail préparatoire destiné à recevoir avis et commentaires pour une contribution à l'histoire de l'informatique et des télécommunications en France.
Je continue de m'étonner de l'absence de synergie qui arégné entre la compagnie Bull, nationalisée de 1982 à 1995, et l'opérateur de téléphone national que l'Etat avait choisi de lui donner comme principal actionnaire. Peut-être la discussion des points de contact entre informatique et télématique pourra éclaircir ce qui reste encore à mes yeux très obscur.

Introduction

Alors que la plupart des acteurs techniques de l'informatique et des télécommunications des années 1960-1970 ne sont plus maintenant en activité et sont  pour la plupart dégagés du devoir de réserve, il semble possible de commencer à explorer l'histoire des interactions entre ces deux branches d'industrie, leurs similitudes et leurs différences et les causes profondes des incompréhensions et divergences qui ont régné entre elles. On ne cherchera pas ici à descendre au niveau des responsabilités personnelles d'individus responsables, ni tout expliquer par des considérations sociologiques ou politiques.

Technologiquement, les deux branches d'activité  se rapprochent par la technologie commune qui est devenue à partir de la fin des années 1960 basée dans les deux branches sur l'électronique à 90% digitale et sur la part de plus en plus grandissante du logiciel. D'ailleurs tant aux États-Unis (AT&T, Bell Labs) qu'en France (CNET) ou au Japon (NTT), les laboratoires de télécommunications ont développé des ordinateurs, soit tous seuls, soit en liaison avec l'industrie (Japon).

La particularité de ce qu'on appelle aujourd'hui les opérateurs de télécommunications est qu'ils soit des compagnies de création récente (la fin des années 1980) ou les héritiers des monopoles (qu'ils soient d'anciennes administrations d'état ou des compagnies à qui l'état a concédé un monopole). 
Par contre, il ne semble pas qu'il ait existé (pas même en Union Soviétique) d'arsenaux d'état fabriquant des ordinateurs en en exerçant le monopole de la production. En conséquence la notion de service public est restée étrangère aux cadres et aux ingénieurs de l'industrie informatique alors qu'elle a imbibé la culture des sociétés de télécommunications par leur souci de précautions quant à la continuité de service et d'un encadrement de la demande. On devrait rapprocher les motivations d'un cadre chez les opérateurs de celles habitant les autres services de transport (la poste bien sûr, le transport d'énergie, les trains ou les responsables des routes). Priorité était donnée au respect des engagements pris sous réserve d' actes de Dieu pour prendre la terminologie anglo-saxonne, tels qu'inondation, catastrophe nucléaire ou grève... Ce service public était rempli à un coût qui était essentiellement comparé aux dotations budgétaires et rendu à un prix qui relevait d'un certain arbitraire rendu au niveau de l'état et du parlement.

 Contrairement à la plupart des autres services publics où le coût réside autant sinon plus dans celui de la production (gaz, électricité non nucléaire, chemins de fer) le coût marginal de transport d'informations (voix ou données) est voisin de zéro dans la mesure où il n'existe pas d'engagement du producteur de service pour satisfaire une demande excédant les capacités présentes. La Poste, elle pourtant voisine à bien des égards, a un coût marginal significatif. La dotation budgétaire du monopole Télécom est donc largement consacrée aux investissements. Ceux-ci avaient été longtemps maintenus à un niveau très bas jusqu'à la prise de conscience du sous-développement téléphonique.

Les utilisateurs de l'informatique découvrirent l'utilité de la télématique dans les années 1960 et pressèrent leurs constructeurs de leur apporter des solutions. L'attitude de ces derniers a été, et doit être encore aujourd'hui, d'exploiter au mieux l'existant fourni par les opérateurs. Essayer de découvrir par exemple des modems à haute vitesse comme le faisait le laboratoire de IBM de La Gaude était marcher dans le champ réservé des PTT et de leurs fournisseurs et ne dépassa guère le statut expérimental. En se contentant d'utiliser l'offre de tuyaux existants (TELEX, lignes louées téléphoniques, réseau téléphonique commuté, les informaticiens tenaient le monopole pour un fait accompli, le prix relatif des liaisons également avec lesquels on essayait de jongler par des solutions techniques propres et des combinaisons de toutes les solutions.

J'aimerais décrire à titre d'exemple une situation vécue à Honeywell-Bull en 1972. La compagnie disposait d'une ligne louée téléphonique transatlantique offrant une bande passante de 2400 bauds en numérique, entre Paris-Gambetta et Boston-Wellesley. Elle était utilisée de 13:00Z au lendemain matin pour des transmissions vocales entre le central privé de Gambetta et les centraux américains de Boston, Minneapolis et Phoenix. A partir de 19:00Z, cette liaison pouvait être ouverte depuis des postes privés de la région parisienne, dûment attitrés, qui en appelant un numéro local parisien entraient en rapport avec l'opérateur américain de Minneapolis, puis de Phoenix et ce jusqu'à la fermeture de ces postes vers 06:00Z. A partir de ce moment la ligne était partagée au moyen un FDM privé situé à Gambetta communiquant avec un FDM identique à Boston-Billerica  entre six téléimprimeurs Teletype 37 avec modem asynchrone vers des modems équivalents connectés à un système MULTICS 645. Ce système était également utilisé par une douzaine de terminaux à Boston dont seuls un ou deux étaient déjà utilisés la nuit aux USA. Cette liaison nous permettait de constituer des fichiers programmes de lancer des essais de compilation et de savoir si cela s'était bien passé ainsi que de poster des email avec nos collègues outre-atlantique. Comme nous n'avions pas de moyens pour obtenir les résultats (des paquets de cartes perforées) par téléphone, la solution de dépêcher un porteur à l'avion (partant de Boston à 02:00Z le lendemain et arrivant à Paris vers 08:00Z) avait été retenue. Cette situation dura environ 6 mois, à l'issue de laquelle un autre système MULTICS fut installée à Paris et la synchronisation se fit par échange de bandes magnétiques (transportées par avion).
Ce qu'il  faut remarquer dans cette description que l'utilisateur prenait le risque de ne pas avoir un service parfait (il arrivait souvent que les caractères de contrôle d'écho se perdent et que ayons la réponse au son) et d'avoir des services au marge des règlements (poste RTC connecté directement aux USA) pour installer une solution dans un minimum de temps.

On voit nettement sur cet exemple que les constructeurs n'ont pas attendu que l'administration leur fournisse un réseau pour développer avec les moyens disponibles une solution ad-hoc. Certains clients se plaignaient auprès de l'administration des coûts induits par des règlements et/ou une tarification qui rendaient les solutions plus coûteuses ou moins performantes que les solutions disponibles dans certains pays étrangers et de l'immense difficulté que posaient jusqu'aux années 1980 les liaisons transnationales. 

Il faut noter que les administrations européennes contrairement aux États-Unis décidèrent de se contenter d'agréer les modems et non de les imposer ainsi que les équipements terminaux comme c'était le cas pour le réseau TELEX ou la totalité des transmissions de données aux États-Unis à l'exception des liaisons se déroulant sur un terrain privé et celles utilisées par les services de la Défense. C'est donc au début des années 1960 que l'on peut faire remonter la privatisation d'une partie du service public de télécommunications. Les compagnies d'informatique se satisfaisaient de ce statut, installant chez chaque client intéressé par les applications de télécommunications le matériel nécessaire n'hésitant pas à livrer des éléments basés sur le service de chaque client.

L'utilisation du réseau commuté RTC pour les applications informatiques était pénalisé par des débits limités initialement à 300 bauds puis longtemps à 600/1200 bauds qui convenaient aux terminaux de genre Teletype. Par ailleurs les temps d'établissement des communiations en RTC étaient importants et ne permettaient guère l'utilisation pour des interactions courtes. La numérotation directe par l'ordinateur sur RTC était disponible mais son utilisation était regardée avec suspicion par l'administration, redoutant les usages abusifs (déjà le spamming). Cependant le protocole X21 de commutation rapide de circuits élaboré sous la pression des administrations scandinaves n'atteignit pas la disponibilité opérationnelle en France.

Transpac

Un premier tournant s'établit en France avec le réseau TRANSPAC. Le réseau TRANSPAC se basait sur la commutation temporelle de paquets (selon un protocole expérimenté sur Ethernet, puis Arpanet et Cyclades -ce dernier à l'IRIA). Il utilisait aussi le protocole ligne HDLC approuvé au CCITT et qui s'inspirait beaucoup du standard SDLC préconisé par IBM dans SNA. La proposition de TRANSPAC faite par la DGT fut reçue sans enthousiasme par les constructeurs informatiques et beaucoup plus favorablement par les clients qui n'avaient pas encore mis en service un réseau privé (notamment les administrations publiques). Le peu d'enthousiasme des constructeurs était principalement dû à la perte de marché entraîné par la mutualisation des équipements de concentration à base de mini processeurs. Il était dû aussi à l'intervention dans le réseau applicatif de fournisseurs multiples dont la réunion devait faire entrer dans le jeu d'autres maîtres d'oeuvre que les services spécialisés des constructeurs, les SSII.

Une controverse bien connue opposa sur le réseau TRANSPAC les partisans d'un service réseau de bout en bout à la manière du réseau TELEX (réseau à base de circuits virtuels, où la commutation de paquets est invisible aux équipements terminaux) et les partisans d'un transport de datagrammes où le rôle de l'administration était limité à un simple réseau de tuyaux rendant un service de simple transporteur. Il me semble qu'au dessus des problèmes d'optimisation du service des applications deux approches poltico-philosophiques sur le rôle de la DGT s'affrontaient dans ce débat. Une conception visait à limiter l'administration à  un rôle d'entretien du réseau routier et à la création d'autoroutes, en lui fermant la porte de services nouveaux à l'utilisateur. L'autre conception visait à établir un nouveau réseau (se substituant au réseau TELEX) et destiné à établir un service public de transmission de données où l'administration pourrait "démocratiser" l'usage de la télématique au delà des utilisateurs suffisamment riches pour s'offrir le éléments d'un réseau.

Une société indépendante de la DGT, fut créée pour la maintenance et l'exploitation du réseau TRANSPAC. Une logique d'offre et de demande intervint sur le marché des transmissions de données, dont la transparence n'était pas totale puisque les redevances des lignes louées et du réseau TRANSPAC était administrées. Le réseau X.25 n'était pas exclusivement consacré aux liaisons inter-ordinateurs, mais devait donner naissance à des terminaux à cette interface. En pratique, le succès de Transpac ne fut dû qu'à la fourniture et à l'utilisation de concentrateurs PAD qui multiplexaient les terminaux existants (d'abord et essentiellement téléimprimeurs et écrans émulant les téléimprimeurs, puis terminaux aux protocoles VIP et BSC sur un tuyau X-25. Les tarifs des liaisons louées ET de l'utilisation à longue distance du réseau téléphonique commuté assurèrent le succès de TRANSPAC bien après les années 1990. Mais d'un service public de communication assurant la livraison de massages de bout en bout, on n'avait tiré qu'un nouveau service de commutation de tuyaux par paquets. Il ne semble pas que les administrations étrangères ayant réalisé un réseau X.25 aient abouti à un résultat sensiblement différent des solutions françaises.

On a vu qu'IBM avait sans attendre la fourniture d'un réseau public avait développé les principes de réseaux privés SNA qui reliaient terminaux, mini-ordinateurs et ordinateurs centraux des clients. La publication externe des standards SNA avait également l'objectif d'assurer à l'intérieur de IBM,  dans les  différents laboratoires de développement, la discipline nécessaire à un support relativement rapide et bon marché des divers types de terminaux réclamés par les clients et d'assurer l'interconnectabilité des divers systèmes d'exploitations héritages historiques de l'introduction difficile de la série 360.
Un effort important dans les systèmes d'exploitation des centraux, de son processeur frontal, et de plusieurs de ses mini-ordinateurs plus ou moins spécialisés permettait à IBM d'offrir dans la seconde moitié des années 1970 une offre standard de logiciels pour satisfaire les besoins de la majorité de ses clients. IBM affirmait qu'il ne mettrait pas d'obstacles à l'utilisation de matériels concurrents respectant ses standards. En pratique, IBM fit les annonces commerciales de SNA bien avant que les détails des spécifications nécessaires à l'interconnexion ne soient établis ni, à fortiori, publiés. L'introduction de SNA pouvait être ainsi prises par les concurrents de l'époque (Univac, Digital, Honeywell, CII) comme un verrouillage machiavélique de toute l'informatique d'un utilisateur au profit d'IBM (et de ses clones purs, comme Amdahl-Fujitsu, Hitachi...). Une des caractéristiques des réseaux SNA étaient qu'ils étaient formés autour du système central du client et qu'un service de transport de données généralisé n'était pas pris en compte. Il est vraisemblable que cette déficience était un peu dû à une politique de non-agression vis à vis de AT&T et au credo envers l'accroissement inéluctable des systèmes centraux d'entreprise (loi de Grosch).

SNA-DSA 

SNA effrayait bien entendu les concurrents d'IBM partagés entre l'envie de relever le défi et de proposer "leur" alternative à SNA aussi fermée que ce dernier, et la tentation de contester le modèle en développant leur alternative autour d'un réseau de transport de données plus indépendants des systèmes centraux considérés comme de simples fournisseurs de service (bases de données, moteurs de calculs...). C'est ce modèle alternatif que CII essaya de développer avec son projet NNA. Ce projet avait pris en compte l'expérience de Transpac et de Cyclades. Il n'avait pas encore été déployé au moment de l'absorption de CII par Honeywell-Bull. La culture des équipes de Honeywell, de Bull et des anciens de General Electric était plus inclinée à développer une alternative à IBM qu'à s'infiltrer dans le moule IBM. Aussi, le projet NNA de réseau de transmission de données fut adopté en principe par le nouveau groupe Honeywell-CII-HB sous le nom de DSA Distributed System Architecture.
DSA, à la différence de SNA, n'était pas conçu autour de l'ordinateur central, mais autour de processeurs de réseau (des mini-ordinateurs level 6 de Honeywell, doté d'un système d'exploitation spécial conçu à CII-HB). DSA ne visait pas la clientèle d'un réseau public comme Transpac mais était destiné à des réseaux privés installables partout dans le monde et utilisant les "tuyaux" des opérateurs de téléphone, qu'ils soient privés ou collectifs. DSA ne reçut qu'un accueil poli peu enthousiaste de la part des départements produits de Honeywell et de CII-HB et de la part des clients. S'ils reconnaissaient les avantages conceptuels de DSA, ils s'inquiétaient de la compatibilité avec les réseaux déjà en place et de la coexistence inévitable avec IBM. La compatibilité avec les réseaux pré-DSA fut assurée au dépens de la pureté architecturale et des délais de livraison. En ce qui concerne SNA, DSA proposa, mais démontra tardivement la connexion du processeur de réseau au mainframe IBM, en se substituant au frontal IBM. Un réseau DSA pur aurait dû respecter la rigueur de l'architecture en couches OSI, alors en cours de définition avec l'active participation de CII-HB et de Honeywell. Dans ce contexte, l'interface frontal-central aurait dû se faire en offrant des ports au niveau "session" ne laissant au central que la "présentation" et bien entendu l'application. Les premières impuretés intervinrent dans la connexion au réseau de mini-ordinateurs agissant simultanément en concentrateur de réseau et de présentation distribuée voire de transactionnel distribué. Le coût des processeurs en 1980 entraîna de les connecter directement au réseau sous un système d'exploitation complètement différent du NPS (le logiciel du processeur frontal). La seconde impureté vint de la décision de supporter les réseaux pré-DSA sans altération du logiciel GCOS sur les grands systèmes DPS-8. Si GCOS7 développé à Paris fut un peu plus orthodoxe, la coexistence avec le frontal précédent et la connexion de logiciels serveurs transactionnels ne collait pas avec le principe de l'ouverture de session à chaque transaction.
Un autre problème de DSA fut celui de concessions de détail faites aux autres partenaires des comités ISO dans la définition des standards, si bien que l'implémentation de DSA était à peine terminée qu'une nouvelle génération OSI se profilait à l'horizon. De plus, CII-HB et Honeywell se refusèrent à ouvrir les standards DSA aux processeurs extérieurs au groupe, probablement pour garder la maîtrise d'oeuvre des évolutions estimées nécessaires.

A la fin des années 1970, il régna en France une certaine paranoïa sur les conséquences de la suprématie américaine dans les technologies informatiques et de télécommunications et le succès de la série 360 et de ses clones était vu comme le fermant destructeur de la langue française et de notre culture. Un rival potentiel d'IBM -le groupe AT&T- était vu avec moins d'antipathie mais apparaissait aussi menaçant sur le long terme. L'atmosphère de l'époque se retrouve dans le rapport Nora-Minc qui recommandait une intervention publique pour non seulement assurer la survie de CII-HB mais aussi faire barrage à la suprématie de IBM en établissant des services publics de télématique. Il est vraisemblable que cette paranoïa n'était pas partagée par le groupe CII-HB dont les équipes travaillaient sur une base mondiale en étroite collaboration avec des américains plus à même de juger des forces et des faiblesses de IBM. L'action de CII-HB se poursuivit dans un contexte international en particulier dans les comités de normalisation en recherchant l'alliance tactique avec les anciens partenaires de CII (ICL et Siemens) et avec Digital pour essayer de borner les prétentions hégémoniques de IBM. Ils savaient aussi que IBM était plus menacé par les lois anti-trust américaines que par les rodomontades des gouvernements indiens, nigérians ou français.

Minitel

 Il semble que les relations technico-politiques entre CII-HB et la DGT ont été quelque peu distantes à la fin des années 1970, au moment où la DGT préparait son plan Télétel qui consistait à valoriser la distribution de l'annuaire téléphonique avec des services télématiques à valeur ajoutée comme l'accès (payant) à d'autres bases de données comme les horaires SNCF ou les cours de bourse. Ce plan était purement applicable à la France et la participation de CII-HB puis du groupe Bull au réseau connu sous le nom de Minitel fut géré dans le contexte d'un système spécial du réseau commercial France. Le choix du Mini-6 comme base principale des serveurs du réseau Minitel donnait à Bull un marché. L'offre de fabrication des terminaux domestiques fut déclinée par Bull, les usines ne pouvant passer efficacement au rythme et au prix demandé par la DGT. Les conséquences de l'introduction du Minitel chez les consommateurs furent minimisées en se contentant de supporter le Minitel 1B comme un simple Teletype par les applications. Le service de courrier électronique qui était un des piliers d'un service public télématique ne fut guère étudié par Bull qui se contentait pour son usage propre d'utiliser un réseau fondé sur un logiciel spécial de provenance externe. Ce réseau Minitel a été une réussite technique incontestable. Le service d'annuaire téléphonique gratuit a réduit les coûts de la DGT, même si les support publicitaire des Pages Jaunes a justifié le maintien d'annuaires papier. Mais la grande innovation du Minitel a été le "service" de la facturation par l'opérateur rendu aux exploitants de services de base de données, aux entreprises et aussi le coup de pouce donné aux entreprises de presse pour fournir des services de chat (messageries roses) ou d'annonces commerciales. la facturation à la durée n'a pas encouragé les concepteurs de pages Minitel à optimiser le temps de recherche par le client. S'il est certain que la facturation à la durée par l'opérateur a diminué de manière significative les coûts pour le diffuseur de données, la passivité du client devant la facturation des annonces publicitaires a étonné les observateurs étrangers. Il semble bien qu'en France, ces clients passifs coexistent avec d'autres clients rétifs qui n'ont pas encore acquis après 50 ans de poste de télévision. Le projet Minitel fondé sur des terminaux très bon marché firent un usage important du réseau TRANSPAC en utilisant des PAD spécialisés pour leur rattachement aux serveurs Minitel via X.25. Cependant au même moment commençait à se répandre en Europe la première génération de micro-ordinateurs domestiques -avec processeurs 8-bits-. A l'étranger une bonne partie du service Minitel était assuré par les BBS coupant un peu l'herbe sous les pieds d'une exportation du Minitel. certes CEEFAX était le Télétel britannique, mais les amorces de privatisation de British Telecom n'étaient pas favorables à la distribution gratuite de terminaux aux abonnés domestiques et le standard CEEFAX resta confidentiel.

Plan IPT

Un autre plan de services télématiques naquit en dehors de la DGT sous l'impulsion du gouvernement dans la première moitié des années 1980, c'est le plan "Informatique pour Tous" visant à installer l'informatique dans les lycées et collèges. A l'étranger -Canada, Scandinavie, certains états américains, cette introduction se faisait progressivement utilisant des ordinateurs Apple II ou Commodore parfois connectés à de s réseaux universitaires ou à des BBS. le plan "informatique pour tous" fut initialement envisagé avec des Apple Macintosh de la nouvelle génération avec la même philosophie. Le Mac avait contre lui d'être cher et la volonté politique de faire un plan d'équipement identique pour toute la France fut de faire au niveau de chaque établissement un nanoréseau avec des compatibles PC (Micral ou Goupil) comme serveurs et des machines Thomson 8-bits comme clients. Ce plan fut déployé avant de savoir quel contenu serait installé. Au total, ce fut un fiasco qui discrédita l'informatique auprès d'enseignants guère enclins au modernisme, ce qui détruisit une des chances de modernisation de l'enseignement non seulement en France mais en Francophonie. Il ne semble pas que la DGT ait eu une part quelconque dans ce plan de services spécialisés de télématique. Quant aux constructeurs leur participation se limita à une action commerciale pour obtenir la part la plus grande possible de cette dotation budgétaire.

Open Systems

A cette même époque (1983-1985), la direction de Bull SA (nationalisée et ayant regroupé presque toutes les ressources de l'informatique française) s'avisa que DSA vue par le marché et le réseau commercial Bull que comme une simple réponse à SNA de IBM, et que la réponse à la domination américaine ne pouvait venir que d'une politique volontariste à l'échelon européen, imposant une batterie de standards qui obligerait IBM (et ses clients?) à passer sous les fourches caudines de standards obligatoires (UNIX au niveau des systèmes d'exploitation) et la pile OSI au niveau des réseaux, ces standards devant reléguer aux oubliettes de l'histoire SNA , OS/MVS et autres PC-DOS. Certes, dans la communauté universitaire américaine, TCP/IP faisait bon ménage avec UNIIX et était livré en standard avec la version Berkeley. Bull se défiait-il des initiatives universitaires ou pensait-il indispensable une alliance avec AT&T pour se défaire de IBM ? ou bien croyait-il vraiment aux affirmations que DSA était facilement adaptable aux systèmes ouverts ? Toujours est-il que la stratégie de la Compagnie fut dirigée vers le modèle de systèmes ouverts à base de UNIX, mais d'un UNIX dont la compatibilité se limitait aux interfaces et protocoles d'applications. Ce n'était en aucune mesure la tendance aux logiciels à la carte ni à fortiori des logiciels libres tels que connus à la fin des anées 1990. L'idée était de regrouper logiciel d e base et matériel pour obtenir des revenus égaux et des coûts inférieurs aux systèmes propriétaires dont l'abandon était envisagé pour la fin des années 1980. 

La réalisation de la pile OSI ne devait pas entraîner de changements importants de matériel. Le Mini-6 du début était remplacé comme Frontal par un MainWay à base de microprocesseurs 68000 mais le logiciel avait fait l'objet d'un portage. Les développements des logiciels OSI avaient entrepris dans le cadre d'un projet commandé par France Télécoms et l'EDF qui avait auparavant choisi de développer ses protocoles Retina pour ne pas choisir entre SNA et DSA  qui s'alignait sur OSI.
Cependant, les utilisateurs UNIX y compris les utilisateurs internes et y compris IBM qui collabora avec Bull sur AIX depuis 1992 ne pouvaient ignorer longtemps la vague Internet fondé sur TCP/IP.


Ordinateur Personnel et Réseaux

L'autre fait décisif fut le développement de ordinateur personnel autour de l'architecture IBM PC qui déplaça la discussion sur les terminaux et les réseaux locaux. Lors de la conversion de Microsoft à Internet fin 1995, la partie était jouée et les constructeurs ni IBM, ni à fortiori Bull ne pouvait plus que constater l'existence d'un standard de facto. Il semble que certains architectes du milieu télécoms persistaient à espérer que Internet garderait un caractère expérimental et que le besoin du multimédia (son et images animées) imposerait de nouveaux standards aux autoroutes de l'information. 
Cette idée remonte probablement aux années 1980. Les architectes de la DGT avaient tendance à la segmentation des réseaux en fonction des applications (réseau de transmissions de texte, réseau de transmission de la voix, réseau de transmission de la télévision, réseau de transmission de la télévision HD) réseaux qui chacun devait être optimisé de bout en bout avec des initiatives de l'administration. 

L' approche de générations successives de réseaux et de fragmentation de l'offre était en opposition de phase avec la plupart des clients et avec l'industrie informatique qui privilégiait une utilisation des tuyaux disponibles pour faire passer fut-ce au chausse-pied les informations nécessaires. Des inventions telles que l'utilisation des algorithmes de compression, la stratégie de transmission avec risque de perte de paquets (UDP/IP)  répondirent plus ou moins bien aux besoins sans attendre la disponibilité des nouveaux réseaux.
Le besoins en transmissions internationales aussi bien pour les sociétés que pour les individus pour accéder aux bases de données Web dont la localisation devenait peu importantes (les astronomes , même amateurs,  se connectent de façon transparente dans la même activité à Strasbourg, à Brême ou à Pasadena). Cette dimension internationale a fait du réseau téléphonique avec des modems de plus en plus rapides, des réseaux IP de datagrammes optimisés par l'exploitation de la boucle terminale en ADSL la base de la télématique de l'an 2000. Une autre raison du succès d'Internet a été la facturation à un coût voisin de son coût marginal, un peu par son utilisation en support publicitaire mais surtout par suite de la concurrence qui a suspendu le privilège du monopole à décider de ses investissements et permis une perfectionnement progressif d'un réseau unifié. Certes, le service de télévision HD à la demande n'est pas encore disponible. Certes la télématique sur mobiles est notoirement défectueuse en 2002, mais les barrages qui limitaient la plupart des attentes réelles du consommateur ont cédé sans que les révolutions de l'introduction de nouveaux réseaux soient nécessaires.

Internet

Le réseau Internet, tel qu'il s'est imposé, est fondé sur des axes principaux reliant les principaux FAI (fournisseurs d'accès à Internet) par des liaisons louées (directement aux opérateurs ou par l'intermédiaire de grossistes qui les louent aux opérateurs réels). Il est connecté aux utilisateurs soit par des réseaux locaux (LAN) privés soit par des liaisons du réseau public. Dans ces dernières liaisons, le réseau téléphonique commuté (RTC) assurait par l'intermédiaire de modems l'essentiel du trafic tant que l'ADSL ne rendit la connectivité à Internet quasi-permanente pour de plus en plus d'utilisateurs. Cependant, on ne doit pas sous-estimer l'impact du standard PPP qui a permis à plusieurs liaisons Internet de coexister sur le même câble, de manière quasi invisible à l'opérateur téléphonique, séparant définitivement le concept de circuit virtuel vu par le téléphoniste de son image pour l'informaticien.

Fax

La transmission des images sur des liges de télécommunication est antérieure à l'arrivée de l'ordinateur. Les PTT, dans le cadre du CCITT, peut-être poussés par les Japonais qui ne disposaient pas encore de wopro, normalisèrent plusieurs standards dont le groupe 3 de transmission sur le réseau téléphonique commuté s'imposa au début des années 1980. Le prix des machines fax devint à la portée des petites entreprises et de certains individus, portés par les marchés asiatiques.
Lorsque les modems commencèrent à se standardiser pour les (relativement) hautes vitesses, les US Robotics et autres Hayes n'eurent pas beaucoup de mal à ajouter l'option fax sur les modems offerts sur le  micro-ordinateurs. C'est ainsi que le fax sur micro avec imprimante et scanner se mit lui-même à faire concurrence aux télécopieurs spécialisés.
Certes les communications téléphoniques internationales étaient plus onéreuse que le télex, mais la quantité d'informations transmises par fac-similé à un correspondant ne parlant pas votre langue était nettement supérieure à un coup de  téléphone de même durée.

Le fax fut ainsi roi pendant la période 1985-1995 sans que les opérateurs y aient beaucoup pris garde. Ce n'est qu'avec le développement d'Internet et la généralisation de micro-ordinateurs individuels que cette vogue a commencé une décroissance.

En particulier le fax sur réseau à intégration de service (ISDN) -groupe 4-fut globalement un échec.

Réseau Numérique à Intégration de Services (RNIS)

A l'aube des années 1990, le RNIS (en anglais ISDN) semblait promis à un brillant avenir. Aussi bien les opérateurs historiques que Microsoft y voyait un moyen de faire parvenir la télématique au domicile des particuliers en leur offrant une liaison à 64 Kbps sans occuper leur liaison vocale. 
Cet optimisme fut déçu par la politique tarifaire des opérateurs qui voulurent d'abord percevoir la manne correspondant à l'équipement des entreprises(agences bancaires, agences de voyage) pour lesquelles les RNIS représentaient des solutions économiques pour connecter en mode "texte" de petits réseaux locaux. Mais les tarifs restaient dissuasifs pour des utilisateurs individuels qui au même moment se trouvèrent sollicités par le lancement des réseaux de téléphonie mobile et à qui on faisait miroiter des solutions beaucoup plus rapides que le RNIS.
Les créateurs de contenu pour Internet, surfant sur la vague des outils multimédia énormes consommateurs de bande passante, eurent leur part de responsabilité dans une attente de bande passante bien supérieure à l'incrément que proposait le RNIS.
La disponibilité de l'ADSL (et des modems sur le câble) a finalement scellé le destin du RNIS qui conservera une utilité marginale dans des régions mal desservies par des solutions plus rapides, mais dans un contexte différent, celui de la dérégulation et de la concurrence. La lenteur dans le déploiement des réseaux ISDN a fait perdre une chance aux opérateurs historiques.

 

Impact de l'infogérance

Depuis la fin des années 1980, de plus en plus de sociétés ayant développé leurs propres systèmes d'information et souvent leur propre réseau cherchent à réduire leurs coûts en externalisant leur département informatique. Même des groupements mutualisés comme le centre de réservations des compagnies aériennes SABRE se fait absorber par la société d'infogérance EDS. IBM constructeur cède progressivement la place à IBM Global Services. L'idée des années 1970, à l'apogée des réseaux de "time-sharing" de distribution  de puissance informatique par l'intermédiaire du réseau est en train de ré émerger par le biais d'une oligopole de gros fournisseurs ayant une couverture mondiale et desservent par un même réseau protéiforme postes de travail et ordinateurs personnels. Cette concentration  de l'informatique opérationnelle se retrouve dans celle des serveurs d'informations où l'hébergement mutualisé devient la règle et qui ont probablement vocation à être regroupés dans les mêmes installations que l'informatique traditionnelle. 
Par contre le risque de confusion entre fournisseurs de contenu et fournisseurs de tuyau redouté dans les années 1970 et annoncé comme inévitable (voire souhaitable quand le promoteur était français) dans les années 1990  s'amenuise quelque peu. Internet se montre particulièrement réluctant à la concentration des contenus (cf. le piratage du monopole des majors en musique).

Réseaux de Télévision

On ne saurait être complet sans évoquer un problème qui n'a pour le moment guère concerné les informaticiens, c'est celui de la diffusion de la télévision. A l'aube des années 1980, un réseau de diffusion hertzienne couvrant une portion de bande VHF (traditionnellement attribuée à la télévision dans tous les pays) diffusait des programmes dans le cadre du monopole de l'ORTF. Il était pour l'essentiel alimenté par faisceaux hertziens de ce qui deviendra TDF. Comme dans beaucoup de pays, la télévision pouvait s'étendre dans la bande UHF. Là où en Amérique, cette bande devait être utilisée pour des chaînes mineures privées, en France, on décida de profiter de l'ouverture de cette bande pour basculer les chaînes publiques du standard 819 lignes au standard européen en 625 lignes. Le monopole fut abandonné au profit d'un oligopole de sociétés au capital plus réglementé que le contenu et la réduction du service public à 2 chaînes principales (complétées plus tard par Arte et la Sept). En même temps, une chaîne cryptée à péage se faisait allouer les fréquences libérées sur la bande VHF. Au début des années 1980, le Japon lançait un nouveau réseau de télédiffusion à haute définition MUSE qui semblait présenter une menace pour les équipementiers et les fabricants de téléviseurs européens qui venaient de conquérir le marché américain (Philips-Magnavox, Thomson-RCA). Les ingénieurs de ces sociétés s'efforcèrent de torpiller les initiatives japonaises en imaginant une introduction très lente de la TV HD par étapes successives (écran 16/9, D2Mac,...) qui avaient l'avantage à leurs yeux d'obliger la clientèle à un renouvellement rapide de leur parc. La disponibilité de la technologie informatique leur permit d'introduire une confusion supplémentaire, celle de la technologie numérique de multiplexage temporel sur une fréquence appliquée déjà au téléphone. Cette stratégie de multiplication des canaux au dépens de la TV-HD repoussée aux calendes grecques obtint rapidement la faveur des diffuseurs de programmes, et celle de nouveaux opérateurs de télévision câblée. Née aux États-Unis où il n'y avait pas de monopole sur les tranchées, cette formule se développa d'abord sous forme analogique (par multiplex de fréquences) et fut à l'origine du plan câble français. Technologies coaxiales en cuivre et fibre optique pouvaient se développer en parallèle du moment que le câble supportait sous ces deux formes une trentaine de programmes. Ce nombre dépassa  la centaine lorsque le multiplex numérique fut installé sur les mêmes câbles.
 Cette diffusion par câble appropriée aux secteurs bien urbanisés avait la faveur d'un pouvoir politique soucieux de préserver ses citoyens des informations étrangères et des diffuseurs soucieux de préserver leurs "droits" cinématographiques et sportifs sur les contenus et attribués sur une base géographique. L'incapacité de câbler les régions rurales finirent par faire tolérer la réception directe par satellite qui offrait une alternative au câble et permettait à des diffuseurs comme CNN et les télévisions étrangères d'arroser un continent entier. Le passage au numérique sur des bandes d'hyperfréquences permit d'atteindre le millier de chaîne sur une même position de satellite, avec bien entendu les contraintes de réception (vue directe du satellite). Là où l'Allemagne privilégiait la télévision publique et gratuite, il faut noter que tant sur le câble que le satellite, la France faisait (et fait encore) payer la réception de ses chaînes publiques. On peut rapprocher cette attitude de celle prise sur le Minitel.

Les espoirs mis sur le câble pour multiplexer la télédiffusion avec des services interactifs n"ont pas été confirmés. Des services interactifs existent certes, tant sur le câble que sur le satellite, mais l'opérabilité en est défectueuse et l'espoir caressé par les fabricants de téléviseurs de concurrencer les ordinateurs domestiques que par les diffuseurs de leur donner des services ajoutés (téléachats, péages additionnels) sont donné des résultats peu convaincants. Doit-on en rendre responsable le système lui-même ou le modèle économique sous-jacent ? Je ne saurais trancher, mais suis incliné à imputer l'échec au modèle économique.
Au début des années 1990, le problème de la télévision à la demande, c'est à dire de la diffusion d'une transmission télévisuelle en point à point refit surface. Une migration d e la télédiffusion vers une transmission des images  la carte aurait eu bien entendu un gros impact sur la demande d'extension du réseau dans tous ses aspects. Actuellement, et depuis la fin des années 1990, Internet à haut débit permet la diffusion individuelle de clips vidéo voire de chaînes de télévision à la demande vers un ordinateur individuel dans des conditions tolérables, mais inférieures à la télévision classique. La principale raison de son utilisation à basse définition réside dans l'étroitesse des tuyaux à l'émission entre le serveur du diffuseur et le réseau. Bien entendu les capacités de celui-ci devraient être significativement agrandies si un usage généralisé de la télévision à la demande se produisait. Mais il est vraisemblable que la demande est limitée par la différence de confort du spectateur et par la disponibilité d'un large choix de programmes.

Domotique

Il existe un protocole de réseau largement ignoré par les informaticiens qui joue dans la vie courante un rôle non négligeable, dans la domotique. La numérotation par fréquences vocales naquit, semble-t-il, dans les années 1950 et réussit avec la généralisation des centraux téléphoniques à supplanter la numérotation par impulsions dans les années 1980, tout en coexistant encore avec celle-ci. Ce protocole pouvait se prolonger bien au delà de la simple numérotation dans des équipements domotiques, dans des interrogations de bases de données. Ses limites en matière de débit sont évidentes, son utilité parce qu'elle réutilise le clavier du téléphone et même  des réseaux mobiles ne l'est pas moins. Une technologie identique a été utilisée sur des réseaux locaux domestiques (ascenseurs, portiers automatiques). Le marché de cette technologie du côté serveur est très fragmenté et pas nécessairement optimal, mais il existe et depuis fort longtemps et continuera d'être utilisé pendant longtemps par suite de la fragmentation.

On notera pour mémoire l'existence de réseaux locaux de communication radio: le réseau DECT numérique essentiellement utilisé pour les combinés mobiles fonctionnant en liaison avec un poste de données principal à très faible portée, le réseau Bluetooth réduit à quelques stations ayant vocation à l'interconnexion radio d'appareils individuels,et plus récemment les réseaux WiFi à débit et portée plus important dont l'évolution doit représenter un composant important de Internet.

Télécommunication avec mobiles

Enfin, il existe un autre type de réseau où coexistent informatique et télécommunications, c'est celui des communications mobiles essentiellement utilisés pour les communications téléphoniques. Après une exploitation de communications analogiques, le GSM numérique a eut un succès retentissant dans tous les pays du monde (des versions incompatibles du point de vue strictement réseau existent aux USA et au Japon). Le taux d'équipement mondial approche le niveau des lignes fixes. Son utilisation informatique, le WAP, sur PDA ou directement sur l'écran minuscule du mobile a été un échec spectaculaire par suite de la spéculation effrénée qui a régné autour de 2000 sur les applications de l'Internet. L'essor spectaculaire du GSM pour le transport de la voix venait d'une aspiration considérable de la demande professionnelle, familiale et d'urgence qui attendait une offre à un prix raisonnable.
Le perfectionnement GPRS risque d'être beaucoup moins spectaculaire par manque d'applications critiques. Il n'est pas certain que sa version Vidéophone soit suffisante pour déclencher une vague d'achats. Il est possible qu'une mode, détectable au Japon, puisse lui assurer un certain succès à condition que les offres tarifaires en soient pas pénalisantes. L'UMTS offrant aux mobiles une bande passante voisine de celle du haut débit souffrira lui de la non maturité des appareils informatiques portables en matière d'opérabilité et d'autonomie.

Les liaisons directes par satellites (essentiellement Inmarsat aujourd'hui) doivent aussi constituer un des éléments pour une autonomie complète des mobiles à l'égard des infrastructures fixes. La débâcle de Iridium et les inreférences des applications militaires semblent devoir retarder ce type de liaison au delà de ce qui était prévisible vers 1995.