L'Essentiel
0

L'évolution des TIC

Sur un arrière-fond de mondialisation de l’économie, dont on ne peut naturellement pas méconnaître les effets en termes de marché, et compte tenu de l’évolution qu’a représentée le développement d’Internet depuis près de quinze ans, l’évolution scientifique et technologique du secteur est principalement commandée par trois faits incontournables : la constance des progrès de l’informatique, […]

Sur un arrière-fond de mondialisation de l’économie, dont on ne peut naturellement pas méconnaître les effets en termes de marché, et compte tenu de l’évolution qu’a représentée le développement d’Internet depuis près de quinze ans, l’évolution scientifique et technologique du secteur est principalement commandée par trois faits incontournables : la constance des progrès de l’informatique, l’apparition, après 1995, de la fibre optique à haut débit, le développement explosif de l’usage des mobiles et, donc, de l’utilisation des fréquences hertziennes numériques, satellitaires ou terrestres.
Depuis un quart de siècle, l’évolution de l’informatique sur les plans professionnel et personnel a été un facteur incontesté de développement mais également de reconfiguration économique. Ses premières mises en relation avec les télécommunications ont abouti à la mise en ?uvre du réseau Internet et du courrier électronique. Mais, depuis l’apparition de la fibre optique à haute capacité, le développement de la mobilité et l’augmentation de la puissance de traitement des composants informatiques, les perspectives qu’offraient ces premières mises en relation ont été démultipliées. Ces confluences sont le support technologique indispensable à la mise en place de la nouvelle économie.

L’accélération des progrès de l’informatique

1. Les composants et les langages
Formulée à la fin des années soixante par l’un des dirigeants de l’une des principales firmes du secteur, la loi de Moore constatait que la puissance des composants électroniques doublait tous les 18 à 24 mois à coûts constants et postulait la poursuite de cette évolution.
Cette prédiction s’est à peu près réalisée. Le nombre de transistors est passé de 2 300 au cm² en 1970 à 1 million en 1992, et à 14 millions, en 2001, au cm², avec un objectif annoncé de 24 millions en 2003.
Ce dernier chiffre correspond à des transistors de 0,1u de côté. En deçà, on côtoie ce que les spécialistes du secteur appellent «le mur de briques», c’est-à-dire le constat de l’impossibilité technologique actuelle de progresser pour des raisons diverses (nombre d’atomes insuffisant pour assurer la conductivité, problème de résistance à la chaleur parallèlement à la montée en puissance de traitement, difficultés croissantes d’interconnexion des transistors, etc.). Cela ne signifie pas que la course à la miniaturisation ne se poursuivra pas au-delà de 2005, mais, qu’à un horizon de 10 à 15 ans, et à une taille comprise entre 0,5 u et 0,01 u, il sera probablement nécessaire de changer totalement de technologie de conception et de fabrication.
S’agissant des langages et logiciels informatiques, une floraison d’opérateurs industriels, parmi lesquels le plus connu, Microsoft, mais aussi la plupart des industriels informatiques, IBM, Apple, Sun et plus récemment Oracle, et les milieux scientifique et universitaire ont créé et développé presque ex nihilo une «industrie informatique et une industrie de services» considérables. Cela a été un facteur indispensable au succès de l’informatique dans les 20 dernières années.

2. Les conséquences

Les conséquences de cette accélération des progrès de l’informatique sont assez connues pour qu’on ne les détaille pas, mais suffisamment importantes du fait de leurs effets sur le secteur des télécommunications pour qu’on les mentionne.
L’augmentation de la puissance de traitement des ordinateurs et des serveurs informatiques a permis d’asseoir une offre d’équipements et de services informatiques régulièrement renouvelée. Elle a diversifié les usages des terminaux informatiques, industriels ou domestiques, et permis de traiter du texte, du son et des images -ces dernières dans des conditions qui deviennent proches de la télévision numérique. C’est la convergence en marche.
La baisse des coûts s’apprécie surtout en valeur relative, au regard de l’augmentation des services offerts à prix constants -ou en faible diminution. Elle a eu pour résultat de consolider constamment la contrepartie de demande à l’offre qui s’enrichissait et se diversifiait de façon continue.
L’accroissement de l’ergonomie et la convivialité homme-machine des applications informatiques ont également eu pour effet de développer et de diversifier la demande. Sur ce point, chacun peut se rappeler la complexité des opérations de la mise en ?uvre d’un système d’exploitation d’ordinateur personnel au début des années quatre-vingt et la comparer aux facilités d’accès actuelles. L’approfondissement de cette convivialité d’utilisation sera de plus en plus essentielle.
La miniaturisation, qui est un sous-produit des progrès des capacités de traitement des composants, a encore enrichi l’offre, qu’il s’agisse des téléphones portables ou des pilotes palmaires et équipements périphériques de toute nature. Elle aura, à terme, des effets décisifs dans le secteur encore inexploré des microtélécommunications qui sera l’une des zones les plus actives de l’offre dans les dix prochaines années.
Au terme de cette analyse, volontairement brève car amplement décrite par ailleurs, un fait doit être souligné parce qu’il est de première importance pour les relations entre l’informatique et les télécommunications et pour l’avenir économique de ces deux secteurs :
– dans un premier temps, la perspective s’est inversée. D’un système où les réseaux de télécommunications étaient puissants par rapport à la masse d’informations qu’ils étaient appelés à transporter et où la capacité des terminaux à traiter cette information était faible, on est passé à une situation inverse.
– le maintien de ce déséquilibre aurait probablement menacé, à terme, le développement du marché de l’informatique, l’apparition, depuis 1994-1995, de la fibre optique à grande capacité et les progrès massifs de la mobilité, donc de l’usage des fréquences hertziennes, modifiant profondément cette inéquation pessimiste.

Le développement des fibres optiques à haute capacité

1. L’augmentation des débits

Grâce au développement des lasers, la fibre optique est de plus en plus utilisée depuis une vingtaine d’années.
Dans sa version d’origine, il s’agit d’une fibre unimodale destinée à assurer la transmission d’émissions de télévision en multipliant le nombre de canaux disponibles.
Cette technique est plus coûteuse que le câblage en cuivre qui assurait à peu près les mêmes fonctions. Elle ne permet pas la réémission d’un signal par l’utilisateur (nécessaire à l’utilisation d’Internet et du courrier électronique). Sa capacité est aujourd’hui insuffisante au regard des perspectives offertes par le développement de l’Internet à haut débit.
L’innovation technique majeure des cinq dernières années (le tournant se situe vers 1994-1995) a consisté, grâce au multiplexage optique, à multiplier par un facteur qui dépasse déjà 100 le débit utile de ces fibres optiques (on évoque une capacité théorique de transport de 200 Tbits/s par fibre).
Cette multiplication correspond à l’augmentation de la quantité d’informations transportées sur chaque longueur d’onde et à l’utilisation d’un nombre toujours croissant de longueurs d’onde différentes sur une même fibre.
L’arrivée à maturité de cette nouvelle technique de multiplexage, reposant sur une démultiplication des longueurs d’ondes utilisées (WDM ou Wavelength Division Multiplexing) accroît considérablement les capacités du support optique puisqu’elle démultiplie une seule fibre en multiples canaux virtuels. Cette technique dite du WDM s’est améliorée (DWDM ou Dense WDM) et permet de mettre en ?uvre 160 canaux virtuels. Le progrès n’est pas terminé.
Cette percée technologique comporte plusieurs avantages : elle autorise les transports d’informations de haut débit; le rapport de capacité entre une fibre optique à 100 longueurs d’onde et un câble de cuivre est de 1 à 10 000, elle est neutre au regard des protocoles situés en amont et en aval de la transmission (ATM , IP); elle offre au réseau une très grande flexibilité de gestion car elle possède une faculté de reconfiguration rapide permettant de faire face à une demande accrue et inopinée d’utilisation de la bande passante (c’est-à-dire de l’utilisation du réseau entre deux points); permet un déploiement échelonné car chaque opérateur, au fur et à mesure de la croissance de ses besoins, peut installer des longueurs d’onde supplémentaires sans changer les équipements de base; enfin, elle est plus sûre car plus difficile à pirater.
Dans ces conditions, on comprend que s’installent rapidement des c?urs de réseaux de télécommunications en fibre optique qui se substituent aux réseaux traditionnels de transmission ou les dédoublent.

2. L’augmentation des capacités optiques de traitement

S’il est acquis que la fibre optique est le moyen le plus adapté à la transmission à haut débit, les terminaux auxquels ces transmissions sont destinées sont électroniques.
D’où la nécessité de convertisseurs, assurant, à un moment ou à un autre, la rupture de charge entre la lumière et l’électricité. Actuellement, ces convertisseurs sont électroniques et installés relativement en amont du système puisqu’ils en assurent également la commutation, c’est-à-dire le routage et la maintenance des demandes de changements qui interviennent à tout moment sur le réseau -assurant en quelque sorte le rôle des bretelles des n?uds autoroutiers.

Mais le rapport de puissance qui s’est établi entre les débits optiques et les débits électriques est un frein au développement de la transmission optique à haut débit, les commutateurs électroniques n’ayant ni la capacité de traitement ni la souplesse d’utilisation nécessaires à la mise en ?uvre massive de ces techniques.
C’est pourquoi la plupart des équipementiers développent des recherches dans le domaine de la commutation optique.
Ces recherches, qui sont l’un des domaines les plus dynamiques du secteur, débouchent sur des commutateurs optiques autorisant le traitement de 40 Gbits/s par longueur d’onde, soit une puissance totale de traitement de l’ordre de 1 Tbit/s par commutateur (pour 16 longueurs d’onde et 16 fibres).
On aboutit ainsi à la mise en place de routeurs ou de commutateurs optoélectroniques à grand débit, la partie optique assurant, dans les noeuds du réseau, le trafic de transit, et la partie électronique prenant en charge les demandes d’extraction et de réinsertion en provenance des réseaux locaux.

L’explosion de la mobilité et l’appel à l’usage des fréquences hertziennes

1. Le développement accéléré de la téléphonie mobile

a) Le GSM

Dans le monde, le nombre d’abonnés à un réseau de téléphonie mobile a progressé de façon spectaculaire depuis trois ans, passant de 205 millions fin 1997 à 725 millions fin 2000.
Les données d’un rapport récent de l’IDATE appellent plusieurs observations :
– si, en Europe, la téléphonie mobile a continué à progresser en 2000 -et a encore progressé en 2001- les taux de pénétration, qui s’y situent entre 50 et 70% de la population totale, conduisent à estimer que son avance y sera dorénavant plus lente,
– le taux relativement faible de pénétration aux Etats-Unis est imputable à l’absence de standardisation,
– il existe un marché potentiel immense dans la zone Asie-Pacifique, et notamment en Chine où le taux de pénétration de la téléphonie mobile n’était que de 7% à la fin 2000. Un autre phénomène mérite d’être mis en évidence : l’apparition d’un trafic de messagerie, les SMS.

b) Les extensions de la téléphonie mobile à l’Internet

L’extension des usages du mobile est essentielle pour le bouclage de la chaîne télécommunications-informatique de demain. On imaginerait mal, en effet, que les efforts actuellement entrepris pour assurer un lien entre la fibre à haut débit et les terminaux se limitent aux communications fixes, dans un monde où les usagers pratiquent de plus en plus le nomadisme professionnel ou personnel.
Car, si le haut débit dans un contexte d’utilisation totalement mobile reste à ce jour délicat, l’objectif de la mobilité consiste surtout aujourd’hui à rendre les services offerts neutres vis-à-vis du contexte fixe ou nomade.
Sur ce point, la réalisation de la mobilité de l’accès à l’Internet à haut débit est la clé de voûte du système.
Mais si cette nécessité s’inscrit en perspective, les conditions de sa réalisation ne sont pas acquises.
Et ce, pour toute une série de motifs dont le principal est qu’il serait dangereux d’inférer de la translation rapide en mobilité de l’usage de la téléphonie fixe, acquis depuis longtemps, la même translation sur un usage qui ne l’est pas encore.
L’utilisation de l’Internet à bas débit n’est pas généralisée et celle de l’Internet à haut débit entre à peine dans les moeurs. Une transition est donc nécessaire entre la téléphonie mobile de deuxième génération (GSM) et la téléphonie de troisième génération (UMTS) ou même de quatrième génération.
Mentionnons, parce qu’il est exemplaire, l’échec du WAP (Wireless Application Protocol, permettant de transmettre des pages Internet sous une forme allégée à des téléphones portables) imputable à la fois à la lenteur de son fonctionnement et à un modèle de facturation au temps qui aboutissait à facturer à l’usager les imperfections du système.
Les opérateurs développent actuellement deux systèmes de téléphonie marquant une amélioration vis-à-vis du GSM : le GPRS (Global Packet Radio System), et l’i-Mode japonais.

Le GPRS

Cette technologie intermédiaire entre la deuxième et la troisième génération de téléphonie mobile permet, en utilisant les fréquences et les réseaux -rééquipés- du GSM, de proposer des débits de l’ordre de 30 à 40 kbs (9 kbs pour le GSM) qui autorisent une transmission plus rapide du texte. Ses caractéristiques techniques (transmission par paquets) permettent, en outre, une facturation au débit.
Son déploiement, freiné par des problèmes de compatibilité entre les terminaux de différents équipementiers, commence à s’effectuer avec l’opérateur multimédia Nedjma. L’intérêt de ce système, c’est qu’il constituera un laboratoire pour les usages de la mobilité, s’agissant aussi bien de la transmission de textes que de l’offre de services de télécommunication.

L’i-Mode

Lancé en février 1999 par l’opérateur japonais DoCoMo, l’i-Mode, qui a attiré plus de 20 millions d’abonnés au Japon, offre un accès à plus de 30 000 sites Internet.
Mais ce succès doit être mesuré aussi exactement que possible. Les performances technologiques du système demeurent modestes -lenteur relative du réseau, prédominance des textes disponibles sur l’image. Par ailleurs, le chiffre d’affaires généré par le trafic de voix reste prédominant, de l’ordre de 90%.
Mais, à l’opposé, ce système constitue un modèle exemplaire en matière commerciale, dans la mesure où DoCoMo a réussi à maîtriser l’ensemble de la chaîne d’équipement de service, du terminal à la facturation.
Et dans ce cadre, il faut -sous réserve des spécificités culturelles japonaises- insister sur les enseignements de cette expérience, qui nous montre que les services de télécommunication mobile ne doivent pas se limiter à la transmission de données Internet.

c) Les générations ultérieures de téléphonie mobile

La dynamique de croissance des réseaux de deuxième génération a conduit les régulateurs internationaux des fréquences à resserrer un espace de fréquences à la troisième génération de téléphonie mobile.
Les bandes de fréquences pour ces systèmes ont été identifiées lors de la conférence mondiale des radiocommunications de 2000 (autour de 2 MHz, avec des extensions autour de 2,5 MHz) et l’Union internationale des télécommunications (UIT) travaille à la normalisation technique dans le but d’obtenir le maximum de compatibilité entre les nombreuses propositions concurrentes (dont l’UMTS, qui est l’appellation européenne), à défaut d’arriver à les fusionner en une norme unique.
Les caractéristiques générales des systèmes UMTS ou IMT-2000 renvoient, d’une part, à l’objectif d’itinérance au niveau mondial, particularité des réseaux de troisième génération et, d’autre part, à la fourniture d’un service de mobilité complète ouvert au public, dépassant les limitations dues à la multiplicité des systèmes et des réseaux actuels et permettant de satisfaire de nouveaux besoins à la fois auprès du grand public (services à valeur ajoutée à l’instar des services du Minitel ou de l’Internet), des professionnels et des entreprises (extension des solutions Intranet/Extranet au personnel nomade des entreprises).
Dans une première phase, l’UMTS utilisera les réseaux de transport de deuxième génération avec une interface radio de troisième génération (UTRA) et permettra d’offrir en mobilité l’accès à des débits de 384 kbits/s. De plus, le décalage dans les travaux de normalisation sur les deux composantes de l’UTRA conduira à déployer ultérieurement le mode W-CDMA FDD qui est plus adapté aux communications asymétriques (comme le transfert de données) et qui devrait atteindre 2 Mbits/s.
Les besoins à couvrir à ce niveau de débit sont pour partie identifiés : accès aux services et contenus de l’Internet actuel (images fixes et fichiers) pour le marché grand public et solutions Intranet/Extranet pour le marché des entreprises. Toutefois, ces besoins pourront également être en partie couverts par les opérateurs de deuxième génération, étant précisé que la montée en puissance actuelle de la téléphonie mobile aboutit à des effets de saturation d’un réseau que les opérateurs ne souhaitent pas nécessairement moderniser sur une base technique qui sera dépassée d’ici à quelques années.
Encore est-il nécessaire de souligner que les techniques de troisième génération ont fait l’objet d’effets d’annonce optimistes quant à leur maturité technologique.
Il y a encore un an, un terminal UMTS avait la taille d’un petit réfrigérateur.
Et si un équipementier vient de livrer à ses clients les premiers terminaux UMTS, c’est uniquement pour procéder à des tests.
Les réseaux n’étant pas, par ailleurs, encore déployés, il est plus que probable que l’horizon de mise en ?uvre de services de téléphonie mobile de troisième génération est glissant.

e) Le problème des fréquences

Dès aujourd’hui, les usagers de la téléphonie mobile sont périodiquement confrontés à des problèmes de saturation de fréquences. Cela met en évidence un problème qui deviendra crucial dans les années à venir si l’on n’y prend garde : la raréfaction des fréquences disponibles. Même si, à l’échelon mondial, des bandes de fréquences larges ont été réservées à la téléphonie mobile de troisième génération, certains de nos interlocuteurs se sont interrogés sur le point de savoir si ces attributions de fréquences seront suffisantes pour satisfaire à un usage généralisé de la mobilité pour l’accès à l’Internet à haut débit.
Et ce qui est vrai des fréquences hertziennes l’est également des fréquences satellitaires, notamment pour les constellations en orbite basse qui peuvent être, à l’avenir, l’un des supports de la mobilité, même si les échecs financiers de certaines de ces constellations tendent à reporter ces perspectives.
L’ensemble de ces progrès technologiques -qui, rappelons-le, sont supportés par des avancées importantes en sciences fondamentales- se traduit déjà, et se traduira de façon croissante, par une augmentation des débits d’information véhiculés et des contraintes liées à leur diversité d’adressage.
Le constater, c’est poser le problème de l’architecture des réseaux dans lesquels circulera cette information.
La vision d’avenir qui suggère, qu’à terme, tout usager pourra recevoir et transmettre «toute information à tout moment, en tout lieu et sur tout support», suppose que tous les réseaux soient totalement interopérables.
Dans un contexte d’augmentation des capacités et de la demande de transmission, ces réseaux devront ainsi assurer l’unification de l’intervention de multiples opérateurs, nouveaux et anciens, y compris des opérateurs virtuels louant mais ne possédant pas de réseaux propres ainsi que de l’offre démultipliée de services informatiques, services de télécommunications, services multimédia interactifs (voix, données, images).
Cela, dans une configuration où au sein même du réseau de chaque opérateur coexistent plusieurs technologies comme le protocole ATM qui permet d’offrir des services de transport de voix et de données et l’actuel protocole Internet qui, actuellement, est très majoritairement dédié au transport de données.
Les fonctions des réseaux devront évoluer en conséquence. Elles incluront notamment la montée permanente des débits à l’accès et dans les réseaux «c?ur», l’adaptation des techniques de routage, de gestion du trafic pour de très grands réseaux supportant de nombreux types de services de transport, aux exigences différentes, ce qui suppose la «virtualisation» du réseau en sous-réseaux «étanches» en matière de routage, de qualité de services ; l’apparition de fonctions de diffusion, d’hébergement ; les fonctions de sécurité de plus en plus fortes et diversifiées; le passage progressif au standard Ipv6 qui débloquera définitivement des contraintes d’adressage et simplifiera les autres évolutions fonctionnelles; et enfin l’apparition d’une couche de commande de ressources au-dessus de la couche de transport IP, offrant des interfaces propres au développement rapide d’une multiplicité d’offres de services très divers.
En fonction de ces contraintes d’interopérabilité et de traitement des activités, les réseaux du futur seront séparés en une couche de base -ou réseau premier- où l’optique jouera un rôle dominant, chargée du transfert, du transport et du transcodage entre les bas-réseaux, et une couche dite intelligente chargée de l’acheminement final, de la facturation, de l’ensemble des interfaces avec les services informatiques, de télécommunications et audiovisuels.

Share:
  • googleplus
  • linkedin
  • tumblr
  • rss
  • pinterest
  • mail

Écrit par itmag2003

There are 0 comments

Leave a comment

Want to express your opinion?
Leave a reply!

commentez car plus vous commentez plus il y aura d'échange

%d blogueurs aiment cette page :
Lire les articles précédents :
M. Haïchour critique la Société Générale

«La Société Générale n'a pas donné satisfaction lors de sa participation dans l'opération OusraTic», a déclaré, de façon crue mais...

Fermer