Résumé
Cet article étudie les problèmes réglementaires
posés par cette mutation de l'infrastructure des télécommunications
que constitue le passage de l'Internet aux autoroutes de l'information.
Il présente tout d'abord les problèmes de saturation rencontrés
actuellement dans le cadre du réseau Internet et examine ensuite
quelles peuvent être les politiques de régulation envisagées.
Les problèmes de comptabilité apparaissent liés à
l'offre de services sur le réseau et ce sont les coûts de
congestion qui devraient être facturés. Le marché aux
enchères semble constituer un modèle théorique intéressant
pour un dispositif technique de contrôle de saturation, installé
éventuellement sur les routeurs locaux. La facturation des "ressources
informationnelles" sur le réseau pose le problème de la définition
d'un moyen de paiement électronique sécurisé. L'interaction
entre les mécanismes de prix et la structure du marché devient
une question stratégique dans le cadre de la dé-réglementation
suscitée par l'émergence des réseaux numériques
à intégration de services.
Abstract
This paper discusses the regulatory problems about the current
state of Internet and the speculations about future developments
such as the information superhighway. It studies the congestion
problems faced by the Internet and what kind of regulatory mechanisms can
be used for congestion control on a computer network. The problems associated
with Internet accounting seems to be linked with the range of network services
and there is some evidence for pricing the congestion costs. An auction
market may be an interesting theorical model for a congestion control mechanism
that can be implemented on local routers. The pricing of "information goods"
stresses the need for secure electronic currency on the networks. As integrated
services data networks emerge, the interaction between pricing schemes
and market structure becomes a strategical issue in the deregulation framework.
Problèmes de saturation sur l'Internet
Depuis ces cinq dernières années, le trafic sur
l'Internet a connu une croissance réellement exponentielle
: il double de volume chaque année. Un déterminant manifeste
de cette croissance s'impose en premier lieu à l'esprit des technocrates
de tous bords : quasiment, toutes les utilisations de l'Internet
ont un coût marginal nul. Les organismes paient un prix fixe pour
un accès illimité jusqu'à concurrence de la bande
passante de leurs liaisons. Cependant l'externalité existe, car
un réseau à commutation de paquets est un média partagé
: chaque paquet supplémentaire envoyé par l'utilisateur-lambda
introduit un coût supplémentaire pour l'ensemble des utilisateurs,
car les ressources utilisées ne sont alors plus disponibles pour
la communauté. Ce coût peut être évalué
en termes de paquets retardés, voire perdus ou abandonnés.
C'est le problème classique des parties communes dans un immeuble
en co-propriété.
Sans incitation à l'économie dans l'utilisation
du réseau, les phénomènes de saturation peuvent devenir
dramatiques. Le problème est d'autant plus sérieux pour les
réseaux numériques que la panoplie des usages est très
différenciée par rapport à d'autres types de ressources.
Par exemple, sur une autoroute, un individu est limité dans la consommation
de ressources partagées : il ne peut conduire qu'une seule voiture.
Sur un réseau numérique, un usager doté d'une station
de travail récente peut émettre seulement quelques dizaines
d'octets par le courrier électronique, comme il peut charger le
réseau avec des centaines de méga-octets par seconde en transmettant
des images vidéo, même compressées (1).
En moins d'un an, n'importe quel étudiant de premier cycle devient
capable de brancher sa caméra vidéo Sony sur son nouveau
MacIntosh multimédia et de transmettre à sa petite amie des
images vidéo en direct, demandant au moins un débit de 1
Mbps (2). La bande passante sur l'actuel réseau
étant de 45 Mbps, il est clair qu'il suffit de quelques amoureux
dotés d'équipements bon marché pour mettre l'Internet
à genoux.
Les problèmes de saturation ne sont donc pas des hypothèses
d'école : ils peuvent se manifester dès que la charge du
réseau excède 2O% de sa capacité globale. En 1987,
lorsque l'infrastructure de l'Internet était basée sur des
liaisons beaucoup plus lentes (à 56 Kbps) (3),
le réseau a dû faire face à des problèmes critiques
de saturation. Les utilisateurs travaillant en session interactive à
distance ont souffert de délais de transmission jugés inacceptables.
Comme solution provisoire, les administrateurs du réseau NSFNET
(4) programmèrent alors les routeurs pour donner
une priorité plus importante aux sessions interactives de connexion
à distance -utilisant le programme telnet (5)-
qu'aux transferts de fichiers, utilisant le programme ftp (6).
Plus récemment, certains services sur l'Internet
ont connu des problèmes de saturation : des serveurs ftp importants,
le serveur Web (7) du site NCSA, le serveur Archie
(8) de l'Université McGill -victimes de leur
succès- ont subi une dégradation drastique de leurs performances
en raison d'une charge excessive. Si chacun d'entre nous utilisait seulement
le courrier électronique en mode texte (44 bits par mot en moyenne),
il s'écoulerait beaucoup d'eau sous les ponts avant que cela ne
conduise à saturation. Cependant, la demande pour les services multi-média
s'accroît très rapidement. Les nouveaux services, tels que
Mosaic (9) (1,3 million d'accès par semaine)
ou ITR (10) consomment des plages de plus en plus larges
de la bande passante. Si l'offre de bande passante s'est accrue de façon
considérable, la demande a allégrement suivi, en raison principalement
de la multiplication des applications utilisant des standards graphiques
comme X-Windows (11), sur le réseau. Il est
donc probable que, dans un proche avenir, la demande de bande passante
excède l'offre, si un mécanisme de rationnement n'est pas
institué.
La gratuité est-elle encore de mise ?
L'affectation de priorités aux différents types
de trafic par des administrateurs est une solution séduisante, mais
impraticable dans le long terme comme solution aux problèmes de
saturation, en raison de son inefficacité comme mécanisme
de rationnement. Elle a encore un inconvénient plus grave : il est
impossible de l'imposer. Du point de vue du réseau, les bits ne
sont que des bits, et rien d'absolument fiable ne permet de distinguer
les différents types d'utilisation. Par convention, les programmes
standards spécifient un identifiant unique dans l'en-tête
TCP, appelé le numéro de port ; ce dispositif fut utilisé
par NSFNET pour son mécanisme de priorité en 1987. Néanmoins,
il est facile de changer le numéro de port dans les en-têtes
de paquets par exemple, et d'affecter aux paquets issus d'un ftp le numéro
de port de telnet, afin de court-circuiter le mécanisme d'affectation
de priorité. Afin d'éviter ce type de fraude, NSFNET conserve
le secret sur ce mécanisme d'affectation de priorité, mais
on conçoit bien qu'il ne s'agit pas d'une solution à long
terme.
Quels sont les autres mécanismes pouvant être
utilisés pour éviter la saturation ? L'approche économique
la plus triviale serait de facturer un coût d'utilisation. Mais les
propositions de facturation qui ont été soumises ont rencontré
une opposition de principe si vive qu'actuellement aucun schéma
de facturation des services fournis par l'infrastructure n'a fait l'objet
d'un examen sérieux.
D'autres mécanismes de régulation ont été
proposés, notamment ceux reposant sur la coopération : certains
administrateurs affirment que la pression des pairs et le respect d'une
charte des utilisateurs seraient suffisants pour contrôler les coûts
de saturation. Récemment, un utilisateur diffusant mondialement
un test audio-vidéo sur l'ensemble du réseau à un
débit de 350-450 Kbps avait bloqué les possibilités
de diffusion audio planifiée par une université finnoise
; le groupe d'ingénieurs administrant le réseau a alors sommé
l'administrateur du site de déconnecter la station de travail émettrice.
L'utilisateur novice responsable de cette perturbation n'avait pas envisagé
un seul instant les conséquences de ce type d'utilisation. Cet exemple
illustre bien la faiblesse d'une régulation sous la pression des
pairs : ce dysfonctionnement, généré par une utilisation
inefficace du réseau, n'a cessé qu'après avoir sérieusement
perturbé son fonctionnement. Au fur et à mesure que s'étend
le réseau, augmente en proportion le nombre d'utilisateurs inexpérimentés
qui ont accès à des applications provoquant de fortes perturbations
si leur usage n'est pas maîtrisé. Quant aux utilisateurs mal
intentionnés, il est vraisemblable que la pression des pairs se
révèle tout à fait insuffisante.
Un mécanisme de contrôle volontaire a déjà
été expérimenté par la NSFNET en 1987. Le dispositif
prévoit que les utilisateurs indiquent la priorité qu'ils
veulent attribuer à chacune de leurs sessions, et que les routeurs
soient programmés pour gérer les files d'attente multiples
associées à chaque classe de priorité. Évidemment,
le succès d'un tel dispositif dépend de la volonté
des utilisateurs d'affecter des basses priorités à une partie
de leur trafic. Tant qu'il reste possible pour un ou plusieurs utilisateurs
de saturer le réseau par méconnaissance, incurie ou abus,
ce type d'approche demeure parfaitement illusoire.
De fait, nombreux sont les dispositifs, basés sur le
volontariat ou la coopération, déjà mis en place.
Ils sont utiles dans la mesure où la plupart des utilisateurs en
ignorent l'existence ou bien n'ont pas la compétence technique pour
les contourner. Par exemple, la plupart des implantations du protocole
TCP (12) disposent d'un algorithme à "démarrage
lent" qui permet de contrôler le taux de transmission en fonction
du délai d'attente courant sur le réseau. Mais rien n'empêche
les utilisateurs de modifier leur implantation du protocole TCP pour émettre
"plein pot" s'ils n'ont pas l'intention de se comporter correctement.
Le sur-dimensionnement constitue une approche radicalement
différente pour limiter les problèmes de saturation : il
s'agit là d'un exemple de "fuite en avant" technologique. Elle consiste
à accroître suffisamment la capacité du réseau
pour absorber les pics sans dégradation notable des performances
(13). C'est aujourd'hui le mécanisme le plus
répandu sur l'Internet. Cependant, avec l'apparition d'applications
à très grande bande passante et de possibilités d'accès
quasi-universels, ce sur-dimensionnement pourrait devenir extrêmement
coûteux. Le problème se pose en termes simples : le coût
de l'accroissement de capacité diminue-t-il plus vite que le taux
de croissance de la demande ?
Étant donné le caractère exponentiel de
la croissance des besoins et le délai considérable pour introduire
de nouveaux protocoles de transmission, les progrès technologiques
permettront-ils à l'Internet de soutenir à un rythme
équivalent l'élargissement de sa bande passante ? Rien n'est
moins sûr ; il semble donc urgent, pour ce type de réseaux,
d'envisager sérieusement des mécanismes alternatifs d'allocation
de ressources, basés sur des politiques tarifaires.
Rechercher le meilleur niveau de service
L'Internet offre actuellement une seule qualité
de service, celle du service à la demande : premier arrivé,
premier servi, sans pour autant garantir la transmission effective du paquet.
Certains paquets peuvent être retardés, d'autres peuvent être
abandonnés ou ne jamais arriver.
Cependant, les différents types de données transmises
impliquent des niveaux de services différents sur le réseau.
Courrier électronique et transfert de fichiers ne souffrent aucun
défaut, mais peuvent être mis en instance. Par contre, la
diffusion de messages parlés en temps-réel supposant une
bande passante plus large que pour le transfert de fichiers, doit être
réalisée dans des délais très courts, mais
peut supporter des distorsions significatives. La diffusion vidéo
en temps réel ne tolère vraiment ni les délais ni
la distorsion -ou alors à des niveaux très faibles.
En raison de ces exigences distinctes, les algorithmes de routage
doivent traiter de façon adéquate ces divers types de trafic
-en donnant par exemple une priorité plus grande à la vidéo
en temps réel qu'au courrier électronique ou au transfert
de fichiers. Mais pour ce faire, l'utilisateur doit donner des indications
véridiques sur le type de trafic qu'il génère. Si
un flot numérique pour vidéo en temps réel obtient
la meilleure qualité de service, pourquoi ne pas déclarer
que tous les bits envoyés appartiennent à des images vidéo
en temps réel ?
Les dispositifs de facturation sur un réseau peuvent
être considérés conceptuellemnt comme relevant d'un
mécanisme d'échange d'informations. L'utilisateur indique
le type de transmission, et à son tour la station de travail transmet
cette indication au réseau. Afin de favoriser la véracité
des déclarations, facturation et déclaration doivent être
liées. Cette conception n'est pas exempte de toute critique, car
elle ne tient pas vraiment compte des limites de la rationalité
humaine. Cependant, à partir d'un tel contexte, on peut confier
à chaque station de travail l'application de procédures comptables,
aussi complexes soient-elles.
Comptabiliser les usages sur l'Internet ?
L'une des premières étapes nécessaires
pour appliquer une politique de facturation basée sur l'usage est
de le comptabiliser, mais sa comptabilisation pose de sérieux problèmes.
D'une part, la commutation de paquets, de façon inhérente,
se révèle inadaptée, car chaque paquet est indépendant.
Par exemple, une conversation téléphonique d'une minute ne
requiert dans un réseau à commutation de circuits que l'enregistrement
d'une seule référence comptable. Dans un réseau à
commutation de paquets, une conversation téléphonique d'une
minute suppose en moyenne l'envoi de 2500 paquets, sa comptabilisation
suppose donc d'enregistrer autant de références dans le fichier-journal.
Sur l'ossature NSFNET circulent environ 56 milliards de paquets par mois.
La facturation détaillée sur l'Internet, à l'instar
de celle pratiquée par les compagnies du téléphone,
s'avérerait rapidement trop onéreuse.
La granularité des enregistrements pose également
problème. La comptabilité détaillée est pertinente
lorsqu'elle suit le trafic jusqu'à l'utilisateur final. Si elle
doit présenter un caractère incitatif, les incitations, pour
être efficaces, doivent affecter l'usager lui-même. Mais le
réseau est tout au plus capable d'identifier l'ordinateur-hôte
qui envoie le paquet, tout comme les réseaux téléphoniques
identifient le numéro appelant mais pas l'appelant lui-même.
Il s'avère donc nécessaire d'implanter une couche supplémentaire
de logiciel sur la station de travail pour identifier et comptabiliser
l'origine des paquets envoyés sur le réseau. Essayez, par
exemple, de comptabiliser l'usage du courrier électronique provenant
des étudiants sur le site informatique public d'une grande université
américaine (14) !
Plus le niveau d'agrégation des données comptables
est élevé, plus cette comptabilité est aisée
et moins elle est onéreuse. Par exemple, NSFNET collecte déjà
des informations sur l'usage réalisé par chacun des sous-réseaux
qui se connectent à son ossature - bien que ces informations soient
collectées sur la base d'un échantillonnage statistique,
et non de façon exhaustive pour chaque paquet. L'opportunité
d'une comptabilité détaillée demeurera une question
éminemment théorique tant que n'interviendront pas des innovations
dans les méthodes comptables entraînant une baisse des facteurs
de coût.
Facturer l'usage du réseau
Les ressources du réseau restant rares, un schéma
rationnel d'allocation est nécessaire. Nous avons expliqué
pourquoi les dispositifs à caractère technique ou militant
ne s'avèrent pas entièrement satisfaisants. Les différentes
formes de facturation des usages ont des conséquences spécifiques
sur le contrôle de la saturation ; des formes différenciées
de facturation selon la classe d'allocation de services se révèlent
également souhaitables dans le contexte d'un réseau numérique
à intégration de services (RNIS). En toute hypothèse,
les schémas militants demanderont des sur-dimensionnements substantiels,
pour faire face à l'explosion de la demande et à l'hétérogénéité
des bandes passantes requises par la multiplicité et la diversité
des applications. Les capacités en excès ont été
directement ou indirectement réduites selon l'octroi de financements
publics. Dans une phase de recherche et de développement de l'Internet,
proposer des services télématiques publics à un coût
marginal nul pouvait se justifier pour la communauté scientifique
; mais aujourd'hui la technologie est parvenue à maturité
et le réseau est de plus en plus utilisé par des intérêts
commerciaux. Peut-on considérer que l'usage du réseau doit
rester gratuit pour les universités et les instituts de recherche,
alors que téléphone et courrier postal ne le sont pas
(15) ?
De fait, le Congrès des États-Unis a obtenu que
l'initiative technologique développée sous le contrôle
des instances fédérales pour les artères de communication
à 1 Gigabit par seconde comporte une comptabilité et une
facturation. Désormais, la NSF ne financera plus les services de
l'ossature, laissant la gestion de cette infrastructure générale
de communication aux opérateurs commerciaux ou gouvernementaux agréés.
Au fur et à mesure que le réseau se privatise, la compétition
s'organise de plus en plus autour de mécanismes efficaces d'allocations
de ressources. Aussi voit-on apparaître une pression croissante,
provenant à la fois du secteur public et du secteur privé,
pour envisager sérieusement la mise en place de dispositifs de facturation.
Le problème est de concevoir des mécanismes de facturation
minimisant le coût des transactions et ne relevant pas de l'entrave
discriminatoire pour l'accès au réseau.
Que doit-on facturer ?
La théorie économique standard suggère
que les prix doivent être compatibles avec les coûts. Il existe
trois éléments essentiels de coûts sur le réseau
: le coût de connexion, le coût d'extensions supplémentaires
de la capacité de transmission et le coût social de la saturation.
A capacité constante, les coûts de fonctionnement directs
sont négligeables et par eux-mêmes ne justifieraient pas la
mise en place d'une comptabilité et d'une facturation.
Sur le plan conceptuel, facturer les connections aux réseaux
est une opération relativement simple : la connexion demande une
liaison, un routeur et une quantité certaine de travail technique
spécialisé... Liaisons et routeurs sont des investissements
ré-utilisables et donc facturés sur la base d'un coût
annuel de location -bien que certains organismes achètent leurs
propres routeurs. C'est actuellement le dispositif adopté sur l'Internet.
Facturer une extension de capacité de transmission suppose
des informations sur l'utilisation. Théoriquement, il faudrait une
mesure de la demande de l'organisme adhérent durant les pics de
consommation, sur une période de référence, pour déterminer
sa part de responsabilité dans la nécessité d'ouvrir
cette extension. En pratique, une solution raisonnable serait de facturer
une sur-prime pour l'utilisation durant des périodes de pointe prédéterminées,
comme on le fait de façon courante pour la consommation d'électricité.
Mais en réalité, les pics de consommation sur l'Internet
s'avèrent moins facilement prévisibles que sur d'autres types
de services. De fait, il est relativement aisé avec un ordinateur
de planifier certaines activités en dehors des heures de trafic
pour éviter les pics ; cette possibilité conduit à
une grande mobilité des pics de consommation. En outre, une grande
partie de la consommation est générée par du trafic
international, pour lequel on observe des décalages horaires importants.
Les statistiques sur le réseau révèlent donc des profils
quotidiens d'utilisation tout à fait chaotiques.
Facturer la saturation : une bien séduisante théorie
!
Il s'agit de concevoir un mécanisme de prix efficace
pour minimiser les coûts de saturation. Lorsque le réseau
est proche de la saturation, l'introduction d'un paquet supplémentaire
par un utilisateur induit des coûts pour les autres usagers en termes
de délais ou de paquets perdus. Un des dispositifs imaginés
pour internaliser ce coût consisterait à imposer un prix d'usage,
déterminé par un marché aux enchères local.
L'idée de base est simple. Tant que le réseau
n'est pas saturé, le prix d'usage doit être nul. Lorsque le
réseau est saturé, les paquets sont transférés
en file d'attente selon une stratégie FIFO (premier entré,
premier sorti). L'existence d'un marché aux enchères permet
que la priorité soit évaluée sur la base de l'information
fournie par l'usager. Pour ce faire, l'usager place une enchère
sur son paquet indiquant combien il est prêt à payer pour
un service immédiat. Sur les routeurs saturés, l'acheminement
des paquets est basé sur le système des enchères.
De façon à rendre le système attractif pour l'usager
et compatible avec la technologie, l'usager ne paie pas l'enchère
effectuée sur son paquet, mais l'enchère correspondant au
paquet transmis par le réseau avec la priorité la plus faible.
En principe, un tel mécanisme inciterait à effectuer des
déclarations sincères et véritables.
Ce dispositif possède des propriétés théoriques
intéressantes : non seulement sont servis en premier ceux pour lesquels
le coût du délai est le plus élevé, mais le
système de prix communique des signaux corrects pour décider
d'une extension de capacité sur un marché compétitif
pour un RNIS. Si tous les revenus provenant de la saturation sont réinvestis
dans l'accroissement de capacité, alors la capacité sera
augmentée jusqu'au point d'équilibre où sa valeur
marginale est égale à son coût marginal. Les vertus
d'un tel système ont évidemment de quoi séduire les
économistes distingués qui s'interrogent doctement sur l'avenir
du réseau.
De la théorie à la pratique ?
Les prix dans un marché local réel ne peuvent
être mis à jour de façon instantanée et continue.
Le prix efficace est déterminé en confrontant la liste des
enchères à la capacité disponible en calculant le
prix de rupture. En fait les paquets n'arrivent pas tous en même
temps et sont donc comptabilisés sur une période de référence
et il sera donc nécessaire de nettoyer les enchères par un
système de fenêtre mobile temporelle. L'efficience de ce dispositif
est basée sur la fréquence du nettoyage et la persistance
des périodes de congestion. Au moment où les prix du marché
seront modifiés, l'état de saturation pourrait avoir disparu,
dans l'hypothèse d'une congestion très transitoire.
Plusieurs spécialistes des réseaux ont souligné
qu'un tel dispositif soulèverait des objections parmi les organismes
de formation ou à but non-lucratif, car ceux-ci ne pourraient déterminer
à l'avance le coût d'utilisation du réseau. D'autres
experts pensent qu'un tel argument est largement spécieux, puisque
les enchères fournissent dans tous les cas un contrôle des
coûts d'utilisation maximum du réseau. Bien évidemment,
puisque l'on cherche à minimiser le coût de congestion, rien
n'interdit aux utilisateurs, pour éviter de payer une facturation,
de mettre systématiquement l'enchère de tous leurs paquets
à zéro (16). Quand le réseau
sera suffisamment congestionné pour atteindre un coût de saturation
positif, ces utilisateurs paieront ce coût en délais plutôt
qu'en espèces, comme ils le font d'ailleurs aujourd'hui.
On suppose également que les fluctuations des prix de
saturation génèreront un marché global, et que des
intermédiaires offriront un conditionnement du service autorisant
un prix garanti aux utilisateurs finaux. Cette condition, jugée
déterminante pour la création d'un futur marché des
RNIS qui soit réellement compétitif, jouera évidemment
le rôle d'un catalyseur dans les stratégies de restructuration
capitalistique, visant à la constitution de consortiums industriels
prêts à prendre le contrôle d'un marché encore
flottant.
Mais avant de mettre en oeuvre ce type de solutions, beaucoup
de problèmes théoriques et pratiques sur l'implantation de
marchés aux enchères devront être résolus. L'étude
technique réalisée sur ce dispositif portait sur un seul
point d'entrée du réseau doté d'une mise aux enchères.
En pratique, chaque réseau possède de multiples passerelles,
chacune d'entre elles pouvant subir différents stades de saturation.
Les enchères doivent-elles s'effectuer sur un concentrateur central
avec une mise à jour des prix transmise continûment vers les
différentes passerelles ? Ou bien une mise aux enchères doit-elle
avoir lieu simultanément sur chaque passerelle ? Comment doit-on
coordonner les différentes enchères ? Toutes ces questions
amèneront à une confrontation des modèles théoriques
avec des travaux empiriques, pour déterminer le taux optimal de
consolidation et de partage d'informations sur les enchères, étant
donné les coûts et les délais réellement observés.
Un autre écueil pour la mise en place d'un dispositif
de facturation, c'est de déterminer qui doit payer de l'émetteur
ou du récepteur. Pour des appels téléphoniques, il
est clair que, dans la plupart des cas, c'est l'appelant qui doit payer.
Cependant dans un réseau à commutation de paquets, les deux
partenaires émettent leurs propres paquets, et dans un réseau
travaillant en mode non-connecté, aucun mécanisme ne permet
de détecter quel est la part de paquets provenant de la station
de travail B émis en réponse aux paquets émis par
A, station de travail à l'origine de la communication. Par exemple,
un des usages les plus courants de l'Internet est la récupération
de fichiers à partir d'archives publiques. Si l'émetteur
de chaque paquet est facturé du coût de congestion du paquet,
alors les serveurs d'archives, fournissant gratuitement des informations
publiques, paieront quasiment la totalité des coûts de saturation
du réseau généré par les requêtes des
utilisateurs. Soit les serveurs publics de données mettent en place
un mécanisme de facturation (ex post) des usagers pour les frais
de saturation ainsi supportés, soit le réseau est conçu
pour facturer correctement le coût au véritable responsable
de la congestion (17). En principe, ce problème
pourrait être résolu par des dispositifs similaires aux numéros
verts, mais le coût de la complexité ainsi introduite pourrait
être prohibitif pour un réseau à commutation de paquets.
A quelle hauteur facturer les coûts de saturation
?
D'après un rapport de la RAND Corporation datant de
1990 (18), en moyenne 80% de la facturation téléphonique
aux USA serait consacrée au financement des frais de comptabilité.
Le coût d'un appel téléphonique supplémentaire
en période bleue est pratiquement nul, en période blanche
de 5 à 10 centimes ; en revanche en période rouge, il peut
passer à 50 centimes, soit 100 fois son coût de comptabilisation
unitaire ! Ces ratios, qui peuvent sembler paradoxaux, traduisent en fait
des équilibres délicats à maintenir entre les coûts
de fonctionnement et les coûts de saturation.
Le coût moyen de l'ossature NSFNET est actuellement d'environ
un million de dollars par mois pour un flot mensuel de 56 milliards de
paquets, ce qui conduit à un coût unitaire par paquet (200
octets en moyenne) d'environ 0,01 centime. En comptant une moyenne de dix
utilisateurs par ordinateur-hôte, on arrive au chiffre de 20 millions
d'utilisateurs, ce qui implique, pour récupérer l'ensemble
de la subvention NSFNET, une facture mensuelle de 40 centimes par personne.
Si l'on évalue les coûts totaux de l'Internet US à
dix fois le montant de la subvention NSFNET, on arrive à une facture
mensuelle de 2,50 francs par usager. Les revenus tirés de la saturation
du réseau seront probablement inférieurs à cette somme
(19).
Le coût moyen de l'Internet est faible aujourd'hui
en raison de l'efficacité de la technologie : la commutation de
paquets permet une utilisation très efficiente des liaisons et des
routeurs existants. Si chacun se contentait d'envoyer des courriers électroniques
(environ 15% du trafic, tout protocoles confondus) en mode texte, il n'y
aurait vraisemblablement aucun problème de saturation sur l'Internet.
Cependant les nouvelles applications nécessitent parfois un accroissement
considérable de la bande passante. Un courrier électronique
vidéo peut utiliser 10 000 fois plus de bits pour transmettre le
même message que son équivalent ASCII; et l'accroissement
de bande passante induit par la recherche d'une plus grande convivialité,
peut donc devenir très onéreux. Des politiques bien conçues
de tarification des coûts de saturation ne sauraient facturer l'ensemble
des usagers pour l'allocation de cette bande passante supplémentaire
mais seulement ceux qui sont responsables de cette saturation.
Facturer l'information en tant que marchandise ?
Jusqu'à présent, nous avons focalisé notre
attention sur la technologie, les coûts et la politique tarifaire
des services de transport offerts par le réseau. Cependant, la plus-value
apportée par un réseau ne réside pas seulement dans
le transport, mais aussi dans la valeur de ce qui est transporté.
S'il paraît souhaitable que le potentiel de développement
de l'Internet se réalise dans sa totalité, faut-t-il
pour autant mettre en oeuvre une politique tarifaire spécifique
pour les services informationnels développés sur le réseau
?
Il existe de vastes gisements d'information présentant
de sérieuses garanties d'excellence -et probablement autant d'une
très médiocre qualité- qui sont actuellement disponibles
sur l'Internet en tant que services gratuits. Historiquement, ils
sont basés sur un effort militant pour collecter et maintenir des
bases d'archivage de données, de programmes ou d'informations bibliographiques.
En même temps que l'usage de ces bases se popularisait, ces éditeurs-militants
ont découvert qu'il leur fallait trouver des ressources pour faire
face à l'accroissement des coûts d'exploitation. Bien sûr,
il est permis de rester sceptique sur la qualité ou la pertinence
d'une information aussi gracieusement offerte !
Facturer des ressources informationnelles est un exercice difficile.
Un service comme CompuServe facture ses utilisateurs au moyen d'une
comptabilité individuelle. Cela suppose un mot de passe ; en outre,
l'éditeur d'informations doit installer un dispositif sophistiqué
de comptabilité et de facturation. Cependant, un des avantages majeurs
de l'Internet est son caractère décentralisé
: les sources d'information sont situées sur des milliers d'ordinateurs
différents. Il serait trop onéreux pour un éditeur
de mettre en place un système indépendant de facturation
et de donner des mots de passe différents à chaque utilisateur.
Les utilisateurs auraient à franchir des douzaines de systèmes
d'authentification pour chaque service différent.
Un problème plus crucial encore est que nos politiques
tarifaires traditionnelles s'avèrent inadaptées. La plupart
de ces politiques sont basées sur le coût de reproduction
que nous payons pour chaque copie d'un livre, d'un meuble, d'une maison,
etc. En général cela marche, car le coût trop élevé
de la reproduction nous incite à l'achat. Avec les biens informationnels,
ce schéma s'effondre. C'est tout le problème de l'industrie
du logiciel : une fois l'investissement réalisé, les coûts
de reproduction sont très faibles. C'est également vrai pour
toute information transmise sur un réseau. Imaginez, par exemple,
que les boutiques de photocopie mettent en vente des polycopiés
de cours sur support électronique. Qu'est ce qui empêche un
jeune étudiant entreprenant d'en acheter une copie, puis de la revendre
à un coût inférieur à l'ensemble de sa promotion
? Le problème est encore plus ardu pour les éditeurs de logiciels
qui doivent faire face au "piratage", puisque le coût de reproduction
de leurs produits est voisin de zéro.
Il existe toute une littérature économique étudiant
ces problèmes de reproduction. La multiplicité des connexions
fournies par le réseau posent de réels problèmes de
tarification pour les services informationnels, et pourraient bien, dans
le même temps, susciter d'autres interrogations. Par exemple, certains
chercheurs ont imaginé un super-marché distribuant des biens
informationnels dans lequel l'accès à une information enverrait
automatiquement un paiement au fournisseur via le réseau. Mais encore
faudrait-il résoudre les problèmes cruciaux de confidentialité
des moyens de paiement et d'anonymat des achats, avant que de tels dispositifs
de facturation se répandent.
Commerce électronique sur l'Internet
Certaines entreprises ont déjà commencé
à faire de la publicité et à vendre produits et services
sur l'Internet. Le shopping à domicile devrait être
une des applications majeures des futurs RNIS, utilisant pour ce faire
les possibilités de transmission numérique du signal audio
et vidéo. Le commerce électronique serait censé alors
instaurer un "recalibrage des niveaux de productivité", en réduisant
le temps et les autres coûts (transport, stockage, distribution,
administration) liés aux transactions commerciales, à l'instar
des modifications introduites au moyen de la vente par correspondance dans
le cadre de la sphère domestique. Mais une condition sine qua non
pour l'émergence d'une économie fondée sur le commerce
électronique est l'existence d'un moyen de paiement électronique
sécurisé (20).
Le système des cartes de crédit bancaires fonctionne,
car il repose sur des procédures à peu près fiables
d'authentification, basées sur un dispositif physique et la connaissance
d'un code confidentiel (21). La monnaie électronique
circulant sur le réseau est difficile à protéger,
puisqu'il est impossible d'installer des dispositifs physiques sur chaque
station de travail en garantissant leur protection contre la fraude quelle
qu'elle soit. Donc, authentification et autorisation sont basées
la plupart du temps sur la seule utilisation de codes confidentiels. Une
autre préoccupation est la garantie d'anonymat de l'acheteur, de
façon que la trace des achats ne puisse être vendue à
des agences de marketing ou des banques, ni transmise à une quelconque
instance administrative ou juridique en l'absence de tout contrôle
ou possibilité de recours.
Un certain nombre d'articles récents proposent des protocoles
pour la monnaie électronique -espèces, chèques et
crédits ; chacun d'entre eux possède des caractéristiques
intéressantes, cependant aucun n'a encore connu d'application pratique.
Chaum (1985) a conçu une forme anonyme d'espèces électroniques,
mais qui suppose l'existence d'une banque centrale pour vérifier
l'authenticité de chaque pièce de monnaie électronique
qui circule sur le réseau. Medvinsky et Neumann (1993)
ont proposé une forme de chèque électronique pas tout
à fait anonyme, mais permettant de régler des transactions
à distance avec plusieurs banques. Enfin, Low, Maxemchuk
et Paul (1994) ont récemment présenté une forme
de carte de crédit complètement anonyme.
Réglementer l'Internet
La croissance de réseaux comme l'Internet incite
à la mise en oeuvre d'une réforme de la réglementation
sur les télécommunications. Le service du téléphone
constitue un monopole "naturel" et, partant, doit être réglementé.
Cependant aux USA, les opérateurs locaux du téléphone
font face à une concurrence croissante des réseaux numériques.
Par exemple, la télécopie constitue un facteur important
pour la croissance de la demande sur le réseau téléphonique.
Mais la transmission numérique sur les réseaux à commutation
de paquets est mieux adaptée à la technologie du fac-similé
que la transmission analogique par le réseau commuté ; les
télécopies sont donc transmises de plus en plus par l'intermédiaire
de l'Internet. L'émergence des RNIS offrira le même
service pour la transmission audio et la vidéo-conférence.
Ce court-circuit est déjà mis en place par de nombreuses
compagnies privées à l'instar de General Electric.
Résultat, la tendance semble être à la
levée des barrières interdisant les participations croisées
entre les exploitants du téléphone et les opérateurs
du câble TV. Les compagnies régionales du Bell System
ont déposé une pétition demandant que soient levées
les dernières contraintes réglementaires du jugement définitif
de la Cour Suprême qui les avait créées en 1984, lors
du démantélement d'AT&T. La Maison Blanche, le Congrès
et la FCC (22) développent tous des scénarios
évoluant vers plus de dé-réglementation (23).
Le service de transport de l'Internet n'est actuellement
pas réglementé. C'est une situation cohérente avec
le paradigme juridico-constitutionnel selon lequel les "media courants"
appartiennent à un patrimoine commun dont il convient de réglementer
l'usage, tandis que les services proposés à partir de ces
media ne le sont pas. Cependant aux États-Unis, ce principe n'a
jamais été appliqué de façon cohérente
: par exemple, les services proposés par les exploitants régionaux
du téléphone sur leurs réseaux sont réglementés.
Un certain nombre de groupes d'intérêt public militent désormais
pour que de telles réglementations soient appliquées à
l'Internet.
L'une des politiques prônées est l'accès
universel, autrement dit l'assurance pour tous les citoyens d'un service
de base à un prix très faible. Mais qu'est ce qu'un service
de base ? Est-ce une simple liaison numérique ou une connexion à
des services multi-média intégrés ? Dans un marché
de services informationnels de plus en plus compétitif, comment
peut-on financer cet accès universel ? Les utilisations à
haute valeur ajoutée, qui pourraient être facturées
selon une prime tarifaire par des fournisseurs en situation de monopole,
sont de plus en plus soumises à la compétition et aux possibilités
d'un court-circuit par la concurrence.
Question induite : les gouvernements doivent-ils considérer
l'accès aux services télématiques comme relevant du
service public ? Il semble que certaines initiatives aient déjà
été prises dans ce sens. Par exemple, l'administration Clinton
a demandé que toute publication gouvernementale soit accessible
sous forme électronique. Un autre débat en cours aux USA
porte sur les modalités de financement d'un accès privilégié
pour les élèves et les professeurs du secondaire et du primaire.
Structure du marché des inforoutes ?
Si des secteurs d'activité comme les réseaux
téléphoniques et le câble TV sont dé-réglementés,
doit-on s'attendre à une guerre des prix meurtrière et à
des restructurations sauvages comme dans le transport aérien ? Des
interrogations semblables se font jour pour les réseaux télématiques.
Par exemple, de nombreux observateurs aux USA pensent que le gouvernement
fédéral, en concédant l'ossature de transport Internet
à certains fournisseurs commerciaux, soutient une politique tarifaire
déficitaire menée par un oligopole. À terme, les structures
d'équilibre du marché risquent d'être radicalement
différentes selon qu'il s'agisse du maintien des réseaux
spécialisés actuels ou bien de l'émergence des RNIS.
L'interaction entre les politiques tarifaires et la structure
du marché constitue un enjeu réglementaire d'un intérêt
capital. Si des ossatures concurrentes continuent à offrir une tarification
basée seulement sur la connexion, un opérateur pourra écumer
impunément les utilisateurs à haute valeur ajoutée,
en pratiquant une politique tarifaire basée sur l'utilisation, mais
en offrant un meilleur service en termes de contrôle de la saturation.
En revanche, un fournisseur de connexions à prix plancher sera capable
de court-circuiter allègrement les fournisseurs dont la politique
tarifaire est basée sur l'utilisation, en capturant la part de marché
des clients préférant payer la saturation en termes de délais
plutôt que de dollars. Cette interaction entre les mécanismes
de prix et la structure du marché aura d'importantes implications
stratégiques, car certaines politiques tarifaires peuvent se fonder
sur la compatibilité entre réseaux concurrents, capables
de fournir une comptabilité et une facturation efficaces. Ainsi
des réglementations sur la compatibilité pourraient être
bientôt édictées, en analogie avec les règles
d'inter-connexion imposées aux compagnies régionales du Bell
System.
Bibliographie
-
Braun H.-W. et Claffy K., Network analysis issues for a public Internet,
Technical report, San Diego Supercomputer Center - USCD, CA, 1994
-
Chaum D., Security without identification: Transaction system to make big
brother obsolete, Communications of the ACM, vol. 28, n° 10, pp. 1030-1044.
1985
-
Kroll E., The Whole Internet User's Guide & Catalog, O'Reilly &
Associates, Sebastopol, CA., 1992
-
Low S., Maxemchuk N. F. et Paul S., Anonymous credit cards, Technical Reports,
AT&T Bell Laboratories, Murray Hill, NJ, 1994
-
MacKie-Mason J.K. et Varian H, Pricing the Internet, in Public Access to
the Internet, Kahin B. et Keller J. (eds), Prentice Hall, NJ,1994
-
Markoff J., Traffic jams already on the information highway, New York Times,
3 Novembre, 1993
-
Medvinsky G. et Neumann B.C., Netcash: A design for practical electronic
currency on the Internet, Proceedings of the First ACM Conference on Computer
and Communication Security, ACM Press, New-York, 1993
-
Partridge C., Gigabit Networking, Addison-Wesley, Reading, MA, 1993
Notes
-
Il faut pouvoir disposer d'un débit de 45 Mbps
en moyenne pour diffuser des images TV en mode compressé.
-
Méga-bits par seconde (106 bits).
-
Kilo-bits par seconde (103 bits).
-
Ossature télématique de l'Internet reliant
les sites informatiques abritant les super-ordinateurs de la National Science
Foundation, aux USA.
-
Programme utilisant le protocole TELNET d'émulation
de terminal permettant la connexion à distance sur d'autres systèmes
informatiques situés sur le réseau ; d'après Braun
et Claffy (1994) ce type d'utilisation représente environ 6% du
trafic en volume.
-
Le transfert de fichiers de données représente
environ 45% du trafic en volume, dont 10% environ sont consacrés
à des images en mode GIF ou JPG, Braun et Claffy (1994).
-
Système de recherche d'informations de l'Internet
basé sur la technologie hypertexte.
-
Système de recherche de fichiers basé
sur l'indexation des programmes, données ou textes stockés
sur les serveurs publics de l'Internet.
-
Interface globale d'interrogation des ressources de
l'Internet rassemblant les fonctionnalités d'application telles
que ftp, gopher, web, wais, etc.
-
Internet Talk Radio, service de transmission audio empruntant
les liaisons de l'infrastructure Internet.
-
X-Windows, appelée encore X11 et proposée
à l'origine par le MIT, s'est rapidement imposée comme une
norme de facto pour les terminaux graphiques ; si l'interface graphique
est beaucoup plus conviviale pour l'utilisateur que le mode texte, en revanche
elle présente l'inconvénient de générer un
trafic beaucoup plus dense pour la même quantité d'information
échangée.
-
Transmission Control Protocol, il s'agit de l'un des
principaux protocoles de communication utilisés sur l'Internet.
-
Les effets d'une saturation instantanée du réseau
sont négligeables, sauf si celui-ci est proche de sa capacité
maximale.
-
Que cette mesure soit effectuée sur un échantillon
statistique, peut contribuer à abaisser de manière substantielle
les coûts de la mesure, mais son acceptation dépend en grande
partie du niveau à partir duquel la mesure est effectuée
- utilisateur individuel ou organisme - et de la distribution statistique
de la demande. Par exemple, une distribution de la demande fortement corrélée
dans le temps peut poser de sérieux problèmes de mesure.
-
Certains employés d'universités utilisent
désormais de façon régulière le courrier électronique
pour communiquer avec familles ou amis ayant accès à des
sites Internet. De même, un service de transmission de télécopie
est désormais offert gratuitement entre villes reliées par
le réseau, l'usager ne payant que l'appel local de téléphone
pour transmettre le fac-similé à partir de son propre télécopieur.
-
La plupart des utilisateurs tolérant un certain
délai pour le courrier électronique et leurs transferts de
fichiers, la quasi-totalité de ce type de trafic devrait s'écouler
avec des délais acceptables et un coût de saturation nul,
à l'inverse le trafic temps-réel qui devrait supporter un
coût significatif.
-
Les serveurs publics de données en Nouvelle-Zélande
et au Chili ont déjà été confrontés
à un tel problème : chaque paquet envoyé à
des ordinateurs-hôtes étrangers leur est facturé par
le réseau. Les administrateurs du réseau néo-Zélandais
craignent que de tels dispositifs de facturation ne viennent entraver la
production de services publics d'information. Les serveurs existants diffusent
une note à la connexion attirant l'attention des usagers internationaux
sur les coûts imposés de ce fait aux fournisseurs d'information.
-
Mitchell (1990), RAND report R-3909-ICF.
-
Si les revenus tirés de la saturation dépassent
le coût du réseau, leur ré-investissement pourrait
à terme contribuer à financer l'expansion du réseau.
-
Les travaux de MacKie-Mason et Varian (1994) sur la
tarification du transport télématique ont montré que
l'introduction d'un moyen de paiement électronique semble souhaitable
à partir du moment où les coûts transactionnels de
comptabilité et de facturation sont assez faibles pour justifier
la mise en place d'une tarification du réseau.
-
Les cartes de crédit traditionnelles ne devraient
vraisemblablement plus être utilisées sur les réseaux
publics de transmission de données, bien que ce soit parfois encore
le cas actuellement. Il est techniquement possible d'établir un
compte d'ordinateur fictif et indécelable qui collecte frauduleusement
les numéros de carte de crédit. Les détournements
frauduleux sur le réseau téléphonique sont plus difficiles
à opérer.
-
Federal Communication Commission, instance fédérale
de régulation des communications aux USA.
-
New York Times, 12 janvier 1994.