On a discuté longtemps (et le débat n'est toujours
pas clos) afin de savoir si "faire de l'informatique" se réduisait
à utiliser un ordinateur, ou bien devait se traduire par la construction
d'une discipline à part entière -fondée sur l'analyse
et la programmation. Pourtant, matérielle et/ou logicielle, l'informatique
reste massivement appréhendée comme une technique (1),
quasiment à l'instar de l'automobile ou du bâtiment. Néanmoins
quelques ouvrages pionniers (2) ont montré
que l'histoire de l'informatique ne pouvait se résorber au sein
de sa seule technicité, et qu'il s'avère indispensable de
l'ouvrir sur les dimensions économique et politique. Ne convient-il
pas d'aller plus loin encore, et de proposer aujourd'hui l'esquisse d'une
théorie sociétale de l'informatique ? Certes, celle-ci ne
peut être qu'une oeuvre de longue haleine, c'est pourquoi il est
seulement question ici de la présentation de trois principes, celui
d'hétérogénéité, d'abord tel qu'on le
rencontre dans le travail de Bruno Latour (3), puis
dans une version spécifique à la généalogie
de l'informatique ; celui d'équivalence ensuite, avancé par
James Beniger et Frantz Rowe (4) au plan organisationnel
et logistique, dont on dérive l'application gestionnaire ; et enfin
un principe de compensation, abordé à travers l'introduction
de la notion de "formatage généralisé", avant de la
rapprocher de la théorie de la rectification développée
par Harry Collins (5). Nous concluerons sur un éclairage
du développement de la micro-informatique à leur lueur.
Ces trois principes ne s'inscrivent cependant pas exactement
sur une même ligne : en effet, le second doit être reçu
davantage comme un principe fonctionnel en quelque sorte, et s'il soutient
une intelligibilité, elle n'en est pas pour autant critique. Les
deux autres l'encadrent afin justement de le relativiser. Or, l'ambition
d'une théorie sociétale de l'informatique ne doit-elle pas
justement jouer de la tension qui travaille la relation du principe fonctionnel
aux principes critiques ?
Le principe d'hétérogénéité
L'hétérogénéité selon
Bruno Latour
Que peut bien vouloir signifier une expression telle que "théorie
sociétale de l'informatique" ? Que l'informatique ne doit plus être
pensée comme une technique plongée dans un milieu, qui en
fonderait à la fois les conditions de possibilité et les
contraintes de développement comme "technique pure".
Le courant de sociologie des techniques, qu'expriment en France
les travaux de B. Latour, montre que la/le technique, ça n'existe
pas. Ainsi, il n'en va pas du/de la technique et du social, tous deux dissous,
mais d'un réseau d'évènements hétérogènes,
qui se "réalise", se "concrétise", ou au contraire se déréalise
ou se déconcrétise, selon que le projet, logiciel au départ,
parvient à se "matérialiser" ou non par recrutement ou défection
d'alliés -hommes ou choses. Pourquoi l'informatique échapperait-elle
à un tel schéma ? La question semble d'autant plus pertinente
que l'informatique, parce qu'elle traite de l'information, est beaucoup
plus exposée que d'autres "techniques" au "social" : à l'interface
de la forme et du contenu (6), elle travaille souvent
directement sur un matériau que les approches traditionnelles identifient
au social.
Cette perspective a déja été balisée
par P. Lévy (7), et lui-même s'inscrit
explicitement sous l'horizon théorique tracé par Latour.
Cependant, pour passionnantes que soient les analyses de P. Lévy,
il en vient nous semble-t-il, dans un mouvement de balancier quelque peu
excessif, à totalement dissoudre toute identité de l'informatique.
La persistance de l'objet, nette chez Latour -que sa démarche cherche
à surprendre avant qu'il ne devienne une boite noire-, parait s'évanouir
chez Lévy, puisque l'on assiste -apparemment- à sa disparition
au sein d'un réseau en constante transformation.
L'histoire de l'ordinateur peut dès lors se comprendre
comme l'intégration d'interfaces de plus en plus proches de l'utilisateur.
Un ordinateur dont le symbole n'est plus tant une "pomme" qu'un "oignon"
! Mais un oignon dont le nombre de pelures se révèle potentiellement
infini : ainsi, même lorsqu'il quitte le paradigme du calcul qui
structurait "la machine univers" (8), Lévy
ne semble pas parvenir à se déprendre d'un ordinateur qui/que
mange l'univers ! Cette prolifération d'interfaces n'inscrit-elle
pas abusivement l'ordinateur sous l'orbe de l'idéologie de la communication
? (9).
Mais à bien y regarder, l'informatique chez Lévy,
et ce malgré le recours à la notion de technologie intellectuelle,
reste en définitive intimement liée a l'objet -même
en perpétuelle transformation- qu'est l'ordinateur : or, selon nous,
l'informatique gagne à être appréhendée en quelque
sorte au delà de son incarnation technologique, car ce qu'elle mobilise,
c'est d'abord l'idée d'une automatisation du traitement de l'information.
Voilà pourquoi c'est sur la base de cette dernière qu'il
convient de réintroduire une logique hétérogène
: avant même d'accepter le mélange des hommes, des signes
et des choses, il convient d'accepter celui des choses relevant de genres
a priori différents (10).
L'hétérogénéité généalogique
Car l'informatique ne se résorbe pas dans l'ordinateur
; ce dernier n'est qu'un avatar -momentanément le plus efficace-
de la concrétisation du "procès" toujours repris, avec les
techniques du moment, de rationalisation/automatisation du traitement de
l'information : que ce soit par le truchement de moyens relevant traditionnellement
des catégories "architecture", "mobilier", "fichiers", "imprimés",
"mécanographie" etc... (11). La notion d'informatique
correspond à l'énonciation d'une partie du processus qui
travaille notre société et que J. Beniger nomme la "control
revolution" (sur laquelle nous revenons un peu plus en détail p.
6 et 20). Ici la causalité ne recouvre pas sa forme classique, mais
celle que définit P. Roqueplo : "S'il y a causalité, c'est
entre une technique donnée et les conditions d'émergence
des techniques ultérieures. La causalité joue non pas sur
l'émergence de cette technique ultérieure, mais sur les conditions
de cette émergence" (12).
Ce que nous appelons "informatique" n'est ainsi pas le fruit
du hasard, mais d'un type de société qu'elle participe a
son tour a spécifier et à construire. C'est bien dans ce
cadre que l'ordinateur -comme moment singulier dans l'incarnation du "procès"-
prend sens : son histoire, d'abord expropriée au profit du seul
paradigme du calcul -sous pression de la guerre et de l'armée-,
correspond à un travail de "récupération" de la logique
du traitement de l'information ; elle n'est donc pas linéaire (13).
L'histoire descriptive en "pelure d'oignon" de l'ordinateur
s'éclaire de la transformation qu'elle subit sous le travail de
trois hypothèses :
- d'une part, celle de la généalogie hétérogène
du traitement de l'information ; car dès lors, les différentes
couches d'interfaces correspondent -malgré les aléas- à
une réponse toujours mieux adaptée à une injonction
d'accessibilité implicitement proférée par une société,
dont la dynamique de la "control revolution" l'entraine à toucher
de plus en plus de secteurs et d'acteurs : or, la pente lourde de cette
société repose bien sur une consommation toujours plus considérable
d'informations dans toutes ses gestions (économiques et politiques
(14)) -dont le calcul n'est qu'un sous-ensemble ;
- d'autre part, la démonstration de J. Beniger intègre
d'autres techniques, telles que le téléphone, le marketing,
la presse, la publicité ou la radio etc., et souligne leur concomitance
et leurs interactions (par exemple entre télégraphe ou téléphone
et presse, ou publicité et presse etc.) : ainsi la mécanographie,
puis l'ordinateur n'émergent-ils pas solitaires, mais au sein d'un
quasi "éco-système" informationnel-communicationnel. Le principe
d'hétérogénéité généalogique,
vertical en quelque sorte, s'accompagne donc du travail d'un principe d'ouverture
que l'on peut qualifier d'horizontal ;
- enfin, ne convient-il pas aujourd'hui de reconnaitre, avec
P. Virilio que l'informatique constitue un véritable "moteur" ?
(15) N'est-ce pas, en effet, cette qualité
qui crée sa spécificité radicale face aux précédents
outils, c'est-à-dire aux précédentes formes du traitement
de l'information ? Or, moteur, "l'informatique" l'est depuis qu'il existe
un traitement automatisé de l'information, la mécanographie
de H. Hollerith dès la fin du XIX°s. Elle aurait suivi la voie
décrite par Simondon (16), d'une concrétisation
de plus en plus poussée, qui passe par l'intégration des
interfaces.
Or, qu'est-ce qu'un moteur ? On peut le définir de manière
générique, à la suite de J.P Séris comme "(...)
une machine qui transforme une énergie quelconque en énergie
mécanique" (17). Ne peut-on dès
lors transposer cette définition à l'informatique ? Elle
deviendrait ainsi le moteur qui transforme une information quelconque (faiblement
structurée, sauf à lui assurer une compatibilité minimale
avec son traitement informatisé) en une information fortement "formatée"
(c'est-à-dire agrégée, rationalisée et standardisée).
Entendons le rapport comme homologique : l'informatique serait dans l'ordre
informationel l'équivalent du moteur dans l'ordre énergétique.
Car, comme le souligne fort justement F. Dagognet, le traitement de l'information
est "un authentique travail" (18). Il ne s'agit
donc pas de conclure à l'existence d'une supposée énergie
informatique (ce en quoi nous nous éloignons de P. Virilio). En
ce sens, le moteur informatique est un moteur de deuxième degré
(qui fonctionne grâce a l'énergie électrique).
L'informatique joue un rôle moteur -possède un
effet moteur- essentiellement (ou d'abord) au niveau macro-sociologique.
A cette échelle -celle de nos gestions socio-politiques- elle fonctionne
en effet comme un "macro moteur d'inférences". L'information pléthorique
et hétérogène nécéssaire a l'administration
de nos démocraties du nombre (19) s'ordonne
et s'architecture -mais également se rigidifie- sous son efficacité.
Une telle hypothèse nous permet de faire l'économie
d'une informatique communiquante, informatique dissoute : en effet, le
moteur informatique peut se brancher, s'encastrer au sein de dispositifs
eux-mêmes plus ou moins concrets (donc plus ou moins réseautiques)
pour les faire "tourner", sans pour autant s'y fondre. Où l'on évite
la confusion prônée par (et promouvant) l'idéologie
de la communication. Cette idée (du moteur informationnel), si elle
conserve une dimension pleinement "sociétale" parce que ce moteur
travaille une information dont nous avons vu qu'elle participe à
la fois du "social" et du "technique", ou parce qu'il soutient le fonctionnement
des grandes machineries sociales que sont la Sécurité sociale
ou l'Insee, l'administration et les entreprises en général,
nous fait également basculer vers le principe fonctionnel, le principe
d'équivalence entre organisations et information : en effet, le
moteur produit de l'innovation organisationelle, ce qui ne va pas sans
dangers, ni une nécessaire relativisation par le principe de compensation.
Le principe d'équivalence
Le principe d'équivalence selon James Beniger et
Frantz Rowe
F. Rowe, dans un ouvrage paru récemment sur l'informatisation
des banques, avance cette thèse -forte- selon laquelle "(...)
les technologies de l'information, et en particulier la télé-informatique
sont avant tout des innovations organisationnelles" (20).
Introduire une informatique équivaut ainsi à promouvoir une
architecture qui ne se résorbe pas dans la seule machine, mais constitue
en elle-même une logique organisationnelle. Aussi, la perspective
d'une informatique/outil, utilisée et asservie par l'organisation,
et dont l'impact reste limité à celui d'un instrument qui
transforme certaines logiques dans le cadre donné de l'organisation
sans pour autant l'affecter en lui-même, s'avère-t-elle profondément
réductrice. Toute intervention informatique suit donc un principe
d'équivalence à l'organisation. Cependant, montrer sa non-neutralité
ne doit pas aboutir à l'inverse à absolutiser le principe
-lequel ne préjuge aucunement de l'effet positif ou négatif
pour l'organisation de l'innovation organisationnelle en quoi se résout
l'innovation informatique. Il convient donc, selon nous, de moduler.
Car l'équivalence peut même mener à un
véritable renversement paradoxal. En effet, si l'informatique équivaut
à une innovation organisationnelle, alors elle peut également
s'y substituer, en ce sens qu'elle absorberait l'innovation organisationelle
et permettrait ainsi d'en faire l'économie au niveau concret de
l'organisation du travail. B. Coriat montre par exemple (21)
que le système MRP (le management des ressources de production,
un système d'ordonnancement qui utilise abondamment l'informatique
(22)) surplombe une réalité sans pour autant la transformer
substantiellement. Où l'on rejoint -assez paradoxalement donc- l'une
des thèses de J. Weizenbaum (23) sur la dimension
conservatrice de l'informatique !
D'autre part, on ne peut manquer de s'interroger sur la réciproque
que semble inclure le principe d'équivalence : effectivement, si
toute informatique équivaut à une innovation organisationnelle,
ne peut-on traduire, convertir toute organisation "en informatique", sans
reste ? Ce serait alors entériner les tentations informaticiennes
à de telles réductions. Or, notre troisième principe,
celui de compensation, nous incite fermement a penser qu'une telle réversibilité
doit être récusée : l'organisation ne peut s'exprimer
par sa seule lecture informationnelle -la sociologie des organisations
l'a amplement montré depuis longtemps. Inversement, une telle réflexion
éclaire également le principe d'équivalence, qui doit
donc être abordé sous l'espèce d'une équivalence
limitée. En effet, la manipulation d'un tel principe ne doit s'effectuer
qu'encadré par les deux autres : c'est pourquoi il reste, pour nous,
un principe d'équivalence et non d'isomorphie.
Comprenons donc ce principe comme une ouverture sur la possibilité
de l'équivalence. Tout système informatique possède
un tel potentiel. Mais poser un tel constat ne préjuge en rien de
son actualisation. Cependant s'il n'hypothéque pas les conditions
contingentes de sa concrétisation, son refus, son échec (quelle
qu'en soit la cause) signifie l'impossibilité d'embrayer sur le
processus global d'informatisation -en rester de fait à ce que B.
Coriat appelle une "taylorisation assistée par ordinateur"
(24)-, et de bénéficier de son efficacité
(quel que soit le jugement que l'on puisse porter sur cette dernière)
: comme le moteur énergétique perd singulièrement
la sienne lorsqu'il ne s'articule pas à un "mobile" (objet ou partie
d'objet), le moteur informatique s'étouffe de ne pas travailler
les architectures organisationnelles et/ou l'économie des transactions
que ces organisations entretiennent entre elles ou avec des groupes sociaux
plus flous, voire des individus. Le principe de compensation montrera en
quelque sorte l'envers d'une telle contrainte (le formatage généralisé).
F. Rowe s'est en fait inspiré d'une thèse tenue
par J. Beniger, et qu'il résume en ces termes : "L'informatique
et les télécommunications ne sont pas spécifiquement
des technologies du traitement et de la transmission de l'information,
ce sont d'abord des techniques de contrôle des flux" (25).
Il convient néanmoins d'éviter d'en déduire que les
technologies de l'information ne seraient pas des techniques de traitement
et de transmission de l'information, mais comprendre qu'elles n'ont d'autre
fonction que de contrôler les flux. L'introduction de cette notion
de flux se révèle tout à fait fondamentale, parce
qu'elle charrie également dans son sillage celles de gestion et
de logistique.
Le principe de l'équivalence gestionnaire
En quoi consiste en effet le geste et le savoir gestionnaire
? Que veut dire gérer ? Ne s'agit-il pas de suivre la trajectoire
de l'image d'un "objet" (matériel ou logiciel) -au plus près
de son évolution "réelle" ? Or, pour que l'image colle à
l'objet, il faut qu'un "canal" les relie en permanence (entendons cette
permanence comme un objectif vers lequel tendre), afin qu'il renseigne
le dispositif de création de l'image sur le mouvement de l'objet.
Il convient de contrôler au plus juste l'évolution de l'objet.
La précision de l'image, donc de la gestion, en dépend directement.
Ainsi, toute gestion -et ce d'autant plus qu'elle tend vers le temps réel,
d'autant plus donc qu'elle prétend à une co-évolution
à celle de l'objet- repose sur un mécanisme de contrôle,
avant même le -et comme condition du- développement d'une
logique de régulation. Pas de régulation en effet sans maitrise
la plus adéquate de l'objet, donc de son contrôle.
Si gérer c'est d'abord contrôler un "objet", traiter
de l'information, c'est toujours ouvrir la possibilité du contrôle.
Il faut compter avec ce potentiel inhérent au traitement -singulièrement
automatisé, "motorisé"- de l'information, qui l'introduit
par là même à la gestion. Sous condition d'une traduction
informationnelle, tout objet, quel qu'il soit, pourrait être soumis
à une gestion. Où l'on reconnait certains penchants qui oeuvrent
trop facilement à glisser du "contrôle de gestion" au contrôle
social (26). Or, aucun objet n'est parfaitement réductible
à son hologramme informationnel -et plus il est complexe et plus
cette réduction se paye d'une véritable trahison.
Cependant l'acte de gestion dépasse la seule maitrise
de l'objet ; il s'intéresse également de manière privilégiée
au contrôle de processus. Or, si tout objet résiste à
sa compression en son double informationnel, il en va tout autrement des
processus. Cette équivalence de l'informatique au processus (quel
qu'il soit) repose sur ce que nous nommerions volontiers la capacité
de "simulation généralisée" de l'informatique. Nous
entendons par là son aptitude à produire une traduction informationnelle
d'échelle 1. Cette simulation généralisée transcende
la conversion du processus en modèle, elle désigne d'abord
son accompagnement et son redoublement. C'est elle qui fonde l'efficacité
à proprement parler logistique de l'informatique (que cette logistique
s'investisse dans une entreprise industrielle, de transport, de grande
distribution ou militaire).
Des problèmes de conception engendrés par le
déploiement de la simulation généralisée a
dérivé une simulation restreinte (27)
-comme production de modèles manipulables d'objets ou de processus
(28)- qui vise, quant à elle, non pas à
dupliquer l'objet ou le processus, mais à le rapporter (au double
sens du mot, de retour et de mesure) à l'ordinateur, par rétrécissement,
simplification et maitrise de ses coordonnées. Elle participe désormais
à la production de la simulation généralisée,
dont elle s'est toutefois autonomisée au point de donner naissance
à une autre "réalité", virtuelle celle-la. Pour être
plus visible et plus spectaculaire, la simulation restreinte ne doit pas
oblitérer la simulation généralisée, dont le
rôle dans la gestion de la complexité à laquelle est
assignée l'informatique reste trop souvent négligé.
A la différence de l'équivalence gestion de l'objet/informatique,
celle du processus à l'informatique reste beaucoup plus discrète,
beaucoup moins ostentatoire : l'exercice de la vigilance en est rendu d'autant
plus difficile. Or, le contrôle de processus par la simulation généralisée
affecte pourtant, tôt ou tard, pleinement l'"objet" (lequel peut
être un homme), mais indirectement, sans toucher, semble-t-il, à
son intégrité : seul ce que l'on pourrait appeler son "parcours"
est en cause (celui d'un homme dans une ville, qui, par exemple, paye de
multiples services à l'aide d'une carte à puce, dont les
relevés permettent de suivre la trace dans le temps et l'espace
-une logique qui n'est pas différente de celle que met en oeuvre
le suivi (le mot est clair) d'une marchandise ou d'une information bancaire).
A ce principe fonctionnel -et donc non-critique- de l'équivalence,
potentiellement pervers, le principe de compensation offre un utile contre-point,
une nécessaire relativisation.
Le principe de compensation
Le "formatage généralisé"
L'informatique n'échappe pas à cette tendance,
qui affecte l'ensemble de nos techno-sciences, et que B. Latour cerne avec
pertinence lorsqu'il avance que "chaque fois qu'un fait est vérifié
et qu'une machine tourne, cela signifie que les conditions du laboratoire
ou de l'atelier ont été étendues d'une façon
ou d'une autre" (le gras est en italique chez B. Latour (29)).
Non seulement l'informatique n'y échappe pas, mais elle en dépend
peut-être plus que d'autres encore : en effet, si une automobile
peut, quoique difficilement, pratiquer un peu le "tout terrain" sans avoir
été conçue pour cela, l'informatique, elle, ne fonctionne
pas du tout sans "formatage généralisé" préalable
de la portion de réalité sur laquelle elle intervient.
Ce formatage généralisé (30)
consiste en un processus d'organisation d'un milieu, de sa structuration
en vue de produire une information traitable par l'ordinateur. En effet,
un milieu quelconque n'engendre pas spontanément une telle information
: il faut donc la construire. Ce qui se traduit d'abord par un travail
d'architecturation de ce milieu aux normes informatiques. Envers de ce
que l'on appelle, par euphémisme, l'adaptation. L'inadapté
n'est autre que celui qui n'a pas pu/voulu se réorganiser en fonction
de cet impératif. Il "résiste" dit-on. Travail politique
donc.
Le "formatage généralisé" subsume cette
idée d'une fabrication d'un "milieu pour l'informatique", qui permet
à celle-ci d'atteindre sa pleine opérationalité, sa
pleine fonctionnalité, de faire triompher la logique hyperfonctionnaliste
révélée par F. Pavé (31).
Ce qui ne veut bien évidemment pas dire que l'opération réussisse
toujours parfaitement : il s'agit d'une tendance globale (mais qui, par
là-même oeuvre à supprimer les espaces d'expression
des différences).
Ce formatage représente-t-il une activité "technique"
ou "sociale" ? Ni l'une ni l'autre, mais un travail "sociétal",
au sens où celui-ci convoque tout aussi bien du matériel
que de l'immatériel, du "hard" que du "soft", des choses, des signes,
des hommes et des institutions. Car c'est bien le tissage de ces quatre
instances qui crée un milieu. Ainsi les hommes cherchent-ils à
acquérir la maitrise d'un langage informatique par exemple, ou bien
leur travail s'ordonne-t-il tout entier à un processus informatisé
qui les dépasse (les caissières de supermarché et
la gestion du magasin), auquel les signes doivent également obéir
(les prix qui ne sont plus affichés sur les produits, mais seulement
en rayon), sans parler des choses, qui lui sont totalement subordonnées
(le flux des produits reconnaissables plus à leur code-barre qu'à
ce qu'ils contiennent).
En ce sens il convient d'interpréter la "numérisation"
comme un véritable "effet formatage" : il s'agit effectivement de
rendre l'image, le son ou toute donnée compatible à son traitement
informatisé, de les préparer/transformer afin d'ouvrir une
disponibilité à leur adaptation à l'informatique (opération
qui fait elle-même appel à l'informatique). Or, il n'en va
pas seulement de la technique au sens strict, mais également et
indissociablement des entreprises qui portent le mouvement, et de toutes
les "activités" (elles-mêmes mélanges d'hommes, d'institutions,
de signes et de "techniques"), qui l'acceptent ou la promeuvent pour des
raisons d'efficacité (dans l'intervention sur l'image, dans le stockage
et l'écoute du son etc.) ou de pression du marché. Dès
lors le moteur informatique peut être appliqué a faire travailler
(non seulement les données mais également) ces nouveaux champs
de l'image et du son, susceptibles de devenir ainsi de nouveaux gisements
de production et d'emploi. (32)
Puisque l'informatique ne peut tenir sans le recours à
ce formatage, elle ne peut prétendre à n'être qu'une
activité purement technique... La "preuve" nous en est en quelque
sorte fournie a contrario par l'idéologie technicienne (33)
-ce discours qui prétend porter la vérité de la technique
en la réduisant à sa seule technicité- qui oeuvre
systématiquement à l'élimination de cet envers des
choses : l'informatique dès lors ne s'impose que sous la pression
de sa propre force, celle de sa logique supposée rationnelle, et
ne s'affronte qu'à d'illégitimes et archaïques résistances.
Or, nous venons de le voir, cette logique ne s'affirme pas par l'évidence
de sa supériorité, mais après ou concomitament à
un travail qui en facilite le déploiement.
La rectification selon Harry Collins
Ce travail correspond au niveau macro-sociologique à
cette activité que H. Collins découvre au niveau micro-sociologique,
lorsqu'il essaie de comprendre comment fonctionne une machine a calculer
: la rectification (34). En effet, il montre que cette
machine est fondamentalement incapable de faire correctement de l'arithmétique
seule. Elle ne marche que parce que nous compensons ses défaillances.
Elle ne fait de l'arithmétique que parce que son utilisateur, non
seulement sait la manipuler, mais sait également ce que c'est que
de faire de l'arithmétique. C'est le couple qui réussit ou
échoue.
Il en va de même avec l'informatique, si ce n'est que
la rectification/compensation n'engage pas tant un "homme" qu'un processus
social. Sans préparation de son milieu d'accueil, sans que soient
pré-implantées ses conditions d'exercice, elle ne fonctionne
tout simplement pas et ne sert à rien. En effet, une "technique"
ne parvient à se développer que si, d'une manière
ou d'une autre, elle "sert a quelque chose et/ou à quelqu'un", elle
remplit une fonction. Or, les conditions de sa réussite ne sont
autres que celles de la pré-implantation de sa propre logique dans
le milieu sur lequel elle est censée intervenir : elle ne "fonctionne"
que si une fonction a été crée pour elle. N'en concluons
pas cependant que la fonction crée l'organe, mais leurs conditions
d'existences sont les mêmes, et ce n'est que lorque la fonction est
suffisament "mûre" que l'organe peut se développer.
L'histoire de l'informatique, telle que l'on peut la lire sous
l'éclairage de l'ouvrage de J. Beniger (35)
le montre avec pertinence. C'est en effet dans le cadre d'un vaste mouvement
-celui de la "control revolution", de la régulation des crises
engendrées par l'accroissement vertigineux des volumes et des vitesses
de production ouvert par la révolution industrielle, par le recours
aux technologies de l'information et de la communication, que l'informatique
parvient à s'imposer. Cette "control revolution" constitue,
croyons-nous, en fait, un épiphénomène d'un mouvement
plus profond encore, celui de la Rationalisation (36).
Or, ces deux mouvements mêlent inextricablement les hommes, les signes,
les institutions et les choses (plus ou moins matérielles ou logicielles
elles-mêmes). Ces deux mouvements participent pleinement de l'accoutumance
diffuse à une logique que l'informatique ne fait que concentrer,
au plus haut degré il est vrai : celle du tri, du classement, du
comptage et de l'étiquetage (37).
Ce fait dépasse les "générations" ou les
types techniques. Ainsi la mécanographie d'Hollerith prend-elle
son envol en cette fin du XIXème parce que :
- la démocratie américaine, ainsi que l'explique
l'historien américain D. Boorstin (38) accepte
et appelle un découpage statistique a priori et "rationnel" de la
population, indispensable à sa gestion, en substitution aux classements
européens hérités ;
- les grands trusts américains sont déja structurés
et gérés dans le cadre de procédures rationalisées,
sur lesquelles l'articulation de la mécanographie n'engendre pas
de problèmes majeurs (39), tout en renforçant
nettement le mouvement de rationalisation.
Cette version macro-sociologique et généralisée
(car elle dépasse la position a posteriori) de la rectification/compensation
ne joue pas seulement au niveau des seules conditions, mais également
-au plus près du modèle de Collins- tout au long du déploiement
de l'informatique, puisque celui-ci s'accompagne d'un important et coûteux
travail qui vise à la maintenir en comblant les décalages
(par une incrimination constante des résistances "humaines") et
surtout par le principe du "plus de la même chose" (40)
côté informatique et un renforcement du formatage côté
"milieu". Nous dépensons ainsi un argent et une énergie folle
à compenser les faiblesses de l'informatique et singulièrement
celle de sa piètre capacité d'adaptation... par une exigence
considérable envers la notre !
Le succès de la micro-informatique ne proviendrait-il
pas d'un effort nouveau d'adaptation de l'informatique à l'utilisateur
? S'il se révèle difficile de récuser une telle position,
il ne faudrait pas en conclure pour autant trop hâtivement a la fin
de l'effet formatage. Car l'émergence de la micro constitue plutôt
un changement de niveau du formatage : si la programmation ne représente
plus un obstacle, si l'accès au logiciel d'application est désormais
des plus aisés, il n'empêche qu'il n'accepte pas plus n'importe
quelle information, et qu'il oriente toujours la production de cette dernière.
Où l'on comprend mieux encore que le formatage ne joue pas seulement
au niveau du traitement des données (41), mais
bien à celui de leur "invention". L'ordinateur ne produit pas seulement
de l'information en output, mais exige également une information
déja pré-formatée en input.
La micro-informatique n'introduit pas à cet égard
un quelconque desserrement du formatage...au contraire même, puisqu'elle
démultiplie les puissances locales de traitement. On peut ainsi
légitimement se demander si elle n'implique pas un changement d'échelle
dans le formatage -lequel affecterait le "réel" plus en profondeur
et plus en détail encore. Non seulement elle investirait donc de
nouveaux territoires, mais elle les toucheraient plus précisément.
En ce sens la "démocratisation"/"décentralisation"
tant attendue par les plus ardents défenseurs de la micro-informatique
n'a pas eu lieu. Car l'information ne vient pas plus qu'avant "spontanément"
à l'outil. La micro-informatique ne représente donc pas tant
une nouvelle logique qu'une miniaturisation du moteur -et de sa puissance.
Il s'agit d'une diffusion massive du moteur, qui peut ainsi pénétrer
plus avant tous les "pores du corps social", mais pas de l'introduction
d'une autre rationalité. Quelque peu paradoxalement, l'on peut avancer
que, si elle démocratise, c'est encore et toujours la logique de
la centralisation -qu'elle diffuse à des échelles inconnues
auparavant.
Cette densification informatique, en quelque sorte, que porte
la micro-informatique (loin donc, des espoirs que ses thuriféraires
plaçaient en elle pensons en France a Bruno Lussato (42)),
permet de transformer et de déstabiliser des outils-savoir anciens,
tels que les plans et les cartes par exemple, qui se voient concurrencés
par des systèmes d'information géographique dynamiques.
La micro-informatique, loin de se cantonner à l'utilisation
domestique, envahit le paysage professionnel : elle soutient ainsi le développement
de nouvelles gestions en "temps réel" et de nouvelles organisations.
Le commercial en vient par exemple à abandonner la référence
à un lieu spécifique de travail et à reporter son
activité, soit chez son client, soit à son domicile, grâce
a l'emploi de portables reliés au siège par un "numéro
vert" (43).
Une telle densification rend de plus en plus omniprésente
la "nécéssité" d'un formatage qui fait de plus en
plus partie de la "nature des choses". Ainsi, lorsque la convergence, l'adéquation
entre la logique du milieu et la technique devient quasiment parfaite,
son effet se perd comme tel, parce que la différence tend à
s'annuler : où l'on atteint a la naturalisation de la technique
-ce qui, en règle générale veut également dire
que les options possibles ont été éliminées
(et souvent disqualifiées et/ou oubliées). C'est contre cette
conséquence qu'il faut militer pour une théorie sociétale
de l'informatique, qui la présente comme un construit complexe,
dans son histoire comme dans son actualité.
Notes
-
cf notre thèse, "L'impensé informatique,
au miroir du quotidien in Le Monde (1972-1980)", Université
Paris-I, 1994, notamment le chapitre deux.
-
Nous pensons pour la France à Breton, Philippe,
1987, "Une histoire de l'informatique", La découverte, et
Ligonnière, Robert, 1987, "Préhistoire et histoire des
ordinateurs", Robert Laffont.
-
cf notamment Latour, Bruno, 1992, "Aramis ou l'amour
des techniques", La découverte, et Latour, Bruno, 1989, "La
science en action", La découverte.
-
cf Rowe, Frantz, 1993, "Des banques et des réseaux",
Economica.
-
cf Collins, Harry, 1992, "Experts artificiels",
Seuil.
-
P. Breton souligne notamment que "l'information [est
un] parfait interface (...) parce qu'entité d'un coté tournée
vers la technique (la forme), et de l'autre vers le social (son contenu)",
in Breton/Rieu/Tinland, 1990, "La techno-science en question", Champ
Vallon, p154.
-
cf Lévy, Pierre, 1990, "Les technologies de
l'intelligence", La découverte.
-
cf Lévy, Pierre, 1987, "La machine univers",
La découverte.
-
cf Breton, Philippe et Proulx, Serge, 1989 (première
édition), "L'explosion de la communication", La découverte
et Boréal, et notre thèse, op cit.
-
Une telle approche est à distinguer des "trois
temps de l'esprit" que dégage P. Lévy : l'oralité
primaire, l'écriture (et l'imprimerie), et l'informatique, in "Les
technologies de l'intelligence", op cit, deuxième partie.
-
cf notre article "L'informatique et son histoire
: renverser la perspective ?", Terminal n°66/1995.
-
cf Roqueplo, Philippe, 1990, "Les avatars de la
communication du fait de la technique", in "Technologie et symbolique
de la communication", PUG, p415.
-
cf notre article "L'informatique et son histoire
: renverser la perspective ?", Terminal n°66/1995.
-
cf notre article "La démocratie, le nombre et
l'informatique", Terminal n°65/1994.
-
Nous avons également avancé une telle
hypothèse dans notre thèse (cf op cit, l'introduction du
Titre II, p223) a l'automne 1993, avant que d'avoir pris connaissance de
l'ouvrage de Virilio (cf Virilio, Paul, 1993, "L'art du moteur", Galilé).
-
cf Simondon, Gibert, 1989, "Du mode d'existence
des objets techniques", Aubier.
-
cf Séris, Jean-Pierre, 1994, "La technique",
PUF.
-
cf Dagognet, François, 1979, "Mémoires
pour l'avenir", Vrin, p41.
-
cf notre article "La démocratie, le nombre et
l'informatique", Terminal n°65/1994.
-
cf Rowe, Frantz, op cit, p96.
-
cf Coriat, Benjamin, 1994, "L'atelier et le robot",
Ch. Bourgois ; soulignons pourtant la réticence de cet auteur a
reconnaitre le principe d'équivalence que nous proposons, puisqu'il
prétend qu'"il faut soigneusement distinguer les innovations organisationnelles
des innovations technologiques (...)" (p17) ; remarquons toutefois que
B. Coriat travaille sur l'industrie et non le tertiaire : c'est pourquoi,
a moins de récuser a priori ses positions, il vaut peut-être
de noter que le principe d'équivalence concerne plus le tertiaire
que l'industrie, ou plutôt se demander s'il ne s'applique pas au
premier chef aux processus plus qu'aux opérations ; or, B. Coriat
ne tend-il pas lui-même a confirmer cette seconde hypothèse
lorsqu'il écrit que "la logistique est par excellence [le domaine]
où innovation technique et innovation organisationnelle sont tenues
par des liens de solidarité intime" (p54), et surtout que "la micro-électronique
et l'informatique permettent un bond en avant dans l'économie générale
des flux a l'oeuvre dans la production matérielle" (p65) ?
-
Ce système "est largement basé sur l'usage
de nouvelles technologies : (...) le traitement informatique de toutes
les informations relatives aux commandes, aux stocks, a la disponibilité
du personnel, aux capacités installées (...) [etc...]. Ce
sont le nombre et la complexité de ces séries d'informations
qu'il faut simultanément traiter qui exigent le recours a l'informatique"
(op cit, p95).
-
cf Weizenbaum, Joseph, 1986, "Computer power and
human reason", Penguin.
-
op cit.
-
cf Rowe, Frantz, op cit, p56.
-
cf notre thèse, op cit, chapitre 8.
-
P. Breton montre ainsi que les contraintes du réseau
SAGE de défense anti-aérien américain de la guerre
froide -une capacité "logistique" donc- entraine la mise au point
du Whirlwind -a la base un simulateur de vol- qui inaugure le déploiement
de l'aptitude a la simulation restreinte informatisée ; cf "Histoire
de l'informatique", La Découverte, 1987.
-
cf Quéau, Philippe, 1986, "Eloge de la simulation",
Champ Vallon.
-
cf Latour, Bruno, 1989, "La science en action",
La Découverte, p410.
-
cf notre thèse op cit, chapitre six notamment
; il convient de noter a la fois la proximité et la différence
d'une telle position avec celle de Simondon, beaucoup plus anthropomorphisée,
lorsqu'il écrit que l'objet technique "crée de lui-même
son milieu associé" (p56) in, Simondon, Gilbert, 1989, "Du mode
d'existence des objets techniques", Aubier.
-
cf Pavé, Francis, 1989 "L'illusion informaticienne",
L'harmattan.
-
A l'instar du cinéma, qui le premier, nous rappelle
P. Virilio -op cit- a motorisé l'image et -donc ?- engendré
une nouvelle industrie -peut-il en effet exister une industrie sans moteur,
tout moteur n'embraye-t-il pas sur une industrie ?
-
cf notre thèse, chapitre deux, op cit.
-
cf Collins 1992, op cit, chapitre 5. Nous préférons
le terme de compensation a celui de rectification employé par Collins
: il est en effet a la fois plus global et moins "recteur".
-
cf Beniger, James, 1986, "The control revolution",
Harvard UP.
-
cf Weber, Max, 1991, "Histoire économique",
Gallimard.
-
cf Dagognet, François, 1979, "Mémoires
pour l'avenir", Vrin.
-
cf Boorstin, Daniel, 1991, "Histoire des américains",
Robert Laffont.
-
cf Chandler, Alfred, 1988, "La main visible du manager",
Economica.
-
cf Watzlawick, Paul, 1975, "Changements et psychothérapie",
Seuil.
-
Peur des années 70, mais qui, pour légitime
qu'elle soit, masque cet aspect décisif des choses, cf notre thèse
op cit.
-
cf Lussato, Bruno, 1981, "Le défi informatique",
Fayard.
-
cf les exemples d'IBM et de AS Birambeau in Informatiques
magazine n°1, novembre 1994.