Une rapide montée en puissance : selon le dictionnaire
Larousse, le mot informatique a deux acceptions. Le nom "informatique"
désigne "la science du traitement automatique de l'information,
considérée comme le support des connaissances et des communications".
Sous sa forme adjective, "informatique" prend une dimension d'ingénierie
: "un système informatique est un ensemble formé par un ordinateur
et les différents éléments qui lui sont attachés".
Ces deux définitions laissent croire que tous les types de connaissances
et de communications langagières sont susceptibles d'une analyse
scientifique et d'un traitement automatique ; on a souvent dénoncé
là une sorte d'usurpation théorique pouvant conduire à
de graves problèmes éthiques. Les Anglo-saxons sont un peu
plus sobres en parlant de "computer science". Dans cet article, nous nous
en tiendrons à une définition "prudente" de l'informatique
: il s'agit des techniques de stockage, de traitement et de transmission
de données par manipulation automatique de symboles physiques enregistrés
sous forme de signaux digitaux ; manipulations effectuées actuellement
par des machines électroniques que l'on nomme ordinateurs.
Il n'est pas inutile de rappeler que les ordinateurs ont eu
une longue préhistoire. Depuis très longtemps, les bouliers
donnent l'exemple d'une technique élaborée de calcul par
manipulation de symboles digitaux matériels : certes, c'est le calculateur
qui doit effectuer lui-même toutes les manipulations, mais il n'a
pas besoin de se représenter la signification de chacune des opérations
effectuées : des routines lui permettent, s'il est bien entraîné,
d'effectuer grâce à cet artefact des calculs complexes et
à grande vitesse. Les machines à calculer de B. Pascal, puis
celle de C Babbage, sont des formes primitives d'ordinateurs capables d'effectuer
automatiquement et complètement des opérations mathématiques,
mais pas de stocker des informations. Ces opérations étaient
effectuées mécaniquement, par déplacement d'éléments
solides interconnectés. C'est vers le milieu du XXe siècle
que A.M. Turing, N. Wiener, J. Von Neumann posèrent les bases des
théories de l'information et de celle des automates. En même
temps, les progrès techniques de la maîtrise de l'énergie
au niveau électronique, le passage des tubes à vide aux transistors
et aux micro processeurs permirent de donner corps aux recherches théoriques
et de les faire progresser rapidement. L'informatique est indissociablement
science et technique ; plutôt que de science appliquée, on
pourrait parler de technologie théorique, le technique et le théorique
se fécondant mutuellement.
Les premières utilisations, d'abord militaires, virent
le jour au cours de la deuxième guerre mondiale. Dès 1951
le US Bureau of the Census procédait à l'acquisition de l'Univac
1, en vue du traitement automatique de l'information statistique : ce fut
la première utilisation civile de machines d'abord conçues
pour des usages militaires. Aujourd'hui, les ordinateurs sont partout.
Leurs capacités de stockage et de traitement ont augmenté
de façon exponentielle, et leur prix en raison inverse. La diffusion
de la technique a été si profonde qu'on a parlé d'informatisation
de la société. I1 en est résulté l'automatisation
d'un immense registre d'opérations, en même temps que l'ouverture
de nouveaux horizons manipulatoires, fermés jusque-là à
l'intervention humaine. Avec la bionique, on peut même parler d'une
dimension onturgique des applications de l'informatique, créatrices
de nouvelles formes d'être.
Assumer les conséquences de ses actions
Cette brutale montée en puissance pose des problèmes
éthiques divers. Qui dit nouveaux pouvoirs dit aussi nouveaux dangers
et risques de mésusages. L'augmentation de la puissance d'agir appelle
l'exercice de nouvelles responsabilités, soumettant l'action à
des contraintes limitatives au delà desquelles elle n'est plus légitime
et risque de déboucher sur un désastre. Cela vaut aussi bien
pour les techniques nucléaires ou biomédicales que pour l'usage
des tronçonneuses. Les progrès de la puissance appellent
une définition de plus en plus rigoureuse du bon usage de la technique.
C. Mitcham rappelle les pré-réquisit d'une utilisation pleinement
responsable d'une technique :
- savoir ce que nous devons faire avec les techniques, le but
et la fin qui devraient orienter l'action technique
- connaître les conséquences de nos actions techniques,
c'est-à-dire anticiper les effets avant de les mettre en oeuvre
- agir sur la base de ces deux types de connaissance et transformer
l'intelligence des fins et des moyens en action volontaire.
Ainsi, en réponse aux potentialités ouvertes
par l'innovation, un usage responsable des techniques doit inévitablement
être restrictif et sélectif, et poser des limites à
l'action. Que ce soit en s'interdisant certains objectifs pratiquement
atteignables, mais moralement répréhensibles, en renonçant
à des interventions dont les conséquences prévisibles
(et toutes doivent être anticipées) ne peuvent pas être
assumées éthiquement. Jusqu'à quel point et comment
ce modèle idéal de régulation de l'action t e c h
n i q u e s'applique-t' il à l'informatique ?
Nous aborderons dans un premier temps les problèmes
posés par les effets intentionnels de l'utilisation de l'outil informatique.
Celui-ci permet de réaliser plus efficacement (plus vite, plus exactement,
plus facilement, à une plus grande échelle, etc.) des opérations
que les hommes savaient déjà effectuer avant le développement
de l'informatique ; celle ci démultiplie des capacités techniques
déjà existantes. C'est bien pour ce surcroît d'efficacité
dans des opérations précises que l'on informatise certaines
tâches qu'il fallait jusque-là effectuer manuellement, lentement,
et dont on restreignait la réalisation et la portée (ainsi,
dans les opérations de recensement, la diversité des informations
collectées à été longtemps limitée par
les capacités et les coûts de traitement ; de même,
dans le domaine militaire la lenteur du calcul des angles de tir limitait
l'utilisation des canons rapides). Les problèmes liés à
l'automatisation des tâches particulières seront successivement
abordés à partir de trois dimensions technologiques de l'informatique
: stockage, traitement, transmission automatique des données.
Dans un deuxième temps, nous aborderons les effets non
intentionnels de l'informatisation : effets indirects et combinés
des divers usages de l'outil, souvent sans rapport avec les objectifs des
acteurs ; ces effets sont diffus et globaux, délicats à appréhender
; ils demandent à être décrits moins en termes d'opérations
qu'en termes de civilisation.
Le stockage de l'information : les banques informatisées
de données nominales
Dès les années 60 aux États-Unis, on a
beaucoup discuté des dangers que représentent pour la vie
privée et l'autonomie des personnes la prolifération des
fichiers nominatifs informatisés mis en place par les administrations
publiques, les entreprises privées etc. L'informatique et la télématique
facilitent le rapprochement et le traitement de données nominales
dispersées dans plusieurs systèmes. L'accès à
ces données ainsi que leur diffusion peuvent être quasi instantanés,
et les verrous qui protègent 1eur confidentialité s'avèrent
souvent aisément contournables. Se profile alors le risque de "mise
en carte" du citoyen, débouchant sur la transparence, et donc le
contrôle, de ses différentes activités. L'interconnexion
des fichiers, permettant de presque tout savoir s u r chaque citoyen, offrirait
de puissants moyens de contrôle et de contrainte à un régime
autoritaire. Toutes les voix dénoncent les potentialités
totalitaires d'une utilisation incontrôlée des banques de
données nominales et les menaces qui pèsent sur la vie privée
et sur les libertés publiques. Des réponses ont été
envisagées à plusieurs niveaux.
Fondée en 1959 sous l'égide de l'UNESCO, I'IFIP
(International Fédération for Information Processing) a rendu
public en l991 un code d'éthique des professionnels de l'informatique.
Ce code énonce d'abord les devoirs liés à la responsabilité
sociale de l'informaticien, tenu d'évaluer les conséquences
sociales de sa technique, de respecter la vie privée et la valeur
des personnes. Il ne doit rassembler des données nominatives qu'avec
le consentement informé des personnes et il doit protéger
le secret de la vie privée. De son côté, l'entreprise
doit se soucier des usagers des systèmes informatiques, de leurs
besoins, de leur subjectivité. Le code affirme un souci d'égalité
d'accès aux services, en particulier entre pays riches et pauvres
et un souçi de ne pas compromettre la diversité des cultures.
L'efficacité d'un tel code suppose une société
fortement morale, un contrôle mutuel des professionnels regroupés
dans une sorte d'ordre mondial des informaticiens contrôlant l'accès
à la technique, sanctionnant les manquements au secret etc. Or,
en pratique, les informaticiens sont d'abord les agents d'organisations
publiques et privées qui ont leurs objectifs économiques
et politiques et qui exercent un pouvoir direct sur les professionnels
qu'elles rémunèrent. L'énoncé d'une déontologie
n'oblige donc que les professionnels qui le peuvent et qui le veulent bien
; par contre, on laisse dans le vide la possibilité d'un recours
contre l'usage abusif de la technique, par exemple contre l'empiétement
sur la vie privée. Le décalage entre bonnes intentions et
moyens de 1es mettre en oeuvre est énorme.
C'est pourquoi on a cherché à moraliser l'utilisation
de l'informatique en la soumettant à des limites légales
et obligatoires dont la transgression autorise le recours en justice et
relève de sanctions pénales. La première loi concernant
les banques informatisées de données nominales a été
promulguée en 1970 par le land de Hesse. En France, une loi "informatique
et liberté" a été promulguée le 6 janvier 1978
; des législations analogues ont été adoptées
dans divers pays. Ces différentes législations ont trois
aspects principaux :
- Publicité de l'existence des fichiers nominaux ;
- Transparence de la finalité et du contenu du fichage,
qui doit être assorti de mesures de sécurité adéquates
contre les vols, pertes et détournements ;
- Organisation d'un contrôle : chaque personne dispose
d'un droit d'accès et de rectification, et il existe une institution
indépendante spécialisée dans le contrôle des
fichiers nominaux.
Ainsi en France, la Commission Nationale Informatique et Liberté
(C.N.I.L.) dispose d'un droit de contrôle, d'interdiction et de poursuite
en cas de non-conformité des banques de données aux critères
suivants : compatibilité entre finalités et informations
recueillies, confidentialité, sécurité, durée
limitée de conservation. La loi insiste sur la protection particulière
des données "sensibles" et interdit d'interconnecter plus avant
les différents fichiers, en particulier au moyen d'un identifiant
unique. La loi crée donc des droits du "fiché" et des obligations
du "ficheur" pour soumettre l'utilisation de l'informatique aux valeurs
de respect de la vie privée et de sauvegarde de l'autonomie des
citoyens.
C'est un progrès indiscutable, mais on a signalé
ses insuffisances au regard des exigences démocratiques de liberté
et de responsabilité.
D'abord la plupart des législations ont une approche
individualiste et libérale, qui ne s'intéresse guère
qu'à la question de la vie privée de l'individu, et ne traite
pas vraiment l'impact de l'informatique sur la réalité de
la vie publique. Ainsi, on relève le décalage entre le caractère
national des législations et la dimension mondiale de la création
de banques de données, de nombreux ficheurs opérant à
l'échelle multinationale (banques, compagnies d'assurance etc.).
Un protocole du Conseil de l'Europe (convention n° 108-1985) impose
des restrictions à l'échange entre polices de données
nominales touchant à la sécurité internationale. Mais
les législations nationales sont très variables quant à
la rigueur du contrôle qu'elles imposent, et certains pays en sont
totalement dépourvus. Il est donc très difficile de trouver
des réponses adéquates au problème des flux transfrontières,
d'autant que les progrès de la télématique et des
télécommunications (câble, satellites etc.) favorisent
l'accroissement rapide des échanges au profit -soit dit en passant-
des pays les plus avancés.
Si on s'en tient à l'échelle nationale, on observe
que les dispositions légales de protection sont constamment débordées
par la banalisation et la généralisation du traitement automatique
des données. L'innovation galopante permet un contrôle de
plus en plus fin de la vie privée et publique. On citera pour mémoire
la vidéo surveillance à enregistrement digitalisé
dans les lieux publics et privés ; l'identification et la localisation
électronique des véhicules ; la facturation des communications
téléphoniques dans les lieux de séjour ; l'enregistrement
des opérations effectuées avec des cartes à mémoires
ou avec des Minitels, etc.
Un des effets importants de l'omniprésence de l'informatique
dans la vie quotidienne est le gommage progressif, par la puissance objectivante
de la technique, de la différence effective entre vie privée
et vie publique. A. Vitalis souligne que, certes, la loi française
a raboté les aspects les plus liberticides de l'informatisation,
mais sans en arrêter la dynamique ni la progression du fichage des
individus. Tous les moyens techniques sont en place pour instaurer un contrôle
total, si ce n'est totalitaire des personnes. Les garde-fous légaux
actuels reposent sur l'adhésion du corps social à un imaginaire
démocratique, fondement qui peut à tout moment perdre sa
force. L'expérience montre qu'on peut passer sans transition d'un
régime libéral à un contrôle social généralisé,
voire totalitaire ; les moyens techniques sont déjà là.
Plus généralement, l'existence d'une loi n'est pas en soi
la garantie d'une bonne pratique sociale. On peut bien définir des
délits, mais la plupart des mésusages ne peuvent être
proscrits légalement. L'ultime garantie de la légalité,
c'est la moralité, c'est-à-dire l'intériorisation
des valeurs par l'ensemble des citoyens et leur incarnation dans des moeurs.
Ici les chiffres sont peu encourageants : seule une infime fraction des
citoyens fichés fait usage du droit d'accès et de correction
prévu par la loi. Force est de reconnaître que la sensibilité
éthique du citoyen évolue avec le contexte social et technique.
Ce qui est abusif pour le Français ne l'est plus pour le Suédois,
dont toutes les activités informatisées sont codées
par un identifiant unique. Quant aux Français, ils semblent peu
capables d'identifier les risques liés à une informatisation
bureaucratique, technocratique ou développée en fonction
d'intérêts économiques, financiers ou politiques. Pourquoi
s'inquiéter quand on sait qu'une Commission Nationale veille au
bon déroulement des choses ?
Pourtant cette léthargie éthique n'est pas justifiée,
la multiplication des banques de données entraînant des effets
sociopolitiques spécifiques, peu compatibles avec l'éthique
démocratique et qui semblent échapper à une maîtrise
réglementaire. Nous avons déjà évoqué
l'alourdissement du contrôle social et le quadrillage du corps social
qui réduisent chaque jour la part du local, du familial, de la vie
privée. De mieux en mieux connues, les personnes deviennent de plus
en plus objets d'intervention, et cela au nom d'excellentes intentions
telles que l'efficacité de la protection sociale. I1 faut signaler
aussi la concentration des pouvoirs administratifs et économiques,
facilitée par la centralisation des informations qui profite aux
acteurs centraux aux dépens des acteurs périphériques.
La sphère décisionnelle des acteurs les plus puissants s'accroît
aux dépens de celle des plus démunis. La fonction centralisatrice
semble inhérente à la "grosse informatique", et on ne sait
pas si la diffusion de la micro-informatique aura un effet correcteur significatif.
Au plan politique, l'informatisation met en porte-à-faux
1es institutions parlementaires liées aux valeurs démocratiques.
La centralisation des informations sur les réalités locales
par les administrations centrales affaiblit le rôle représentatif
de l'élu. L'ordinateur fournit également à l'administration
des procédés d'évaluation, de rationalisation des
choix budgétaires (RCB), de planification, d'analyse coûts/avantages,
dont la technicité entraîne une incompétence relative
de l'élu, décourage la critique et rend le contrôle
parlementaire plus difficile. Les institutions démocratiques risquent
alors de ne garder qu'un rôle décoratif.
Ces décalages entre éthique démocratique
et réalité sociopolitique de l'informatisation ne sont pas
sérieusement atténués par les mesures légales
adoptées ici et là. Ces dernières permettent de moraliser
l'utilisation des banques de données nominales, mais pas de normaliser
éthiquement les effets : situation peu satisfaisante.
Le traitement de l'information et l'automatisation de l'action
La capacité de traiter automatiquement des données
est une des dimensions essentielles de la technologie informatique. Elle
pose des problèmes éthiques de nature variée, et beaucoup
moins discutés que ceux posés par le stockage. Le progrès
des ordinateurs a permis l'automatisation d'un grand nombre de tâches
humaines. Nous nous pencherons sur quelques problèmes posés
par l'automatisation des actions de l'homme sur l'homme, et nous bornerons
à évoquer ceux posés par l'automatisation de l'action
de l'homme sur les choses.
Le perfectionnement des capacités de traitement des
données a suggéré de transférer à la
machine la capacité d'intervenir directement dans les processus
humains : techniques de discrimination entre catégories de personnes
par construction automatique de types ou "profils" à partir des
informations contenues dans des banques de données. Banques et compagnies
d'assurance y recourent pour accorder ou non certaines facilités.
L'évaluation de la fiabilité du client est donc transférée
à la machine et retirée au banquier. Au Canada, cette méthode
est également utilisée en justice pour définir des
profils de délinquants. Cette tendance à la mécanisation
du jugement se prolonge par le transfert à des "systèmes
experts" des capacités d'évaluation des situations humaines.
On en utilise de plus en plus en médecine pour le diagnostic. En
justice, on a vu apparaître au Canada une "Sentencing Database",
qui guide le juge, à partir de profils, dans l'attribution des peines.
En pédagogie, on a vu apparaître des logiciels d'apprentissage
et de contrôle des connaissances. En matière de relations
internationales, le rôle des systèmes experts ne cesse de
croître pour la décision stratégique et la gestion
des conflits militaires. Rappelons que les premiers ordinateurs ont été
fabriqués pour l'armée américaine et que les progrès
de l'informatique ont été stimulés par les demandes
militaires. Sans ordinateurs, ni les missiles nucléaires modernes,
ni la "guerre des étoiles" ne seraient possibles. Enfin en matière
de gestion du risque naturel et technique, l'évaluation de la sécurité
et des seuils d'alerte est de plus en plus souvent confiée à
des dispositifs informatisés.
Or plusieurs auteurs ont signalé les limites du recours
à ce qu'on appelle avec beaucoup d'imprudence "l'intelligence artificielle".
J. Weizenbaum, S. Kramer, H. Dreyfuss, entre autres, ont rappelé
que les opérations de la machine ne sont pas des équivalents
de la pensée humaine. C'est pour cela qu'il n'est ni raisonnable
ni éthique de confier aux ordinateurs certaines fonctions humaines,
en particulier celles qui s'appuient sur des significations symboliques,
celles qui exigent de faire des choix et celles qui s'enracinent dans une
temporalité irréversible, spécifiquement humaine,
laquelle échappe totalement aux procédures informatiques
qui supposent un temps réversible et non humain. Certes, l'ordinateur
calcule mieux que l'homme, mais il ne peut amplifier que ce seul registre
parmi tous les autres registres de la pensée humaine. Ainsi, il
ne saurait juger. Or on a montré qu'en matière judiciaire
(pour ne citer que cet exemple), le recours à des systèmes
experts se fait au détriment de la mission interprétative
du juge qui est insensiblement poussé par son outil à ne
retenir que la forme de la loi comme source du droit ; la recherche de
la pertinence à court terme tendant à remplacer le recours
au raisonnement juridique pour approfondir les valeurs qui inspirent la
loi. Ainsi J. Weizenbaum écrit que "puisque nous ne savons pas
à l'heure actuelle comment rendre les ordinateurs sages nous ne
devons pas leur confier de tâches demandant de la sagesse". I1
souligne en particulier le risque que fait courir l'évolution des
programmes vers l'incompréhensibilité (cela pour diverses
causes techniques), de sorte que "les décisions sont prises à
l'aide et parfois entièrement par des ordinateurs dont personne
ne connaît ni ne comprend plus le programme". Cela entraîne
une dépendance à l'égard de l'incompréhensible,
et le risque d'erreurs et défaillances dont les effets sont souvent
très longs à se manifester, mais alors, de manière
quasiment irréversible. Plus généralement 1es techniques
de traitement informatique des données ne sont pas neutres : le
monde que postule la théorie des systèmes d'information est
homogène, les symboles représentant personnes, choses ou
artefacts étant manipulés de la même manière.
La gestion de l'humain par des systèmes experts crée un risque
de déshumanisation face auquel la réflexion éthique
est fort peu développée.
Quant à l'automatisation de l'action de l'homme sur
les choses, elle a profondément transformé le monde du travail
et de l'industrie, et cela avec des effets très ambigus. Certes,
robotisation, contrôle en continu de la production et de la gestion
évitent le recours à certaines formes dégradantes
de labeur et de division du travail. Mais certains défauts du taylorisme
ont été aggravés, et surtout les gains de productivité
ont entraîné d'énormes problèmes d'emploi et
d'intégration sociale dans tous les pays industrialisés.
La réponse éthique à ces problèmes qui avaient
été anticipés, exige une réorganisation politique
des économies modernes. Or le débat public préalable
nécessaire à la maîtrise responsable des conséquences
sociales de l'informatisation a été occulté et différé
sous l'effet de l'idéologie productiviste et économiciste
des sociétés industrielles.
La transmission des informations : réseaux et télématique
La jonction des techniques informatiques avec celles des télécommunications
est à l'origine de réseaux permettant l'échange de
données digitalisées et le partage des ressources. Ces réseaux
peuvent être locaux, à l'échelle d'une entreprise ou
d'une commune ; ils peuvent aussi être de dimension géographique
mondiale, comme SWIFT pour les banques, SITA pour les réservations
de transports aériens, le réseau téléphonique
ordinaire ou enfin le réseau de données TRANSPAC. Ces réseaux
posent divers problèmes de sécurité et de confidentialité.
Surtout leur impact va plus dans le sens d'une centralisation que d'une
décentralisation de la gestion des informations. Les utilisateurs
périphériques sont contraints d'intérioriser la logique
de fonctionnement du dispositif central et d'y adapter leur fonctionnement
ordinaire. De plus ce sont les organisations les plus puissantes qui en
tirent le plus d'avantages stratégiques.
La télématique, de son côté, recouvre
l'ensemble des services associant l'ordinateur et les télécommunications,
soit dans le cadre d'applications "grand public", soit dans le cadre d'applications
professionnelles. Ainsi le Minitel qui permet d'effectuer à distance
un grand nombre d'opérations, mettant parfois en jeu des données
nominatives (consultation de fichiers, résultats d'analyses etc.).
Les problèmes de respect de la confidentialité sont nombreux.
Il est parfaitement possible d'identifier automatiquement et à son
insu l'utilisateur par son terminal et d'établir ainsi des profils
d'utilisation des services. Cela remet en cause la protection de la vie
privée par l'exploitation des traces laissées involontairement
par les usagers des services. C'est le consommateur qui, en faisant directement
la saisie des données, travaille pour des organisations publiques
ou privées qui disposent ainsi de données inédites,
et donc d'un monopole de savoirs utilisables à leurs propres fins
(marketing, planification etc.). Ce n'est pas seulement la vie privée
qui est menacée, mais le jeu démocratique. La transmission
d e l'information contribue donc, elle aussi, à restructurer insidieusement
les rapports sociaux, à déplacer les pouvoirs, et cela sans
contrôle démocratique véritable. La banalisation de
la micro-informatique ne semble pas devoir atténuer cette tendance
lourde. Certes, des réglementations peuvent atténuer les
effets préoccupants de tel ou tel usage de l'informatique. Mais
le processus global d'insertion de l'individu dans un réseau informationnel
producteur d'effets de pouvoir sur lesquels il a peu de maîtrise
semble difficilement évitable.
Ainsi, qu'il s'agisse du stockage, du traitement ou de la transmission
des données, la réflexion éthique sur les problèmes
posés par les diverses utilisations de l'informatique et les possibilités
de les moraliser semble très en deçà de l'importance
des enjeux. Dans bien des cas, la mise en conformité des utilisations
exige bien plus que des recommandations déontologiques. Si elle
veut se traduire dans les faits, la préoccupation éthique,
surtout lorsqu'elle concerne la vie publique, doit s'exprimer dans des
normes légales, un droit par lequel le peuple impose à ses
membres (individus, groupes, organisations) des restrictions quant à
tel ou tel usage de l'informatique. L'éthique exige alors une politisation
des choix techniques, c'est-à-dire un débat public permettant
de faire émerger la diversité des intérêts et
des enjeux de pouvoir liés à l'outil informatique. A cette
condition, on pourra choisir de manière éclairée les
types d'outils et d'utilisation conformes aux valeurs du peuple. Pour cela,
le simple critère d'efficacité et d'utilité immédiate
s'avère insuffisant. Puisque l'adoption de telle ou telle technique
implique des choix sociaux et des rapports de force, soit pour les renforcer
soit pour les modifier, le minimum de l'exigence éthique serait
qu'on en débatte au grand jour. Pour de nombreux auteurs, ce n'est
qu'à cette condition qu'on peut moraliser l'utilisation de l'informatique
: en l'exprimant en termes de choix de société.
Les effets non intentionnels
Plusieurs auteurs (Ellul, Mitcham, Vitalis) suggèrent
que la politisation de la mise en place des systèmes informatiques
et le contrôle juridique de leur utilisation sont des réponses
nécessaires, permettant de moraliser certaines utilisations intentionnelles
mais insuffisantes pour maîtriser l'ensemble des effets de l'informatisation.
Si ce champ technique est difficilement moralisable, c'est que le modèle
instrumental de la technique comme outil amplificateur de la volonté
de l'utilisateur s'y applique mal. L'usage est loin d'être toujours
volontaire, l'objet précédant l'usage et le dictant souvent
: sans que l'on sache à quels besoins va répondre la montée
en puissance des ordinateurs, c'est parfois lorsqu'ils sont là que
les usages s'imposent comme une actualisation, non pas d'une intention
préétablie, mais des potentialités de la technique,
qui oriente dès lors la volonté dans des directions qui n'auraient
pas été les siennes. Or, une fois enclenchée, cette
orientation, qui s'incarne dans des banques de données, des logiciels,
des programmes, des réseaux, est difficilement réversible.
Par ailleurs, les conséquences de l'activité informatique
ne se limitent pas aux résultats des utilisations intentionnelles.
Les effets non intentionnels et indirects devraien, dans un souci de responsabilité,
faire l'objet d'une démarche prospective, être soumis à
une évaluation et faire l'objet d'un choix. Idéalement tous
les effets anticipables devraient être soumis au choix de tous ceux
qui sont concernés. Face au risque d'irréversibilité,
la plus grande prudence -et donc la lenteur- s'imposent.
Par ailleurs, compte tenu des multiples interactions de l'informatique
avec les autres techniques, l'évaluation éthique doit être
construite en termes de milieu technique et de civilisation. Nous n'en
évoquerons que deux exemples.
D'abord, les progrès de l'informatique retentissent
sur la culture et les modes de pensée, imposant une relation indifférenciée
au réel, appliquant les mêmes logiques de traitement à
des ordres de réalité très différents. Pour
S. Kremer, la théorie de l'information fonctionne comme une idéologie
justifiant la soumission au calcul des processus humains et sociaux, en
faisant abstraction de leur signification. Pour J.P. DURAND, la normalisation
des données dans la communication de l'entreprise conduit à
la négation du monde vécu. Pour A. VITALIS, l'informatisation
exclut le flou, les différences, les particularismes, les structures
insuffisamment rationnelles. L'efficacité des systèmes informatisés
requiert la normalisation de l'échange et de la communication :
tout ce qui sépare, cloisonne, isole, compromet leur fonction de
coordination et freine leur développement. La télématique,
par exemple, exige pour développer ses réseaux, l'intégration
des matériels ainsi que celle des informations échangées.
Même 1'IFIP reconnaît dans son code de déontologie que
la diffusion de l'informatique compromet la diversité des cultures.
Plus profondément, l'informatique implique certaines formes de représentation
du réel et tend à en exclure d'autres ; elle induit un imaginaire
et une sensibilité et transforme en profondeur les attitudes et
les valeurs du sujet. I1 s'agit d'une mutation aussi importante que celle
qui résulte de l'invention de l'écriture, analysée
par J. GOODY, modifiant la capacité de l'homme à se représenter
les situations, à les juger, à faire des choix.
Par ailleurs, l'informatique, en se combinant avec d'autres
techniques, crée de nouvelles modalités d'existence. Avec
J. Brun, on parlera ici d'une fonction "onturgique" de la technique. Par
exemple, la bionique offre de multiples possibilités de dépasser
les limites de notre structure organique. L'informatique est ainsi au coeur
de nombreuses recherches, stimulées par les programmes spatiaux,
visant à fournir à l'homme un "ex-organisme" technique. Elle
est aussi au coeur de recherches visant à manipuler l'expérience
externe et interne (par exemple les "espaces virtuels"). Outre l'ingénierie
du corps propre et du "réel extérieur", on citera aussi les
techniques d'intervention sur le patrimoine génétique de
l'homme. Ainsi sans l'informatique, il n'est pas possible de donner une
portée opératoire aux projets d'analyse complète du
génome humain et de sa recomposition éventuelle.
Impact sur notre représentation du réel, surgissement
de nouvelles possibilités d'être, ces effets sont non intentionnels,
indirects et diffus. Le contrôle juridique de telle ou telle utilisation
de l'informatique n'en donne pas la maîtrise. Ces effets ne lèsent
ni les droits, ni les intérêts des individus : ils contribuent
à l'instauration d'un mode d'existence que certains ne trouvent
compatible, ni avec le devoir de chacun de réaliser sa pleine humanité,
ni avec les responsabilités à l'égard des générations
futures. L'approche parcellaire ("piecemeal") qui inspire les pragmatistes
semble débordée par la puissance et le dynamisme propre à
l'outil, surtout si on tient compte du rôle métatechnologique
de l'informatique.
Pour J. ELLUL, l'informatique est arrivée à point
dans les années 50 pour permettre la coordination des activités
techniques, dont l'ampleur et la complexité dépassaient les
capacités de gestion institutionnelle. Elle permet "la jonction
souple, informelle. purement technique, immédiate et universelle
entre les sous systèmes techniques. C'est donc un nouvel ensemble
de fonctions nouvelles d'où l'homme est exclu. Non par concurrence,
mais parce que personne jusqu'ici ne les a remplies". Ainsi se crée
un univers technicien nouveau, sécrétant sa propre logique
régulatrice et conférant un nouveau dynamisme au progrès
technique. L'informatique est donc nécessitée par la puissance,
la complexité, le besoin d'interconnexion du milieu technique, plutôt
que voulue par les hommes. Son effet global principal, c'est l'autonomisation,
par intégrations systémiques, de l'ensemble des techniques
dont la croissance et la régulation échappent largement à
la maîtrise individuelle et collective et aux normalisations éthiques.
Par sa fonction métatechnique, l'informatique contribue au caractère
anéthique de la technique moderne. Elle contribue aussi à
son caractère fascinant et mythogène, interposant entre l'homme
et son monde tout un imaginaire (valeurs, représentations) qui oriente
sa sensibilité éthique, de sorte que l'outil se développe
dans un vide critique. Ainsi, c'est l'intériorité même
du sujet, son rapport au réel, ses valeurs, sa capacité à
se poser des problèmes et à faire des choix qui sont puissamment
influencés par les effets indirects de l'outil informatique. Même
s'il en a toujours été ainsi, cette situation est contradictoire
avec l'impératif d'autonomie ; de cette contradiction, l'homme peut
être désormais conscient : il serait immoral de s'en accommoder.
Limiter les usages ou limiter la puissance ?
C'est à divers niveaux que l'informatique pose des problèmes
éthiques, et les réponses doivent se situer à des
niveaux également différents. Ainsi le respect du principe
kantien d'humanité requiert que l'on s'abstienne d'objectiver totalement
la vie sociale du sujet.
Cela peut s'envisager d'abord au niveau déontologique,
par la formulation de règles que s'imposent les utilisateurs professionnels
de l'informatique, sous forme de devoirs à respecter dans l'exercice
de leur activité. La mise en conformité de l'action avec
les valeurs peut aussi déboucher sur la formulation de droits et
d'obligations légales, limitant certaines utilisations de l'outil
informatique. Mais la formulation de droits et de devoirs individuels sera
toujours insuffisante sans une intériorisation collective des valeurs
et sans vigilance des moeurs.
La maîtrise éthique de l'informatisation doit
également prendre une dimension politique pour répondre aux
transformations des relations de pouvoir induites par l'informatisation.
L'exigence démocratique de liberté et de responsabilité
requiert une maîtrise collective de l'innovation. Pour décider
de l'utilité et de l'acceptabilité sociales des équipements
et des utilisations de l'informatique, on doit s'interroger sur le type
de vie et d'organisation sociale qui en découle. I1 faut "mettre
à plat" les besoins, les intérêts en jeu, et les différentes
solutions techniques et les soumettre à un débat public,
en termes de choix de société. Celui-ci devrait être
antérieur et non postérieur à l'introduction de l'innovation.
De plus, cela ne dispense pas d'agir avec prudence, en procédant
à une évaluation continue des conséquences. Mais cette
"politisation", tant de la conception que de l'utilisation de l'informatique,
si elle est nécessaire, n'est pas toujours une garantie suffisante
de la moralité des usages. C. Mitcham a montré que cela n'élimine
pas le risque "d'incontinence" (vouloir le mal en connaissant le bien).
Par ailleurs, de par son dynamisme et sa fonction méta-technique,
l'informatique manifeste, selon les termes de G. Hottois, une "virulence
anéthique" très difficile à réduire. Certains
effets indirects et diffus tenant moins à telle ou telle utilisation
qu'à la logique propre de l'outil, semblent inséparables
de son utilisation. Certes, ils sont encouragés par les attitudes
et les valeurs de l'homme moderne, mais ces dernières sont aussi
déterminées par son environnement technique. L'exigence éthique
d'autonomie bute ici sur une limite fondamentale : la volonté qui
doit orienter les techniques est elle-même orientée par les
techniques. Soumettre le choix de l'outil informatique et de ses utilisations
à un débat public n'est pas une garantie suffisante pour
éliminer certaines conséquences éthiquement indésirables.
Alors seul le renoncement à certaines possibilités techniques
peut préserver l'éthicité de l'action. Ainsi, pour
J. Ellul, la mise en conformité éthique de l'informatique
peut exiger la définition collective de seuils de puissance à
ne pas dépasser et l'adhésion à une "éthique
de la non puissance".
Bibliographie
-
Brun, Jean, Le rêve et la machine, Paris, La table ronde, 1992.
-
Commission Nationale Informatique et Liberté, 14ème rapport
d'activité, 1993, Paris, La Documentation Française, 1993.
-
CREIS-LIANA, Actes du Colloque Informatique et Libertés : nouvelles
menaces, nouvelles solutions ?, Nantes, LIANA, 1991.
-
Durand, J. P., Technologie de l'information et contrôle social dans
le travail, in C.R.E.I.S.-LIANA, op. cit.
-
Dreyfus, Hubert L., What computers can't do ?, Harper and Row, 1972.
-
Drestke, Fred. I., Knowledge and the flow of information, Cambridge Ma,
M.I.T. Press, 1981.
-
Ellul, Jacques, Le Système Technicien, Paris, Calman Levy, 1977
-
Ellul, Jacques, Le Bluff Technologique, Paris, Hachette, 1988
-
Goody, J., La Raison graphique, La domestication de la pensée sauvage,
Paris, Minuit, 1977.
-
Hottois, Gilbert, Le signe et la Technique, Paris, Aubier, 1984.
-
Kramer-Friedrich, Sybille, Information measurement and information theory,
a myth of the twentieth century, in Mitcham and Huning, op. cit.
-
Mitcham, Carl et Huning, Alois, ed. : Actes du colloque Information Technology
and Computers in theory and practice. Publié sous le titre Philosophy
and Technology II, Boston studies on the philosophy of science, n°
90, DORDRECHT, 1986.
-
Mitcham, Carl, "From ethos to ethics to Mythos and Religion, notes on the
new frontier between computers and Philosophy", Technology in Society,
vol 8. 1986.
-
Vitalis, André, Informatique, Pouvoir et Libertés, Paris,
Economica, 1981.
-
Weizenbaum, Joseph, Puissance de l'ordinateur et raison de l'homme: du
jugement au calcul, Boulogne sur Seine, Editions d'Informatique, 1981.