|
|
Systèmes dinformation
et entreprises :
Convergence ou incertitude ?
Claire Charbit* et Jean-Benoît Zimmermann**
Lindustrie informatique connaît, depuis les années 80, de profondes turbulences qui se sont traduites au cours de ces dernières années par une redistribution des positions de marché, lémergence de nouveaux leaders, et lapparition de nouveaux concepts de systèmes dinformation qui bouleversent le contenu et la structuration de loffre. Plus précisément, on évoque le passage dun modèle vertical dorganisation de lindustrie, fondé sur une intégration forte autour dun petit nombre de firmes globales, à un modèle horizontal qui correspondrait davantage à des positionnements de spécialisation sur une composante, voire sur une strate de loffre (logiciel, microprocesseurs), et qui dériverait de la nature, par essence combinatoire, du produit informatique1.
Or, pour séduisante quelle soit, une telle mutation nest pas définitivement acquise. Dabord parce que les forces inertielles des anciens modes dorganisation continuent de représenter une puissante résistance au changement, qui peut singulièrement infléchir le modèle émergent. Parce quensuite lincertitude qui pèse sur la configuration à venir entraîne des guerres de position sans merci, qui se fondent à la fois sur une course à la puissance, une concurrence par les prix de plus en plus étendue et une accélération du rythme de linnovation.
La grande majorité des études disponibles sappuient sur une analyse de loffre et se construisent sur la prise en compte des capacités dinvestissement et dinnovation des firmes, ainsi que sur la construction des réseaux dalliance qui préfigurent les futures structures et les modèles technologiques quils visent à promouvoir2. La démarche que nous présenterons à travers cet article se propose au contraire dexaminer cette transformation à travers une analyse des positions identifiables du côté des utilisateurs, et ce pour au moins deux raisons complémentaires. La première est la nécessaire prise en compte dun bouclage offre-demande, pour valider le passage dun ancien à un nouveau modèle en émergence, dans la mesure où les technologies de linformation chez les utilisateurs se sont stratégiquement rapprochées du cur de leurs compétences propres, et que les conséquences de lintroduction de nouveaux concepts de systèmes dinformation ont, chez ces utilisateurs, des répercussions importantes quant à leur organisation, voire même quant au contenu de leurs activités. La seconde raison qui motive notre démarche est la constatation que, dans un tel contexte dévolution de loffre, les utilisateurs ont à faire face à une double incertitude, à la fois technologique et organisationnelle, qui les conduit à opter pour une large variété de stratégies déquipement, au sein dun éventail allant de la position attentiste et daversion pour le risque à celle dune attitude volontariste dinvestissement sur une orientation technologique et architecturale déterminée.
Il ne sagit pas pour autant de prétendre à une analyse des usages de linformatique, laquelle constituerait évidemment une démarche complémentaire, indispensable à un approfondissement sérieux de la voie que nous nous proposons ici de défricher. Malgré lintérêt évident dune telle approche pluri-disciplinaire, nous ne pouvons à cette étape que renvoyer le lecteur aux travaux déjà accessibles dans le champ de la sociologie3. Pour ce qui nous concerne, lobjet de cet article, de lordre de lanalyse économique, vise à introduire lidée que les stratégies doffre ne peuvent se traduire de manière effective en termes de structures de marché que dans la mesure où ladoption des concepts offerts constituera la condition permissive de formation dune demande. Le bouclage offre-demande constitue par conséquent une forme récursive démergence ou de mutation des marchés. A cet égard, une enquête empirique menée auprès dun échantillon de grands utilisateurs doit nous permettre de dégager une série dhypothèses de travail, voire de faits stylisés, utiles à une analyse des conditions démergence dun nouvelle configuration de loffre de systèmes.
Nous suivons en cela la voie proposée par Bresnahan & Saloner (1994), concernant lattitude des grandes firmes aux Etats-Unis, et par Saloner & Steinmueller (1996) qui ont entrepris une analyse similaire plus récente au niveau européen4. Ayant participé au volet français de cette étude, nous appuierons notre propos sur linvestigation empirique réalisée en France auprès dune douzaine de grandes entreprises ou organisations. Nous élargirons le champ de la réflexion en resituant lanalyse de lincertitude vis-à-vis dun jeu de pouvoir ternaire au sein de lorganisation, dans lequel se confrontent Direction Générale, Direction Informatique et Utilisateurs finaux, triptyque dont chaque pôle apparaît porteur de logiques distinctes.
Dans la première partie de larticle, nous présentons une analyse historique de lindustrie informatique en trois grandes périodes5 vis-à-vis desquelles nous caractériserons lévolution de ce triptyque au regard de lévolution de loffre et des conditions de la concurrence dans lindustrie informatique. Nous présenterons ensuite, dans la seconde partie, une analyse des résultats de lenquête sur les groupes français, en mettant laccent sur la manière dont les comportement de gestion de lincertitude conditionnent les forces intertielles et celle du changement. Enfin dans la troisième partie, nous montrerons comment cette situation dincertitude a relativisé le succès dintroduction des architectures de type client-serveur, présentées souvent comme larchétype du nouveau mode dorganisation horizontal de lindustrie. Nous verrons que cet échec relatif a relancé la concurrence entre des modèles alternatifs et complémentaires de systèmes dinformation, dont les manifestations les plus significatives sont sans-doute aujourdhui le "Datawarehouse" et l "Intranet".
Informatique et entreprises : trois grandes périodes
Lindustrie informatique a longtemps correspondu à un modèle doligopole très marqué, avec à sa tête un leader, IBM, qui dominait de très loin les autres membres de loligopole et imposait à lindustrie ses règles du jeu. Bien quon nait cessé de sonner le glas de la puissance du leader, son chiffre daffaires, représentait encore 33,6% du chiffre daffaires cumulé des 100 plus grands groupes de lindustrie informatique en 1984 et 22,6% en 1987, soit respectivement 7 fois et 4,5 fois celui de son challenger immédiat Digital Equipment Corp. Il est vrai que, sous les coups de boutoir des nouveaux venus dans lindustrie, la part relative cumulée des 100 premiers commençait, dès les années 80, à diminuer. En janvier 1992, IBM annonçait, pour son exercice clos de 1991, des pertes de 2,8 milliards de dollars, pour un chiffre daffaires de 64,8 milliards, en baisse de 6,1% par rapport à lannée précédente. Lexercice 92, devait quant à lui, confirmer le virage amorcé, avec un déficit de 4,96 milliards pour un chiffre daffaires en stagnation à 64,5 milliards de dollars. Pour la première fois de son histoire, IBM perdait de largent, après avoir connu, dès lexercice de 1989, une chute de 35% de ses bénéfices. Cette chute relative, mais rapide, de la puissance du leader trouvait son origine bien antérieurement, dans un lent déphasage entre les principes dorganisation et dévolution dIBM et ceux de lindustrie informatique. Plus encore, ces résultats mettaient en avant le véritable échec des principes sur lesquels lindustrie des ordinateurs et du traitement de linformation sétait bâtie et avait fonctionné, et qui avaient fondé la puissance des grands groupes informatiques, aux Etats-Unis comme en Europe.
Au cours des quinze dernières années, lindustrie informatique est progressivement passée à une structuration complexe découlant de la nature combinatoire des activités et du produit informatique. Cette évolution a conduit nombre danalystes à interpréter la situation présente comme une phase de transition dun modèle "vertical" dintégration à un modèle "horizontal" de lorganisation industrielle, dans lequel les producteurs se positionnent sur des composantes complémentaires. Les clients de lindustrie sont alors susceptibles de choisir et de mixer ces composantes en concurrence, afin de construire leurs propres systèmes dinformation adaptés aux spécificités de leurs besoins. Cette nouvelle forme dintégration combinatoire est elle-même rendue possible dans la mesure des progrès de la standardisation et des avancées des architectures de systèmes ouverts aux dépens des traditionnels systèmes propriétaires6.
Dun autre point de vue, la capacité à concevoir des systèmes dinformation par lintégration de composantes a priori indépendantes repose sur une gamme de compétences particulières. Elle induit donc une certaine bi-polarisation de lindustrie entre les technologistes "fournisseurs de technologies de plus en plus spécialisées", dun côté et les intégrateurs, de lautre, "avec à la clef une multiplication des alliances entre les deux camps et même dans chaque camp"7. Cette dernière position dintégrateur constitue notamment une position de repli pour les anciens producteurs verticalement intégrés, qui leur permet de générer un chiffre daffaires sur la base de leurs savoirs en matière darchitectures, sans risquer un positionnement sur un marché spécialisé. Elle leur donne aussi la possibilité de maintenir avec leur clientèle une apparence doffre globale, en se faisant, par la fonction dintégration, lobjet dune intermédiation entre lutilisateur et une offre éclatée de composantes spécifiques.
Du point de vue de lutilisateur, larchitecture du système dinformation mis en uvre conditionne son organisation, en même temps quil sappuie sur elle et lirrigue. Mais ici la mise en phase des transformations de loffre avec lévolution des besoins des utilisateurs en matière de systèmes dinformation, ne va pas nécessairement de soi et passe donc par certaines formes dajustement. Les changements organisationnels par ailleurs requis dans la dynamique évolutive des firmes peuvent nécessiter une transformation adaptative des systèmes dinformation. A linverse, la transformation du système dinformation dune entreprise, quelle soit dictée par des impératifs techniques ou stratégiques, peut requérir de profonds changements organisationnels. Et ceux-ci peuvent éventuellement constituer un frein à lévolution des systèmes dinformation.
Nous analyserons ces questions, sur une base empirique, dans la seconde partie. Pour comprendre les déterminants de la situation actuelle,
il est néanmoins utile de revenir sur lhistoire des relations producteurs-utilisateurs et danalyser comment lévolution de ces relations a induit une transformation de la place et du rôle du traitement de linformation, au sein des entreprises, ou plus largement des organisations. Nous distinguerons trois grandes phases.
La première période, depuis les origines jusquau milieu des années 70, est lère des ordinateurs universels (mainframes). Lindustrie informatique peut alors être caractérisée comme un marché homogène selon trois points de vue : de grands ordinateurs, produits par de grandes entreprises, pour de grands utilisateurs (Delapierre & Zimmermann, 1993). Les économies déchelle sont la règle, aussi bien dans la production dordinateurs, quen ce qui concerne linvestissement en équipements de traitement de linformation ("loi de Grosh"). La recherche de rendements croissants qui en résulte se traduit par conséquent par une concentration du marché, aussi bien en termes de producteurs quen termes de base installée. A la tête de loligopole, IBM établit les prix et les orientations technologiques, sur lesquels les autres producteurs nont pas dautre choix que de saligner. De cette entente de fait résulte un environnement de marché peu turbulent. En outre, lincompatibilité entre les "systèmes propriétaires" des différents constructeurs renforce un caractère de concurrence monopolistique en fidélisant les utilisateurs auprès de leurs fournisseurs respectifs, par le biais de "coûts de migration" élevés.
Du côté des utilisateurs eux-mêmes, grandes entreprises ou grandes administrations, le traitement de linformation est une fonction très fortement centralisée, sous lautorité de la Direction Informatique, selon le modèle quIBM a voulu et instauré chez ses propres clients. La Direction Informatique représente un pouvoir incontestable au sein de lorganisation cliente, fondé sur la concentration de compétences techniques et doté dune légitimité à négocier directement avec le constructeur informatique. Son autorité au sein de la structure utilisatrice croît avec lampleur du marché offert au fournisseur attitré, renforçant par là même sa dépendance à légard du constructeur, dans la limite du budget obtenu de la Direction Générale.
Une première rupture de ce jeu intervint, dans le milieu des années 70, quand Gene Amdhal proposa des "mainframes", dont la mise en uvre reposait sur un système dexploitation similaire à celui dIBM, en totale compatibilité, ouvrant alors aux clients du leader la possibilité de rompre leur indéfectible lien de dépendance avec leur fournisseur.
Pour la première fois dans lhistoire de lindustrie informatique, une concurrence par les prix commençait à simposer. Mais la stratégie dAmdhal ne remettait en cause ni lautorité de la Direction Informatique, ni même le concept dordinateur universel, comme concept central de marché. En 1975, les sept premiers constructeurs cumulaient 80% des ventes de lindustrie. Mais de 1975 à 1988, le marché des mainframes devait voir son taux de croissance annuel chuter de 20% à 6%, pour ne plus représenter en valeur que 15% de la base installée mondiale.
La seconde période est lère de linformatique et débute dans les années 70 avec le succès des mini-ordinateurs, puis celui de la micro-informatique au début des années 80. Ces équipements, de moindre taille, construits par de nouveaux venus dans lindustrie8, visent avant tout de plus petits clients, PME aussi bien que départements individualisés de grandes organisations, pour des applications dune nature variée selon les besoins potentiels de ces nouveaux utilisateurs : applications industrielles, administratives, scientifiques, etc. Cest à une remise en cause radicale de la dominance absolue du modèle précédent que lon assiste ici. Les nouveaux entrants à la fois élargissent leur base de marché en explorant une clientèle nouvelle et court-circuitent les grandes directions informatiques centrales en négociant directement avec les départements utilisateurs avides de cette nouvelle autonomie. La fonction de traitement de linformation se voit ainsi partagée et distribuée à travers lorganisation, industrielle, administrative, scientifique ou commerciale.
Du côté de loffre, les constructeurs nouveaux venus continuent dabord de sorganiser selon le modèle verticalement intégré des fabricants de mainframes, mais lexacerbation de la concurrence, en termes de prix aussi bien que dadéquation aux besoins des utilisateurs, conduit peu à peu à une contestation des positions globales par des entrées de nouvelles firmes sur des segments ou composantes spécifiques, accompagnées dune réactivation des économies déchelles. Parallèlement, du côté des utilisateurs, le rôle de plus en plus stratégique de la connaissance au sein des organisations conduit à la recherche de systèmes intégrés dinformation, susceptibles daccompagner larticulation étroite de toutes ses fonctions.
Cest sur ces bases quémerge, au cours des années 80, la troisième période qui est lère du traitement de linformation et qui correspond, du côté des utilisateurs, à une volonté de retrouver une cohérence globale du système dinformation au niveau de lorganisation toute entière. Elle implique par conséquent une forme de reprise en main par la Direction Générale, soucieuse déviter une dispersion des moyens et un cloisonnement entre les diverses fonctions utilisatrices dinformatique. Les aspects combinatoires des systèmes de traitement de linformation, combinaisons de technologies et de composantes au sein dune architecture densemble, se retrouvent au plan de la structuration de lindustrie informatique. Les constructeurs doivent offrir des équipements qui puissent être incorporés dans des architectures densemble, conjointement à dautres composantes fournies par leurs concurrents. Ils doivent par conséquent converger sur des standards qui assurent la compatibilité, donc la connectibilité de leurs produits spécifiques. La recherche déconomies déchelles a été déplacée des systèmes informatiques vers les composants standardisés, tandis que le fonctionnement de lindustrie repose, dune manière générale sur lexistence de procédures de coordination et la convergence sur des architectures "ouvertes", qui permettent aux producteurs et aux utilisateurs de tirer parti des effets de réseaux, désormais au cur de lindustrie du traitement de linformation.
Les trois périodes de lindustrie informatique
caractérisation fournisseurs-utilisateurs
Source : Elaboration des auteurs et Delapierre & Zimmermann (1993)
Des systèmes centralisés aux systèmes décentralisés ? Un processus de transition marqué par lincertitude
En 1995, une enquête a été réalisée dans différents pays dEurope auprès de grandes entreprises utilisatrices (ou ex-utilisatrices) de systèmes de type mainframe, afin dobtenir leur témoignage sur les circonstances, les limites et les questions posées par la transition dun système centralisé vers une informatique plus distribuée. Cette étude, dont lobjectif initial visait surtout à comprendre la mise en uvre et les éventuels blocages dun changement technologique, a en outre permis de saisir à quel point les différents pôles du tryptique, évoqué plus haut, rencontraient des niveaux dincertitude variés et assignaient au changement technique des objectifs différents. Nous allons à présent illustrer ces propos en faisant essentiellement porter notre attention sur la partie de lenquête à laquelle nous avons directement participé : celle qui concernait les grandes entreprises utilisatrices françaises.
Les formes concrètes de lincertitude : incertitude organisationnelle, incertitude technologique
La littérature est riche de travaux conceptuels relatifs à lincertitude. Leur application à des problèmes empiriques nécessite la définition de catégories opérationnelles susceptibles de qualifier la manière dont les agents perçoivent leur environnement incertain. Nous définirons deux types majeurs dincertitude auxquels les entreprises ont à faire face : lincertitude technologique et lincertitude organisationnelle.
On peut définir lincertitude technologique à travers trois problèmes emboîtés, de nature informationnelle et décisionnelle, auxquels les entreprises utilisatrices sont confrontées :
- quelles sont les technologies disponibles ?
- quelle est la technologie la plus appropriée aux besoins de la firme ?
- comment utiliser au mieux la technologie retenue ?
Cet ensemble de questions doit être aussi envisagé dans une perspective dynamique, dès lors que les choix des agents peuvent affecter aussi bien les technologies disponibles que les conditions de leur utilisation (coût, externalités). Il en est ainsi dans lensemble des processus de standardisation, qui occupent une place particulièrement importante dans les technologies de linformation.
A son tour lincertitude organisationnelle résulte de la nécessité pour la firme de déterminer les formes organisationnelles les plus efficaces :
- du point de vue de son organisation interne ;
- du point de vue de son organisation externe, cest à dire des relations quelle entretient avec son environnement.
Ainsi, tandis que lincertitude technologique peut nimpliquer quun seul agent, lincertitude organisationnelle concerne forcément lincertitude qui pèse sur le comportement des autres et sur les relations que lon a avec eux. Bien évidemment ces catégories analytiquement séparables sont dans la réalité intimement imbriquées.
En ce qui concerne les technologies de linformation, les utilisateurs se voient confrontés à une incertitude émergente du fait du passage actuel à une informatique modulaire. Dans ce domaine, les firmes doivent tout dabord obtenir de linformation sur les technologies disponibles (premier type dincertitude technologique). Elles doivent ensuite sélectionner la meilleure combinaison technologique selon leurs besoins (deuxième type dincertitude technologique) pour identifier, enfin, le meilleur moyen dutiliser cette technologie (troisième type dincertitude technologique).
Par ailleurs, la mise en uvre dune technologie ne se conçoit pas indépendamment de lorganisation de lentreprise utilisatrice. Les utilisateurs doivent repenser leur organisation interne, dans la confrontation avec les configurations envisageables du système dinformation de lentreprise (premier type dincertitude organisationnelle, interne). De plus, en raison de lévolution des conditions de loffre, les firmes utilisatrices doivent aussi réviser les principes de leurs relations avec leurs fournisseurs (incertitude organisationnelle externe). Différentes attitudes peuvent en résulter : abandon ou transformation des relations antérieures quelles entretenaient avec leur fournisseur principal ; recours à des consultants afin de combler le "vide informationnel" existant entre loffre et la demande par des conseils dordre technologique ou organisationnel ; constitution dune compétence interne au point de devenir elles-mêmes conseil ou fournisseur pour dautres entreprises (de logiciels ou de capacités informatiques) ; externalisation de leur fonction informatique (outsourcing ou infogérance), etc.
La variété des solutions retenues
Cette étude ne fournit bien sûr quun éclairage très partiel et ne peut en aucun cas prétendre constituer un échantillon représentatif de lensemble des choix. Elle donne cependant des indications intéressantes que les autres échantillons européens confortent ou nuancent.
Parmi la douzaine de grandes organisations interrogées, un quart optent pour le maintien, dans leur système dinformation, du rôle central du mainframe, tandis que la moitié choisit la mixité des solutions en fondant leur système dinformation à la fois sur le mainframe et sur des solutions alternatives.
Seules, parmi les organisations enquêtées, des entreprises manufacturières ou de process ont choisi dabandonner définitivement le mainframe. Toutes les entreprises de service entendues conservent au contraire au mainframe un rôle important, voire central. Cette volonté est particulièrement manifeste pour toutes les entreprises de service dont le système informatique doit gérer un très grand volume de transactions de manière courante (banques, sociétés de distribution, dassurances, etc.).
En se plaçant du point de vue des applications, celles qui "migrent" vers des architectures distribuées (ou bien y sont dès le départ installées) sont avant tout la CAO9 et partiellement la GPAO10. Il est clair que la CAO concerne des tâches relativement individualisées, ce qui simplifie le passage à des solutions informatiques alternatives sans remettre forcément en cause la coordination densemble. Les activités administratives, à lopposé, demeurent pour la plupart attachées au mainframe.
La tendance est donc clairement celle dune rupture technico-organisationnelle pour les entreprises industrielles, tandis que des situations beaucoup plus variées caractérisent les entreprises de service.
Les choix technologiques et organisationnels des entreprises ne peuvent donc sappréhender en dehors des spécificités des entreprises : aucune solution générale ne simpose. Nous allons à présent examiner comment ces changements techniques et organisationnels sont évalués par les firmes interrogées.
Les difficultés à évaluer le changement
Dans le domaine des systèmes dinformation, il est fort complexe de pratiquer une comparaison "avant/après" permettant de mesurer strictement lévolution de la performance ou des coûts. En effet, un projet dentreprise incluant un recours croissant à une architecture de type client/serveur11, implique le plus souvent une concentration simultanée des mainframes antérieurs. Comment distinguer alors les profits issus de cette concentration de ceux qui proviennent plus directement de la baisse de coûts informatiques générée par le recours à des solutions nouvelles ?
De plus, migrer vers des solutions alternatives ne signifie pas que lon va faire exactement la même chose quauparavant, mais avec des matériels et des logiciels dapplications différents. Les solutions client/serveur ouvrent en effet la possibilité de choisir de nouvelles applications, de transformer lorganisation de la firme et daméliorer la productivité des utilisateurs. Dans la mesure où le spectre des tâches concernées change, il est très difficile dévaluer correctement lévolution des performances.
En termes dévolution des coûts, aucune relation simple némerge entre coût et architecture informatique. Cest plutôt la structure des coûts qui, clairement, est modifiée. Ainsi, trois difficultés sont mentionnées à lissue ou au cours des opérations de migration, chacune mettant en évidence de nouveaux types de coûts ou des coûts cachés :
- le risque de compenser (et parfois de dépasser) la baisse de coûts informatiques par une augmentation des coûts de télécommunications induite, dont lévaluation ne peut être véritablement anticipée ;
- la nécessité dexaminer de manière très approfondie la question des coûts de formation et de redéploiement des employés ;
- la difficulté à évaluer précisément dans quelle mesure une application peut savérer plus efficace selon quelle est utilisée sur un outil mainframe ou sur un outil client/serveur.
Ces éléments ne permettent pas de fonder la réelle supériorité dun système sur un autre.
Le processus de décision : aspects techniques et organisationnels
La question de lorigine du changement technologique dans lentreprise est liée à la manière dont sarticule le relation organisation/technologie.
Or cette relation, très spécifique, ne peut être comprise séparément des compétences-clés de lentreprise.
En effet, linitiative du changement informatique ne peut être conçue sans lémergence dune compétence technique interne. Ceci est particulièrement vrai dans un contexte où loffreur napparaît plus forcément comme lexpert incontournable identifiant lobjet et la méthode adéquats. La montée dune compétence interne ne se satisfait désormais plus de loffre dune "solution aux problèmes" quand celle-ci nest pas accompagnée dune information sur les processus conduisant à lélaboration de cette solution. Ainsi, fréquemment aujourdhui, les utilisateurs élaborent-ils eux-mêmes la composition des différents éléments du système dinformation.
Or, la culture de lentreprise peut influer fortement sur ses choix informatiques, et lémergence ou non de compétences internes. Nous avons pu le constater pour des entreprises marquées par une culture scientifique et technique forte. Linsatisfaction vis à vis des technologies antérieures, la volonté permanente dune plus grande performance technique pour les tâches, les projets spécifiques, à concevoir ou à exécuter, poussent au changement de solution technique (par exemple dans le domaine de la CAO). Dès lors, un ensemble croissant dapplications uniquement disponibles sur client/serveur, tout comme la volonté de disposer du meilleur outil possible (et la recherche dune plus grande maîtrise de leur ordinateur), ont poussé leur nombreux utilisateurs compétents en la matière, au recours à des solutions alternatives au mainframe traditionnel.
Dans ce schéma, les utilisateurs à lintérieur des organisations sont à lorigine du changement, ce qui peut induire une grande variété de solutions "individuelles" retenues au sein de lentreprise. Dès lors la direction de lentreprise, dans sa volonté de cohérence du tout et de diminution des coûts de la redondance, pousse la Direction Informatique à revoir lensemble du système dinformation. Mais abandonner le mainframe peut être perçu par la Direction Informatique comme une perte de pouvoir, à la fois de contrôle et de négociation.
Il y a donc une sorte dopposition entre :
- une volonté de performance individuelle et la recherche dune performance technique des utilisateurs, dont le discours auprès de leur direction générale sappuie sur la nécessité du changement technique, du maintien dune capacité innovatrice et du dynamisme de lentreprise pour lemporter face aux concurrents et donc, une volonté de différenciation par la spécificité du système dinformation ;
- une volonté de maintien des compétences techniques et des positions de marché acquises, une certaine aversion au risque de la part de la Direction Informatique. Le discours de cette dernière auprès de la direction générale est alors celui de la mise en garde : face au risque dincompatibilité des matériels informatiques successifs et au risque de redondance des matériels et des applicatifs, quand les centres de décision à lintérieur de lentreprise ne parlent pas dune même voix. Ces risques peuvent entraîner des coûts et des pertes de réactivité. Dans cette configuration, on constate souvent que le choix se porte sur le maintien de la solution antérieure dans lentreprise (voire un retour à cette solution après des tentatives de mutation vers des architectures distribuées), ou sur une attitude mimétique ne retenant une solution que dans la mesure où elle semble lemporter ailleurs, chez les concurrents notamment.
Le poids respectif de ces différents critères est fonction de la dynamique concurrentielle du secteur dactivité de lentreprise, de la position de marché quelle occupe, de sa culture scientifique et technique, et surtout des enjeux de linformatique qui intervient, à des degrés divers, au cur de son métier. Ces éléments permettent de comprendre le succès des solutions mixtes, combinant mainframe et solutions alternatives dans un même système dinformation, dans la mesure où elles offrent le moyen de contrebalancer les risques respectifs liés à chacune des deux attitudes-types que nous venons de présenter.
Ce schéma binaire ne doit néanmoins pas masquer lexistence dautres types de comportement. Ainsi certaines directions informatiques, dont la relation avec les anciens fournisseurs de systèmes propriétaires a pu être allégée, traduisent leur volonté de permanence dun contrôle fort, non pas dans le choix du maintien des mainframes, mais plutôt dans un attitude "techniciste" poussant le reste de lentreprise au changement.
Quelle que soit la dynamique de refonte du système dinformation : par une volonté de mise en cohérence de solutions trop variées retenues par les utilisateurs, ou bien par une poussée vers le changement technologique, nous avons constaté que les directions informatiques étaient mieux comprises lorsque de longs délais de mise en place du changement étaient prévus, afin de ménager des possibilités internes de concertation, de persuasion et de formation. Sans ces étapes, les risques de blocage et démergence de coûts cachés élevés sont forts.
Enfin, la relation entre les aspects techniques et organisationnels dans linitiation dun changement de système dinformation nest pas neutre. Cest avant tout une volonté de changement organisationnel qui pousse les entreprises à lévolution technique de leur système dinformation, bien plus fréquemment quune volonté de strict changement technique. Cela dit, lévolution du système dinformation des entreprises utilisatrices nous a semblé le plus souvent dictée par lévolution de leurs compétences-clés12, plutôt que par des volontés ad hoc de changements organisationnels ou techniques.
Conclusion : un continuum de possibles
Ce travail sur les processus de migration informatique des entreprises nous a permis de dégager les conclusions suivantes :
- deux évolutions principales sont tout dabord à noter : la concentration (des moyens informatiques) et louverture (ou mise en réseau et spécialisation des moyens informatiques). Le choix de concentration des moyens informatiques (par une réduction du nombre de mainframes et une augmentation de leur puissance) est principalement justifié, dans les entreprises, par la volonté de réduire les coûts, tandis que la tendance à louverture correspond à la recherche dune plus grande réactivité, et donc dune meilleure performance ;
- rien ne permet de généraliser (comme la lecture de la presse spécialisée pourrait parfois le laisser croire) le passage de systèmes très centralisés à des architectures très distribuées. Cette évolution ne semble pas revêtir un caractère urgent et obligatoire. On constate au contraire quil nexiste pas darchitecture universelle satisfaisant toutes les grandes organisations utilisatrices. Plus particulièrement, cette évolution na pas conduit à labandon général des systèmes mainframe. Il est ainsi intéressant de souligner quune entreprise ayant choisi dadopter une structure informatique mixte (mainframe et non-mainframe) ne doit pas être considérée comme "en transition" entre un "vieux" système et un système "moderne". Lentreprise se situe plutôt le long dun continuum des possibles du "tout mainframe" au "zéro mainframe", sans quaucune hiérarchie ni cheminement précis ne simposent entre les solutions présentes sur ce continuum. Même si une progressive disparition à terme de tous les mainframes est programmée, selon un calendrier bien évidemment dépendant des circonstances individuelles de la firme.
En labsence dune solution qui simposerait universellement, les choix des entreprises utilisatrices révèlent différentes attitudes face à lincertain. Comme elles ne disposent pas de témoignages dexpériences concluantes strictement reproductibles et adaptables, deux stratégies polaires sont alors possibles :
- certaines, marquées par une profonde aversion au risque, préfèrent opter pour des méthodes déjà expérimentées dans le cadre dun environnement mainframe ;
- dautres, au contraire, motivées par la compétition technologique et un leadership dans ces domaines, optent visiblement pour des trajectoires plus innovatrices.
A lissue de cette présentation de faits stylisés, caractérisant les grands utilisateurs de systèmes informatiques, nous pouvons noter que la transition dun "marché vertical" vers un "marché horizontal" saccompagne de lémergence dun vide informationnel entre une offre très éclatée et une demande très marquée par lincertitude des choix technologiques et organisationnels. Cest dans ce vide informationnel que les intégrateurs se sont positionnés. Ces agents ne constituent pas un groupe homogène; lintégration des systèmes peut être confiée à dex-constructeurs, à des SSII13 ou à des fournisseurs de logiciels réseaux (tels quOracle). De plus, le poids de la composante externe de lincertitude organisationnelle est de plus en plus fort dans la mesure où les entreprises sont amenées à sinsérer dans des structures élargies de réseaux.
Lhyperchoix, générateur dune nouvelle incertitude
Ainsi, le passage dun ancien mode dorganisation, vertical, à un nouveau mode, horizontal, de lindustrie nest pas chose faite. Il ne correspond pas, pour le moins, à un phénomène de transition monotone dont lissue serait indiscutable et dont le terme seul resterait incertain, compte tenu de la variété des dynamiques individuelles dadoption des nouveaux concepts de systèmes dinformation.
Du côté de loffre, tout dabord, les intérêts contradictoires des agents ne conduisent pas, dans létat actuel, à lémergence dun modèle stabilisé autour duquel chacun convergerait. Avec la tendance à réintégrer lensemble des composantes, parfois disparates, de linformatique distribuée au sein de systèmes dinformation, le processus de standardisation sest trouvé indéniablement ralenti. Ces systèmes se doivent de répondre dès aujourdhui à la double contrainte de cohérence, dune part, et douverture aux nouvelles dimensions du traitement de linformation comme le multimedia, les flux à hauts débits, la multi-localisation et larticulation avec des réseaux publics (Internet), dautre part. La fonction dintégration devient une clef pour la recherche dune position de force dans le jeu concurrentiel. La démarche de normalisation qui avait été, dans les années 80, à lorigine du succès de concept de système ouvert (Saloner, 1990 ; Zimmermann, 1995) sest peu à peu heurtée à une recherche de positions dominantes et à la résurgence des solutions propriétaires14.
Une telle situation est bien entendu génératrice dincertitude quant à la pérennité des solutions et des architectures offertes et quant à leur capacité à intégrer les futurs produits et concepts dune offre sans cesse élargie de composantes. Une telle incertitude ne peut par conséquent que renforcer laversion pour le risque du côté des utilisateurs, qui font montre dune certaine réticence à décider doptions à fort contenu organisationnel, en avenir incertain.
En ce qui concerne les entreprises et organisations utilisatrices, la transition en cause se traduit par une nouvelle tension au sein du triptyque Direction Générale, Direction Informatique, Utilisateurs.
Lévolution vers une informatique plus distribuée, voire éclatée avait, au cours de la période précédente, les années 80, donné une place plus importante aux utilisateurs finals. La tendance au développement des réseaux et à la construction de systèmes informatiques complexes (Isckia, 1996) va encore transformer les rapports au sein du triptyque.
Aujourdhui les enjeux sont tels que cest lorganisation et le fonctionnement de la firme qui sont en cause dans lintégration et le choix dune architecture de système dinformation. Les approches évolutionnistes de la théorie de la firme ont bien montré comment la firme moderne fonctionne et évolue sur la base de processus de création de connaissance, lesquels sappuient mais ne sidentifient pas à des activités de traitement de linformation (Cohendet, 1997). Cette conception suppose la possibilité dune certaine tension entre centralisation et décentralisation, qui à la fois préserve la cohérence densemble et autorise les apprentissages à travers lesquels les connaissances se cristallisent en compétences nouvelles.
La Direction Générale tend à vouloir contrôler et contenir le processus de changement à luvre, et notamment sa traduction en termes de système dinformation. Un tel objectif suppose par conséquent de contrôler, harmoniser et mettre en cohérence les différentes requêtes des utilisateurs. Celles-ci se traduisent en termes de moyens locaux et partagés de traitement, mais impliquent aussi des choix relatifs aux modes et procédures de leur interaction au sein de lorganisation et avec son environnement externe. Il sagit par conséquent dintégrer ces requêtes et leur traduction technologique (choix déquipements, de logiciels et de protocoles) au sein dune architecture densemble. On voit bien ici les deux dimensions dincertitude, technique et organisationnelle, que ce problème recouvre.
Or cette préoccupation révèle une situation paradoxale. Dun côté linformatique nest plus affaire de spécialistes, puisque tout un chacun (lutilisateur final) peut choisir, à son échelle individuelle, les composantes les mieux adaptées à ses spécificités dutilisation (réduction de lincertitude technologique). De lautre, en revanche, la construction dun système dinformation (choix des composantes, architecture densemble...) redevient affaire de spécialistes, car elle requiert des compétences particulières. Cest le nouveau rôle dévolu à la Direction Informatique (et/ou à un maître duvre/intégrateur/extérieur) qui lui redonne une mission stratégique au cur de lentreprise. Mais en retour, cest un regain de tension au sein du triptyque, et plus particulièrement dans les rapports Direction Générale - Direction Informatique, dune part, et Utilisateurs - Direction Informatique, dautre part. "The strained, unproductive partnership between CEO and CIO15 is the cause of most of the frustration over technology. CEOs love what they have been promised; they hate what they have been delivered" (Houlder, 1996).
Lintroduction dun concept de plate-forme verticalement désintégrée autour de larchitecture "client/serveur" a constitué une intéressante tentative stratégique en vue de réduire cette tension. Il est utile ici de faire quelques rapides remarques sur les raisons de son échec à constituer un modèle universel susceptible de réaliser une telle conciliation. Il est clair tout dabord que le modèle de client-serveur, qui entendait permettre dintégrer dans une même architecture les meilleures composantes disponibles sur le marché, sadressait plus particulièrement à des entreprises et organisations jusque là utilisatrices de mainframes, quil sagissait de supplanter, partant des insatisfactions (technologiques et organisationnelles) relatives au système en place. Sur cette base, les solutions proposées maintenaient une claire division des fonctions entre utilisation (le client) et production-détention de linformation (le serveur). Cette hiérarchie implicite relativement aux structures du système dinformation a pour conséquence dassujettir lorganisation à une structure informationnelle centralisée, en réalité peu flexible et peu évolutive, dans laquelle les "routines" informationnelles prennent le pas sur les processus de création de connaissance (Cohendet, 1997). Il est enfin significatif de constater comment un tel concept darchitecture, qui se voulait par essence ouvert, a failli dans ce sens, pour retrouver les vieux réflexes de la guerre dinfluence autour de standards propriétaires. "The emerging client/server platform has not yet standardized around a few key components, leaving many unsure about who controls it. Amidst this confusion vendors fight for the control over pieces of the emerging standard. (...) Their strategies overlap and conflict in that all firms want to sell products and all firms want to use competitive success to acheive control of the emerging platform. Each of these firms would like to be the firm in position to control the design of the technology for the years to come" (Greenstein, 1997).
Partant dune phase de tension, génératrice dincertitude, au sein du triptyque, la tendance est à la recherche dune conciliation qui permette de réduire cette incertitude, en offrant :
- des solutions adaptées et performantes en réponse aux besoins des utilisateurs finaux;
- la possibilité pour la Direction Générale de maintenir son contrôle sur les activités et la cohérence organisationnelle densemble ;
- la possibilité pour la Direction Informatique dexercer ses compétences propres dans la conception, la mise en place et le fonctionnement du système dinformation.
Dans ce sens les récents concepts de Datawarehouse16 et dIntranet17 constituent sans aucun doute des orientations intéressantes et significatives de réponse. Lintranet va dans le sens dune informatique distribuée, en temps réel, entre les utilisateurs. Quant au datawarehouse, sa fonction de mémoire de lentreprise, structurée et automatiquement alimentée (notamment dans ses relations avec la clientèle), conforte la Direction Générale dans son objectif de cohérence et de contrôle. Mais ces concepts, une fois encore, nimposent pas sur le marché une architecture dominante des systèmes dinformation.
En outre, le datawarehouse sappuie sur des ordinateurs de très grande taille et contribue à conforter leur avenir. Plus encore, lexistence dune offre maintenue et technologiquement évolutive de grands ordinateurs constitue en elle-même une certaine assurance de leur pérennité et conduit même certains spécialistes à annoncer un "retour des mainframes"18 qui constituerait bien davantage quune rémission dun ancien marché agonisant. Ainsi le dernier né des gros systèmes IBM présente lavantage de pouvoir traiter toutes les applications récentes les plus utilisées, et de sinscrire dans une logique de production fondée sur lassemblage de composants standards, entraînant dès lors des coûts plus faibles et des délais de fabrication plus courts. Cette nouvelle puissance accessible pourrait, elle aussi, trouver sa place sur un marché où les serveurs des réseaux et la dynamique des échanges internationaux de données demandent des capacités et une puissance de traitement extrêmement importantes. Et certains experts prévoient une croissance du marché de 20% par an pour les prochaines années, malgré la baisse des prix entraînée par la généralisation de la technologie CMOS19.
La diversité des solutions en présence conforte la variété des systèmes dinformation observée dans lenquête empirique. Elle remet en cause lidée dune supposée convergence vers un modèle émergent darchitecture informatique et dorganisation de loffre. Et cette diversité intègre une composante de grands ordinateurs, héritière des anciens mainframes, mais profondément transformée, aussi bien en termes des technologies impliquées, que du caractère propriétaire des systèmes ou même de lidentification et des principes stratégiques des constructeurs en cause.
De cette situation de variété des solutions techniques et organisationnelles possibles, un enseignement fondamental nous semble devoir être dégagé. Si le choix dun système dinformation résulte à la fois de considérations organisationnelles et de considérations technologiques, le processus de décision des entreprises doit pouvoir donner le primat à la composante organisationnelle et lui faire correspondre la solution technique adéquate. Dans un premier temps, cette attitude garantit une plus grande maîtrise du processus de changement dans lentreprise, ce que nous avons constaté dans notre enquête. Plus fondamentalement, lorsquaucune solution technologique ne simpose de manière définitive, les décisions des entreprises se trouvent particulièrement affectées par lincertitude à la fois technologique et organisationnelle. Dans ces conditions, les choix des firmes doivent garantir le maintien de leurs spécificités et de leur culture, plutôt que dessayer de se conformer à des tendances générales, au demeurant fort difficiles à établir. Il ne sagit donc pas dassujettir lorganisation de lentreprise aux caractéristiques techniques du système dinformation, mais plutôt de procéder à linverse.
Conclusion
Ainsi lémergence dune nouvelle configuration de loffre est-elle conditionnée par la manière dont les entreprises utilisatrices seront à même de trouver une forme de conciliation entre les trois dimensions du triptyque Direction Générale - Direction Informatique -Utilisateurs finaux, cest-à-dire plus fondamentalement entre Organisation, Système dInformation et Applications.
Direction Générale
|
Organisation
|
Direction Informatique
|
Système dInformation
|
Applications
|
Utilisateurs finaux
|
Cette double incertitude relative au choix et à la construction dun système dinformation a trouvé au fil du temps des expressions différentes.
- A lorigine, cest-à-dire dans la période où les ordinateurs universels dominaient, la question principale qui se posait aux utilisateurs était celle de savoir quel système propriétaire choisir, à charge pour le constructeur retenu de répondre par une solution globale.
- Avec lirruption dune informatique distribuée, les utilisateurs ont pu améliorer les performances de leurs applications, à charge pour eux de déterminer (avec laide éventuelle de spécialistes externes) la solution composite la plus adéquate.
- Aujourdhui, avec la complexité croissante des compositions et des architectures possibles, les utilisateurs ont à faire face à une double incertitude (technologique et organisationnelle) grandissante, face à laquelle deux grands types dattitudes sont possibles qui conditionnent lévolution des relations offre-demande et, à terme, la structuration de loffre elle-même20. On trouve dun côté des utilisateurs demandeurs de solutions globales envers les intégrateurs, auxquels ils confient la maîtrise duvre de leur système dinformation. Ils confortent par là même la position de ceux-ci dans la structuration de loffre. A lextrême, de tels utilisateurs peuvent accepter de se défaire intégralement de leur fonction informatique en lexternalisant (outsourcing)21. De lautre, certains utilisateurs ont pu acquérir une compétence technique suffisante en matière dintégration de système pour construire leur propre système dinformation, ou pour être en mesure dassumer la maîtrise douvrage dun système dinformation dont la réalisation technique sera confiée à un intégrateur. A la limite, certaines entreprises ou organisations valoriseront sur une échelle élargie leurs compétences en la matière, en commercialisant eux-mêmes des produits ou services dadministration de systèmes, le cas échéant en externalisant leurs propres compétences dintégration et de traitement (facilities management).
Notes
-
* ENST Paris
-
** CNRS - GREQAM - Marseille
-
Gérard-Varet & Zimmermann (1985), Delapierre & Zimmermann (1994-a et b).
-
Voir Delapierre & Milleli (1994)
-
Voir par exemple Alter (1996).
-
Cette étude sest déroulée sur quatre mois auprès dun échantillon de 60 grandes entreprises européennes encore utilisatrices de grands systèmes informatiques centralisés (mainframes), ou y ayant renoncé depuis peu de temps. Ce travail reposait sur des monographies de cas, douze pour chacun des pays européens étudiés (Allemagne, Belgique-Pays-Bas, France, Grande Bretagne et Italie). La coordination a été effectuée au MERIT (Maastricht) par W. Edward Steinmueller et Garth Saloner. Cette enquête constitue le pendant dune étude similaire menée précédemment aux Etats-Unis par T. F. Bresnahan et G. Saloner (G. Saloner and W. E.Steinmueller, 96 ; T. F. Bresnahan et G. Saloner, 94). Lenquête auprès des utilisateurs français a été réalisée par C. Charbit (ENST), D. Foray (CNRS), V. Fernandez (ENST) et J. B. Zimmermann (CNRS).
Nous tenons à remercier tout particulièrement Valérie Fernandez pour la pertinence de ses avis et son aide bibliographique. Bien entendu, nous demeurons responsables des éventuelles erreurs ou insuffisances que cet article pourrait contenir.
-
Nous reprenons en cela lanalyse de Delapierre et Zimmermann (1994-b)
-
Gray (1993) et Benezech (1996).
-
Robert (1993)
-
Lesquels ont pu contourner les barrières à lentrée de loligopole en tirant partie dinnovations technologiques, notamment de lintroduction et de la montée en puissance des circuits intégrés.
-
Conception Assistée par Ordinateur
-
Gestion de Production Assistée par Ordinateur
-
On peut définir larchitecture Client-serveur comme construite autour dune ou plusieurs machines hôtes (serveurs) gérant les données de lentreprise à caractère commun, partageable, en relation avec des stations de travail réparties auxquelles elles fournissent les informations (selon un protocole daccès) et avec lesquelles elles partagent à des degrés divers le traitement.
-
Certains métiers de lélectronique ou de la mécanique requièrent aujourdhui, non seulement dans leur production, mais dans la nécessaire réactivité de loutil aux évolutions du marché, lutilisation des technologies (et notamment des logiciels dapplication) informatiques les plus récentes.
-
Certains métiers de lélectronique ou de la mécanique requièrent aujourdhui, non seulement dans leur production, mais dans la nécessaire réactivité de loutil aux évolutions du marché, lutilisation des technologies (et notamment des logiciels dapplication) informatiques les plus récentes.
-
Voir le dossier "Administration de systèmes - survivre à lexplosion de la complexité", Le Monde Informatique, 23 Mai 1997.
-
Chief Executive and Chief Information Officers
-
Le datawarehouse (entrepôt de données) est "...une application dinformatique décisionnelle qui récupère les données dans les bases existantes, stocke ces données historiques, figées et référencées, et les met à disposition à laide doutils dinterrogation, danalyse relationnelle ou multidimensionnelle ou de visualisation". Nieuwbourg (1996).
-
Application des principes dInternet à la communication interne dentreprise.
-
"In IBMs Corner: a Brand-New Heavyweight", Business Week, June 16, 1997 et "IBM reprend loffensive sur le marché des très grands ordinateurs", Les Echos, 10 Juin 1997.
-
Ibidem
-
On retrouve ici une très forte similarité avec la typologie dutilisateurs, naïfs vs sophistiqués, proposée par Gérard-Varet & Zimmermann (1985), à cette différence près que lincertitude qui était relative à la traduction de caractéristiques dutilisation en performances de systèmes, englobe cette fois une dimension organisationnelle qui en complexifie singulièrement la teneur.
-
Venkatraman (1997).
Références bibliographiques
-
Alter N., Sociologie de lentreprise et de linnovation, Presses Universitaires de France, Paris, 1996
-
Benezech D., La norme: une convention structurant les interrelations technologiques et industrielles, Revue dEconomie Industrielle, N°75, 1er Trimestre, 1996
-
Bresnahan T.F. et Saloner G., Large Firms Demand for Computer Products and Services: Competing Market Models, Inertia, and Enabling Strategic Change, Research Paper N°1318, Jakson Library, Graduate School of Business, University of Stanford, October, 1994
-
Cohendet P., Information, connaissances et théorie de la firme évolutionniste, in Guilhon B., Huard P., Orillard M. et Zimmermann JB. (sous la direction de) "Economie de la connaissance et organisations", LHarmattan, 1997
-
Delapierre M. et Milleli C., Concurrence et transferts de technologie dans lindustrie informatique mondiale, in F.Sachwald (éd.) "Les défis de la mondialisation. Innovation et concurrence", Masson, Paris, 1994
-
Delapierre M. et Zimmermann J.B., The computer industry, from scale to network effects, in M.Humbert (Ed.), "The Impact of Globalisation on Europes Firms and Industries", Pinter Publ., June, 1993
-
Delapierre M. et Zimmermann J.B., La nature du produit informatique, Terminal N°65, 1994-a
-
Delapierre M. et Zimmermann J.B., La globalisation, une remise en perspective des structures techniques de lindustrie, Terminal N°66, 1994-b
-
Dréan G., Lindustrie informatique, structure, économie, perspectives, Masson, Paris, 1996)
-
Gérard-Varet L.A. et Zimmermann J.B., Concept de produit informatique et comportement des agents de lindustrie" - Colloque "Structures Economiques et Econométrie - Lyon, 23 - 24 mai 1985
-
Gray Pamela, Les systèmes ouverts - une stratégie dentreprise pour les années 90, Ediscience, 1993
-
Greenstein S., Understanding Industry Structure in Computing, OECD Workshops on the Economics of the Information Society, Workshop N°6, London 19-20 March, 1997
-
Houlder V., The changing face of corporate IT, Financial Times, February 26, 1996
-
Isckia T., Lentreprise à lère des nouvelles technologies de linformation, Terminal, Hiver 95-06, 1996
-
Nieuwbourg P., Systemes décisionnels : pour exploiter les richesses de lentreprise, Décision Micro et Réseaux , N° 248, 1996
-
Robert V., Alliances à la clef, lindustrie sur la voie de la bipolarisation, 01Références N°29, Octobre, 1993
-
Saloner G., Economics issues in computer interface standardization, Economics of Innovation and New Technologies, Vol.1, pp.135-156, 1990
-
Saloner G. and Steinmueller W.E., Demand for Computer Products and Services by Large European Organizations, Final Report, Mimeo, Stanford University/MERIT-Maastricht, January 16, 1996
-
Venkatraman N., Beyond Outsourcing: Managing IT Ressources as a Value Center, Sloan Management Review, Spring, 1997
-
Zimmermann, Lindustrie du logiciel: de la protection à la normalisation, in M.Baslé, D.Dufourt, J.A. Héraud et J.Perrin, Changement institutionnel et changement technologique, CNRS Editions, 1995
|
|