Abstract:
Dans cet article, nous expliquons les raisons de l'émergence des logiciels libres et particulièrement de Linux. Nous montrons que Linux et les logiciels libres ont été inventés parce que les structures industrielles n'ont pas été capables de répondre à des besoins émergeant. Ils se sont ensuite diffusés grâce à Internet qu'ils avaient contribué à créer. Ces origines historiques ont créé une organisation de production et de diffusion des logiciels tout à fait particulière, qui peut remettre en cause l'organisation industrielle de l'informatique à condition que les règles culturelles qui la sous-tendent résistent à son passage dans la sphère marchande.
Mots clefs : informatique, structure industrielle, émergence, logiciels libres, monde technico-économiques et culturels.
En informatique, de nouveaux produits, de nouveaux concepts apparaissent périodiquement. Certains, comme Java, prennent une grande importance, d'autres comme les "network computers", ne rencontrent pas le succès attendu. Depuis plus d'un an, ce sont les "logiciels libres" qui tiennent le rôle de nouveau produit susceptible de changer l'organisation de l'industrie informatique ; parmi ces derniers, le système d'exploitation Linux joue un rôle emblématique.
Quelques chiffres permettent de situer l'ampleur du phénomène : d'après IDC [1999], la part de marché de Linux comme système d'exploitation pour serveur est passé de 6,8% en 1997 à 17,2% en 1998 (+ 212%), à comparer à celle des systèmes Unix classiques (17,4%/ +4%) et à celle de NT (36% / + 80%) ; certains s'inquiètent déjà du "retard" français, car Linux n'est installé, en France, que sur 20% des serveurs[1]. D'autres y voient un moyen de contrer l'hégémonie de Microsoft dans le secteur des systèmes d'exploitation.
Le logiciel libre est surtout une nouvelle manière de produire du logiciel, de façon coopérative, non-marchande, mais pas obligatoirement hors du marché (Dalle&Jullien[1999]). De plus en plus d'entreprises utilisent des logiciels libres dans leurs offres commerciales. Un logiciel libre est un logiciel co-produit par des entités indépendantes (individus, entreprises, ...), de façon coopérative, non appropriable : chacun est libre de le transformer et de le distribuer, à condition de garantir les mêmes droits aux personnes à qui on le distribue. Si cette structure de production est plus qu'un effet de mode, on doit expliquer son émergence et analyser l'impact qu'elle peut avoir sur l'organisation de la production du logiciel et plus généralement sur l'organisation de l'industrie informatique.
Cette article est la première étape de ce travail. Nous allons ici décrire la structure actuelle de l'informatique, sa structure industrielle, commerciale, mais aussi la manière dont est organisée la recherche et la production des innovations, puis expliquer comment les logiciels libres ont pu émerger de cette structure. Cela nous permettra plus tard de comprendre en quoi ils la remettent en cause.
Notre analyse se place donc dans une perspective temporelle (création, puis émergence et diffusion). Elle repose aussi sur des données techniques, au sens où les caractéristiques techniques des logiciels et des machines ont une influence sur le choix des utilisateurs et sur le système de production de ces objets. Nous nous inspirons en cela de l'analyse en terme de "réseaux technico-économiques", proposée par Callon ([1991], [1992]) et utilisée par Horn [1999a] pour décrire la structure de l'industrie informatique[2]. Mais, si un groupe ou un réseau technico-économique apparaît autour d'une technique, les individus qui le composent peuvent partager un certain nombre de principes, de concepts communs, de liens qui pré-existaient à cette technique et qui peuvent lui survivre. Les objets techniques nous apparaissent plus comme construits par le réseau que fondement de celui-ci. C'est pourquoi nous emploierons le terme de "monde" plutôt que celui de "réseau technico-économique". Cette notionrenvoie, d'une part à l'idée d'une même collectivité d'individus qui partagent une même "vision du monde" au sens de Weber ; les références culturelles et les valeurs partagées structurent ce "monde", plus que les objets techniques qui ne sont qu'un sous-ensemble de ces représentations sociales. La notion de monde renvoie également à la sociologie des réseaux, où l'on met l'accent sur l'analyse de la taille et de la structure du réseau dans lequel les individus s'insèrent (Burnt [1992], Degenne & Fonsé [1994])[3].
Nous voulons, dans cet article, comprendre comment Linux, un système d'exploitation, c'est à dire le logiciel[4] qui fait, dans un ordinateur, l'interface entre la partie matérielle et les logiciels d'application, a put émerger dans l'informatique individuelle qui était structurée par deux "mondes", les monde Unix et PC. Nous montrerons que Linux est une conséquence du rapprochement des mondes PC et Unix, que c'est un système d'exploitation[5] qui permet de combiner les avantages de ces deux mondes et que c'est la principale raison de son succès.
Dans une première partie, nous décrirons les mondes Unix et PC en dégageant leur caractéristiques propres, leurs forces et leurs faiblesses. Nous montrerons alors que l'arrivée de Linux est une réponse à certaines faiblesses du monde Unix et que son succès, son émergence en tant que produit industriel et marchand sont dus à ses qualités propres, et notamment l'ouverture du système, mais qu'il a aussi bénéficié de l'explosion d'Internet et que le passage dans la sphère marchande s'est fait en grande partie à cause du passage d'Internet dans la sphère marchande.
- ils n'ont pas la même origine. Le système Unix a été créé dans le milieu de la recherche, son développement est encore basé sur des principes proches de celui-ci (culture de l'innovation technique, mais aussi de coopération). L'élément qui est partagé par les acteurs du monde Unix est donc un système d'exploitation ou, plus précisément, les concepts qui sont à la base de ce système (ouverture du logiciel, efficacité technologique, innovation technologique). Le PC est d'abord une machine créée par l'industrie pour des usages individuels, pour des utilisateurs sans compétences en informatique et, au moins à l'origine, isolés ;
- la structure de production n'est pas la même : le marché Unix est un marché où les machines doivent être performantes, avec des séries moyennes. Il y a une concurrence en terme de performance et de prix plus que de service. Le marché des PC est un marché de masse. La concurrence est une concurrence en prix ;
- enfin, la gestion de l'innovation ne se fait pas de la même façon et ne porte pas sur les mêmes domaines. Le monde Unix est le monde des nouveautés, des inventions (microprocesseurs de type RISC, Internet), le monde des PC est plutôt celui des innovations (amélioration du rapport prix/performance de composants reposants sur les mêmes principes technologiques plutôt que invention de nouvelles technologies) ;
Il peut sembler étrange, pour comparer des mondes, de les identifier par des termes aussi flous que "Unix" (est-ce le système d'exploitation? et lequel puisqu'il y en a actuellement plusieurs?) et "PC" (de quoi parle-t-on? Du "Personal Computer", l'ordinateur personnel et il faut parler des Macintosh, de la machine uniquement?). L'ordinateur est un bien composé de matériel et de logiciel et il est difficile de ne s'intéresser qu'à l'un des biens. Nous employons ces termes car ce sont des "objets" techniques partagés par un certain nombre d'acteurs. Mais surtout parce que ces objets, le système d'exploitation d'une part, la machine d'autre part, sont à l'origine de modes d'organisation originaux. Ils sont différents dans l'organisation industrielle, dans la façon dont les deux mondes ont organisés la concurrence et la gestion de l'innovation. Du fait de leurs différences, ces deux mondes ont évolué en parallèle jusqu'au début des années 1990, mais se rapprochent depuis. Nous montrerons que les caractéristiques (et les limites) de ces structures permettent d'expliquer ce rapprochement et aussi l'émergence de Linux.
Il s'agit donc de décrire des choix techniques, des lieux de production, un processus d'amélioration (versions du logiciel). Ce processus a environ 25 ans et concerne aussi les logiciels et les machines qui fonctionnent avec ce système d'exploitation. Mais aussi les faits qui ont eu un impact sur le monde qui s'est développé autour d'Unix, c'est à dire ses racines culturelles et techniques, la culture propre au monde Unix et son positionnement marchand. Nous nous attarderons principalement sur deux points[6] :
- les origines historiques du système car elles expliquent ses caractéristiques techniques et le comportements des utilisateurs ;
- l'organisation industrielle et marchande basée sur le système car elle permet d'expliquer certaines faiblesses de ce monde, notamment vis à vis du monde de PC.
Unix est un système d'exploitation à temps partagé[7]. Il s'inspire du projet "Multix" qui regroupait les Bell Labs, le MIT & General Electric, avec des financements fédéraux.[8]. La première version documentée d'Unix a été terminée en 1971. Un des objectifs des concepteurs d'Unix était de faire un système programmé dans un langage indépendant de la machine, plus facile à comprendre et à utiliser que les langages qui sont propres à la machine, ce qu'ils réaliseront en 1973[9]. Cela est devenu possible grâce aux progrès réalisés par les compilateurs[10]. C'est le deuxième axe de recherches principal financé par l'ARPA à la fin des années 60 (Langlois & Mowery[1996]). Un troisième choix technique a favorisé ce système vis-à-vis de ses concurrents : il est construit comme un assemblage de fichiers, de modules ayant chacun une fonction particulière. Cette construction favorise l'innovation marginale : il est possible d'ajouter, d'améliorer une fonctionnalité en changeant un module mais en conservant le reste du système. On retrouvera la même caractéristique pour le matériel dans le monde PC.
Ces qualités techniques, issues de concepts apparus au cours des années 60, combinées à un contexte institutionnel favorable[11], expliquent la diffusion rapide d'Unix dans le monde universitaire. À partir de 1977, l'université de Berkeley devient le principal centre universitaire de diffusion des innovations autour d'Unix (c'est le début des Unix BSD, pour "Berkeley Software Distributions", McKusick [1999]).
Unix est alors utilisé par une population relativement importante, mais surtout une population qui développe du logiciel innovant et qui a une culture de coopération[12] . Cette culture de coopération, de coproduction de logiciel a été favorisée par les origines universitaires.
Plusieurs facteurs expliquent que cette coopération soit particulièrement efficace dans le cas du logiciel :
- le logiciel est un bien immatériel. Il est programmé dans un langage qu'il faut apprendre. De plus, la programmation de systèmes complexes comme les systèmes d'exploitation fait appel à de nombreuses compétences, ce qui crée un besoin de coopération, car un développeur seul ne les possède pas toutes. Les investissements à faire pour apprendre un langage renforce la cohésion du groupe car ce sont des investissements irrécupérables. Les participants ont donc intérêt que le groupe créé autour du langage et du projet produise des résultats (Cowan & Foray [1997]). C'est même la seule récompense que les participants peuvent espérer de la collaboration lorsque celle-ci se déroule dans un cadre non-marchand, comme c'est le cas pour Linux ;
- le fait que le logiciel produit est directement utilisable par les membres du groupe explique aussi l'efficacité de ces groupes de développement : il n'y a pas d'investissements après le développement du produit ; les innovations, les améliorations, profitent directement à l'ensemble des utilisateurs. Le retour sur investissement est plus rapide et directement appréciable ;
- l'existence de réseaux physiques favorise aussi ces comportements car ils permettent l'échange rapide des données. Soulignons à ce propos, et une fois de plus, le rôle des agences fédérales dans la création de cette culture de production coopérative : le réseau ARPAnet qui permet (et a pour but de favoriser) les échanges d'idées, d'innovations entre universités travaillant sur le logiciel est sans doute l'élément le plus important. Mais dès le début de la recherche en informatique, des conférences ont été organisées par des organismes dépendant du ministère de la défense américain . Ces actions ont eu pour conséquence la création d'un discours identitaire fort chez les utilisateurs , qui a certainement renforcé le sentiment d'appartenance à un groupe, à une "communauté" et donc, comme le montre De Bandt[1998](p 83), leur propension à coopérer.
Mais le monde Unix est un des mondes informatiques dans lequel la coopération a été la plus efficace.
Cela est d'abord dû à deux choix techniques initiaux :
- Unix est écrit dans un langage indépendant de la machine, le "C", plus facile à comprendre et à apprendre que les langages qui l'ont précédé : comme il est indépendant de la machine, on ne doit plus réécrire les logiciels lorsqu'il faut changer de machine . On peut donc récupérer une partie des investissements que l'on a fait dans ces logiciels ; comme le langage, mais aussi le système sont plus simples à apprendre, l'investissement à faire pour les utiliser est aussi plus faible, ce qui abaisse les barrières à l'entrée, donc augmente encore l'attractivité du produit ;
- Unix a été conçu, dès l'origine, comme un assemblage de petits modules, chargés chacun d'une tâche particulière. Cette structure est favorable à l'innovation marginale. Elle permet à chaque utilisateur-développeur de se concentrer sur la partie du code, sur les fonctions qu'il maîtrise le mieux, tout en bénéficiant de l'ensemble des innovations faites par les autres .
Ensuite, parce que le code source était disponible, parce qu'il était bon marché, à cause de ses qualités techniques, le système s'est imposé dans les universités, comme système de base pour la recherche et l'enseignement. Or, le milieu de la recherche est un milieu favorable à la coopération (Dasgupta & David [1994]). De plus, une des bases de l'enseignement de l'informatique est l'étude des programmes déjà écrits, l'imitation et la réutilisation. Ceci était facilité par le caractère ouvert et modulaire du système. Cette habitude de récupération, d'imitation est devenue une des habitudes culturelles, une des techniques que le bon programmeur doit acquérir[13]. Les utilisateurs, les individus qui appartiennent au monde Unix ont donc intégré les pratiques culturelles qui ont permis la construction et la diffusion de ce système sur une base coopérative.
Cela a deux conséquences :
- dès le départ, Unix et son développement sont fortement ancrés dans la sphère du non-marchand ;
- l'organisation de l'innovation se fait selon des critères propres à l'université : le développement des innovations peut être coopératif et les nouveautés sont évaluées principalement sur des critères de qualité techniques.
Ces origines universitaires et techniques ont aussi influencé le positionnement économique du système.
Utiliser Unix comme produit industriel.
Lorsque SUN propose en 1982 des machines qui utilisent Unix comme système d'exploitation, elle le fait pour ne pas avoir à développer son propre système ; pour le reste, cette stratégie d'entrée est comparable à celle de Digital avec les mini-ordinateurs : il sagit de s'appuyer sur des innovations au niveau du matériel (microprocesseurs) pour attaquer le marché dominant dans le bas de la gamme (machine moins chère, performances moindres, mais rapport prix/performances compétitif).
Mais SUN utilise aussi un système qu'il maîtrise et qui a déjà un grand nombre d'utilisateurs et une bibliothèque de logiciels (Dréan[1996], p 243) : les fondateurs de SUN (Standford University Network) venaient de l'université. Le marché visé est, en particulier, celui des utilisateurs qui ont besoin d'un outils performant sur des critères techniques comme la rapidité, la puissance de calcul, la qualité du graphisme, pour programmer ou pour réaliser des activités scientifiques et techniques telles que la CAO (Genthon[1998], p6). Ce sont souvent les personnes qui utilisaient déjà Unix à l'université.
Par contre, au niveau du matériel, les entreprises (SUN, Apollo, puis IBM, Digital...) auront toute la même stratégie : l'architecture de la machine sera propriétaire, développée en interne, le plus souvent en utilisant un microprocesseur propriétaire. Cette façon de faire reste proche de la structure industrielle de l'informatique traditionnelle. Elle permet de se créer une clientèle captive, mais aussi de garantir la qualité technique de la machine, même si on doit adapter le système à la machine.
L'évolution d'Unix est influencée par les stratégies de différenciation.
Nous l'avons vu, Unix permet aussi les adaptations marginales (SUN propose, par exemple, dès 1984, son propre système d'échanges de fichiers sous Unix), ce qui permet de différencier son produit, mais entraîne des incompatibilités entre système. La conséquence économique de ces incompatibilités entre systèmes est le renforcement de la structure de marchés captifs. Pour chaque système apparaissent des caractéristiques propres, qu'il faut apprendre à maîtriser et certains logiciels applicatifs, qui utilisent ces extensions, ces innovations propriétaires, sont inutilisables avec les autres systèmes Unix. Ces incompatibilités font que certains auteurs n'hésitent pas à parler de plusieurs "standards" Unix (Genthon[1995], p 106). C'est exact si l'on considère le système d'exploitation comme une boite noire. Mais ce n'est pas, nous l'avons vu, la philosophie du monde Unix : la standardisation existe au niveau des langages (le C), au niveau des concepts (système Unix) et le système favorise les innovations marginales. La stratégie du leader, SUN, qui consiste à proposer ses innovations à bas prix pour qu'elles soient adoptées comme un standard pour Unix est un comportement d'innovateur marginal ; c'est ce qui est arrivé pour le système de gestion de fichier "NFS"[15].
Les conséquences pour le monde Unix.
Un des avantages d'Unix est sa portabilité. Il n'est donc pas anormal qu'il soit adapté et proposé sur plusieurs architectures. Pour reprendre le vocabulaire des biens publics, les externalités portent, dans ce monde, sur des concepts, les langages, la structure du système Unix et il y a bien standardisation à ce niveau. C'est un progrès par rapport à l'ancienne structure, où la plupart des constructeurs et de nombreuses universités proposaient leur propre système, totalement incompatible avec les systèmes concurrents. Le monde Unix a organisé cette variété, qui est source d'innovation ou spécialisation de façon à la rendre moins coûteuse que dans l'ancienne structure. Le coût de cette diversité est apparu, pendant longtemps secondaire par rapport aux progrès qu'elle a permis.
C'est pourquoi nous pensons que le monde Unix peut être présenté comme un monde homogène. Mais cette homogénéité est aussi la faiblesse de ce monde car il s'est avéré que sur une plus longue période ces incompatibilités ont freiné l'innovation dans le matériel. Ce qui était une force est devenu une faiblesse.
Ce qui fait le fondement de ce monde n'est pas le matériel : c'est la culture de coopération, de co-production hors marché de logiciels, c'est l'idée d'utiliser une machine performante et d'y adapter un système d'exploitation Unix. Ce sont, nous le verrons, les bases du développement de Linux. Car, si Linux est techniquement issu du monde Unix, parce qu'il est bâti sur les mêmes principes techniques, les utilisateurs et les développeurs de Linux ont aussi hérité des habitudes culturelles du monde Unix.
Cette culture technique qui rejoint une stratégie de marché captif a une faiblesse importante. Elle ne permet pas une extension du marché à une taille comparable à celui du marché des PC. L'existence de plusieurs architectures ne permet pas les mêmes économies d'échelle que dans le monde des PC, ni les mêmes investissements en recherche et développement sur le matériel. La multiplicité des systèmes devient un désavantage pour conquérir les marchés des utilisateurs non techniques. Le coût pour maintenir un système d'exploitation est élevé, donc, là aussi, les économies d'échelle sont moins importantes que dans le monde des PC. Le fait qu'il n'y ait pas de standards, que certains logiciels ne fonctionnent qu'avec certains systèmes Unix augmente encore le coût d'entrée pour cette population.
C'est un système efficace pour créer de la nouveauté, pour intégrer des innovations, surtout dans le logiciel, mais il n'est pas aussi efficace économiquement que le système des PC.
Il faut que nous mettions en lumière en quoi l'organisation industrielle du monde des PC, les comportements utilisateurs, a structuré différemment le monde PC et permis cette meilleure gestion de l'innovation sur le matériel.
De nombreuses entreprises se sont intéressées à ce secteur à partir du milieu des années 70[16], mais deux entreprises apparaissent comme des acteurs majeurs pour la création de ce monde : Apple, qui a découvert le segment de marché pour ce produit : les non-informaticiens (le grand public puis, rapidement les entreprises) et IBM, qui a été à l'origine de la structure de production qui est une des originalités de ce secteur.
Apple devient un des leaders de l'informatique personnelle en visant le marché grand public des non-informaticiens[17].
C'est un nouveau public pour l'informatique, c'est surtout un public qui n'a pas les mêmes besoins que les utilisateurs du monde Unix. L'ordinateur devient à ce moment un outils de traitement de texte et d'archivage d'informations. Les utilisateurs ont alors besoins de logiciels (ou de "progiciels") qui remplissent ces fonctions, à un coût abordable pour un particulier. L'ordinateur n'est plus vu comme une machine qui doit faciliter la programmation. Les bases de ce nouveau monde ne peuvent pas être un langage ou la structure du système d'exploitation. Ce sont les logiciels qui permettent le traitement de l'information et les machines sur lesquelles ces logiciels fonctionnent.
Le marché, même s'il reste faible en volume, croît très vite[18] et les micro-ordinateurs commencent à se diffuser dans les entreprises. Sans doute pour entrer rapidement sur le marché, IBM s'allie avec deux entreprises du monde de la micro-informatique, Intel et Microsoft[19]. IBM propose, en 1981, une machine dont elle n'assure que l'assemblage et la vente en gros[20]. C'est un système ouvert aux concurrents, aussi bien au niveau du matériel qu'au niveau des logiciels d'application. Cette structure est en rupture avec l'organisation traditionnelle de l'informatique où l'assembleur définissait l'architecture de la machine, mais aussi les types de composants et le système d'exploitation. Genthon[1995] (p 96) et Dréan[1996] (p 48) expliquent ces choix par la volonté d'accélérer l'entrée de l'entreprise sur ce marché et par la vision (qui n'était déjà plus partagée par Apple) que les micro-ordinateurs ne s'adressent pas à la clientèle habituelle du constructeur, celle des entreprises.
Au niveau de la demande, l'engagement du leader de l'informatique sur le marché de la micro-informatique apporte une légitimité au produit et renforce grandement la diffusion des micro-ordinateurs dans les entreprises[21]. Au niveau de la production, la publication des spécifications de son ordinateur et le fait qu'IBM en autorise la copie favorisent l'émergence d'une concurrence au niveau des machines, mais aussi au niveau de chacun des composants de la machine. Une concurrence nouvelle pour l'informatique, en temes de prix puis en terme de performance/prix et une nouvelle structure de production s'installent : c'est la révolution de la micro-informatique.
Il n'y a plus de clientèle captive d'un constructeur puisque les machines en concurrence (et les constructeurs) sont compatibles et chaque sous-secteur (microprocesseur, mémoire, disque dur, logiciel) peut développer des produits concurrents à condition que ceux-ci restent compatibles avec les produits des autres sous-secteurs[22]. On retrouve le même principe de modularité développé dans le monde Unix autour du logiciel ; il est ici appliqué au matériel, avec la même efficacité.
Cette organisation technico-économique permet l'installation d'une dynamique de croissance : la concurrence favorise la baisse des prix qui augmente la diffusion du produit[23], sur un marché bien plus important en volume que le marché des stations de travail (marché Unix). Les effets d'échelle sont possibles car les clients se contentent d'un produit standard, le plus souvent avec un service après-vente minimum : on est sur une structure de marché de masse. Les progrès technologiques dans le matériel permettent de développer des logiciels plus performants et plus conviviaux pour un prix constant et donc d'augmenter encore le marché potentiel de la micro-informatique. Le système se stabilise pour trois raisons :
- les spécifications et l'organisation matérielle de la machine sont publiques ;
- un standard apparaît pour le système d'exploitation, le DOS de Microsoft. Il fait l'interface - et garantit la compatibilité - entre la partie matérielle et les logiciels. Ce standard a permis de garantir la pérénité des investissements en logiciel . Cette analyse doit cependant être nuancée car c'est un standard de marché et non une norme. Le rythme de l'innovation dépend alors de la stratégie de l'entreprise qui le contrôle. Microsoft est même accusé d'accélérer l'obsolescence de ses logiciels, sans apporter d'amélioration, pour augmenter ses marges ;
- il y a standardisation du microprocesseur : si l'architecture du processeur change, les programmes sont en partie à réécrire ; le leader, Intel, garantie une compatibilité ascendante entre ses processeurs, et on assiste à une concurrence en qualité (performance du processeur) .
Une nouvelle façon d'utiliser l'informatique.
La standardisation ne se fait plus au niveau des outils informatiques qui permettent de construire les programmes (le langage C et le système d'exploitation), mais au niveau du système d'exploitation ou des logiciels de bureautique ; ce que les utilisateurs échangent, en effet, ce sont les données produites par les logiciels, ce que les utilisateurs doivent apprendre, c'est le maniement de ces logiciels. Les externalités portent donc sur les logiciels et pas, comme pour Unix, sur les langages ou la structure du système d'exploitation. Cela réduit les coûts d'apprentissages (et augmente le nombre des utilisateurs potentiels de l'informatique) mais rend quasiment impossible le changement des programmes utilisés. Les machines n'apparaissent plus comme étant au service de l'utilisateur programmateur, technicien, mais au service d'un utilisateur-consommateur qui s'en sert pour traiter de l'information (traitement de données personnelles, de texte, divertissement).
Contrairement au monde Unix, qui est né chez les utilisateurs et où les utilisateurs gardent une partie du contrôle sur la direction de l'innovation, le monde du PC est né dans l'industrie et l'innovation est rythmée par l'industrie. Une des raisons que nous avançons est que le besoin de standardisation ne se fait pas au même niveau conceptuel dans les deux mondes. L'autre est que, culturellement, la production de logiciels standards est vue, dans le monde du PC, qui est un monde industriel, comme relevant de l'industrie. L'ordinateur est devenu un objet multi-usage (professionnel, de divertissement, d'éducation, de programmation), mais un objet peu communicant. L'innovation et l'avantage concurrentiel portent sur les fonctions des logiciels de gestion de l'information et sur la performance des machines, pas sur la qualité des outils mis à disposition. C'est une faiblesse de cette organisation.
Cela s'explique par le comportement des acteurs, la structure de production et l'emploi que font les utilisateurs de l'outils informatique :
- il n'y a pas d'institution comparable à l'ARPA ou à la NSF pour encourager cette coopération (explication institutionnelle) ;
- les premier PC ne sont pas conçu pour être en réseau, il est donc difficile de créer des groupes importants, donc de regrouper des compétences complémentaires (explication technique) ;
- ces machines sont destinées à un usage personnel ; les applications développées répondent à un besoin personnel et ne sont sans doute pas vue comme pouvant, a priori, intéresser d'autres développeurs (positionnement du produit) ;
- la majorité des utilisateurs de ces machines les considèrent comme des outils, des boites noires. Elle ne fait pas de programmes et n'a pas besoin d'échanger d'informations à ce sujet (explication culturelle).
Nous avons insisté sur ce qui sépare ces deux mondes : les marchés, les besoins, la structure de production. Cela permet d'expliquer comment ils ont pu évoluer parallèlement pendant les années 80. Il nous faut maintenant nous intéresser à ce qui les rapproche, ce qui expliquerait leur convergence. Linux apparaît alors comme un facteur, autant qu'une conséquence, de ce rapprochement.
Les machines issues du monde PC commencent à concurrencer celles du monde Unix (stations de travail et petits serveurs). Cela correspond à une montée en gamme pour la filière des PC[27] et cette montée en gamme se fait sur des marchés connexes aux marchés traditionnels des PC : on passe de machines qui traitent l'information individuelle à des machines qui permettent de traiter l'information collective.
Il est cohérent avec ses habitudes culturelles que ce soit au niveau industriel que le monde des PC s'intéresse au monde Unix. Les entreprises du monde des PC cherchent à concurrencer les entreprises du monde Unix sur leurs marchés, en intégrant les innovations développées dans ce monde. Dans le monde Unix, ce sont les utilisateurs qui se sont intéressés au monde des PC car les machines développées dans ce monde étaient devenues assez performantes pour répondre à des besoins qui n'étaient pas pris en compte par les entreprises du monde Unix ; c'est la création de Linux.
- on peut avoir accès aux sources et on peut les modifier. C'est important car les premiers utilisateurs sont le plus souvent des étudiants et cela leur permet de comprendre comment est fait le système , d'apprendre "la langue" du système ;
- c'est un Unix, il est donc modulaire. On peut s'intéresser à une partie seulement du système et l'améliorer, donc ne s'intéresser qu'à ce pour quoi on s'estime le plus compétent et bénéficier des innovations des autres utilisateurs ;
- il est disponible gratuitement, sur les réseaux "BBS" puis Internet, donc de nombreux utilisateurs peuvent le tester, chez eux, à moindre coût.
Toutes ces caractéristiques rappellent les caractéristiques d'Unix à ses débuts. Les personnes qui ont commencé à collaborer à ce projet viennent du monde Unix (centres universitaires, entreprises du monde Unix comme Sun, etc.), à commencer par l'initiateur du projet, Linus Torvalds. Le fait même de prendre une machine produite dans l'industrie pour ses caractéristiques techniques et de l'utiliser pour développer un système d'exploitation autre que celui qui existe sur la machine est un comportement caractéristique du monde Unix, où la machine doit répondre à un certain nombre de critères (prix, performances), mais où l'élément important est le système d'exploitation qui doit être du type Unix. Le fait même que le projet Linux ait pu démarrer est dû au contexte institutionnel particulier du monde Unix.
En 1984, ATT est autorisée à entrer sur le marché de l'informatique[29] et elle demande des droits sur le nom Unix et sur le système dont elle est à l'origine. En réponse, des utilisateurs-développeurs (notamment R. M. Stallman) créent une institution, la "Free Software Foundation" (FSF)[30], qui se donne pour but de développer, de façon coopérative, un Unix libre de droit : c'est le projet GNU. R. M. Stallman était chercheur au MIT avant de créer cette fondation ; les idées qu'il développe pour expliquer l'importance de rendre le logiciel libre sont basées sur l'argument que le logiciel est un bien public et qu'il doit rester public[31]. Les bases idéologiques qui ont permis la création de Linux sont donc opposées à celles qui ont cours dans le monde PC, où le logiciel est vu comme une affaire industrielle qui doit être privatisée et protégée. Cette action a eu pour conséquence de créer une dynamique de développement de programmes libres, hors de l'université.
Elle a aussi fait que, au début des années 1990, la FSF avait créé un certain nombre d'outils de programmation libres ; ces outils ont été utilisés pour développer Linux et ce projet aurait sans doute eu beaucoup plus de mal à réussir sans eux[32].
Mais il existe une différence majeure entre Linux et Unix : les institutions qui permettent, qui organisent la collaboration et le co-développement ne sont plus des institutions étatiques mais des institutions créées par la "communauté" Unix. Cela entraîne une autre gestion de l'innovation et de la coopération que dans le monde universitaire (Dalle & Jullien [1999]), ce qui aura des conséquences sur la diffusion et le passage de Linux dans le secteur marchand.
Et Linux hérite aussi du monde des PC, car la machine utilisée au départ était un PC, ce qui rapproche le monde des PC du monde Unix.
Cette licence garantie l'accès aux sources, la liberté de modifier, d'améliorer le programme. Elle garantie aussi que ces modifications (et celles des autres) seront accessibles dans les mêmes conditions que le logiciel de départ[33]. Linux est le seul système Unix qui soit protégé par cette licence. Elle a été inventée par Richard M. Stallman dans le cadre de la Free Software Foundation. Elle incite à la coopération car elle réduit le risque de passager clandestin dans la production du logiciel : un développeur ne peut pas privatiser le travail des autres développeurs, ni créer un avantage technique en améliorant le logiciel en y ajoutant des fonctionnalités de façon privée car la licence l'interdit. Une fois que la coopération a été initiée, il est coûteux d'en sortir (il faut apprendre un nouveau langage) et, à cause de cette licence, peu rentable. Au lancement de Linux, ce risque est faible : c'est plus un système avec lequel on peut apprendre à programmer qu'un système utilisable industriellement. Son évolution rapide fait qu'un programmeur a intérêt à ce que les innovations qu'il propose, qui sont souvent la conséquence d'un besoin non encore satisfait par le système, soient incluses dans la distribution officielle. Il court le risque, sinon, de devoir réécrire son programme à chaque changement de versions et il ne peut pas profiter de l'aide d'autres développeurs qui auraient des besoins similaires. Enfin, la coopération autour de Linux hérite des habitudes, des règles de coopération qui se sont créées dans le monde Unix.
Un système techniquement plus ouvert.
Linux, contrairement aux autres Unix, ne repose pas sur une architecture propre et s'il est, au cours des années 90, adapté à un grand nombre d'entre-elles[34]. Et, à cause de la licence GPL, il est difficile pour les constructeurs de privatiser ce système, comme dans le cas d'Unix. C'est donc un système qui est plus ouvert qu'Unix et qui garantie une plus grande ouverture qu'Unix car il permet à nouveau de dissocier, dans le monde Unix, la machine du système d'exploitation.
L'ouverture est garantie par la GPL (il n'y pas de privatisation des sources possibles), mais aussi par la façon dont est organisée la structure de production de Linux. Linux est un assemblage de composants, qui ont peu d'intérêt pris indépendamment. Il faut donc que chacun des groupes responsable d'un sous-système spécifie publiquement ses caractéristiques et les règles d'échanges. Cela rapprocherait la structure du monde industrielle Unix de celle du monde PC où sont spécifiés publiquement les règles, les protocoles d'échanges entre les différents sous-systèmes.
D'un succès technique et organisationnel à un succès commercial
Linux a des qualités certaines. Mais elles ne suffisent pas à expliquer la rapidité de sa diffusion. Elles ne doivent surtout pas cacher les problèmes que cette diffusion pose. La production et son adoption ont été principalement organisées, nous l'avons vu, dans le secteur non marchand. Le passage au secteur marchand pose le problème du coût de fabrication de ce logiciel, de la cohabitation entre des développeurs qui ne sont pas rémunérés pour produire ce logiciel et des entreprises qui l'utilisent comme source de revenus, sans devoir obligatoirement contribuer à son développement. Le fait que Linux soit disponible à un coût très faible remet aussi en cause la structure de revenu des entreprises du secteur. On peut répondre à ces questions en analysant la façon dont les entreprises intègrent Linux dans leurs offres commerciales et les raisons qui font que la plupart d'entre elles participent au développement du système. Mais il ne faut pas oublier le fait que Linux s'est diffusé dans les entreprises avant de faire l'objet d'offres commerciales.
Ce logiciel a conquis une part de marché importante sans passer par les canaux de distribution traditionnels, sans services de maintenance identifiables. C'est cette adoption qui a poussé les entreprises à s'y intéresser et c'est sur cette base que se construit aujourd'hui le succès de Linux, mais aussi son positionnement marchand. Nous pensons que Linux est un exemple des bouleversements dans l'organisation de la production et de la distribution engendrées par l'émergence d'Internet.
Nous avons montré que l'existence d'un besoin pour un Unix bon marché fonctionnant sur une machine basé sur les processeurs de type Intel et développable librement suffisait pour expliquer le succès de Linux dans le monde du développement. Il nous reste à expliquer le succès et surtout la rapidité de diffusion de ce produit dans l'industrie.
Le développement de Linux est, bien sûr, lié à celui d'Internet :
- techniquement, Linux a été conçu comme un Unix pour PC (Torvalds[1999]). C'est à dire un système Unix pour un utilisateur individuel. Puisqu'il était un Unix utilisable chez soi, de nombreux programmateurs l'ont utilisé comme système sur lequel développer ou améliorer les logiciels à la base d'Internet. En effet, ces produits sont des produits libres, facilement adaptables au système d'exploitation libre ;
- l'abaissement des couts d'accès à Internet a augmenté le nombre d'utilisateurs du réseau et aussi le nombre de programmateurs de logiciels libres, donc la qualité et l a quatité de logiciels libres produits.
Cette diffusion illustre un des nouveaux paradigmes économiques de la "société de l'information" (Dang Nguyen, Petit, Phan [1998]) : dans certains cas, des personnes reliées par un réseau peuvent s'organiser pour produire conjointement un bien tel que le logiciel. Cette organisation se substitue alors à l'entreprise car elle a les mêmes avantages que celle-ci. En effet, une entreprise est une organisation qui réduit les coûts d'acquisition de l'information et qui permet d'organiser des complémentarités, c'est à dire de regrouper des personnes ayant les différentes compétences nécessaires pour produire un bien complexe comme l'est, par exemple, le logiciel (Arrow[1962]) ; c'est vrai aussi du réseau (Dang Nguyen[1999]), c'est particulièrement vrai, nous l'avons vu, dans le cas du logiciel, qui est de l'information codifiée.
La production de Linux, logiciel libre, semble constituer une nouvelle manière de produire du logiciel, inspirée du monde de la recherche, mais avec des principes de rémunération différents[35], qui illustrerait "la nouvelle économie d'Internet".
Internet permet une production collective et la baisse du coût d'information sur les biens disponibles, ce qui explique que Linux ait put se faire connaître par ce média. On peut même penser (Raymonds[1998]), que la production décentralisée de logiciel est plus efficiente qu'une production centralisée car elle permet une meilleur gestion des erreurs et augmente, avec l'augmentation du nombre des contributeurs, la qualité des meilleurs contributions[36].
Ce coût de production reste cependant important. L'investissement est principalement un investissement immatériel, c'est du temps passé à développer et à corriger les logiciels. Le développement de Linux s'est largement fait de manière non marchande, le coût de développement étant pris en charge par les différentes personnes qui collaboraient. Elles en retirent, nous l'avons vu, un bénéfice personnel, formation, réponse à un besoin technique, base pour appliquer des projets de recherches. Elles contribuent aussi, par cette action, à renforcer le bénéfice collectif. Le temps passé par ces personnes à développer Linux est difficilement estimable. Tant que cette collaboration est organisée de manière non marchande, les contributeurs estiment sans doute que le bénéfice collectif dégagé, les logiciels libres ainsi créés, sont une rémunération suffisante pour leur travail. Certains auteurs ont aussi signalé, à juste titre, qu'une partie des investissements sont pris en charge par la collectivité qui paye les chercheurs qui développent des logiciels libres. Mais il ne faut pas négliger la contribution des étudiants, des particuliers qui faisaient ce développement sur leur temps libre. Enfin, certains développements semblent faire partie du cadre de travail des informaticiens. Nous pensons, par exemple, au logiciel serveur Web Apache qui est développé par de nombreux administrateurs de sites, mais aussi par des entreprises comme IBM. Et quand des entreprises s'appuient sur des logiciels libres pour vendre des prestations ou des produits informatiques se pose le problème de l'évaluation de cette prestation, donc du travail et du produit fourni car cette prestation s'appuie en grande partie sur un travail effectué par d'autres, et le résultat de ce travail est disponible gratuitement sur le réseau.
De plus, et c'est là une des innovations du logiciel libre, il y a des institutions qui organisent la production de logiciel libre et lui donnent ses bases morales : il y a des organisations, comme la Free Software Foundation, il y a aussi des dispositifs légaux, comme la licence GPL, qui garantissent la non-privatisation - donc la possibilité d'appropriation par chacun - de ces logiciels. Cette organisation de production , ni marchande (copyright), ni publique (le logiciel n'est pas protégé et n'importe qui peut se l'approprier), garantie par la licence GPL nous semble fondamentale pour expliquer l'avantage de Linux vis à vis d'autres systèmes qui étaient comparables (comme les systèmes BSD). Elle l'est aussi pour comprendre dans quel cadre peut se faire la redéfinition de la valeur marchande du logiciel qu'entrainerait le succès le Linux (Dalle&Jullien[1999]).
Se pose alors, de façon plus pressante, la prise en compte des comportements opportunistes. Si des entreprises s'emparent d'un produit libre, sans participer à son développement, pour proposer des prestations, elles peuvent décourager les volontés coopératives ("pourquoi travailler bénévolement si c'est pour enrichir X ou Y ?"). L'utilisation du logiciel libre par le secteur marchand représente une menace pour son existence car elle oblige les acteurs du libres à intégrer d'autres logiques que celles de la FSF (le logiciel est un bien public qui doit être libre) ou celles d'utilisateurs-développeurs ("je fais du logiciel libre parce que ça me plaît et/ou parce que ça m'est utile dans mon travail").
Mais avant d'étudier l'impact sur la coopération du passage de Linux dans le secteur marchand, il faut comprendre comment ce passage a pu se produire.
Un passage dans le secteur marchand qui accompagne celui d'Internet.
Les relations entre logiciels libres et entreprises sont assez anciennes. VA Linux[37] propose des services autour de Linux depuis 1993. Mais c'est à partir de 1997 que les logiciels libres commencent à être connus en dehors d'une sphère spécialisée et apparaissent comme des outils performants, surtout en tant que support des nouveaux services qui se développent les services d'Internet. Et ce d'autant plus que :
- les personnes qui installent des serveurs Web (petits ISP ou responsables informatiques dans les entreprises) sont souvent des informaticiens qui peuvent utiliser cette solution bon marché. Ils ont moins besoin de support technique ou plus précisément ont l'habitude (culture) d'aller le trouver sur le réseau. Il y a donc développement conjoint d'Internet et des logiciels libres, support d'Internet ;
- le support des utilisateurs et des développeurs qui font la publicité du produit sur Internet (c'est la culture Unix qui consiste à imposer ses standards comme Xwindows), est facilité par la diffusion du média qu'ils maîtrisent le mieux : listes de diffusions, news, sites Web.
Le lien technique fort entre logiciels libres et Internet a permis de créer une base installée et donné une forte légitimité à ces systèmes. On peut dire que Linux est devenu un produit marchand car les services qu'il assure sont devenus des produits marchands. L'audience de Linux s'en est trouvée augmentée, mais il est devenu aussi un concurrent pour des logiciels commerciaux comme Windows NT. Cela d'autant plus que son utilisation comme serveur de fichiers se développe[38] et que ce marché est le marché principal de Windows NT. Linux se positionne d'abord dans le segment du marché où se rencontrent le monde PC et le monde Unix, en concurrence avec Windows NT. Ce qui veut dire qu'il y aurait là, et c'est nouveau, une concurrence entre systèmes d'exploitation dans le segment des ordinateurs pour l'entreprise. Les clients et les fournisseurs trouvent donc dans Linux des avantages qui dépassent les coûts qu'ils doivent supporter à ne pas adopter le standard dominant du secteur. Ce qui implique :
- que Linux possède un avantage concurrentiel réel sur ses concurrents des mondes Unix et PC, avantage qu'il faut définir ;
- que, si cet avantage est dû aux spécificités de son organisation de production, il faut étudier à quelles conditions une organisation de production du type coopérative peut résister aux pressions du marché, c'est à dire peut trouver une réponse adaptée aux problèmes que nous avons soulevés dans les deux précédents paragraphes et aux problèmes que posera la rencontre entre les différents types d'utilisateurs qui composent le monde Unix et le monde PC.
On voit donc que le succès de Linux repose sur une organisation de production originale et sur une adéquation historique à de nouveaux marchés. Mais pour se développer, il faut que Linux soit capable de résister à la concurrence des produits commerciaux et surtout que son système de production soit capable de s'adapter à ce passage dans la sphère marchande et aux contraintes que posera la conquete de nouveaux marchés.
C'est cette étude que nous devons faire aujourd'hui car c'est ce qui déterminera si Linux peut être la base d'un nouveau monde informatique ou s'il restera un système pour spécialistes, un élément parmi d'autres de la convergence des mondes Unix et PC.
Nous avons présenté les qualités propres à ce système (sa modularité, son faible coût, son ouverture, son évolution indépendante des impératifs stratégiques d'une entreprise). Ces qualités sont intimement liées à un système de production particulier. Les origines historiques, les racines culturelles de ce système sont donc des éléments importants pour analyser la solidité de cette production coopérative. Ce sont eux qui vont nous permettre d'analyser les comportements des entreprises, de voir si ces comportement sont susceptibles ou non de menacer l'organisation coopérative de production. C'est sur la stabilité de cette coopération dans un système de plus en plus marchand que va se jouer le succès du logiciel libre.
Si ce système s'imposait, il engendrerait une nouvelle organisation industrielle dans l'informatique car :
- la production de l'ensemble des composants de la machine, le matériel et le logiciel se ferait selon le même principe. Les producteurs se spécialiseraient dans la production de certains modules et certains acteurs assembleraient l'ensemble de ces modules. Il y aurait cohabitation entre un secteur de production industriel et marchand pour le matériel et une partie du logiciel et un secteur non marchand pour le reste du logiciel (nouvelle organisation de la production) ;
- les utilisateurs seraient très hétérogènes. Il y aurait cohabitation d'informaticiens et de non-informaticiens. Les besoins peuvent être très différents. Il faudrait pouvoir adapter le produit à ces différents publics. Le système sera-t-il assez modulaire pour permettre ces adaptations ? (nouvelle organisation de la distribution) ;
- Le logiciel, voir la machine, deviendraient des composants d'un service . Il y aurait accentuation de la tendance actuelle, qui voit les entreprises facturer de plus en plus des services (service après-vente, formation, adaptation personnalisée), plutôt que des produits (nouvelle distribution de la valeur ajoutée).
Bibliographie
- Benzoni, L., 1991, "le rythme de l'innovation : l'anomalie de l'industrie des circuits intégrés", Communications et Stratégies, ndeg.2.
- Burnt, R., 1992, "Structural Holes : The Social Structure of Competition", Cambridge, Harvard University Press.
- Callon, M., 1991, "Réseaux technico-économiques et irrersibilités", dans Boyer, R, Chavance, B. Godard, O. éds, "Les figures de l'irréversibilité en économie", éditions de l'EHESS, p 195-230.
- Callon, M., 1992, "Variété et irréversibilité dans les réseaux de conception et d'adoption des techniques", dans Foray, D., Freeman, C., éds, "Technologies et richesse des nations", Economica, pp 275-324.
- Cowan, R., Foray, D. ,1997, "The economics of knowledge and the diffusion of knowledge", Industrial and corporate change, sept 1997, vol 16, ndeg.3.
- Carayol, N., 1999, "The Dynamics of Knowledge and Finalization of Scientific Research. the Case of engineering Sciences.", présenté au colloque EMAEE, Grenoble, juin 1999.
- Cornes, R., Sandler, T., 1991, "The theory of externalities, public goods, and club goods", Cambridge University Press.
- Dasgupta, P., David, D., 1994, "Toward a New Economics of Science", Research Policy, Vol 23.
- Dalle, J.M., Jullien N., 1999, "Free Software under economic analysis : some insights from the economics of creativity", présenté au colloque EMAEE, Grenoble, juin 1999.
- Dang NGuyen, G., 1999, "Économie d'Internet, enjeux et perspectives de recherche", conférence présentée au Colloque d'économie publique, Brest.
- Dang NGuyen, G., Petit, P., Phan, D., 1998, "la société de l'information", Communication et Stratégie ndeg..
- De Bandt, J., 1998, "les marchés de services informationnels : quelles garanties pour le client, consommateur ou partenaire ?", revue d'économie industrielle, ndeg.86, 4ème trimestre 1998.
- DiBona, C., Ockman, S., Stone, M., eds., 1999, "Open Sources ; Voices from the Open Source Revolution", isbn 1-5651992-582-3, O'Reilly eds.
- Dréan, G., 1996, "L'industrie informatique, structure, économie, perspectives", Masson.
- Laffont, J. J., "fondements de l'économie publique", Economica. p 39-64.
- Langlois, R. N., Mowery, D. C, 1996, "The federal Government Role in the Development of the U.S. Software Industrie", dans Mowery [1996], p 53-85.
- Genthon, C., 1995, "Croissance et crise de l'industrie informatique mondiale", Syros.
- Genthon, C., 1998, "Le Cas SUN Microsystems", étude de cas réalisée pour l'ENST Bretagne.
- Horn, F., 1999a, l'analyse de l'évolution de l'informatique : la constitution successive de réseaux technico-économiques structurés par des standards", à paraître.
- Horn, F., 1999b, la place des logiciels libres : une analyse socio-économique, à paraître dans la revue Terminal, octobre.
- Janssens, A., 1991, "Unix sous tous les angles", Eyrolles ed.
- Jullien, N., Phan D., 1999, "From the `Unix World` towards the `Linux` community`: An historical co-evolutionary perspective on `small worlds`", présenté à l'AEPE (novembre 1999).
- Mayère, A., 1990, "Pour une économie de l'information", Édition du CNRS.
- McKelvey, M., 1999, "Internet Entrepreneurship : Why Linux might beat Microsoft ?, presenté à l'ASEAT (Advances in the Social and Economic Analysis of Technology) Fifth International Conference, 14-16 septembre 1999, Manchester, RU.
- McKusick, M. K., "Twenty Years of Berkeley Unix : from AT&T-Owned to Freely Redistributable", dans DiBona & al..[1999].
- Mowery, D. C., eds., "The International Computer Software Industry, A Comparative Study of Industry Evolution ans Structure", 1996, Oxford University Press, New York.
- Netcraft, 1999, "Web Server Survey", http ://www.netcraft.co.uk/survey/.
- North. D. C., 1991, "Institutions", Journal of Economic Perspectives", volume 5, ndeg.1, hiver 1991, p 97-112.
- O'Reilly, T., 1999, "Lessons from Open-Source Software Development", "communications of the ACM", avril 1999, vol 42, ndeg.4, p 33-37.
- Ousterhout, J., 1999, "Free Software Needs Profit", communications of the ACM, Avril 1999, ndeg.4, p 44-45.
- Raymonds,
- Samuelson, P. A., 1954, "the Pure Theory of Public Expenditure", "Review of Economics and Statistics", ndeg.36, p 387-389.
- Samuelson, P. A., 1955, "A Diagrammatic Exposition of a Thoery of Public Expenditure", "Review of Economics and Statistics", ndeg.37, p 350-356.
- Stallman, R. M., 1998, "The GNU Project", "Open Sources", O'Reilly ed.
- Torvalds, L., 1999, "The Linux Edge", "communications of the ACM", avril 1999, vol 42, ndeg.4, p 38-39.
- Zimmermann, J.B., 1998, Terminal.