Richard Stallman : hacker et utopiste

By 22 March 2013

Le logiciel libre entre utopie, mythe et idéologie – Première partie.

Chapitre 1. Richard Stallman : hacker et utopiste

Il n’y a pas de création véritable qui ne prenne appui sur une insatisfaction, donc sur l’expérience d’une négativité dont les effets doivent être lucidement assumés sous la forme du refus de l’inacceptable, en prenant la décision de ne pas en rester là, de ne pas se plier à l’état de fait.
Pierre Macherey

Dans son introduction au recueil des principaux textes de Richard Stallman publié en 2002, le juriste Lawrence Lessig explique qu’à chaque moment historique correspond un individu, qui réussit à saisir l’imaginaire de l’époque et à « exprimer ses idéaux »1. Dans le passé ces individus, à la fois exceptionnels et emblématiques, ont souvent été des artistes ou des écrivains. Mais pour le temps présent, il s’agit selon Lawrence Lessig d’un programmeur, qui n’est autre – on l’aura compris – que Richard Stallman. Dans ce propos extrêmement, voire excessivement, élogieux se dit l’espace conquis par le propos du free software, et sa résonance avec le contexte historique contemporain. À une époque marquée par le fait que les ordinateurs « définissent et contrôlent de plus en plus nos vies »2, un mouvement revendiquant la « liberté » pour les logiciels faisant tourner ces machines n’est pas anodin. Quand sa portée se trouve de surcroît théorisée par son instigateur, on comprend que ce dernier puisse apparaître comme le « philosophe » d’une « génération »3.

1 Lawrence LESSIG, « Introduction » in Richard M. STALLMAN, Free Software, Free
Society : Selected Essays of Richard M. Stallman, op. cit., p. 11-14.
2 Ibid.
3 Ibid.

Richard Stallman n’a pourtant pas toujours été conscient du caractère emblématique que bien des gens attribuent désormais à la défense des logiciels libres. Aux débuts du free software, ses motivations étaient essentiellement personnelles, et liés à un contexte spécifique au secteur de l’informatique. Richard Stallman était avant tout déterminé à perpétuer le monde qu’il avait connu au sein du laboratoire d’intelligence artificielle du M.I.T., alors même que celui-ci était en passe d’être englouti par le développement du marché du logiciel. Des éléments cruciaux pour comprendre l’influence ultérieure du logiciel libre semblent s’être joués au cours de ces années, quand le free software semblait pourtant aller à contre-courant de l’histoire, et ne représentait guère plus qu’un mouvement relativement marginal de hackers.

Le logiciel libre y a été explicitement défini, par les quatre libertés (utilisation, copie, modification, distribution) qu’il accorde à ses utilisateurs. Le principe du copyleft a émergé, dans le but de dépasser le régime par défaut du copyright et de protéger les créations « libres » de leur possible privatisation. Enfin, les valeurs revendiquées par le mouvement du free software – mélange entre engagement pour la circulation de l’information et perpétuation d’un ethos1 communautaire – se sont affirmées, quand bien même elles étaient peu en phase avec le climat intellectuel de l’époque.

1945-1985 : Les trois informatiques

L’histoire du logiciel libre prend place dans un contexte particulier, et elle ne peut être comprise que si elle est replacée dans le cadre des grandes étapes de l’histoire de l’informatique.

L’informatique est une discipline jeune, puisque l’on s’accorde généralement à situer sa naissance dans l’immédiat après-guerre. Elle a cependant eu des « pères spirituels » en des temps un peu plus reculés : parmi les plus éminents, George Boole, inventeur de l’algèbre du même nom, Charles Babbage, concepteur de la « machine analytique », ou encore Alan Turing, et sa fameuse « machine de Turing » décrite dans un article de 1936. Par-delà les personnes, la naissance de l’informatique fut rendue possible par la convergence de plusieurs lignées techniques et traditions théoriques.

Dans son Histoire de l’informatique2, Philippe Breton en distingue trois : l’automatisme, c’est-à-dire la volonté de construire des dispositifs techniques disposant d’une certaine autonomie; les réflexions sur la notion moderne d’information, celles de la première cybernétique et de la théorie formelle de Claude Shannon; la tradition millénaire du calcul artificiel.

Bien qu’elle doive être replacée dans le temps long, l’histoire de l’informatique est aussi profondément liée à la Deuxième Guerre mondiale, et à l’effort sans précédent de recherche technique et scientifique qu’elle déclencha, notamment aux États-Unis.

1 Nous employons ici le terme d’ethos en un sens proche de celui qu’il revêt dans la sociologie de Max Weber, en désignant par là un ensemble de représentations et de principes d’action.
2 Philippe BRETON, Une histoire de l’informatique, Paris, Seuil, 1990. La distinction entre les trois informatiques qui structure cette sous-partie est issue de cet ouvrage, de même que nombre de faits relatés.

L’armée américaine avait en effet des besoins colossaux de capacités de calcul dans les domaines balistiques et nucléaires. Pour y faire face, la construction d’immenses calculateurs fut entreprise, engloutissant des budgets pharamineux, et occupant certains des scientifiques les plus brillants au sein des universités. Malgré ces investissements, ces « dinosaures du calcul »1 ne furent souvent opérationnels qu’à la fin de la guerre.

Une des machines les plus ambitieuses, l’ENIAC (Electronic Numerical Integrator Analyser and Computer), réalisée à l’Université de Pennsylvanie, fut inaugurée en février 1946. Il s’agissait du premier calculateur à utiliser uniquement des tubes électroniques, et à faire par là même la démonstration de l’intérêt de ces technologies, qui allaient ensuite être utilisées sur les premiers ordinateurs. Cependant, l’ENIAC lui- même ne pouvait pas être considéré comme un ordinateur, dans la mesure où sa conception logique restait conforme à celle des autres grands calculateurs électromécaniques. C’est ainsi après avoir étudié les limites de l’ENIAC que John von Neumann établit les plans de ce qui allait devenir l’ordinateur, dans un court texte intitulé « Première esquisse d’un rapport sur l’EDVAC » (« First Draft of a Report on the EDVAC »).

Ce texte posait les principes de fonctionnement d’une nouvelle machine censée supplanter l’ENIAC : l’EDVAC (Electronic Discrete Variable Computer). Celle-ci se caractérisait par une structure logique différente de celle des grands calculateurs. Elle disposait ainsi d’une « unité de commande interne », chargée de coordonner et de diriger l’activité de ses autres composantes sans qu’un opérateur humain ait besoin d’intervenir. Ce renforcement de l’autonomie de la machine allait de pair avec une nouvelle représentation des problèmes à traiter, « sous la forme d’algorithmes universels enregistrés »2. Ainsi, l’EDVAC ne réagissait plus en fonction des instructions de l’opérateur transmises aux différentes étapes du calcul, mais traitait automatiquement de l’information binaire. Ce qui lui permettait de réaliser des calculs. Du fait de nombreux aléas, sa réalisation concrète attendit 1952, mais dès 1945 et le texte de von Neumann, les principes d’un nouveau type de machine étaient posés.

Entretemps, l’Université de Manchester avait réussi en 1949 à faire fonctionner le premier ordinateur, le Manchester MARK 1, qui avait été conçu sur la base des plans de John von Neumann. Par respect pour l’éthique traditionnelle de la communauté scientifique, le mathématicien s’était en effet battu pour que ses plans ne soient pas brevetés, et restent librement accessibles aux autres chercheurs. Au cours de la décennie 1950, plusieurs ordinateurs furent ainsi construits dans des universités anglaises et américaines. Les financements considérables qu’ils nécessitaient provenaient presque exclusivement de budgets militaires. Aux États-Unis, les programmeurs étaient de surcroît souvent formés par l’armée. Née dans le contexte de la Deuxième Guerre mondiale puis de la Guerre froide, l’informatique fut donc bien « fille de l’université et de l’armée », et elle se développa jusqu’aux années 1960 « en dehors des lois économiques du marché »1. Corrélativement, les nouvelles machines furent pendant longtemps quasi exclusivement dédiées à des usages militaires, et il fallut attendre 1960 et la création du réseau SABRE2 pour que des applications civiles d’envergure commencent à émerger.

Le développement de ces usages civils, la moindre dépendance vis-à-vis des financements militaires, et le perfectionnement du matériel (l’usage du transistor se généralisa à partir de 1959, puis celui du circuit intégré) déterminèrent le passage à une « deuxième informatique », à partir du milieu des années 1960. Les ordinateurs devinrent alors un peu plus faciles à utiliser pour les non-spécialistes, ce qui leur permit de s’implanter au cœur des entreprises, où ils servirent de fondement au nouveau discours managérial sur la « maîtrise de l’information ». Ces évolutions ne signifiaient cependant pas une véritable démocratisation de l’informatique. La « deuxième informatique » fut certes une période de diffusion rapide des nouvelles machines pour des applications civiles, mais cette diffusion se faisait dans le cadre de grands systèmes centralisés gérés par des informaticiens experts.

Cette période est couramment associée à une entreprise, IBM, et à ses ordinateurs de la série 360. En effet, si le marché informatique connut entre 1964 et la fin des années 1970 un développement fulgurant, IBM y jouissait d’une position quasi- hégémonique, qui se renforça de façon presque continue au cours de la période. Cette domination sans partage valut à l’entreprise son surnom de « Big Blue », en référence notamment à la couleur de son logo. Elle fut maintenue, du côté de l’offre par les coûts considérables d’entrée sur le marché, et du côté de la demande par la relative captivité des utilisateurs. En effet, la nécessité de renouveler tous les logiciels en cas de changement de constructeur poussait les clients à rester fidèle à une même entreprise, et jouait donc comme un puissant facteur de consolidation des positions acquises. Comme le résume Christopher Kelty, la stratégie des entreprises du secteur informatique se résumait alors à « identifier des clients avec des besoins informatiques, construire un ordinateur pour y répondre, leur fournir tout l’équipement, les logiciels, le service et les périphériques dont ils ont besoin – et facturer tout ça très cher »3.

La position dominante d’IBM entraîna néanmoins une réaction des autorités, le Département de la Justice intentant en janvier 1969 un procès contre Big Blue en vertu de la loi Antitrust. La procédure se solda bien des années après, en 1982, par l’acquittement d’IBM, mais elle eut pour conséquence importante de favoriser la naissance de l’industrie du logiciel. En effet, sous l’influence de cette menace judiciaire, IBM avait cessé dès juin 1969 de pratiquer une politique de prix liant matériel et logiciel. Connue sous le terme anglais d’« unbundling » (en anglais « bundle » signifie paquet), cette décision mit fin à la pratique systématique consistant à fournir les logiciels gratuitement avec le matériel. Sur le plan économique, elle ouvrit la voie à une séparation entre l’industrie du hardware et celle du software1, et sur le plan technologique, elle posa la question de la portabilité (c’est-à-dire de la possibilité de transférer un logiciel d’une machine à l’autre). Pour que la décision d’IBM révèle toutes ses conséquences, il fallut cependant attendre quelques années et un événement plus considérable encore : la naissance du micro-ordinateur, qui allait déterminer le passage à une « troisième informatique ».

1 Ibid. p. 194.
2 Le réseau SABRE, construit à partir du réseau militaire SAGE, était un système télématique de réservation de places d’avion utilisé par la compagnie American Airlines.
3 Christopher KELTY, Two Bits, op. cit., p. 147.

Il était techniquement possible depuis le début des années 1970 de fabriquer des ordinateurs nettement plus petits, bien que ne disposant pas des capacités des très gros ordinateurs présents dans les universités, ou même des ordinateurs développés par IBM au cours de la décennie 1970 (par exemple la série 370). Il fallut cependant attendre 1975 pour assister à la commercialisation du premier micro-ordinateur, l’ALTAIR 8800, l’Apple II apparaissant quant à lui en 1977. Ces nouvelles machines bénéficiaient du développement des microprocesseurs (l’ALTAIR 8800 était construit autour d’un microprocesseur Intel 8080), qui permettaient des gains considérables en matière de miniaturisation. Les principaux constructeurs, IBM en tête, ne perçurent cependant pas tout de suit l’intérêt de développer et de commercialiser de telles machines : d’une part, ils ne voyaient pas à quels usages concrets elles pouvaient être utiles; d’autre part, elles ne correspondaient pas à l’image que ces entreprises se faisaient de l’informatique, associée aux « grands systèmes où la centralisation des informations était le principal moyen de les rendre contrôlables par la direction des entreprises »2.

Pour que se développe véritablement la micro-informatique, il fallut donc que de nouveaux acteurs prennent le relais, et subordonnent leur démarche d’innovation à un projet social différent de celui qui s’était incarné dans la « deuxième informatique ». Ces nouveaux acteurs étaient les jeunes étudiants californiens, férus d’informatique et pétris de contre-culture, gravitant autour de l’Université de Berkeley. Ils se retrouvaient au sein du Homebrew Computer Club, groupe informel où ils échangeaient idées et circuits intégrés. Leur projet était de « démocratiser l’accès à l’information »3, et ils réactivèrent ainsi – en partie sans le savoir – le projet social de la première cybernétique, qui s’était quelque peu perdu dans les grands systèmes centralisés de la « deuxième informatique ». La micro-informatique connut rapidement un succès fulgurant : conçu dans un garage, l’Apple II fut vendu pendant des années, au point d’être considéré comme le premier ordinateur à véritablement entrer dans les maisons des classes moyennes. IBM essaya, un peu tardivement, de prendre le train en marche. Big Blue sortit son premier Personal Computer en 1981, qui fut lui aussi un succès commercial. D’autres ordinateurs peu coûteux suivirent (comme le Commodore 64 en 1982), si bien qu’au milieu des années 1980 le marché de l’informatique avait complètement changé de nature : deux cent mille micro-ordinateurs avaient été vendus aux États-Unis en 1980; dix millions en 19851.

1 « De nombreuses personnes estiment qu’un événement déterminant pour la croissance de l’industrie des logiciels destinés aux entreprises fut la décision d’IBM en 1969 de vendre ses logiciels et ses services séparément de ses ordinateurs » [Burton GRAD, « A Personal Recollection: IBM’s Unbundling of Software and Services », IEEE Annals of the History of Computing, vol. 24, n° 1 (Jan–Mar 2002), p. 64-71]. Aujourd’hui, la plupart des entreprises sont spécialisées sur un segment d’activité : matériel (hardware), logiciel (software) ou service. À titre d’exemples, Dell est ainsi spécialisé dans le matériel, Microsoft dans le logiciel et Capgemini dans le service. Apple est une des rares entreprises à être présente à la fois dans le hardware et le software, et IBM une des rares à être présente à la fois dans le hardware et le service.
2 Philippe BRETON, Une histoire de l’informatique, op. cit., p. 229.
3 Ibid. p. 230.

Le passage de la deuxième à la troisième informatique changea considérablement l’image des ordinateurs dans l’opinion : ceux-ci devinrent une réalité quotidienne et « conviviale » pour de nombreuses personnes. L’arrivée du micro-ordinateur redistribua également les cartes au sein de l’industrie, battant en brèche l’hégémonie d’IBM. Elle eut enfin, comme nous allons le voir, des répercussions très profondes sur les pratiques professionnelles des informaticiens, et sur les conditions dans lesquelles ceux-ci exerçaient leur métier.

L’utopie du logiciel libre, le mouvement du free software
Thèse pour l’obtention du grade de docteur de l’Université Paris 1 – Discipline : sociologie
Université Paris 1 Panthéon/Sorbonne – École doctorale de philosophie