Article issu de Politique étrangère volume 71, n°3, paru à l’automne 2006, rédigé par Bernard Benhamou (maître de conférences pour la société de l’information à l’Institut d’études politiques de Paris, il a été membre de la délégation française au Sommet mondial pour la société de l’information (SMSI) et Laurent Sorbier (conseiller technique chargé de la société de l’information auprès du Premier ministre Jean-Pierre Raffarin. Il est maître de conférences à l’Institut d’études politiques de Paris et enseigne aux universités Paris I et Paris VIII).
Le développement de l’Internet suscite nombre d’interrogations politiques, qui mettent en cause la souveraineté des États ou la liberté des citoyens. C’est le cas de la gestion des noms de domaines, pour l’heure contrôlée par les États-Unis. L’Union européenne tente aujourd’hui de sauvegarder trois principes fondamentaux : l’interopérabilité, l’ouverture et la neutralité de l’Internet, principes de base d’un accord pour une gouvernance du réseau respectant les principes démocratiques.
***************
Il va sans dire que la maîtrise des technologies a toujours été un terrain où se joue la puissance économique, militaire et politique. Pourtant, il est fréquent de sous-estimer le caractère décisif de cette maîtrise et de mal identifier les technologies en cause ainsi que la manière dont elles s’invitent dans le jeu des puissances en présence. Si la conviction existe que la maîtrise des technologies de l’information – la « suprématie informationnelle » – est aujourd’hui une des figures universelles de la puissance (le lieu commun étant de comparer l’avantage stratégique donné par la « suprématie informationnelle » et la science de l’information warfare (« guerre de l’information ») à celui qui était assuré en d’autres temps aux détenteurs de l’arme atomique), et si l’on perçoit aisément que l’Internet en est le lieu et le levier, rares sont ceux qui s’intéressent à la dynamique propre de ces technologies, à la manière dont elles se déploient dans le champ des nations et des systèmes de régulation internationaux.
À l’heure où l’ensemble des pays font reposer une part croissante de leurs infrastructures économiques, sociales et politiques sur le réseau Internet, il est urgent qu’un plus grand nombre d’acteurs s’intéresse à la manière dont l’ensemble des technologies qui constituent l’Internet structurent, directement ou indirectement, l’évolution de nos sociétés et les relations entre les États.
Depuis la mise en œuvre des systèmes biométriques jusqu’au marquage des objets par des puces intelligentes et communicantes, en passant par les usages liés aux systèmes de géolocalisation ou par le développement de l’e-administration, les systèmes techniques et les normes qui régissent les réseaux ont désormais des répercussions concrètes pour les citoyens et les États. Or les dispositifs de régulation de l’Internet font une place assez limitée aux régulations traditionnelles : de fait, l’Internet a été et reste « administré » en dehors – ou plus exactement à côté – des modèles classiques de régulation nationaux (l’Internet définit un espace « aterritorial », transnational, en apparence décentralisé et ouvert) et se pose en cela comme un laboratoire des nouvelles formes de gouvernance.
Aujourd’hui, ces modèles de régulation – hérités d’une période où l’Internet ne connectait entre eux que des scientifiques et des chercheurs et ne posait de problèmes de souveraineté qu’aux amateurs de science-fiction – atteignent leurs limites. Dans un monde où l’Internet est au carrefour de l’ensemble des activités humaines, les décisions qui orientent son avenir et influent sur ses usages ne peuvent plus reposer uniquement sur les acteurs « techniques » de sa préhistoire.
Ce constat est aujourd’hui assez largement partagé par la communauté internationale. Il a récemment incité les États membres de l’Organisation des Nations unies (ONU) à organiser le Sommet mondial pour la société de l’information (SMSI). Pour la première fois, un sommet des Nations unies rassemblait les acteurs issus des trois secteurs majeurs de l’Internet (gouvernements, secteur privé et société civile), les spécificités de la gouvernance du « réseau des réseaux » étant ainsi en quelque sorte institutionnalisées.
À l’issue de la première phase, les États membres ont établi une déclaration de principes, premier texte de portée universelle consacrant la nécessité d’une gouvernance « démocratique, multilatérale et transparente ». La définition de la gouvernance retenue lors du sommet (« Par “gouvernance de l’Internet” il faut entendre l’élaboration et l’application par les États, le secteur privé et la société civile, dans le cadre de leurs rôles respectifs, de principes, normes, règles, procédures de prise de décisions et programmes communs propres à modeler l’évolution et l’utilisation de l’Internet » – extrait du rapport final du Working Group on Internet Governance) était volontairement large et évolutive, dépassant le cadre de la gestion des infrastructures critiques pour s’étendre aux questions liées à l’architecture de l’Internet. En effet, la question posée lors du sommet était de savoir quels seraient les principes et les valeurs qui prévaudraient pour les réseaux dans les années à venir, ainsi que les modalités qui permettraient d’inscrire ces valeurs dans l’architecture même de l’Internet.
POLITIQUE ET ARCHITECTURE DE L’INTERNET
« Code is law… and architecture is politics » (L. Lessig)
Si l’Internet apparaît à ses usagers comme un espace entièrement ouvert et décentralisé, l’analyse de ses structures de gestion révèle que le pouvoir de contrôle de ses infrastructures critiques reste, en réalité, entre les mains d’un acteur unique. Pour des raisons techniques, certaines infrastructures cruciales pour le fonctionnement du réseau restent « historiquement » centralisées et hiérarchiques. C’est en particulier le cas pour le système de gestion de noms de domaines (Domain Name System, DNS). Ce système a été élaboré pour permettre aux usagers de l’Internet d’utiliser des noms de domaines explicites en lieu et place des adresses numériques qui permettent d’identifier les machines connectées au réseau. Ce sont ces machines du DNS qui servent à répondre aux requêtes des utilisateurs qui se connectent à un site web, ou à envoyer un courrier électronique.
Les architectes initiaux de l’Internet ont conçu ce système autour de treize machines, appelées « serveurs racines », qui alimentent plusieurs milliers de serveurs relais sur l’ensemble de la planète. La répartition des serveurs racines s’avère très inégale, puisque dix d’entre eux sont situés aux États-Unis et deux seulement en Europe. C’est le serveur « racine A » qui contrôle la répartition des différents domaines en fonction de leur zone géographique (pour les codes des différents pays, comme la racine « .fr » pour la France ou « .de » pour l’Allemagne), ou encore par secteur d’activité générique (« .com », « .net », « .org », « .aero », etc.). La gestion du DNS correspond donc à la cartographie thématique et fonctionnelle de l’Internet.
Symbole même des situations hybrides auxquelles a donné lieu la gouvernance historique de l’Internet, la gestion du DNS est actuellement assurée par l’Internet Corporation for Assigned Names and Numbers (ICANN), société de droit privé californien établie à la demande du gouvernement américain en 1998. Depuis sa création, la « racine A » reste toutefois contrôlée directement par le Département du Commerce des États-Unis. Ce pouvoir de contrôle du DNS est crucial, puisqu’en théorie il permettrait à son détenteur d’« effacer » de la carte de l’Internet les ressources de pays entiers (dans l’hypothèse du retrait de l’un des suffixes du serveur « racine A », tous les sites ayant ce suffixe – comme le « .fr » pour la France – pourraient devenir progressivement inaccessibles).
Esther Dyson, première présidente de l’ICANN, décrit ce pouvoir d’une métaphore éloquente : « Le DNS, c’est comme l’anneau du Seigneur des anneaux, vous ne pouvez faire confiance à quiconque le possède… »
Le caractère stratégique de la maîtrise du DNS est d’autant plus sensible que les fonctions du système de « nommage » vont bientôt s’étendre au-delà des flux d’information de l’Internet pour intégrer les nouvelles dimensions de l’« Internet des objets ». Parallèlement à la diversification des systèmes d’accès, avec le développement des usages « mobiles » de l’Internet, l’ensemble des objets du quotidien devraient bientôt être reliés au réseau. La distribution des biens et des marchandises sera donc progressivement liée aux systèmes du DNS avec le remplacement progressif des codes barres par des puces communicantes sans fil (Radio Frequency Identification, RFID), elles-mêmes connectées à l’Internet via une technologie dérivée du DNS, l’Object Naming Service (ONS). Le contrôle du DNS (et de l’ONS) s’étendra à la circulation des personnes ainsi qu’aux déplacements des biens et des marchandises : les enjeux politiques de cet « Internet des objets » seront donc considérables. On imagine sans peine les dangers d’une captation malveillante des informations liées à tous les objets que nous transportons.
Du statu quo… à la « coopération renforcée »
Les États réunis à Genève ont réclamé une gestion multilatérale du DNS. Les autorités américaines, si elles reconnaissent que les ressources de l’Internet constituent pour les États un enjeu majeur de souveraineté (en particulier pour la gestion des noms de domaines « pays » aussi nommés ccTLD pour ‘country code Top Level Domain’), ont aussi réaffirmé, avant la seconde phase du sommet, qu’elles en garderaient le contrôle ultime (U.S. Principles on the Internet’s Domain Name and Addressing System, NTIA, juin 2005).
La perspective de discuter de la gouvernance de l’Internet avec des pays qui n’auraient qu’une approche « politique » du problème est inacceptable pour Washington. Hors des discussions avec les pays membres de l’Organisation de coopération et de développement économiques (OCDE) et de l’Asia-Pacific Economic Cooperation (APEC), une collaboration internationale ou multilatérale semblait donc exclue par les États-Unis dans la mesure où elle pourrait avoir pour conséquence la « prise en otage de l’Internet » dans des négociations internationales, au risque de créer des interférences avec les acteurs économiques. Pour Washington, le contrôle de cette « ressource rare » reste un enjeu crucial en termes tant de souveraineté que de développement des industries américaines. L’Internet est, aux yeux du Département du Commerce, l’un des moteurs essentiels de la croissance américaine.
Les évolutions du réseau auront bientôt des conséquences politiques telles qu’il sera pourtant difficile pour les autorités américaines de maintenir le statu quo. Même les experts américains reconnaissent désormais que la position unilatérale de l’Administration ne peut être tenable sur le long terme (voir « Who Will Control the Internet ? », Foreign Affairs, vol. 84, n° 6, novembre-décembre 2005).
Le nouveau modèle de coopération prôné par l’Union européenne (UE) se veut une position médiane entre deux positions extrêmes. La première, celle des États-Unis, réclame le statu quo (en particulier pour les fonctions liées à l’ICANN). À l’opposé, la Chine, l’Iran et Cuba souhaitent la mise en place d’un contrôle étatique strict de l’Internet sous contrôle onusien. L’UE voudrait, elle, que la supervision des fonctions critiques de l’ICANN soit confiée à une structure multilatérale collégiale, sans que celle-ci prenne nécessairement la forme d’une agence des Nations unies.
Les autorités américaines ont mené une intense campagne politique et diplomatique pour éviter que la proposition de l’UE ne fasse l’objet d’une discussion sur le fond. Parallèlement à ses interventions au Congrès, le Département d’État a entamé un marathon diplomatique qui culmina avec l’envoi, en novembre 2005, par la secrétaire d’État Condoleezza Rice et le secrétaire au Commerce Carlos Guttierez, d’un courrier à la présidence britannique de l’Union, enjoignant à l’UE de revoir sa position, dans des termes jugés « inhabituellement directifs ».
À l’issue du sommet de Tunis, une solution de compromis est adoptée par les Nations unies Deux mécanismes de gouvernance sont mis en place. D’une part un Forum de concertation (Internet Governance Forum), dont la première réunion est prévue à Athènes en novembre 2006. L’accord prévoit que ce forum de discussion n’aura en aucun cas un pouvoir exécutif sur les structures existantes (et en particulier l’ICANN). D’autre part, un mécanisme de « coopération renforcée » est mis en place entre les États, à la demande des pays de l’UE, qui devrait assurer une gestion multilatérale des infrastructures critiques de l’Internet.
Les enjeux politiques de la neutralité de l’Internet
Une autre particularité de l’architecture de l’Internet est liée à sa conception initiale. Le double protocole fondamental de l’Internet TCP/IP (Transmission Control Protocol/Internet Protocol) assure une séparation entre les fonctions de transport et les fonctions de traitement des informations. C’est l’un des principes essentiels de l’Internet : le principe de neutralité ou principe du end to end (ou architecture de « bout en bout »). Selon ce principe, l’« intelligence » du réseau est située à l’extrémité des mailles et non centralisée dans le réseau lui-même, les fonctions « nobles » de traitement de l’information étant alors réservées aux ordinateurs (et aux usagers), aux extrémités du réseau. C’est cette particularité de l’architecture de l’Internet qui a permis à des utilisateurs isolés de développer des technologies qui ont, par la suite, été adoptées mondialement. Cela fut le cas avec le langage HTML qui a donné naissance au web, et plus récemment avec les systèmes dits peer to peer (de « pair à pair »). Le principe de neutralité (end to end) a été le vecteur majeur d’innovations, et il a permis de faire évoluer le réseau et ses usages pour offrir de nouveaux services, plus proches des besoins, plus diversifiés.
Le réseau constitue dès lors une plateforme d’expression commune, un « bien commun » qui permet à l’ensemble des utilisateurs de développer de nouveaux contenus, de nouveaux services (H. Shelanski, « Three Constraints on Net Neutrality. Tradeoffs with the “End-to-end” Principle »). Le principe de neutralité peut aussi être décrit comme la possibilité pour tous d’accéder aux ressources du réseau (applications, services ou contenus), sans discrimination. Son respect a donc des traductions politiques : le libre accès aux ressources de l’Internet constitue un objectif prioritaire pour l’ensemble des pays démocratiques.
La puissance et l’originalité de l’Internet tiennent donc à sa neutralité et à son ouverture. Cette ouverture repose sur un principe simple : tout objet qui « parle » le protocole TCP/IP, véritable lingua franca de la communication en réseau, peut s’agréger à la communauté de ses utilisateurs. Ce principe devrait être un des principes fondamentaux de la société de l’information et l’on peut souhaiter qu’il soit prochainement codifié. Il est d’autant plus urgent de préserver ce principe (sans interdire, naturellement, l’évolution de ces protocoles pour répondre à de nouveaux besoins, comme le fait le protocole IPv6) que de nombreuses initiatives, publiques ou privées, tendent à le remettre en cause. Plusieurs entreprises et États travaillent en effet à construire un Internet à plusieurs vitesses, voire comptant plusieurs espaces non communicants entre eux (parfois nommé « Tiered Internet »). Cette remise en cause de l’unicité du réseau, qui créerait une mosaïque de réseaux plus ou moins connectés, est parfois appelée « fragmentation ». Celle-ci pourrait aussi avoir d’importantes conséquences macroéconomiques puisqu’elle pourrait conduire à diminuer la valeur globale du réseau pour l’ensemble des acteurs économiques (ainsi la loi de Metcalfe -du nom de l’inventeur du protocole Ethernet- établit que l’utilité ou la « valeur » d’un réseau est proportionnelle au carré du nombre de ses utilisateurs).
Pour des raisons de maîtrise technique mais surtout de contrôle politique, certains pays comme la Chine ont déjà mis en œuvre des systèmes s’opposant au principe de neutralité. Ce fut le cas avec la tentative de mise en place d’un protocole IPv9 incompatible avec le reste de l’Internet (voir les controverses avec les autorités chinoises à propos du protocole IPv9, cf. J. Seng, « Explaining China’s IPv9 », CircleID, 6 juillet 2004 et J. Leyden, « China Disowns IPv9 hype », The Register, 6 juillet 2004), mais surtout avec la création d’une racine « alternative » au DNS pour les noms de domaines internationaux chinois. Les sites créés sous cette racine ne sont pas consultables par les usagers de l’Internet hors de Chine.
Le filtrage des ressources politiquement sensibles effectué par des sociétés comme Google à la demande des autorités chinoises constitue un autre exemple d’atteinte directe au principe de neutralité. À l’heure des débats sur la nécessité d’imposer aux entreprises américaines des limitations aux pratiques commerciales avec la Chine (et plus généralement avec l’ensemble des pays non démocratiques), l’inscription du respect du principe de neutralité dans la loi constituerait une obligation pour l’ensemble des acteurs de l’Internet, les contraignant à intégrer en amont de leurs activités technologiques les principes et valeurs démocratiques (de nombreuses actions sont désormais menées pour imposer des obligations similaires aux entreprises technologiques européennes – cf. Reporters Sans Frontières, « Le Parlement européen condamne les manquements éthiques des entreprises du secteur de l’Internet », 6 juillet 2006).
Pour l’inventeur britannique du web, Tim Berners-Lee, le principe de neutralité est paradoxalement mieux défendu en Europe qu’aux États-Unis, où il se trouve au centre de nombreux conflits industriels. Ces conflits n’ont pas permis jusqu’ici aux autorités américaines de dégager une ligne claire sur les questions liées à l’architecture du réseau, et en particulier sur la neutralité de l’Internet. Aux États-Unis, le principe de neutralité est ainsi devenu un sujet politique. À l’issue du vote de la majorité républicaine au Congrès remettant en cause cette neutralité, le sénateur John Kerry a même souhaité que ce sujet devienne un thème de campagne. Le slogan retenu par les démocrates montre l’intensité des débats : « Les républicains ont vendu l’environnement à Exxon, la guerre à Halliburton et maintenant l’Internet à AT&T… »
Comme le fait remarquer le juriste Lawrence Lessig, la politisation de ce débat, même si elle était inévitable, pourrait marquer le glissement de l’Internet vers la sphère partisane et orienter son évolution de manière imprévisible.
La double opportunité d’un accord transatlantique
Inclure des préoccupations liées à la neutralité de l’Internet dans les lois ainsi que dans les accords internationaux pourrait avoir des conséquences politiques décisives sur le développement de la société de l’information. C’est la raison pour laquelle la France a souhaité, dans le cadre de la préparation du SMSI, faire valoir auprès de ses partenaires européens une approche de la gouvernance préservant ces principes fondamentaux d’interopérabilité, d’ouverture et de neutralité (« Principes généraux de la gouvernance de l’Internet, Propositions du gouvernement français », 6 décembre 2004). Par la suite, ces principes ont été adoptés par les pays de l’Union européenne dans le cadre de leur proposition aux Nations unies. En intégrant ces trois principes majeurs, l’UE rappelait que l’internationalisation de la gouvernance de l’Internet devait aller de pair avec une reconnaissance des valeurs et principes qui ont fondé sa croissance et son développement démocratique.
Il ne s’agissait pas pour l’Europe de mettre en place une structure internationale se substituant aux organismes de normalisation et de régulation technique de l’Internet, mais bien de coordonner les actions technologiques, juridiques et éducatives de l’ensemble des acteurs, pour garantir le bon fonctionnement du réseau et en préserver les caractéristiques fondamentales.
La proposition de l’Union européenne présentée aux Nations unies pourrait constituer à l’avenir le cadre d’un accord transatlantique pour une gouvernance mondiale de l’Internet basée sur des principes démocratiques. C’est en particulier l’opinion des équipes de la Harvard Kennedy School of Government, qui ont analysé la proposition européenne sous l’angle du droit constitutionnel américain. Dans un texte au titre évocateur « Jefferson repoussé », les chercheurs de la Kennedy School notent que le refus des autorités américaines d’ouvrir les discussions avec l’Union européenne signifie la perte d’une double opportunité pour les États-Unis.
La perte d’une opportunité tactique d’abord, puisque la perspective d’une alliance euro-américaine aurait renversé la dynamique d’isolement des États-Unis tout en marginalisant les propositions les plus radicales émises par la Chine, l’Iran ou Cuba. Cet accord aurait constitué une pression sur les pays les moins démocratiques pour qu’ils adoptent des principes rendant plus difficile le contrôle politique du réseau.
Ce refus constituait aussi une perte d’opportunité stratégique pour les États-Unis. Inscrire les négociations dans une perspective constitutionnelle aurait permis d’établir des mécanismes d’autolimitation des actions des États, ce qui aurait évité une intrusion des gouvernements dans la gestion « au jour le jour » du réseau. De plus, une alliance transatlantique sur ces principes constitutionnels et démocratiques de l’Internet aurait été un signal fort en direction des régimes autoritaires et aurait pu aider à limiter leur capacité à « fragmenter » l’Internet pour des raisons politiques. Les régimes autoritaires peuvent en effet aujourd’hui à la fois profiter des bienfaits économiques liés à l’usage de l’Internet et maintenir un contrôle politique strict sur les usages (et les usagers) du réseau. Comme le faisaient remarquer S. Kalathil et T. Boas, « dans le passé, les régimes autoritaires ont surmonté les innombrables défis que leur posait l’évolution des technologies ; de la même manière ils pourraient se révéler à la hauteur des défis que leur pose l’Internet ».
La « fragmentation », ou la « balkanisation », de l’Internet pourrait avoir d’importantes conséquences aux plans industriel et politique. Dans les pays démocratiques, cette fragmentation, liée à la remise en cause industrielle de l’unicité de l’Internet, pourrait limiter les contacts des citoyens avec les idées qui ne leur sont pas familières, et accentuer ainsi la « polarisation de groupe ». Ce phénomène pourrait même s’accentuer à mesure que se créeront de nouvelles formes de communautés en ligne.
Il ne faut donc pas exclure que des problèmes originaux de régulation, étatiques ou para-étatiques, émergent avec la constitution de nouvelles formes de communautés virtuelles en ligne, notamment de nature ludique. L’immersion prolongée dans des univers virtuels d’un nombre considérable de personnes pourrait poser à nos sociétés la question de la prégnance de leurs règles sur ces communautés dématérialisées. Ces dernières fonctionnent en circuit fermé, battent virtuellement monnaie, donnent lieu à des échanges économiques, se constituent parfois en organisations politiques. En cela, elles deviennent en quelque sorte des « États dans l’État » dont, au-delà des fantasmes, on pressent qu’ils pourront demain constituer un nouveau défi pour les autorités traditionnelles.
Pour éviter les dérives liées à un isolement progressif des communautés d’utilisateurs, il convient de préserver l’unicité du réseau, sans pour autant imposer une uniformité des usages, des contenus, ou des technologies. Le respect de valeurs démocratiques dans l’architecture des réseaux évitera aussi que les décisions prises en matière de régulation ne puissent remettre en cause la dynamique générale d’ouverture et d’échange.
Vers une Constitution de l’Internet
Le fait que les États de l’Union européenne situent leur action en matière de gouvernance dans le cadre d’obligations reconnues par l’ensemble des acteurs de l’Internet représente la première tentative d’inscrire des principes de nature constitutionnelle dans la gouvernance de l’Internet.
Les trois principes défendus par l’Union européenne correspondent aux recommandations des architectes et des communautés d’utilisateurs de l’Internet. En ce sens, le fait d’« arrimer » l’action des États à la légitimité historique des acteurs les plus impliqués dans le développement de l’Internet permettrait le développement d’une gouvernance sans rupture avec les structures actuellement chargées de l’élaboration des normes fondamentales du réseau. Cela permettrait aussi d’inscrire l’action des États dans un cadre légitime et transparent, préservant le potentiel d’évolution de l’Internet.
Alors qu’il n’en est qu’à ses débuts, le dossier « gouvernance de l’Internet » et le champ politique qu’il recouvre sont déjà considérables. À mesure que le réseau intègre l’ensemble des activités économiques, culturelles et sociales, sa transparence à la fois technologique et politique devient encore plus indispensable. L’Internet épouse aussi les formes et les contours des États à mesure que leurs fonctions essentielles requièrent l’usage du réseau. En ce sens, les instruments fondamentaux de la souveraineté deviendront bientôt indissociables des outils de la puissance technologique.
Parce que ces technologies rendent l’information plus accessible, elles doivent aussi être sous-tendues par un projet démocratique : c’est la seule question qui vaille au regard de l’enjeu de la souveraineté numérique. L’action de l’Union européenne en matière de gouvernance de l’Internet, et plus largement dans le domaine de la société de l’information, doit d’abord contribuer au renforcement du lien avec les citoyens et au fonctionnement démocratique de nos sociétés.
Retrouvez l’ensemble du dossier « Géopolitiques de l’Internet » sur Cairn
Laisser un commentaire
Vous devez vous connecter pour publier un commentaire.