Amaël Cattaruzza est maître de conférences HDR à l’École Spéciale Militaire de Saint-Cyr et au Centre de Recherche des Écoles de Coëtquidan (CREC). Spécialiste de la géopolitique et plus particulièrement de la question des frontières et des Balkans (thèse soutenue en 2005 sur le Monténégro), il a décidé d’orienter ses recherches actuelles sur le cyberespace. En juin 2013, il participe au colloque organisé à Rennes par l’École des Transmissions de l’Armée de Terre sur « La Cybersécurité : un enjeu mondial, une priorité nationale, des réponses régionales » et à la journée d’études qui suit, organisée par le CREC, portant sur « Les frontières du cyberespace ». Ces deux manifestations donnent lieu à une publication, chez Economica, qu’il codirige avec Didier Danet, La Cyberdéfense. Quel territoire ? Quel droit ? En 2018, Taillat, Danet et lui codirigent un volume dans la collection « U : Science Politique », chez Armand Colin, intitulé La Cyberdéfense. Politique de l’espace numérique.

Dans le présent ouvrage, Amaël Cattaruzza s’emploie à montrer comment les données numériques ont modifié considérablement la géopolitique, d’une part en redéfinissant les notions de frontière et de puissance et d’autre part en modifiant totalement le champ d’étude de la question du cyberespace. L’ouvrage est découpé en trois parties : une première s’attache à montrer l’importance qu’a prise, ces dernières décennies, le big data au point de définir très probablement un nouveau paradigme scientifique et social. Dans une deuxième partie, l’auteur démontre que les données, loin d’appartenir à un cloud impalpable et virtuel, sont bel et bien territorialisées dans des datacenters localisés. Ces territoires mis en données suscitent alors enjeux, puissance et tensions, ce qui constitue le corps de la troisième partie.

Dans l’introduction, Amaël Cattaruzza souligne l’importance qu’ont prise les données numériques depuis 20 ans avec le doublement de la densité d’inscription sur puce de silicium tous les 18 mois (loi de Moore), le doublement de la densité de stockage sur disque magnétique tous les 13 mois (loi de Kryder) et le doublement de la capacité des réseaux publics tous les 21 ans (loi de Nielsen). En 2018, la quantité totale de données sur la planète était estimée à 33.1010 To. Elle était encore de 1,8.1010 To en 2011 et serait estimée à 175.1010 To en 2025. L’espace numérique peut être considéré comme un espace constitué de plusieurs couches (leur nombre varie en fonction des auteurs) : une couche matérielle (celle des infrastructures : câbles, serveurs, datacenters), une couche logicielle (celle du code) et une couche sémantique (celle du contenu informationnel d’Internet). Le contrôle des données (leur production, leur collecte, leur stockage, leur sécurisation et leurs flux) traverse les trois couches et est devenu un enjeu géopolitique majeur pour les États comme pour les individus. Cette concurrence autour des données peut entrainer des rivalités, des conflits, voire aboutir à des « cyberguerres ».

  1. Qu’est-ce qu’une donnée numérique ?

Pour Amaël Cattaruzza, la notion de données fait référence à un processus d’adaptation et de transcription du réel, processus qualifié de « datafication ». Il situe les origines de ce processus au début de l’humanité, dès les premières tablettes mésopotamiennes. L’imprimerie, au XVe siècle, a représenté un premier « déluge de données ». Ainsi, l’accumulation et le traitement de données a modifié considérablement l’approche scientifique du monde. La numérisation contemporaine des données consiste à convertir des informations analogiques en code binaire. La principale nouveauté actuelle ne réside pas uniquement dans la taille du corpus mais surtout dans la vélocité des données, à leur variété, leur exhaustivité, leur révolution, leur relationnalité (big data) et leur évolutivité.

Le big data et les calculs algorithmiques, d’après le sociologue Dominique Cardon, auraient apporté une révolution quant à la manière de calculer et traiter les données conduisant à changer « la manière dont nos sociétés se représentent à travers les chiffres[1] ». Les statistiques administratives ont une fonction sociale et politique car elles permettent de conforter la légitimité et l’assise du pouvoir étatique sur ses populations en offrant une vision précise et stable de son territoire et de ses habitants.

En elle-même, la donnée est abstraite. Son interprétation demande de la mettre en relation avec un objet ou avec d’autres données. C’est cette agrégation et cette mise en lien qui rend possible la création d’une information et d’un savoir. Les Sciences de l’Information ont proposé une pyramide du savoir (DIKW : Data, Information, Knowledge, Wisdom). Chaque couche de la pyramide ajoute du sens et de la valeur au socle constitué de données disparates. L’ensemble ainsi échafaudé permet à l’organisme qui le possède de prendre des décisions. Aujourd’hui, les applications associées au big data font appel aux mêmes fonctions :

  1. Produire, numériser, collecter les données ;
  2. Transporter, transmettre les données ;
  3. Conserver, stocker les données ;
  4. Traiter les données pour en tirer des informations.
  1. Des données territorialisées

Parler de territoires quand on parle cyberespace peut paraître paradoxal dans la mesure où les données sont souvent accessibles partout dans le monde. Néanmoins, on a rapidement vu des frontières immiscer dans cet espace pensé comme neutre et global, « que ce soit au niveau physique, au niveau légal ou au niveau stratégique » (p.68). Progressivement, les États ont développé des moyens techniques, politiques et juridiques pour accroître leur contrôle sur le cyberespace et les données qui y circulent.

Des cyberattaques se sont généralisées depuis 2007 : attaques contre la Géorgie en 2008 et contre l’Ukraine en 2014, virus Stuxnet et Flame contre l’Iran. Des processus du cyberespace par les États ou par des acteurs privés ne sont plus surprenants. De véritables numériques sont alors apparus. Cette dynamique de territorialisation à différentes échelles locale, nationale, régionale entraîne des rapports de rivalités et de pouvoirs mettant en jeu une large gamme d’acteurs.

Au cœur des systèmes de big data du cloud computing, il y a les datacenters, ces centres de stockage et de traitement des données de milliers de serveurs et de commutateurs réseau. La localisation de ces infrastructures physiques nécessite d’être à proximité des points de raccordement aux « blackbones », ou dorsales d’Internet – câbles terrestres ou sous-marins permettant la circulation physique des données. Amaël Cattaruzza met ainsi en évidence qu’il existe une géopolitique des datacenters renvoyant à la notion de « souveraineté numérique ». Cette dernière implique une souveraineté sur les données mais aussi sur le cyberespace tant dans sa couche physique, logique (industrie numérique nationale) que sémantique (contenus nationaux).

En France, le débat sur la souveraineté nationale débouche sur le projet « cloud souverain » en 2009. L’idée est de développer une base industrielle française qui puisse garantir une plus grande confidentialité des données stockées en garantissant leur localisation et leurs voies de transit. Le projet Andromède est lancé en 2011 autour du consortium Thalès, Dassault systèmes et Orange. Des désaccords dans le groupe aboutissent à une scission du projet en octobre 2012. Les causes de l’échec sont principalement la compétitivité américaine et la non-prise en compte des acteurs français du cloud computing comme Gandhi, Ikoula et surtout OVH, leader européen dans le domaine.

L’interconnexion mondiale des réseaux Internet repose ensuite sur l’adoption de protocoles communs à savoir le protocole TCP/IP. À l’origine, ce système a été développé dans les années 1970 à des fins militaires aux Etats-Unis. Il a réussi à résoudre l’interconnexion de réseaux hétérogènes (50 000 sous-réseaux constituent Internet) reliés entre eux par plus de 500 000 points de transfert.

L’étude du câblage sous-marin révèle à son tour de multiples enjeux géopolitiques et stratégiques. 95% du transit des télécommunications et des données Internet mondiales passent à un moment donné par des câbles sous-marins. Sur une carte du câblage, les Etats-Unis est le pays qui apparaît comme un nœud incontournable pour les flux mondiaux des données : 97% des échanges de données entre l’Europe et l’Asie transitent par le territoire américain. Très récemment, les géants privés et américains de l’Internet ont investi dans le marché câblier. En 2017, le câble transatlantique Marea allant de la Virginie aux Etats-Unis à Bilbao en Espagne avait été mis en place grâce aux fonds levés par Facebook et Microsoft.

Autre enjeu géopolitique, le routage des données est une question sensible. Lorsqu’un message est échangé entre deux ordinateurs, il est amené à transiter sous formes de paquets sur un ensemble de réseaux. Il passe par différents routeurs qui orientent les paquets de données sur des routes prédéfinies et déterminées par des algorithmes de routage. Depuis la révéaltion de la captation des données en transit par les États hôtes et notamment par les Etats-Unis a conduit l’Europe à territorialiser les données par l’intermédiaire du routage. Le réseau se politise peu à peu.

Les GAFAM dominent aujourd’hui largement le marché des données. Cette position dominante a comme effet d’étendre une partie du droit américain sur le marché mondial par l’intermédiaire des conditions générales d’utilisation (CGU). Avec l’application du Patriot Act (24/10/2001), ces entreprises peuvent être soumises à une coopération forcée avec le gouvernement américain. EN 2018, l’adoption par l’administration Trump du C.L.O.U.D Act (Clarifying Lawful Overseas Use of Data Act) simplifie la procédure des forces de l’ordre pour contraindre les fournisseurs de services américains à leur fournir des données stockées sur des serveurs qu’ils soient situés aux Etats-Unis ou dans des pays étrangers.

Par réaction, l’UE a récemment modifié son arsenal juridique de protection des données (Règlement général sur la protection des données adopté en mai 2016). Elle est ainsi devenue l’un des espaces mondiaux le plus strict en termes de régime de protection des données personnelles.

En 2014, Tim Berners-Lee, l’un des fondateurs du Web, dénonçait les dangers qui pèsent sur la toile du futur parmi lesquels celui de la « balkanisation du web » résultant de l’action des États-nations. Jusqu’en 2016, seule l’ICANN, organisme américain lié au département du commerce américain, est chargée des fonctions stratégiques de l’adressage (.com, .net, .fr, .uk…) et du nommage d’Internet. Ce monopole a été remis en cause lors de la Conférence mondiale des télécommunications internationales de Dubaï en 2012. Les pays en développement, la Russie et la Chine se sont exprimés en faveur d’une gouvernance multilatérale de l’Internet (UIT).

Cattaruzza termine cette deuxième partie en évoquant les cyberattaques. Il en distingue différentes natures différenciées en fonction des trois couches constitutives du cyberespace dans lesquelles elles ont lieu : couche physique (atteintes aux infrastructures), couche logicielle (attaques par codes) et couche sémantique (vol d’informations).

  1. La géopolitique à l’épreuve des données

Pour Cattaruzza, nous sommes entrés dans l’ère de l’Everyware, le « tout logiciel ». Les codeurs deviennent les régulateurs de notre espace du quotidien. Dans Code/Space, en 2011, les géographes Rob Kitchin et Martin Dodge mettaient en lumière le fait qu’un grand nombre de lieux sont aujourd’hui dépendants du code pour fonctionner. « Le code/space se produit lorsque les logiciels et la spatialité de la vie quotidienne se forment mutuellement, c’est-à-dire se produisent l’un l’autre » (p.16).

La mise en réseau qu’implique l’utilisation massive de l’Internet des objets et des systèmes connectés par les armées rend le réseau faillible. Plus celui-ci s’élargit, plus il s’ouvre à de potentielles attaques. En mai 2017, le malware WannaCry a touché plus de 300 000 ordinateurs dans plus de 150 pays et a affecté plusieurs grandes compagnies comme FedEx, Renault, Deutsche Bahn…

Le retour actuel des frontières s’accompagne d’une modification profonde de leur matérialisation sur le terrain. Avec la multiplication des bases de données et leurs connexions, la frontière n’a plus besoin d’être matérialisée pour être effective. La loi sur le renseignement de juillet 2015 prévoyait la création d’un algorithme permettant de détecter une menace terroriste sur Internet. L’identification du risque n’est plus le fruit d’une spéculation humaine mais le produit d’une analyse algorithmique sur la base de gigantesques bases de données issues des activités de surveillance.

Amaël Cattaruzza termine cette dernière partie par l’évocation du très récent et très intéressant rapport « Cartographie du cyberespace » dirigé par Frédérick Douzet en 2016. Ce dernier cartographie, par exemple, la propagande de Daech sur Twitter et montre que des communautés se dessinent autour de nœuds centraux et de nœuds périphériques. Cette méthodologie montre la voie d’une géopolitique via le numérique.

            L’ouvrage d’Amaël Cattaruzza est très riche d’enseignements. Ses conclusions et son analyse sont construites sur une documentation riche et alimentée par une très bonne connaissance du sujet. Géopolitique des données numériques constitue une aide précieuse pour tous ceux qui veulent s’initier à la cybergéographie. L’approche est tout à fait éclairante sur tous les enjeux territoriaux apparus par l’omniprésence de l’Internet et l’importance accrue de la circulation de l’information.

[1] D. Cardon, À quoi rêvent les algorithmes. Nos vies à l’heure des big data, Paris, Seuil, La République des idées, 2015, p.39.