Un livre fort utile pour les enseignants du secondaire qui seront amenés à enseigner les SNT (Sciences numériques et technologie) l’an prochain. Il permet, en effet, de comprendre les enjeux liés à la culture numérique, de « décoder »[1] celle-ci, de percevoir les transformations de la société sur lesquelles s’est appuyé le développement du numérique et celles qu’il a induites[2].
Dominique Cardon est sociologue, il a travaillé sur les médias traditionnels puis sur internet. Relativement connu puisqu’il est passé à plusieurs reprises sur France inter en cette année 2019[3], il a notamment publié : La démocratie Internet (Seuil/La République des idées, 2010) et avec Fabien Granjon : Mediactivistes (Presses de Science po’, 2010). Cet ouvrage présente les innovations en les liant toujours à l’histoire, à l’état de la société, aux façons de penser (majoritaires ou d‘un sous-groupe : les chercheurs, les passionnés d’informatique…), à l’analyse des médias, à l’économie… D’où la nécessité de convoquer plusieurs sciences humaines pour mieux comprendre l’émergence puis le développement d’internet et des réseaux sociaux ainsi que leurs conséquences …
L’ouvrage est divisé en six parties.
La « généalogie d’internet »
L’auteur différencie internet (qui met en communication des ordinateurs) et le web (qui permet de relier des pages entre elles par un système d’adresses). Il retrace comment sont nées ces innovations en rappelant le contexte. Dans les années 1950, les ordinateurs sont d’ « énormes machines » utilisées par de grandes entreprises, des administrations, des centres de recherche. La guerre froide et le succès du Spoutnik soviétique poussent les Etats-Unis à financer fortement la recherche, même sans implications militaires immédiates. Joseph Licklider a l’idée de relier des ordinateurs entre eux mais par un réseau décentralisé (p. 32), intelligent à la périphérie et idiot au centre affirme l’auteur, où chaque nœud a la possibilité d’être créatif, innovant (p. 35). Bien que les recherches soient financées par les militaires, D. Cardon souligne le fait qu’internet a été fabriqué collectivement par des universitaires et que sa gouvernance a longtemps été réalisée par des instances collectives ouvertes (à ceux qui le pouvaient) souligne-t-il p. 42, par le biais de RCP (Request for comments), à partir de 1969. La RFC 1122 fixant une norme (TCP/IP, transmission control protocol/internet protocol). À ces acteurs, s’ajoutent des passionnés d’informatique, parfois anciens de l’ère hippie (comme le parolier du groupe Grateful Dead), qui reportent là leurs rêves communautaires et d’émancipation. L’auteur présente les principaux traits et idées de ces pionniers : l’internet est une affaire d’individus, méfiants vis-à-vis de l’État, qui peuvent choisir leur communauté et participer ainsi au changement social qui, selon eux, ne viendra pas du centre (p. 67-68). D’où la volonté de créer des ordinateurs personnels utilisés par les individus. Reste que ceux qui sont en réseau sont essentiellement des hommes blancs, californiens et cultivés et que certains veulent rapidement rentabiliser leurs innovations en créant des entreprises privées (dites start-up). Il y a donc une tension entre l’idéal de certains pionniers et les pratiques capitalistes de ces nouvelles entreprises qui diffusent un autre rapport au travail et au salariat empreint « d’esprit cool » (p. 70-71) mais où l’exploitation ne disparaît pas.
« Le web, un bien commun »
La toile (web), réseau de liens entre des pages de différents sites, est née en Suisse au CERN (Conseil européen pour la recherche nucléaire). En 1989, Tim Berners-Lee « imagine de donner une adresse aux documents – nommée URL, pour uniform resource locator – afin de naviguer de l’un à l’autre » (p. 81). Ce qui donnera le lien hypertexte (en bleu sur l’écran). Les documents ne sont plus classés de manière centralisée, l’internaute qui crée un site peut le relier à d’autres sites, ce qui va avoir des conséquences majeures. La première – après qu’une norme (http, hypertext transfer protocol) un langage (HTML, hypertext markup language) et des navigateurs (browsers) aient été créés – est « une vaste extension mondiale de l’informatique connectée qui pénètre dans les domiciles » (p. 87) à partir du milieu des années 1990. Celle-ci a été rendue possible car le CERN a renoncé à ses droits d’auteur sur le world wide web[4]. Par ailleurs, des entreprises du web se développent : portails (Yahoo !, America Online, AOL,…), sociétés commerciales (Amazon, Ebay, Alibaba…)… donnant naissance à une « bulle économique » au début des années 2000 qui débouchera sur nombre de faillites. La relance du web (le web 2.0), à partir de 2005, partira des « dynamiques d’usages » permises par le web et des pratiques des utilisateurs. L’auteur parle d’innovations ascendantes (p. 101) : créer un site de petites annonces, une encyclopédie universelle, un site de partage de photos, l’hébergement de vidéos, l’utilisation du hashtag (#) pour agréger les tweets… À chaque fois, ce sont des passionnés qui imaginent « une solution locale, un bricolage » pour résoudre un problème, ce qui veut dire coder un programme (p. 105). Solution qu’ils partagent, que d’autres enrichissent et qui peuvent être reprises et commercialisées par des entreprises (la française Dailymotion qui hébergeait des vidéos amateurs est reprise par Youtube, elle-même rachetée par Google). Une autre dynamique d’usage qui s’affirme est l’idée que les biens numériques créés par « les communautés du web doivent être accessibles, partageables et transformables par tous » (p. 111). Ainsi certains vont créer des logiciels libres (le plus connu est LINUX) qui peuvent être utilisés librement mais aussi modifiés et distribués à la différence de ceux créés par Microsoft. Logiciels libres qui sont utilisés, de nos jours, par la plupart des grands services du web (Google, Facebook, serveurs d’internet…). D’autres biens numériques sont communs et gérés par des communautés du web, c’est le cas par exemple d’Openstreetmap, pour réaliser des cartes géographiques. La communauté la plus connue est celle qui travaille à rassembler des connaissances, Wikipedia. L’auteur lui consacre un chapitre, cette encyclopédie gratuite, produite par les internautes, a parfois mauvaise presse chez certains enseignants. Les règles qui la régissent, le contrôle mutuel exercé par les wikipédiens et les médiations prévues font que sa qualité est réelle et que les articles tendancieux sont souvent signalés. Le dernier chapitre de cette partie porte sur les tensions qui traversent le web pris « entre le marché et les communs » (au sens de biens communs et accessibles à tous) (p. 133 et suivantes). Pour lui, le web, fabrique des externalités positives dont de l’intelligence collective. Pour l’auteur cette intelligence collective peut profiter à tous comme c’est le cas pour les logiciels libres, Wikipedia, Openstreetmap ou être appropriée ainsi que le travail des internautes par de grandes entreprises capitalistes.
« Culture participative et réseaux sociaux »
La troisième partie emprunte largement à la sociologie et à la science politique car il s’agit de réfléchir à ce que la culture numérique et les réseaux sociaux changent dans l’espace public et les relations sociales. Le premier chapitre pointe les transformations de l’espace public, celui-ci n’est plus réservé à des professionnels, les gatekeepers, (portiers en français) : journalistes, éditeurs, auteurs, hommes politiques… et s’est élargi. Avec la possibilité de créer un blog (1998), un wiki (1999), le nombre de personnes qui s’expriment publiquement s’est considérablement élargi. Ce qui modifie aussi la manière de parler en public et change aussi ce dont on parle publiquement. Le web est certes un « cimetière de contenus » (p. 149) où seule une minorité de contenus acquiert une certaine visibilité. Cependant, désormais, les gatekeepers ne sont plus les journalistes… mais les algorithmes du web (en particulier les moteurs de recherche) qui classent bien les sites très cités. Le grand changement est donc la prise de parole publique d’anonymes, d’amateurs qui parlent à d’autres anonymes et partagent avec eux sans passer par le filtre de professionnels. C’est la deuxième naissance du web (web 2.0) qui s’appuie sur le développement de réseaux sociaux à partir de 2002-2003 : Linkedin (2002), Facebook (2004), Twitter (2006)… Les utilisateurs ne consultent plus seulement des sites mais communiquent, échangent entre eux et les professionnels ne sont plus les seuls à s’exprimer. Par ailleurs, l’accès à l’information est modifié : « On ne navigue plus à partir d’un moteur de recherche mais de son fil d’actualité » (p. 170).
L’auteur propose une typologie de ces réseaux sociaux en ligne en fonction de ce que nous faisons apparaître de nous (étant entendu que chacun a des identités multiples) et du degré de visibilité que le réseau accorde au profil des individus (p. 156). Puis il présente les caractéristiques de ces réseaux. Les sites de rencontres (réseau dit paravent par l’auteur) ont pour but de mettre en relation avec des inconnus. D’autres réseaux renforcent des liens préexistants, appelés réseaux en clair-obscur par l’auteur, tels Facebook, Snapchat… L’utilisateur y poursuit souvent une « conversation » qu’il a eu en face à face. Les réseaux sociaux de partage de contenus (Twitter, Pinterest…) mettent, eux, en relation des personnes qui ne se connaissent pas mais partagent une passion, un centre d‘intérêt… Certains de ces réseaux peuvent être très hiérarchisés et des influenceurs peuvent y jouer un rôle significatif. Le dernier type de réseau est celui des mondes virtuels sur lesquels l’auteur s’étend peu. Au final, selon l’auteur, les réseaux sociaux modifient peu la structure des liens les plus forts (famille proche, meilleurs amis) mais permettent de ne pas couper avec des liens occasionnels. Les réseaux sociaux ont aussi des conséquences pour les individus et leur identité qui doivent être replacées dans un processus plus long d’individuation des comportements (l’individualisme) qui s’est développé bien avant l’ère du numérique. De nos jours, beaucoup se sentent obligés d’exister en ligne. Ce qui pousse à s’exposer, en partie, afin d’être vus et de recevoir des signaux positifs des autres (p. 178). Même si la définition de ce qui est privé varie selon les individus, les travaux sur l’identité en ligne laissent à penser cependant qu’on ne se livre pas totalement sur la toile et que bien que s’affirmant authentique la personnalité numérique est construite. Les réseaux sociaux peuvent être aussi des espaces de créativité (production d’images, de musiques…), de notoriété (mannequins, cuisiniers…)… Reste que sur le web aussi les élus sont fort peu nombreux. Par ailleurs, les différences sociales, culturelles et générationnelles ne disparaissent pas sur ces réseaux. Ce dont témoignent le contenu, les centres d’intérêt ou le nombre et la diversité des « amis ». L’auteur conclut cette partie sur les « enjeux de régulation » car « le web n’est pas sans règles » (p. 204) et le législateur est intervenu, de manière différente selon les pays. En France, la loi du 29 juillet 1881 sur les faits d’outrage, d’injure ou de diffamation s’y applique. Un droit européen à l’oubli, depuis 2015, permet de demander à Google d’oublier de référencer des sites. La loi de confiance dans l’économie numérique (2004) différencie l’éditeur de l’hébergeur (plate-forme de blogs, Twitter, Facebook, Youtube…) mais si un contenu illicite, antisémite, violent, piraté est signalé à l’hébergeur celui-ci doit mettre en conformité avec le droit en vigueur (d’où le bouton « signaler ce contenu »). Pour l’auteur, éducation et vigilance sont nécessaires afin de permettre une régulation sur les réseaux sociaux et d’éviter harcèlement, vexations…
« L’espace public numérique »
La quatrième partie est centrée sur les changements introduits dans le domaine politique par le développement du numérique. Comment le web agit-il sur les États, les médias, les partis ? Pour l’auteur, les technologies numériques ont eu un effet limité, pour l’instant, sur la démocratie représentative et incertain sur la démocratie dite participative. Par contre, le web a permis, dans un certain nombre de pays, de populariser des causes, de coordonner des mouvements sociaux. En 1995, les Zapatistes mexicains utilisent le web pour faire connaître leur cause. Le mouvement altermondialiste utilise, à partir de 1999, le web pour diffuser ses idées. Des médias en ligne indépendants se créent, dont le plus connu en France, est Médiapart. Des jeunes utilisent Facebook en Tunisie ou en Egypte pour mobiliser en 2011 comme l’ont fait plus tard les gilets jaunes en France (2018-2019). Il en avait été de même auparavant pour Occupywallstreet, Blacklivesmatter… Ces mobilisations en réseau présentent souvent des caractéristiques communes : horizontalité, refus des porte-parole, recours au consensus et difficulté à élaborer un projet. Cependant les régimes autoritaires profitent, eux aussi, des technologies numériques pour surveiller les populations et empêcher l’émergence de contestations. Par ailleurs, le neuf ne chasse pas toujours l’ancien et lors des campagnes électorales, la télévision et les grands médias « restent les principaux espaces de débat » (p. 235). Les outils numériques sont utilisés mais souvent de manière descendante pour diffuser la parole du candidat ou impulser des actions de soutien à celui-ci (campagne de Barack Obama en 2008). Ils peuvent cependant jouer « un rôle central dans la stratégie d’entrée en politique de nouveaux acteurs » (p. 238). Le hashtag, quant à lui, permet la diffusion d’opinions sur le web qui peut parfois être extrêmement rapide et massive (#jesuischarlie).
Avec le développement du numérique, les médias traditionnels conservent, dans le domaine de l’information, une place importante, en particulier la télévision, mais ils sont confrontés à plusieurs défis : leurs recettes diminuent (perte de publicité) et ils sont concurrencés car les réseaux sociaux apportent eux aussi de l’information. Certains y répondent en développant de l’information à cliquer (souvent futile), d’autres en développant un journalisme de qualité (abonnement numérique, investigations, enquêtes sur les fuites de données cachées, les leaks…). L’auteur consacre un chapitre aux fake news (il préfère parler de désinformation quand il s’agit de campagnes de propagande) mais rappelle que souvent elles convainquent… les convaincus. Il est plus soucieux quant aux effets de « l’espace des petites conversations des réseaux sociaux » qui répandent informations douteuses, moqueries, potins, préjugés et rumeurs qui peuvent être dangereux. Une fois de plus l’ambivalence du web est soulignée car dans le même temps, d’autres essaient de démocratiser la démocratie (p. 278), lancent des campagnes de crowdfunding pour servir des causes d’intérêt général ou pour résoudre un problème local (p. 286).
« L’économie des plateformes »
Le pouvoir des GAFA (Google, Apple, Facebook, Amazon), géants financiers mais nains en termes d’emplois (p. 294) est rappelé : marges bénéficiaires très grandes (sauf Amazon), épargne considérable (souvent hébergée offshore), tendance à la concentration (Google a acquis Youtube, Facebook a dévoré Instagram et Whatsapp ), possession de données sur les utilisateurs… Alors que certains créent des communautés et utilisent le web pour faire du troc ou partager (Onvasortir, Couchsurfing…), les grandes plateformes mettent en contact les utilisateurs, divisés en offreurs et demandeurs, contre rémunérations et bénéficient, en plus, de revenus publicitaires. Ainsi Uber, Airbnb, Tripadvisor, Booking sont financés par des commissions et par la publicité, ce qui n’empêche pas la première d’entretenir la précarité de l’emploi. Pour les publicitaires, Internet est, en effet, devenue une poule aux œufs d’or. Depuis 1994, les cookies permettent de recueillir des informations sur les navigations passées des internautes et même de vendre aux enchères le profil de l’internaute afin que les annonceurs placent leurs bandeaux publicitaires (p. 317). Google Ads étant, selon l’auteur, le plus efficace des modèles publicitaires sur le web. En réaction à cette utilisation des données personnelles, de plus en plus d’internautes utilisent des bloqueurs de publicité et l’Union européenne a adopté le RGPD (Règlement général sur la protection des données, mis en place en 2018). L’objectif est de mieux protéger les données à caractère personnel. Ainsi, un service ne doit demander à ses utilisateurs que les données nécessaires à la délivrance du service (proportionnalité de la collecte des informations) et les cookies ne peuvent être déployés sans accord de l’utilisateur… L’auteur plaide cependant pour des règles encore plus strictes. D. Cardon analyse ensuite l’importance de la notation dans les échanges, puis la demande d’ouverture et d’accès aux données publiques (open data), s’inquiétant de ce qu’un jour, elles soient accaparées par les GAFA. Enfin, l’auteur critique les excès du digital labor. Il souligne l’exploitation (même s’il n’utilise pas cette expression) des travailleurs liés à cette économie qui prend deux formes différentes. Les travailleurs du clic font un micro-travail (cliquer, liker, répondre à un questionnaire, rédiger de courts commentaires, analyser des images… comme avec Amazon Mechanical Turk) contre lequel ils reçoivent un micro-paiement (p. 343). Ceux que des plateformes de services (Deliveroo, Uber…) définissent comme des auto-entrepreneurs sont mal payés, précarisés, notés et surveillés par ces plateformes. D’où la nécessité d’une régulation comme l’affirme encore une fois l’auteur, qui rappelle qu’en France l’Inspection du travail a considéré qu’il y avait bien « un lien de subordination » entre les coursiers et Deliveroo.
« Big data et algorithmes»
Le dernier chapitre souligne le fait que pour avoir accès aux informations pertinentes dans le « bazar du web » (p. 354), pour trier dans cette masse de données en fonction de notre demande, ont été mis au point des algorithmes (instructions informatiques permettant de réaliser un calcul). Ces algorithmes ouvrent les portes de l’information, font les choix et hiérarchisent les sites qui sont jugés utiles pour répondre à notre demande. Comment ? Sur quels principes se basent ces algorithmes ? Un premier principe peut être la popularité, le nombre de clics des visiteurs, ce qui est imparfait et peut donner lieu à des manipulations. Un autre principe repose sur l’autorité : par analyse des réseaux, sont recherchés les sites qui donnent lieu au plus de liens hypertexte mais ici aussi les stratégies des internautes peuvent fausser les résultats. Ces deux principes donnent les mêmes réponses à tous. Deux autres principes visent à donner des réponses plus individualisés aux recherches des internautes : soit en tenant compte de qu’ils disent faire, de leurs amis, de leurs tweets, de leur « écosystème informationnel », p. 374)… (l’auteur parle de la réputation), mais il y a plus de personnes qui disent regarder Arte que de réels téléspectateurs de la dite chaîne ; soit en essayant de prévoir ce qu’ils vont faire (la prédiction pour D.Cardon). Les algorithmes de prédiction comparent un internaute X à d’autres qui ont effectué la même opération et font un calcul de probabilité afin de lui proposer des contenus adaptés. Pour cela nos parcours de navigation, nos géolocalisations, les livres achetés et même notre vitesse de lecture sur une liseuse peuvent être utilisés par les algorithmes définis par les plateformes. Logiquement, les derniers chapitres de ce livre portent sur l’intelligence artificielle, les algorithmes et la « surveillance numérique ». « Fantasme de nos sociétés » (p. 385), l’IA a changé depuis les années 1950. Au lieu d’essayer de rendre la machine intelligente par des programmes, ceux qui travaillent dans ce domaine considèrent qu’il vaut mieux laisser la machine « apprendre toute seule à partir de données » (p. 390). Mais, selon l’auteur, si ces machines sont très performantes pour « réaliser des tâches de perception liées au son, à l’image ou au langage. En revanche, elles sont peu adaptées au raisonnement et aux tâches complexes » (p. 396). L’intelligence artificielle est « supervisée » et les machines sont encore « spécialisées » (OUF ! Nous servons encore à quelque chose !!!). À un moment où certains États peuvent surveiller leurs citoyens et où des entreprises privées du web peuvent obtenir des données sur les individus, il faut, pour l’auteur, « auditer les algorithmes », poser des contrefeux démocratiques. Et de plaider pour la transparence des algorithmes, pour une obligation de loyauté des plateformes voire pour une participation des internautes quant à la définition de l’objectif de l’algorithme.
En conclusion, ni excessivement naïf, ni définitivement pessimiste, D. Cardon affirme : Le web se ferme par le haut, mais toute son histoire montre qu’’il s’imagine par le bas ». L’histoire est encore ouverte et « il appartient aux chercheurs, aux communautés, aux pouvoirs publics et surtout aux internautes de préserver la dynamique réflexive, polyphonique et peu contrôlable amorcée par les pionniers du web » (p. 421).
Un ouvrage riche d’informations et d’analyses, dense et très utile qui ouvre le champ des réflexions pour mener les SNT en lycée.
__________
Professeurs : L’éditeur nous informe que si vous souhaitez utiliser des figures/photos/schémas provenant de Culture numérique un fichier est disponible
contact: pascal.montagnon-at-sciencespo.fr
__________________________
[1] Dans l’introduction l’auteur considère qu’il faut à la fois coder et décoder mais son livre comme cette note s’intéresse surtout au deuxième aspect.
[2] Cette notice est faite par quelqu’un qui utilise son ordinateur comme sa voiture et n’est passionné ni par l’un ni par l’autre mais peut être amené à enseigner les SNT. Elle est donc destinée à la femme ou à l’homme (relativement) honnête.
[3] Dont le jour où cette recension est débutée, le 21 juin 2019.
[4] L’auteur souligne le fait que le lien hypertexte est un bien commun alors que le like de facebook est un lien propriétaire (p. 89).