Les ressources

La surveillance de nos données, on s’en fiche

Les GAFAM sont devenus des entreprises surpuissantes ayant pour ambitions de se substituer aux États pour gérer notre quotidien sur des aspects comme l’éducation, la santé, l’emploi, le transport…

Et bla bla bla (cliquez ici si vous voulez plus de blabla comme ça).

Le modèle économique de la plupart d’entre eux consiste à capter les données personnelles des gens pour exercer une surveillance de masse, afin de pouvoir manipuler des opinions et des conduites, essentiellement dans le but de vendre des biens et services et générer du profit – quitte à s’affranchir des lois qui les ennuient et ruiner la planète au passage. Parce que les GAFAM rendent économiquement possible la surveillance de masse, les agences de renseignement de nombreux pays s’en accommodent parfaitement et même en profitent directement – cela permet après tout de faire d’une pierre deux coups. Si ça vous intéresse, on en dit plus par là (on serait zélé·es qu’on vous proposerait même quelques bases pour vous en protéger ou trouver des alternatives, voire d’en apprendre plus sur comment on en est arrivé·es là).

Mais bon, on s’en fiche, non ? Qu’est-ce que ça change pour moi au quotidien ?

Pas grand-chose, hormis un certain nombre d’enjeux et conséquences dont on se fiche complètement (si vous y tenez vraiment, vous pouvez encore cliquer – mais on a quand même supposé que vous vous en fichiez).

On insiste généralement sur les risques par rapport à notre capacité de :

  • S’exprimer : ce système permet des possibilités encore inégalées de censure.

   … Oui, mais si je n’ai rien de spécial à dire ? Et puis, est-ce vraiment important de s’exprimer sur tout ?

… Certes, mais bon, nous autres ne vivons pas non plus dans des dictatures. Et si la société me va très bien comme ça, et que je n’ai pas envie de militer ?

… Oui, mais la manipulation a toujours existé. Et si la politique ne m’intéresse de toute façon pas ?

… Mais si je n’ai rien à cacher, et que dans le fond c’est bien pratique que ces entreprises me connaissent à la perfection pour mieux répondre à mes besoins ?

  • Et puis, soyons honnêtes, à part pour les idéalistes passionné·es, toutes ces considérations sur les « libertés fondamentales », ça semble très théorique et très éloigné – tant et si bien qu’au quotidien : la plupart des gens s’en fichent. On a d’autres chats à fouetter.

Hé bien il y a autre chose…

Au-delà de ces questions relativement abstraites, ce système de surveillance permanente a aussi un impact sur notre quotidien, lorsqu’il s’agit :

  • De faire un achat

Et si on voulait pouvoir choisir ce qu’on veut sans qu’une entité bienveillante présélectionne systématiquement ce qu’elle juge bon pour nous ? Qu’on augmente les prix d’un même produit en fonction de notre profil supposé et de nos visites ? (ex : Le prix des billets d’avion est par exemple déterminé par notre profil en ligne (05/2018))

  • De souscrire aux services d’une banque 

A-t-on envie que les banques sachent tout de nos habitudes, de notre santé et des problèmes de nos proches, à tel point qu’on nous refuse un prêt ou l’ouverture d’un compte lorsque notre profil n’est pas « parfait » (contrat stable, bon salaire, bonne santé, aucune activité risquée, pas de dettes, pas d’ami·es ou de famille en difficulté, pas d’accident de la vie, pas de problème psychologique, pas dans un secteur avec des perspectives de chômage) ? Facebook a par exemple développé une technologie pour savoir si une banque doit vous accorder un prêt ou non en fonction de qui sont vos amis (ex : Facebook loan patent (08/2015)).

  • De se faire soigner

A-t-on envie qu’un jour, on puisse de manière automatisée nous refuser des soins (ou qu’on nous les tarifie plus cher) au prétexte qu’on a un « profil à risque » moins rentable ? (ex : De nombreux sites d’information sur la dépression vendent par exemple vos informations (09/2019)) Collecter ces données nous expose au risque qu’elles soient perdues, ou vendues à n’importe qui… (ex : Nouvelle fuite et publication massives de données médicales à Singapour (02/2019)). Par ailleurs, qui se douterait que la manière dont on écrit au clavier (ou sur un écran tactile) permet à elle seule de détecter et enregistrer notre état émotionnel ? (voir Corporate Surveillance in Everyday Life de Cracked Labs (06/2017))

  • De souscrire à une assurance ou à une mutuelle

Une fois tous les paramètres de notre vie bien étudiés, il est possible (et légal dans certains pays) de faire en sorte que plus on est en difficulté (santé, travail, problèmes familiaux, dépression…), plus on doive payer cher le fait d’être protégé·e. Car, soyons clairs, une entreprise n’a aucun intérêt à assurer (au même prix) quelqu’un qui a des problèmes, car cette personne « coûte plus cher ». Par exemple, pensez-vous que le prix de votre police d’assurance sera le même si on savait que vous avez le SIDA – VIH ? (ex : Grindr a laissé fuiter des données sur le statut VIH de ses utilisateurs (04/2018))

  • D’avoir accès aux services de l’État

La Chine dispose ainsi d’un programme novateur de « note de confiance » pour les citoyen·nes (un peu comme la notation d’un taxi ou d’une livraison de pizza). Ainsi, cette note attribuée par le pouvoir conditionne l’accès à certains services et empêche les citoyen·nes mal noté·es d’accéder à d’autres. Tout·e citoyen·ne chinois·e est ainsi incité·e à avoir un comportement exemplaire (légal, social, fiscal…) selon les critères de leur gouvernement – qui n’est pas élu (ex : La Chine veut donner une « note de confiance » (10/2016) et le fait, permettant ainsi de trier les citoyens par « social ranking » (08/2018)). Ce système de surveillance joue également un rôle majeur dans la répression de minorités (ex : Enfermement ou surveillance : au Xinjiang en Chine, la répression des Ouïghours est généralisée (10/2018)).

  • De trouver un emploi

Un employeur conséquent peut aisément avoir accès à une partie croissante de notre vie privée. Cela permet de vérifier si vous êtes bien un·e employé·e « modèle » comme il le souhaite (ex : Surveillance, infiltrations, faux salariés… L’étrange catalogue d’Ikea pour espionner ses employés et ses clients (03/2012)). La problématique se pose également pour rechercher un emploi en ligne (ex : Google propose ses annonces de métiers bien payés davantage à des hommes plutôt qu’à des femmes (07/2015))

  • De respecter les règles déontologiques de son métier

Un certain nombre de métiers (armée, police, personnel médical, travailleu·ses socia·les…) nous obligent contractuellement à protéger certaines données. Il est très facile de se trouver en difficulté en manquant à ces obligations involontairement (ex : Une application de fitness dévoile la position de bases militaires secrètes (01/2018)).

  • D’essayer de faire son travail correctement

Vaut-il mieux faire du bon travail, ou du travail bien noté ? Par exemple, vaut-il mieux être soigné·e par un·e médecin dont la priorité est notre santé, ou bien dont la priorité est d’être bien noté par son institution ? (ex : Lorsque que des médecins refusent de soigner un patient car il risquerait de faire baisser leurs statistiques de performance (07/2015)).

  • De prouver son identité

Quoi de plus facile que d’usurper l’identité d’une personne si les moyens de prouver son identité se retrouvent accessibles en ligne ? (ex : Enquête sur le piratage des données biométriques de 1,2 milliard d’Indiens (01/2018))

  • De s’informer

Accéder à une information n’est plus un problème. Encore faut-il savoir laquelle chercher, dans cette immense quantité d’information. Au-delà de la 1ère page d’une recherche Google, c’est l’oubli des fonds marins, où personne ne s’aventure jamais – même si c’est possible (phénomène de « bulle d’information » – Une étude scientifique de 2015 indique d’ailleurs que la manière dont un moteur de recherche trie ses résultats peut influencer environ 20 % des votes d’une élection (08/2015)). Pour savoir ce qu’il y aura sur le haut du panier, nous nous en remettons à des algorithmes (et parfois des gens) qui vont décider pour nous et en fonction de comment elles et ils nous voient à quelle information il est bon que nous accédions… ou pas (ex : Facebook qui censure volontairement certaines sources d’information politiquement conservatrices (09/2016) ou de la gauche radicale (08/2019)).

  • De partager ses opinions

Mais pas toutes. Les opinions les plus controversées (discours haineux, « fake news », etc.) génèrent le plus d’émotions fortes (indignation, colère…), donc le plus de débat et d’échanges, donc le plus de clics et de visualisations, donc le plus de collecte d’information et de visibilité pour la… publicité (ex : la spéculation économique sur les discours haineux, notamment sur les massacres en Birmanie (10/2018)). Par ailleurs, il est facile de nous manipuler lorsque nous vivons une expérience traumatisante. En effet, ces moments sont propices pour mieux savoir qui de nos proches a le plus d’influence sur nos opinions (ex : Lorsque Facebook utilise les attentats du Bataclan pour analyser l’influence nos réseaux d’ami·es avec le filtre bleu-blanc-rouge (11/2015)). Savoir qui nous écoutons le plus permet de se servir de ces personnes à leur insu pour nous influencer – par exemple pour nous suggérer une activité ou un produit…

  • De s’intéresser à des activités ou à des produits (eh oui)

Les activités dont nous pouvons avoir connaissance ou qui nous sont suggérées varient sur la base d’un profil que ces entreprises ont construit sur nous. En d’autres termes, quelqu’un d’autre va décider s’il est bon pour nous que l’on découvre telle ou telle activité (ex : lorsque Facebook réutilise les photos de nos ami·es chèr·es pour nous suggérer tel ou tel produit/activité en les y associant… alors que ce n’est pas le cas).

  • De choisir avec qui partager (ou pas) nos données

Est-ce que j’ai vraiment mon mot à dire ? Le databroker Acxiom (entreprise de collecte et vente de données) prétend détenir des profils détaillés (1 500 éléments d’information) sur 1/3 de la population mondiale. Plus récemment, le géant français Criteo annonce pouvoir pister 75% des acheteu·ses en ligne dans le monde. Vous a-t-on déjà demandé si vous vouliez que cette entreprise sache tout de vous ? Avez-vous déjà lu jusqu’à la fin les centaines de pages de « conditions d’utilisation » de tel ou tel service ou logiciel, que vous n’avez de toute façon pas les compétences de déchiffrer (on s’est d’ailleurs arrangé pour ça) et qui pourraient être arbitrairement modifiées du jour au lendemain ? Avez-vous l’impression qu’on vous laisse un vrai choix lorsque vous pouvez choisir entre « accepter des cookies en poursuivant la navigation » ou « en savoir plus » et faire 50 clics pour les refuser tous… Par exemple, ça vous irait si je vous laissais le choix entre vous facturer 5000 € la lecture de cet article ou « en savoir plus » ? Est-ce un choix honnête et équitable ? Sans surprise, ces pratiques sont illégales – et pourtant, ces entreprises ne s’en privent pas.

  • De choisir à quoi on veut dédier notre temps et notre attention

Pour nous dissuader de cela, c’est très simple. Il suffit d’utiliser le meilleur des sciences de la manipulation (qu’on a pu développer grâce aux apports de la psychologie, de la sociologie, du comportementalisme, des neurosciences…). Sollicitations permanentes, interfaces conçues pour nous rendre dépendant·es, contenus inépuisables, flux infinis, lecture automatique des contenus, interruptions constantes… tout est conçu pour nous rendre accros (Le Monde – Comment-nous rend-on accro à nos applis (06/2018)), par exemple avec l’exploitation de notre propre corps à travers les mécanismes de sécrétion de dopamine (ex : Arte – Dopamine (2019)). On désigne ces stratégies sous le nom de « dark patterns » (mécanismes obscurs – un peu comme le côté obscur de la force) – n’hésitez pas à vous renseigner dessus, ça vaut le détour.

  • De vouloir changer en tant que personne

La vie nous amène à nous rendre compte de choses, de changer d’avis, d’avoir des révélations. Comment vivre cette évolution naturelle de la personnalité si on nous enchaîne à tout jamais à des profils déterminés par nos actions passées, à un « historique de navigation de notre vie » qu’on ne pourra jamais effacer ?

  • De faire des rencontres

Les rencontres, c’est un peu le gré du hasard – et beaucoup des milieux qu’on fréquente, bien sûr. Mais veut-on vraiment qu’une entité puisse décider qui nous suggérer de rencontrer ou pas ? (ex : Lorsque Facebook suggère à un enfant de devenir ami avec le donateur de sperme qui a permis secrètement à ses parents de l’avoir comme enfant (07/2017))

  • De protéger nos enfants

Nous n’avons peut-être pas envie que des entreprises essaient de connaître mieux nos enfants que nous-même pour mieux les influencer, non ? (ex : TikTok collectait illégalement des données d’enfants (02/2019)) Ou qu’elles estiment elles-mêmes à leur manière les chances de réussite de nos enfants dans la vie, en accédant à leurs résultats scolaires ? (ex : Google, Apple, Facebook et Microsoft menacent-ils les données scolaires des élèves français ? (08/2017)) Ça vous dirait que le 0/20 que vous avez eu au collège vous suive toute votre vie ? Que des entreprises conservent à jamais des photos, vidéos, messages, géolocalisations, profils psychologiques et historiques affectifs de vos enfants ? Voire leurs empreintes digitales et données de santé (moyennant un lecteur d’empreinte et une petite montre connectée) ? Vos enfants auront-ils même le choix d’avoir une vie privée ?

  • De ne pas nuire aux personnes qui nous entourent

Nous n’avons peut-être rien envie de cacher, mais qu’en est-il des gens que l’on est amené à croiser ? Peut-on moralement les mettre sur écoute à leur insu en discutant avec elles et eux à côté de notre enceinte Google Home, ou de notre ordinateur sous Windows 10 – ou encore en communicant avec elles et eux sur des services qui ne respectent pas leur vie privée ? Les fameuses « données personnelles » sont-elles vraiment personnelles si elles impliquent tou·tes nos proches ? (ex : Les selfies que prennent les touristes en safari photo permettent à des chasseurs qui en utilisent les métadonnées de localiser avec précision des animaux rares pour les tuer (07/2019)). Vous êtes-vous déjà demandé·e pourquoi Facebook nous demande d’identifier nos ami·es sur les photos ?

  • De ne pas se retrouver victime de répression « par erreur »

Car l’erreur est humaine (et les humains écrivent les algorithmes, n’oublions pas). Alors quand on cherche des coupables partout (de crimes divers, de terrorisme…), le fait de se tromper même « juste de temps en temps » est lourd de conséquences pour beaucoup de personnes qui n’ont pourtant rien à cacher, ni à se reprocher (ex : Une étude de 2017 estime que la chasse au terroriste en ligne aboutirait à 100 000 erreurs pour 1 cas valide (09/2017)). C’est ce qu’on appelle des « faux positifs ».

  • …tout simplement d’être soi-même

Plusieurs études (dont certaines listées ci-dessous) montrent que sans forcément en avoir conscience, on ne se comporte pas de la même manière selon si on se sent surveillé·e ou non.

Qu’on le veuille ou non.

En apprenant qu’ils et elles sont surveillé·es, la plupart des gens ont en effet tendance à s’auto-censurer en n’osant plus consulter certaines informations sur Wikipedia (ex : Jonathon W. Penney, Chilling effects : online surveillance and wikipedia use (2016)) ou en n’osant plus exprimer leur opinion sur Facebook (ex : Under Surveillance: Examining Facebook’s Spiral of Silence Effects in the Wake of NSA Internet Monitoring (2016)).

Est-ce qu’on raconte sa vie à ses ami·es de la même manière lorsqu’un·e inconnu·e s’assied à la table et nous écoute ?

Probablement pas.

On parle ici de milliers d’inconnu·es assis·es à votre table, et dont l’objectif est de nous manipuler au quotidien. Oh, ne vous en faîtes pas, elles et ils se feront discret·es et ne vous empêcheront pas de discuter, bien au contraire…

… à moins qu’on commence à leur demander de nous laisser tranquilles ?

Partager librement ce contenu :

↜ Retour