Surveillance numérique et refroidissement social

La théorie du refroidissement social a été développé aux États-Unis (social cooling) par un « chercheur » indépendant, Tijmen Schep [1]. L’idée est de rendre compte des conséquences de la surveillance de façon générale au sein d’une société. Bien que la théorie s’attarde principalement sur la surveillance par des moyens informatiques, les conséquences restent plus ou moins identiques quand celle-ci est réalisée de façon physique. La théorie a été construite par similarité avec le réchauffement climatique pour leurs caractéristiques subtiles et complexes et leur conséquence globale sur la société.

Le traçage, surtout quand il est utilisé dans une masse énorme d’information, n’est jamais utilisé seul. Il est relié à un traitement de l’information ayant des conséquences politiques et décidé en vase clos entre ingénieur et gestionnaire. Quelle serait l’utilité de tracer si ce n’est pour utiliser les informations derrières. Selon moi, il existe deux façons d’utiliser les données récoltées, l’une directe, l’autre indirect. La façon directe correspond à l’image que l’on se fait tous de la surveillance, tel que ce qu’un radar ou un contrôle de flic réalise, c’est-à-dire, prendre sur le fait un individu pour lui mettre une contravention. La façon indirecte, quant à elle, est plus proche de la surveillance sur une plus longue période, tel qu’une opération de filature. Comment réagiriez-vous si, peut-être, vous étiez surveillés en permanence ? Comment sauriez-vous si vous êtes surveillé ? Arriveriez-vous à être serein dans votre vie de tous les jours ? N’y a-t il pas de moment où vous faites des erreurs pouvant vous être reproché, que cela soit au travail, sur la route, chez vous ? Et les services de renseignement, comment peuvent-ils savoir qui doit être surveillé, si ce n’est en surveillant beaucoup plus de personne que nécessaire.

Dans les deux cas cités précédemment, cela a des conséquences assez similaires, la sérénité que vous pouvez avoir dans votre vie quotidienne disparaîtra. Mais quand l’une conditionne nos comportements sur un relativement court laps de temps, ce qui pour moi est déjà très problématique, l’autre conditionnera nos comportements en permanence et dans la durée. La question n’est donc pas, est ce que j’ai quelque chose a caché, mais plutôt est-ce que je me comporterais de la même façon si quelqu’un m’observait en permanence [2] et qu’il aurait par mes actions privées la capacité de déduire mes pensées ?
Une chose est sûre, nos comportements dépendent de qui nous observent, nous n’agissons pas de la même façon seul·e ou en public. Comme je l’ai dit au début, les outils de traçage et de traitement de l’information sont réalisé par des ingénieurs informatiques et commander par des gestionnaires. Des groupes sociaux relativement homogène, véhiculant certaines visions du monde qui sont transposées plus ou moins consciemment dans les codes informatiques. Leurs raisons d’existence même sont un choix politiques reflétant une vision du monde où chaque personne naissante n’est pas autonome, suspect et doit être guidé par une entité supérieure [3]. Ces programmes informatiques originellement utilisés en masse dans les pubs, sont déjà assez courantes dans leurs usages civils et politiques, et les événements récents en ont été une excuse [4]. Alors que les publicités ont pour but, et pour conséquence, de faire augmenter les bénéfices des entreprises les utilisant, et obligeant les entreprises ne les utilisant pas à s’en servir pour survivre. Quelles seront les conséquences de ce type d’application dans notre réalité sociale quand ceux-ci seront généralisés. Un phénomène que l’on peine à voir pour l’instant, qui existe déjà, et qui risque d’entrainer un phénomène d’emballement quant aux comportements [5]. Plus nous serons obligé à nous conformer pour vivre, plus les inconformités que nous réalisons tous et qui sont les composantes mêmes de nos personnalités seront visibles.

En pratique, des conséquences ont déjà commencé à apparaître et d’autres peuvent être imaginés :

  •  La culture du conformisme : Une norme sera donc dictée par ce qui sera analysé. Le hors norme sera vu comme signe de risque, une zone d’ombre non prévisible pouvant être dangereuse. Concrètement, une conséquence peut être soulevée en termes de travail. Ce n’est pas une grande nouvelle, les recruteurs réalisent des enquêtes sur les éventuelles futur·e·s employé·e·s. Ils pourront vous refuser un travail si vos actions ne correspondent pas à quoi ils s’attendent, et cela même si vous seriez un·e très bon·ne salarié·e.
    L’ironie : on ne nous enlève pas des libertés, on a juste peur de les utiliser.
  • L’évitement du risque : Un des critères qui est observé est la réussite. La reconnaissance sociale sera de plus en plus conditionnée par notre histoire, nos risques et donc nos erreurs. Les secondes chances deviendront de plus en plus compliquées, et chaque erreur restera graver dans les bases de données. Un exemple concret ayant déjà eu lieu à New York, et qui fait écho à la situation actuelle, est la notation en fonction de la réussite des médecins. Les médecins qui ont essayé d’aider les patient·e·s atteint·e·s d’un cancer avancé avaient un taux de mortalité élevé, ce qui s’est traduit par une note plus faible. Les médecins qui n’ont pas essayé d’aider ces patient·e·s ont été récompensés par des notes plus élevées, même si leurs patient·e·s mouraient prématurément.
    Les systèmes de notation peuvent créer des motivations non souhaitées, et augmenter l’injonction à se conformer à une moyenne bureaucratique.
  • La rigidité sociale : Les systèmes de réputation numérique limitent notre capacité et notre volonté de contester l’injustice. Les injustices sociales seront de plus en plus naturalisées, la pressions sociales pour la conservation des dynamiques de la société sera de plus en plus forte. Les phénomènes qui ont eux lieux pendant le confinement, où des personnes qui sortent pour se promener critiquent toutes les autres personnes faisant la même chose qu’elles et ne respecte pas le confinement, son en passe de se généraliser.
    La pression sociale est la plus forte et la plus subtile des formes de contrôle.
La vie privée, c’est le droit à être imparfait·e. Lorsque les algorithmes jugent tout ce que nous faisons, nous devons protéger le droit à l’erreur. Lorsque tout est mémorisé par le « big data », le droit à ce que nos erreurs puissent être oubliées est nécessaire. La vie privée c’est le droit d’être humain·e.

Notes :

[2Le documentaire Nothing to hide traite de cette question : https://peertube.cpy.re/videos/watch/d2a5ec78-5f85-4090-8ec5-dc1102e022ea

[3La vidéo de Laurent Alexandre, publié par le média Grozeille, expliquant à des scientifiques qu’ils sont les nouveaux dieux devant guider le peuple, les inutiles, afin qu’ils survivent dans le monde qui vient est un exemple de cette idéologie de plus en plus hégémonique dans les milieux bureaucrates et scientifiques : https://www.youtube.com/watch?v=hxRDVnYv9eY

[4Des Gilets jaunes à la pandémie du Covid-19 les États ont profité de la situation pour augmenter leur contrôle https://nantes.indymedia.org/articles/49982

[5Pour seul exemple, des études ont montré que lors de la dernière élection États-unienne, la diffusion des vidéos ont été influencés par les algorithmes des réseaux sociaux. Trump qui dans ses discours disaient des phrases chocs et souvent simpliste, réalisait des vues alors même que les internautes pouvaient être fatigué, tandis qu’Hillary Clinton qui réalisait des vidéos « plus sérieuses » ne pouvait être visionné que dans certaines conditions par les internautes. Les réseaux sociaux, devant traité la masse d’information pour que le contenu soit audible, se sont retrouvés à proposer plus souvent les vidéo de Trump que de Clinton, entrainant donc une augmentation des vues, qui elle-même augmente sa diffusion et donc encore plus son visionnage. Cela ne veut pas dire que l’élection aurait été différente, mais que très certainement ce type d’algorithme ont des conséquences sur la vie politique, encourageant la spectacularisation plus que le fond.

PS :

Quelques ressources pour aller plus loin :
Télévisuels :
— 7 milliards surveillés : Documentaire Arte sur les technologies de surveillance
— Nothing to hide : Documentaire dédié à l’acceptation de la surveillance dans la population à travers l’argument « je n’ai rien à cacher » – disponible sur Peertube, Youtube, Vimeo et archive.org

Site internet :
— Socialcooling.fr : Site détaillant les thèses du refroidissement social
— Mathwashing.com : Site s’intéressant principalement aux conséquences des algorithmes – en anglais uniquement

A lire aussi...