Sommaire
- Table des Matières
- Introduction
- Préambule : la VSA, qu’est ce que c’est ?
- Partie I - La VSA détruit nos villes et nos vies
- A . La VSA, produit d’un fantasme sécuritaire
- B. Mutation des pratiques policières
- C. Répression des corps, transformation du rapport à la ville
- Partie II - L’empire de la VSA
- A. Une convergence d’intérêts
- B. Une avancée à visage masqué
- C. Fabrique de l’acceptabilité
Table des Matières
Introduction
Préambule : la VSA, qu’est ce que c’est ?
Partie I - La VSA détruit nos villes et nos vies
A . La VSA, produit d’un fantasme sécuritaire
B. Mutation des pratiques policières
C. Répression des corps, transformation du rapport à la ville
Partie II - L’empire de la VSA
A. Une convergence d’intérêts
B. Une avancée à visage masqué
C. Fabrique de l’acceptabilité
Partie III – le pire est à venir
A. Un agenda politique ancien
B. La loi « Jeux Olympiques », première brique légale hypocrite
C. L’arbre qui cache la forêt
Riposter
A. Documenter
B. S’organiser
C. Agir
D. Reprendre la ville
Introduction
Qu’on le veuille ou non, qu’on le sache ou non, les algorithmes dédiés à l’analyse automatique des flux de vidéosurveillance sont omniprésents dans notre quotidien. Sans qu’on n’ait notre mot à dire, cette « vidéosurveillance algorithmique », ou VSA, s’immisce subrepticement dans nos vies avec des conséquences dramatiques sur les libertés.
Le plus souvent, ces algorithmes sécuritaires brillent par leur invisibilité — leurs concepteurs s’appliquent consciencieusement à les faire disparaître dans le mobilier urbain, à dissimuler ces mécanismes d’automatisation, à les rendre les plus discrets possibles pour mieux banaliser leur présence et leurs effets en matière de contrôle social.
Cette technologie de VSA est un nouvel outil de contrôle donné à la police. Elle ajoute aux caméras parsemant les villes une couche logicielle pour analyser, classer, catégoriser nos corps et nos déplacements. Dans la droite ligne de l’imaginaire de la « Smart City », elle nourrit la fiction d’une ville parfaitement optimisée grâce à des capteurs vidéos et des algorithmes capables de tout mettre en données pour en tirer des prédictions et reconnaître des « signaux faibles ».
La VSA s’est développée ces dernières années et s’est installée dans les villes françaises en toute discrétion et en toute illégalité. Dans les réseaux d’acteurs faisant la promotion de la Technopolice (ministres, hauts fonctionnaires, industriels de la surveillance, ingénieurs en vision machinique, etc.), on a redoublé d’ingéniosité pour élaborer des concepts de novlangue destinés à enrubanner les algorithmes des caméras, qui en un tour de passe passe deviennent des caméras « intelligentes et augmentées ». La vidéosurveillance se mue en « vidéo-protection », les algorithmes « optimisent » et « rationalisent » la répression policière. Au « pays des Lumières », on promet à longueur de temps d’« encadrer rigoureusement » ces technologies pour sauvegarder les « libertés individuelles ».
Sauf que derrière ces écrans de fumée, la VSA sert une idéologie : celle de la surveillance totale et de la répression systématisée.
Alors que, pour la première fois, s’amorcent à travers le pays des expérimentations « légales » de VSA permises par la loi relative aux Jeux Olympiques de Paris 2024, il apparaît crucial de déconstruire ces mythes et d’expliquer ce que recouvre politiquement et techniquement la surveillance algorithmique de nos corps par le truchement de la vidéosurveillance qui s’est démultipliée depuis vingt ans, et ce afin de mieux s’organiser pour résister et refuser ce projet sécuritaire.
Cette brochure propose d’ausculter la manière dont la vidéosurveillance algorithmique transforme notre rapport à la ville et dont elle impacte nos libertés. Elle est le fruit de plusieurs années de luttes de terrain, d’enquêtes, d’analyses et de contentieux juridiques, portées par La Quadrature du Net et les collectifs locaux Technopolice.
Son objectif consiste à redonner une matérialité aux algorithmes d’analyse des flux de vidéosurveillance tout en les resituant dans leur contexte historique, politique et économique. Parce que mieux nous pourrons comprendre ces dispositifs, mieux nous pourrons les débusquer, les contourner, les dénoncer, et ainsi tenir en échec le funeste projet de société dont ils relèvent. Pour ensuite imaginer ensemble un futur joyeux et lumineux, un horizon commun pour nos villes et nos villages, loin de la surveillance inhérente à la Smart City, et loin des pulsions morbides des cyber-flics de la Technopolice.
Préambule : la VSA, qu’est ce que c’est ?
La vidéosurveillance algorithmique (VSA) consiste en l’installation et l’utilisation par la police d’un logiciel qui analyse les images des caméras de vidéosurveillance afin de repérer, identifier ou classer des comportements, des situations, des objets ou des personnes en particulier.
Ces logiciels sont conçus par des entreprises privées et sont basés sur des algorithmes dits de computer vision (vision assistée par ordinateur), une technologie basée sur l’apprentissage statistique permettant d’isoler des informations spécifiques à partir d’images fixes ou animées. À travers des techniques d’« apprentissage machine » (l’une des méthodes associées à « l’intelligence artificielle »), les algorithmes sont entraînés à détecter automatiquement certains éléments.
Ces logiciels sont majoritairement utilisés par la police en lien avec les caméras de vidéosurveillance : soit pour de la détection en temps réel de certains « événements », soit en différé dans le cadre d’enquêtes policières.
Les alertes « en temps réel », qui permettent à une plus petite équipe de repérer, dans une grande quantité de flux vidéos, des « événements » d’intérêt pour la police : le logiciel relève de manière automatique des situations perçues comme suspectes ou risquées et en notifie les agents présents dans le « centre de supervision urbain » (CSU), le local technique où sont acheminés les flux vidéos en vue de leur visionnage. En pratique, la VSA vise à détecter des objets (une valise, des ordures), des caractéristiques liées aux personnes (personnes allongées sur le sol, graffeurs, vêtements) ou encore des événements (franchissement d’une ligne, regroupement de personnes).
S‘il est très facile d’effectuer une recherche dans un document texte, la tâche s’avère plus compliquée et chronophage lorsqu’il s’agit d’effectuer une recherche dans un flux vidéo. La VSA peut être utilisée en temps différé dans le cadre d’enquêtes pour automatiser des recherches dans des archives vidéo. Cela consiste à lancer des requêtes de reconnaissance d’image afin de faire remonter l’ensemble des bandes vidéos correspondant à certains critères thématiques : par exemple détecter l’ensemble des hommes portant un t-shirt jaune et un pantalon noir repérés dans une zone géographique donnée durant les dernières 24h. La VSA peut également raccourcir le temps de visionnage en condensant des heures ou des jours de vidéos en quelques minutes. Le rôle de la VSA dans cet usage est de sélectionner les passages susceptibles d’intéresser la police et de faire une ellipse sur le reste du temps de vidéo.
Précisons que les deux utilisations de la VSA en direct et a posteriori reposent sur le même procédé d’analyse automatisée et qu’il n’y a donc pas lieu de les distinguer d’un point de vue technique.
Ce travail d’analyse était jusque là effectué par des personnes, principalement des agents de la ville ou policiers municipaux dans les centres de supervision urbains (CSU) dans le cas des caméras de vidéosurveillance publiques.
Partie I - La VSA détruit nos villes et nos vies
La vidéosurveillance algorithmique transforme profondément notre rapport à la ville. En cela, elle s’inscrit dans une vision politique ancienne de l’espace public vu comme lieu de sécurité et de contrôle des corps. En pratique, elle modifie la manière dont nous y faisons société en renforçant les normes sociales visant à exclure les plus précaires et en donnant à la police une capacité nouvelle et considérable de répression.
A . La VSA, produit d’un fantasme sécuritaire
Si les algorithmes de détection des comportements peuvent aujourd’hui se faire une place dans l’arsenal de surveillance, c’est notamment dû à l‘héritage d’une vision sécuritaire de la ville et de la société, ancrée depuis plusieurs décennies dans le paysage politique.
« L’insécurité » comme moteur idéologique
L’argument principal invoqué pour déployer la VSA est le même que celui qui a conduit à l’installation de caméras de surveillance dans l’espace public : lutter contre l’ « insécurité ». Ce terme ne renvoie à aucun fait concret ni à une évaluation précise du niveau de la délinquance, mais désigne un phénomène politique produit par les pouvoirs publics à partir des années 1970.
L’insécurité est en réalité un sentiment variant selon des déterminants sociologiques, des perceptions ou des expériences. Pour les chercheurs Philippe Robert et Renée Zauberman, « l’insécurité » est une notion qui mêle deux concepts distincts. D’une part, une peur concrète des personnes pour elles ou leurs proches, une émotion issue d’une expérience personnelle, et d’autre part une préoccupation plus abstraite sur la manière de considérer une situation, d’appréhender la délinquance comme problématique sociétale [1]. L’insécurité procède donc de manières subjectives de percevoir des évènements, et non d’une réalité objective quantifiable.
C’est à partir de la fin des Trente Glorieuses – période marquée par une précarisation des relations de travail et l’apparition du chômage de masse – que ce sentiment a été pris en charge par l’État, rompant avec une politique pénale auparavant axée principalement sur l’identification des personnes délinquantes. Désormais, le traitement politique de la criminalité allait faire de celle-ci un risque de masse dont il faudrait contrôler les effets néfastes pour celles et ceux qui sont affecté·es. La manière dont cette criminalité est vécue par les citoyen·nes (et non pas uniquement par les victimes des infractions) devient alors centrale, ce qui s’accompagne d’une inflation législative et d’une multiplication de déclarations et d’effets d’annonce.
Petit à petit, les dirigeants ont utilisé cette peur pour faire prospérer une vision autoritaire de la sécurité dans l’espace public. Cette peur est sans cesse gonflée, tantôt par la mise en avant de faits divers dans les médias, tantôt par l’accroissement visible de dispositifs répressifs – créant la manifestation physique qu’il y aurait des raisons d’avoir peur – , tantôt par la mesure, à travers des sondages, de ce « sentiment d’insécurité ».
Déploiement de l’urbanisme sécuritaire et de la vidéosurveillance
Cela s’est également manifesté dans les choix stratégiques de politique publique de sécurité. Dans les années 1980, celles-ci intégraient des logiques de prévention spécialisée, de politique sociale et des volets au niveau local. Aujourd’hui, elles se construisent sur une « politique de la ville » pilotée par le ministère de l’Intérieur, majoritairement répressive et mettant en œuvre des stratégies de « prévention situationnelle ». Derrière ce terme verbeux se cache une vision particulière de la commission des infractions, selon laquelle celle-ci pourrait être empêchée ou diminuée si on modifie l’environnement dans lequel le passage à l’acte a généralement lieu. En pratique, la prévention situationnelle a pour but de modifier l’aménagement des espaces publics afin de diminuer ces conditions contextuelles et dissuader les auteurs. Il s’agit par exemple de rendre les rues moins sombres ou d’en diminuer le nombre de recoins. [2]
La prévention situationnelle a été l’un des moteurs du développement de la vidéosurveillance, dans un contexte marqué par le recul de l’action sociale. Elle alimente la vision faussée selon laquelle l’insécurité se situerait principalement dans les espaces publics, en jouant notamment sur les peurs décrites précédemment. Les caméras ont petit à petit remplacé les médiateur·ices sociaux dans les rues. Aussi, toutes les autres formes d’insécurité, qu’elles soient sociales (la précarité du logement, de l’emploi), sociétales (la pollution, le sexisme, le racisme) ou encore sanitaires (la malnutrition, les addictions) sont négligées.
À travers la vidéosurveillance et son pendant algorithmique, les « incivilités de rue » et leur traitement répressif sont ainsi mis·es en avant, invisibilisant les autres illégalismes et d’autres approches vis-à-vis des comportements violents ou simplement déviants. Au prétexte d’un renforcement de la sécurité, c’est bien une tentative de discipliner les classes populaires qui se fait jour. De fait, les premières victimes de la VSA sont les personnes qui vivent dans la rue. Si leur sécurité avait été une réelle préoccupation, alors une des priorité aurait été de donner un toit aux plus de 600 personnes sans domicile mortes dans la rue en 2022. Et pendant que les policiers scrutent la rue et sur-criminalisent les populations en proie aux discriminations structurelles, les délinquants en col blanc sont de moins en moins inquiétés.
La sécurité des femmes en est un exemple typique
Selon cet imaginaire répressif, le danger de la violence et du viol se situerait essentiellement dans la rue (sombre de préférence) et la solution serait de poser une caméra de surveillance pour protéger et rassurer les femmes.
Sauf que les études et chiffres disponibles sont sans équivoque : les femmes sont surtout en danger chez elles, au travail ou dans d’autres espaces privés. Dans 91 % des cas, les agressions sont perpétrées par une personne connue de la victime (le conjoint ou l’ex-conjoint dans 47 % des cas). Et les constats produits ces dernières années tendent à démontrer que la réponse politique ne se situe pas dans le tout répressif mais dans un changement en profondeur de la société à travers une transformation des institutions, la prévention, l’accompagnement ou encore la formation. Quant à la sécurité dans l’espace public, on pourrait en priorité chercher à changer les comportements quand on sait que plus de 88 % des témoins ne réagissent pas devant les incidents et agressions à caractère sexuel et que, caméra ou pas, la police sera dans la quasi-totalité des cas défaillante pour prendre et traiter une plainte pour violence sexiste ou sexuelle.
Source : The Conversation, « La sécurité des femmes : une question surtout domestique », 24 novembre 2021, accessible à https://theconversation.com/la-securite-des-femmes-une-question-surtout-domestique-170841
Mais la réalité n’arrêtant nullement les promoteurs de la VSA, ils n’hésitent pas à surfer sur la croyance que ces dispositifs, tout comme les caméras sur lesquels ils s’appuient, renforcent la « sécurité » des personnes dans l’espace public. C’est au nom de ce principe flou et abstrait que sont vendus les logiciels de VSA, dont les usages pourront se démultiplier au gré des obsessions policières et des priorités du moment : il y a déjà une demande politique en faveur d’une VSA dédiée à la détection des « rodéos urbains » ou des « vendeurs à la sauvette ».
B. Mutation des pratiques policières
Les algorithmes de VSA sont conçus pour être utilisés par la police, dont ils systématisent les logiques répressives et discriminatoires, tout en contribuant à déshumaniser encore davantage le rapport de l’institution à la police.
Une société de contrôle dopée aux algorithmes
De façon générale, la VSA est typique du pouvoir sécuritaire théorisé par Michel Foucault. La sécurité – ou ce que Gilles Deleuze appellera « société de contrôle » – fonctionne à la régulation et au pilotage en temps réel de flux circulant dans des milieux ouverts. Après les disciplines qui marquent l’essor de l’État-nation et du capitalisme industriel au XIXe siècle (et que Foucault résumait par la formule « faire vivre et laisser mourir »), la société de contrôle cherche à réguler les flux en temps réel (« laisser passer, laisser faire, passer et aller ») [3].
Dans un contexte où l’État et les grandes organisations capitalistes voient leur puissance indexée à leur capacité à démultiplier les flux (de personnes, de marchandises, de capitaux, de données), le contrôle social doit être « sans friction », capable de passer à l’échelle pour contrôler chacune de leurs composantes « à la volée ». Démultipliant les calculs, agrégeant des statistiques, identifiant et classant des individus et leurs comportements au travers de dispositifs largement invisibles, la VSA est l’une des plus parfaites incarnations de ces nouvelles modalités de contrôle policier, la clé du vieux fantasme d’une « surveillance permanente, exhaustive, omniprésente, capable de tout rendre visible », ainsi que le décrivait Foucault dans Surveiller et punir [4].
Pour autant, dans la société de contrôle, les logiques d’auto-discipline fonctionnent toujours à plein, chacun·e incorporant les normes dominantes lorsqu’il ou elle se sent scrutée par des dispositifs de vidéosurveillance. En ce qu’elle porte dans son code informatique la formalisation de la norme, la VSA pousse le mécanisme de surveillance à son paroxysme et incarne un outil de normalisation par excellence. Elle devient alors un vecteur puissant de transformation de la manière dont nous vivons la ville.
Démultiplication des forces policières
Aujourd’hui, la grande majorité de ce qui est filmé par les caméras n’est jamais regardé. Avec près d’une centaine de milliers de capteurs vidéos sur la voie publique, il ne serait ni réaliste politiquement ni soutenable sur le plan économique de placer un agent derrière chaque caméra pour scruter ce qu’il se passe en temps réel. Même Christian Estrosi, maire de la ville de Nice, le dit : « On a 4 500 caméras mais pas 4 500 opérateurs. Il faut un signal pour dire de regarder là où quelque chose est en train de se passer [5] ».
À Marseille, dans les documents liés au marché public pour l’expérimentation de la vidéosurveillance automatisée, la mairie indiquait ainsi en 2018 que « [s]es opérateurs ne peuvent pas visualiser l’ensemble des flux » et qu’il « est donc nécessaire que la solution logicielle permette d’effectuer de façon autonome cette visualisation [6] ».
La VSA vient régler un problème d’économie politique lié à la vidéosurveillance, faisant en sorte qu’aucune image n’échappe à une analyse policière désormais automatisée. Prenons l’exemple du suivi visuel d’opposant·es politiques ou d’un groupe prédéterminé. Auparavant, elle impliquait des moyens humains importants, obligeant la police à prioriser les dossiers. Aujourd’hui, la VSA lève ces contraintes humaines et matérielles. À travers l’automatisation, tout agent peut suivre, à coût quasi nul, les activités d’une personne ou d’un groupe de personnes sur l’ensemble des caméras d’une ou plusieurs villes, ou avec des drones, le tout aussi bien en temps réel qu’en temps différé.
Dans le cas d’une enquête policière, le visionnage en temps différé des enregistrements vidéos pour retrouver des indices ou des preuves prend un temps considérable, mobilisant pour chaque enquête plusieurs agents durant de longues heures de travail. Cela a par exemple été le cas pour l’enquête de l’affaire dite « Lafarge », suite à une action de militant·es écologistes dans des usines de la multinationale du ciment : les enquêteurs ont exploité une très grande quantité d’images de vidéosurveillance pour visionner les bandes et trouver des éléments matériels permettant de corroborer leur version [7]. Avec la VSA en temps différé, qui permet la recherche de certains éléments via des mots-clés ou offre la possibilité de condenser de longues heures d’enregistrement, nombre d’images qui n’étaient jusque-là pas exploitées pourront d’un clic passer au crible d’une analyse automatisée.
À terme, la VSA rend également possible la constatation systématique des infractions. À la suite des radars automatiques destinés à réprimer les excès de vitesse, la VSA permet en effet d’automatiser la « vidéoverbalisation », générant une manne financière inexploitée pour les pouvoirs publics. Dans des villes, des alertes sont déjà produites par les systèmes de VSA pour réprimer certaines infractions au code de la route. Les opérateurs n’ont qu’à regarder passer les alertes pour rédiger un procès-verbal et infliger des amendes [8]. Si les fichiers de police étaient couplés à ces systèmes, il deviendrait relativement aisé d’identifier les personnes via la reconnaissance faciale et d’élargir le champ des infractions concernées.
Avec la VSA, les 250 000 policiers et gendarmes actuels voient leurs capacités atteindre celles qu’auraient des millions d’agents ne recourant pas à ces technologies. De quoi atteindre un ratio police/population typique des États policiers, sans qu’aucun contre-pouvoir efficace ne puisse être mis en place.
Déshumanisation et biais d’automatisation
La VSA codifie dans un dispositif technique une vision stéréotypée de la « délinquance » et des personnes ou comportements « suspect·es ». Le code de l’algorithme est fixe, sans nuance. En générant des alertes qui interpellent le policier et le poussent à agir, il s’impose face à toute appréciation humaine d’une situation donnée.
L’intervention de l’opérateur humain, qui décide des suites à donner aux alertes générées par les systèmes de VSA, est présenté par les promoteurs de la Technopolice comme une garantie. Selon cette logique, la présence en bout de chaîne du policier compenserait la rigidité algorithmique. C’est négliger le « biais d’automatisation », qui conduit les humains à faire démesurément confiance aux systèmes algorithmiques. En pratique, le recours à un algorithme risque de déresponsabiliser davantage les policiers. Il leur confère une illusion de maîtrise et leur offre un alibi commode (« c’est la machine qui l’a dit ») pour justifier d’être intervenus à un endroit ou un moment en particulier.
En insérant ces technologies de VSA dans leur processus de décision, la distance qui sépare la police de la population s’agrandit. Cette distance est d’abord physique : la relation police-citoyen·nes est de plus en plus médiée par des dispositifs technologiques. C’est le paradigme des « agents connectés » et ou « augmentés », équipés de caméras-piétons, de tablettes et autres smartphones dotés de logiciels de lecture automatique de plaques d’immatriculation et d’applications d’accès aux fichiers de police. C’est aussi un effet de la « robocopisation » des équipements, de la culture de l’armement, de la systématisation des patrouilles véhiculées, qui contribuent à créer une forte distance entre la police et les habitant·es. La vidéosurveillance et la surcouche algorithmique induite par la VSA aggravent ces tendances : au quotidien les agents ne sont plus dans la rue, mais derrière leurs écrans, le plus souvent dans un centre de contrôle, le CSU, depuis lequel ils observent, de loin, la population. Et quand ils en descendent, c’est pour l’arrêter et la violenter. La VSA contribue à aggraver ces logiques.
La distance est aussi intellectuelle : ces policiers augmentés n’ont plus à comprendre, contextualiser, évaluer ou anticiper l’action des autres humains quand une machine le fait à leur place. La VSA codifie dans un dispositif technique une vision stéréotypée de la « délinquance » et des personnes ou comportements « suspect·es ». En générant des alertes qui interpellent le policier et le poussent à agir, elle s’impose face à toute appréciation humaine d’une situation donnée.
C. Répression des corps, transformation du rapport à la ville
La VSA inscrit dans le code une vision particulière des normes comportementales et de la déviance, une vision policière qui passe à l’échelle du fait de sa mise en algorithmes. Ce faisant, elle risque de renforcer l’exclusion et la stigmatisation de celles et ceux perçus comme suspect·es ou non légitimes à occuper l’espace public.
Tous suspects : l’arbitraire policier mis en algorithmes
La vidéosurveillance algorithmique en temps réel a pour objectif d’automatiser le travail de visionnage de la vidéosurveillance. Il est donc demandé au logiciel de rechercher ce qui leur semble « anormal ». En pratique, il s’agira de repérer les individus « bizarres », les « comportements anormaux » grâce à des « signaux faibles ». Ces « signaux faibles » permettraient d’identifier une personne « suspecte » d’avoir commis ou de pouvoir commettre une infraction, systématisant en les automatisant les critères arbitraires déjà utilisés par la police. Des caractéristiques corporelles ou comportementales déjà perçues comme suspectes, souvent injustement discriminatoires, racistes, stigmatisantes se retrouveront ainsi « codées » dans les algorithmes de VSA. Au détour de ce processus, des situations très banales se retrouvent qualifiées de « suspectes » et dignes de l’attention policière. En réalité, aucun comportement n’est suspect en soi, il ne l’est que de manière relative à un imaginaire, à une vision de la société.
Comportements repérés par la VSA
Les exemples concrets de VSA en France montrent que les comportements faisant l’objet d’une alerte sont très anodins. Par exemple, le logiciel Jaguar commercialisé par la société Evitech propose de repérer comme situations suspectes les « arrêts fréquents », les « contre sens », les « groupes » ou encore une « vitesse insuffisante ou excessive ».
À Vannes, la société Cogitech a remporté le marché public de VSA. Dans le document technique associé à ce marché, il est prévu que l’analyse porte sur les données comportementales suivantes : « marchant, courant, debout, assis, baissé, accroupi, etc. ».
La ville nettoyées de ses « nuisibles [9] »
La liste des situations détectées par les systèmes de VSA illustre bien les usages de l’espace public perçus comme légitimes, et ceux qui sont au contraire diabolisés, traqués et réprimés – les « nuisibles », pour reprendre l’expression utilisée par les syndicats policiers en réaction au meurtre de Nahel et aux soulèvements des quartiers populaires suscités par ce drame.
Ainsi, un usage documenté de la VSA consiste à détecter des activités de « maraudage », c’est à dire une personne qui resterait un peu trop longtemps statique, ou limiterait ses déplacements à une zone restreinte. La VSA recherche aussi les personnes au sol ou allongées. Les personnes ouvertement stigmatisées par ces cas d’usage sont celles qui font la manche ou qui sont sans domicile. À travers ces détections, la VSA cible également les personnes qui travaillent dans la rue, par exemple les travailleur·euses du sexe. Un autre cas d’usage de la VSA est la détection des regroupements de personnes, notamment devant les halls d’immeuble. Les jeunes des quartiers populaires qui se retrouvent dans la rue, en partie parce qu’ils ou elles n’ont pas toujours les moyens de se retrouver dans un espace privé – encore moins un espace privé de qualité où nouer des sociabilités –, sont ouvertement visé·es.
La VSA renforce donc la répression d’activités, de comportements, de modes de vie déjà exposés à une forte discrimination et répression policière. Elle codifie dans un dispositif technique une vision stéréotypée de la « délinquance » et des personnes ou comportements « suspect·es ». Elle acte une vision de la rue comme simple lieu de passage, un espace transitoire plutôt qu’un lieu de vie, un moyen de se rendre d’un espace privé – si possible commercial – à un autre. Les personnes repérées par les logiciels seraient celles qui ne font pas partie du flux des villes, des mouvements pendulaires domicile-travail-domicile, celles qui ne font pas uniquement que se déplacer d’un point A à un point B., alimentant une vision utilitariste de la vie en ville. En somme, on repère celles et ceux qui ne participent pas, pas assez, ou pas assez bien à la machine capitaliste. On ne dort pas dans la rue, on ne joue pas dans la rue, on ne se rassemble pas dans la rue. Dans la rue, on est en mouvement, on passe son chemin.
Une telle philosophie pouvait déjà être perçue dans l’analyse des restrictions mises en place lors des confinements durant la pandémie de COVID-19 en 2020 et 2021. L’attestation de déplacement dérogatoire autorisait la sortie de chez soi pour une liste définie d’usages jugés « légitimes ». Aller au travail, à l’école, faire des achats et se déplacer pour des raisons de santé. Derrière ces choix qui pourraient paraître indolores se révèle une vision du monde : celle du travail productif et de la consommation.
Nos corps mis en données
Quoique prétendent ses promoteurs, la VSA repose sur l’exploitation de nos données personnelles et biométriques. Les fabricants de cette technologie voient en nos corps une source d’informations à exploiter pour faire du profit en mettant au service des États une nouvelle capacité de surveillance de la population.
Les algorithmes de VSA ne sont pas des outils magiques. Ils ne font qu’appliquer une série d’instructions. Contrairement à ce que la notion « d’intelligence artificielle » voudrait nous faire croire, la machine ne « voit » pas. Elle ne fait pas de distinction consciente entre un·e humain·e, une benne à ordures ou une voiture. Pour l’algorithme, il n’y a que des images composées d’un certain nombre de pixels de couleurs différentes. Ses concepteurs doivent recourir à des méthodes capables de l’aider à détecter une empreinte – c’est-à-dire une combinaison mathématique entre des positions de pixels les uns par rapport aux autres et leur couleur – à une appellation précise (par exemple « voiture », « individu humain », « valise », « ordure »). Le logiciel établit seulement une correspondance entre cette empreinte numérique et les mots « voiture » ou « humain », ou des catégories plus précises comme « humain avec un haut de couleur rouge et un pantalon de couleur bleue ».
Or, contrairement à la machine, le droit fait la différence entre les données qui constituent l’empreinte d’un objet et celles qui constituent l’empreinte d’un·e humain·e. Selon le Règlement européen général sur la protection des données (RGPD), les données biométriques sont toutes les données physiques, physiologiques ou comportementales qui peuvent permettre d’identifier une personne de façon unique. Ces données sont considérées comme sensibles et bénéficient d’une protection particulière.
Les promoteurs de la VSA s’efforcent de nier le caractère biométrique des données traitées par leurs systèmes afin d’échapper aux protections prévues par le droit. Or, même sans recourir aux empreintes faciales des individus (reconnaissance faciale), plusieurs méthodes de VSA permettent de suivre une personne – par exemple à travers la couleur de ses vêtements ou sa démarche – à mesure qu’elle évolue dans un espace urbain et passe dans le champ de vision de différentes caméras (cette capacité de suivi des personnes repose sur des algorithmes dits de « réidentification »). Dès lors que les algorithmes de VSA permettent de retrouver une personne au milieu d’autres à partir des données physiques ou comportementales, il s’agit d’identification biométrique.
Comprendre les algorithmes de reconnaissance faciale et leurs usages
Les algorithmes de reconnaissance faciale ont été « légalisés » en 2012 via le décret à l’origine de la création du fichier de police de traitement des antécédents judiciaires (TAJ). Ce fichier concerne toutes les personnes mises en cause par la police. Le décret prévoit que ces fiches puissent contenir « la photographie comportant les caractéristiques techniques permettant le recours à un dispositif de reconnaissance faciale ».
Les algorithmes de reconnaissance faciale fonctionnent en attribuant une empreinte à chaque visage. Cette empreinte est construite à partir de la distance qui sépare certains points du visage, choisis stratégiquement pour garantir que la combinaison des distances permette d’identifier un visage sur une photo avec une marge d’erreur suffisamment faible.
Ainsi, quand la police questionne le logiciel de reconnaissance faciale, elle envoie la photo d’une personne non identifiée, trouvée par exemple sur des images de vidéosurveillance, et le logiciel compare l’empreinte de son visage aux empreintes des 8 millions de personnes ayant une fiche avec photo dans le TAJ.
Comprendre les algorithmes de réidentification et leurs usages
Les algorithmes de réidentification permettent de retrouver une même personne sur plusieurs images à partir de ses attributs physiques et comportementaux. Ils fonctionnent différemment des algorithmes de reconnaissance faciale, car l’identification de la personne ne se fait pas sur la base d’une comparaison entre une base de données et une image externe, mais par comparaison entre deux images de vidéosurveillance (deux caméras différentes ou deux moment différents sur une même caméra) afin de pouvoir les relier et ainsi retracer le chemin de la personne. Pour ce faire, le logiciel dresse là aussi une empreinte de la personne, basée sur une multitude de caractéristiques qu’il est en mesure de repérer chez une personne, comme le type et la couleur de ses vêtements, sa silhouette, sa taille, la couleur de sa peau, ses accessoires et bien d’autres.
Ces algorithmes sont totalement illégaux mais sont déjà largement en usage. On les retrouve notamment dans un projet européen dénommé « Prevent PCP », déployé à Paris et Marseille pour suivre les bagages dans les gares d’une caméra à l’autre. Afin de s’assurer qu’il s’agit bien du même bagage, les informations sur la personne qui le porte sont utilisées. Un bagage ressemble trop à un autre, en revanche la personne qui le porte, par exemple une femme avec un t-shirt rouge, a des caractéristiques suffisamment rares pour identifier le bagage de manière unique. Pour suivre un bagage, l’humain·e qui l’accompagne et l’ensemble de ses données biométriques sont utilisées. L’appellation « suivi de bagage » fait oublier que c’est avant tout l’humain qui est suivi.
Une perte de libertés pour tous·tes
La ville, et l’espace public de manière générale, constitue un lieu précieux. Un lieu dense, protéiforme, en mouvement permanent, où s’exercent de nombreuses libertés, où l’on peut s’affranchir de certaines assignations imposées.
L’anonymat et le respect de la vie privée y sont fondamentaux. Car c’est à travers eux que peuvent s’exercer toutes les autres libertés : liberté de manifester, liberté d’aller et venir, liberté d’expression. Or, en renforçant les dispositifs de surveillance et en augmentant le nombre de caméras pour y ajouter des algorithmes d’analyse, l’État fait de l’atteinte à la vie privée un principe et non l’exception. Il part du postulat que tout·e citoyen·ne est suspect·e en puissance, que ce serait à elles et eux de justifier tout comportement déviant ou leur simple présence dans certains lieux. La VSA est fondamentalement contraire à la défense des formes de vie démocratique.
Partie II - L’empire de la VSA
En quelques années, la VSA s’est fait une place dans le débat public et dans la pratique policière, au point d’avoir fait l’objet d’une législation dédiée avec le cadre « expérimental » de la loi relative aux Jeux Olympiques adoptée en 2023. Pour comprendre cette percée fulgurante, il faut se pencher sur la composition des réseaux d’acteurs dédiés à sa promotion mais également sur les mécanismes d’opacité et les stratégies d’acceptabilité que ces derniers ont déployées dans le but de l’imposer.
A. Une convergence d’intérêts
Le déploiement de la VSA ne répond à aucun besoin sociétal réellement documenté mais résulte d’une convergence d’intérêts : économiques pour les entreprises qui la développent, politiques et électoralistes pour les décideurs publics, autoritaires pour la police qui accroît toujours plus son pouvoir de contrôle.
Des intérêts économiques d’abord
Ce sont des entreprises privées qui vendent ces logiciels aux villes, aux collectivités ou à d’autres acteurs privés (notamment les commerces). Cette nouvelle « offre » commerciale centrée sur l’automatisation des analyses de la vidéosurveillance s’inscrit dans un phénomène plus global : celui du marché de la sécurité. Il s’agit d’un secteur très lucratif et en pleine expansion. En France, il est estimé à 34 milliards d’euros (soit 1,6 % du PIB [10] ). Au sein de ce secteur florissant, le business de la vidéosurveillance se porte particulièrement bien, puisque la CNIL estimait que le chiffre d’affaire du secteur atteignait 1,7 milliards d’euros en 2022 [11] .
Au niveau mondial, le marché de la sécurité privée est estimé à 660 milliards d’euros et celui de la vidéosurveillance à 45 milliards en 2020 (avec des projections à 76 milliards pour 2025). Toujours à l’échelle mondiale, la vidéosurveillance algorithmique représentait en 2020 plus de 11 milliards de dollars, avec une croissance de 7% par an [12] .
Comme le montre la sociologue Myrtille Picaud dans ses recherches [13] , le marché numérique de la sécurité urbaine est investi par une panoplie hétérogène d’acteurs :
Il y a d’abord les grandes multinationales provenant du domaine de la tech, à l’image d’IBM à Toulouse, qui a équipé une trentaine de caméras de vidéosurveillance de la métropole avec un logiciel de vidéosurveillance automatisée.
Ensuite, il y a les industriels de la sécurité, largement soutenus par les subventions publiques, qui se sont intéressés à la numérisation de ce marché. C’est le cas par exemple de Thales, avec l’expérimentation Safe City à Nice et à La Défense, ou encore de la SNEF à Marseille.
Plus modestes et plus récentes, des startups ont été lancées dans le but de se positionner sur ce marché prometteur. Certaines investissent explicitement le marché de la police urbaine, comme Videtics, startup implantée dans le technopôle de Sophia Antipolis, près de Nice. D’autres tentent de se dessiner une image plus vertueuse et « éthique », à l’image de l’entreprise XXII qui, après avoir perdu plusieurs marchés sécuritaires, met surtout en avant des usages d’apparence plus inoffensifs (par exemple en repérant automatiquement l’arrivée d’un piéton afin de faire passer le feu au rouge pour les voitures [14] ).
Enfin, les entreprises étrangères, grandes ou petites, ne sont pas en reste. Une des solutions de vidéosurveillance algorithmique les plus répandues en France est proposée par Briefcam, une entreprise israélienne rachetée par le groupe japonais Canon [15] : pas moins de 200 villes françaises seraient dotées de sa technologie de VSA [16].
L’argent attirant l’argent, les grands groupes et les startups du secteur enchaînent les levées de fonds, aussi bien auprès des acteurs publics (notamment la BPIfrance) que privés. L’État subventionne également ces entreprises au titre des financement de recherche. En 2019, l’Agence nationale de la recherche (ANR) accordait par exemple plus d’un million d’euros à Idemia, Thales et Deveryware (depuis rachetée par la holding spécialiste de surveillance ChapsVision) afin de développer des applications de VSA en lien avec la préfecture de police de Paris [17].
En faisant tourner leurs algorithmes sur les flux de vidéosurveillance, ces entreprises agrègent quantité de données personnelles et biométriques aux fins de les analyser, de les exploiter, de les recouper pour entraîner et développer des logiciels qui seront ensuite vendus sur un marché international. En outre, pour la VSA en temps réel, ce sont ces sociétés qui définissent ce qui est « normal » ou « anormal » au sein de l’espace public.
Zoom sur une des entreprises retenues pour les JO
Parmi les sociétés retenues pour assurer les expérimentations de VSA pour les JO, on trouve la startup parisienne Wintics, créée en 2017. Elle se place parmi les principaux acteurs du marché avec son logiciel « Cityvision » qui fait notamment de l’analyse de foules mais également de la détection de « présences suspectes » et de « comportements violents » ou « dangereux sur les quais ». Sa solution a notamment été utilisée dans les gares et stations de la RATP, lors du tour de France pour compter les vélos et aurait été récemment installée à l’aéroport de Rome pour « gérer les flux ». Ses fondateurs s’affichent régulièrement avec le gouvernement et représentent la France dans les salons internationaux. Wintics fait partie des entreprises sélectionnées pour mettre en œuvre l’expérimentation de la VSA dans les transports, dans le cadre de la loi JO (voir partie III).
Des intérêts électoralistes ensuite
La VSA s’inscrit totalement dans le mécanisme d’activation du sentiment d’insécurité. Comme la vidéosurveillance avant elle, la VSA se présente comme une solution technologique à disposition des maires qui voudraient donner l’illusion d’avoir une action concrète sur la délinquance ou les troubles à l’ordre public.
L’attrait politique de la VSA tient également au prétendu caractère « innovant » et « smart » colporté par la technologie numérique. Les algorithmes de détection incarnent l’innovation et un futur soi-disant « inéluctable ». De nombreux responsables politiques, y compris de très petites communes, veulent les adopter pour se donner une image de progrès et de modernité.
Ainsi, comme les caméras, la VSA joue sur le solutionnisme technologique. Elle permet de prétendre résoudre un problème politique à moindre coût, tout en justifiant l’existence du parc de caméras existant.
Des intérêts autoritaires, enfin
Enfin, comme on l’a déjà évoqué, la VSA accroît considérablement les pouvoirs de contrôle et de surveillance de la police. En ne se contentant pas d’observer passivement mais en ajoutant aux caméras une analyse automatisée et permanente des flux de vidéosurveillance, les forces de l’ordre ont la capacité de démultiplier leurs activités de surveillance, leurs interventions, la vidéo-verbalisation, et les arrestations. Le tout en compilant constamment des informations liées à notre présence dans l’espace public : comportements, déplacements, habitudes… Toutes ces données tirées des traitements automatisés donnent à la police un pouvoir de s’immiscer toujours plus dans nos vies, et participent pleinement de la dérive autoritaire qui se donne à voir chaque jour un peu plus.
À la vue de cette convergence d’intérêts économiques, politiques et policiers, on comprend alors comment la VSA a pu se développer aussi rapidement et facilement, chacun de ces intérêts s’auto-alimentant et les trois se perpétuant les uns les autres. En effet, les entreprises de VSA ont pu trouver leur raison d’être en s’ancrant dans le discours réactionnaire de la peur du crime alimenté depuis des années. Leurs technologies sont apparues comme une façon innovante de répondre aux problématiques « d’insécurité ». Que ce soit au niveau national ou local, les politiciens s’en sont saisies à des fins électoralistes. Enfin, la police s’en est trouvée confortée dans son rôle central dans la régulation et le contrôle social.
L’ensemble de cette logique techno-sécuritaire contribue en réalité à activer le sentiment de peur d’une partie de la population, entretenant à son tour la demande sociale en vidéosurveillance. Et ce d’autant que tous les gardes-fous institutionnels censés préserver les droits humains sont mis en échec par un jeu d’opacités multiples.
B. Une avancée à visage masqué
Si les dangers de la reconnaissance faciale sont très présents dans l’imaginaire collectif, les autres applications de la VSA sont inconnues de la majorité de la population. Même en s’intéressant particulièrement au sujet, il est difficile de savoir comment celle-ci est développée, ou quel spectre d’usages elle recouvre. Il est encore plus difficile de savoir, parmi ces usages, lesquels sont déjà en cours d’utilisation par la police. C’est en entretenant cette opacité que les promoteurs de la VSA – responsables politiques et entreprises – tentent de la déployer. Une fois celle-ci installée, il est en général trop tard pour renverser la machine. L’opacité entretenue autour de la VSA devient donc un frein à l’exercice des mécanismes démocratiques et d’opposition politique.
Opacité politique et administrative
Si la police judiciaire y recourt déjà en temps différé pour ses enquêtes, le déploiement de la VSA se joue principalement à l’échelle locale, car ce sont le plus souvent les collectivités (communes, régions, etc..) qui administrent les parcs de vidéosurveillance et sont donc compétentes pour mettre en place un logiciel de VSA. Alors que cette technologie est totalement illégale – et ce quels que soient ses cas d’usage – , elle a ainsi pu se déployer partout en France sur la base de décisions éparses et éclatées géographiquement, prises le plus souvent par des villes à la fois peu soucieuses de la licéité de ces dispositifs, sensibles aux discours commerciaux des entreprises et aux demandes des services de police municipale. De plus en plus étendu, ce réseau de collectivités recourant à la VSA a ainsi participé à imposer un état de fait au niveau national, faisant émerger et exister une technologie de surveillance en dépit de sa totale illégalité.
Les décisions d’investir dans des logiciels de surveillance algorithmique sont le plus souvent prises lors des conseils municipaux, départementaux ou régionaux et sont inscrites dans les procès verbaux de ces réunions. En général, la collectivité émet un appel d’offres pour acquérir et installer une solution logicielle, auquel les entreprises de VSA répondent. L’ensemble de ces documents – procès verbaux et appels d’offres – sont des documents administratifs. Ils ne sont généralement pas rendus public mais il existe des dispositions législatives permettant à quiconque en faisant la demande d’y accéder. C’est grâce à cette procédure, dite « demande CADA » (pour Commission d’accès aux documents administratifs) que chacun·e peut demander à avoir accès à un document public, via un e-mail ou un courrier papier et tant qu’elle respecte un certain formalisme [18] .
Si l’administration ne répond pas sous deux mois, il est possible de saisir la Commission d’accès aux documents administratifs afin qu’elle fasse respecter la demande. Si la demande CADA est une méthode très incertaine (les documents communiqués sont souvent caviardés ou incomplets) et chronophage, elle reste la méthode la plus efficace pour lever l’opacité qui règne autour du déploiement des logiciels de VSA.
Briefcam à Moirans
La ville de Moirans, en Isère, a décidé de se doter du logiciel de VSA Briefcam. La Quadrature du Net a fait une demande CADA auprès de la commune pour obtenir le manuel d’utilisation. Celle-ci a refusé, prétextant ne pas y être autorisée en raison du secret des affaires. Il a alors fallu saisir la Commission d’accès aux documents administratifs qui a rendu un avis affirmant que ce manuel était bel et bien communicable en vertu de la loi française. Malgré cela, la ville a maintenu son refus, obligeant La Quadrature à introduire un recours. Une fois devant le tribunal administratif, la commune de Moirans a toutefois abandonné l’affaire et a a communiqué ce document sans attendre une décision de justice qui aurait très certainement été en sa défaveur.
Avis de la CADA disponible ici : https://cada.data.gouv.fr/20212725/ .
Non seulement le choix de recourir à la VSA n’est généralement pas rendu public, mais il est aussi imposé aux habitant·es des villes. Jamais leur consentement n’est demandé, alors même que cette technologie est extrêmement intrusive et conditionne l’exercice de leurs libertés et la manière dont elles et ils vivent la ville. Il n’y a en général ni débat ni vote auprès de la population d’une commune afin de décider collectivement de mettre en place ou non une telle technologie de surveillance. Même les élu·es d’opposition se heurtent souvent à un manque de transparence. De plus, une fois les logiciels installés, aucune information n’est donnée aux personnes soumises à ces analyses algorithmiques : on passe alors sous une caméra de vidéosurveillance sans savoir que l’on fait l’objet d’une analyse algorithmique.
Dès lors que la connaissance de ces projets est entravée, les mécanismes démocratiques de contestation de ces projets, de même que les garde-fous juridiques normalement applicables, ne peuvent être mobilisés pour s’opposer à la VSA.
Opacité technique
Les algorithmes utilisés par la VSA sont développés par des entreprises qui sont les seules à avoir la main sur les choix qui se retrouvent gravés dans le code. Parmi ces choix se cachent de nombreuses décisions politiques. Intégrer de la transparence tout au long de la fabrication de ces algorithmes permettrait au minimum de comprendre comment ces choix sont opérés.
Les algorithmes de VSA rassemblent divers algorithmes de vision assistée par ordinateurs, parmi lesquels on trouve :
– les algorithmes de détection, qui permettent d’isoler différents éléments d’une image ;
– les algorithmes d’identification, qui qualifient ces éléments ;
– les algorithmes de suivi, qui permettent de suivre ces éléments ;
– les algorithmes de reconnaissance faciale ;
– les algorithmes de franchissement de ligne, qui repèrent quand un élément se trouve dans une certaine zone de l’image ;
– et une quantité d’autres algorithmes qui, une fois assemblés, couvrent un spectre d’analyse très large.
L’étendue des fonctionnalités d’un logiciel est décidée par l’entreprise – souvent en fonction de la demande des collectivités ou de la police – en combinant ces différents algorithmes. Le code du logiciel n’est jamais publié, le choix des algorithmes utilisés et de leur paramétrage non plus, pas plus que les jeux de données utilisés pour l’entraînement des algorithmes d’identification. Toute la chaîne de production est opaque. Il n’est donc pas possible de savoir quelles données de nos corps la VSA traite effectivement.
Parmi ces algorithmes, certains reposent sur une sous-catégorie du machine learning appelée le deep learning. La particularité du deep learning est que les variables qui sont utilisées dans les corrélations sont cachées sous des couches de calculs les rendant imperceptibles. Par exemple, pour catégoriser une image de chat, le concepteur ne spécifie pas à l’algorithme de repérer des oreilles pointues ou des moustaches. À la place, l’algorithme se sert de toute information à sa portée, issue des positions de pixels associées et de leur couleur. Les variables utilisées en pratique peuvent donc ne même pas être compréhensibles par un humain. Il existe ainsi une forme de « boîte noire » dans le raisonnement de l’algorithme, que personne ne peut comprendre. Le deep learning a donc aussi cette particularité d’être opaque dans les variables utilisées, y compris pour la personne qui le conçoit et le met en place.
Les logiciels de VSA sont utilisés par l’État et pour autant il n’existe aucune information publique précise sur leur fonctionnement. Lors des débats sur la loi JO, le gouvernement a refusé d’accorder un droit de transparence sur ces algorithmes, invoquant un objectif de « sécurité ». Le seul moyen disponible pour obtenir des éléments de compréhension est d’étudier la promotion qu’en font les entreprises dans leur communication commerciale. Or, celle-ci est souvent très repeinte d’un vernis marketing, et ne suffit pas à établir clairement ce que sont les opérations de classement produites par le logiciel.
Opacité pratique
Les logiciels de VSA sont des biens marchands répondant à une logique d’offre et de demande. Lorsqu’elles s’adressent à leurs potentielles clientes que sont les collectivités, les entreprises souhaitent que celles-ci achètent leur licence. En bonnes commerciales, elles vont mettre en avant le plus de « besoins » possible que pourraient avoir les villes et qui correspondraient aux usages du logiciel.
Ainsi, une ville qui décide de mettre en place une surveillance de dépôt d’ordures sauvages se verra proposer tout le « package » du logiciel de VSA, qui peut comprendre d’autres utilisations de surveillance. La police qui l’utilisera, en pratique peu scrupuleuse, aura ainsi ensuite entre ses mains de multiples outils, sans que l’on sache exactement lequel est utilisé. S’ajoute donc une opacité pratique sur ce qui se passe concrètement dans les commissariats et les centres de supervision urbains.
L‘exemple de Marseille
A Marseille, le marché public prévoit une « tranche ferme » et une « tranche conditionnelle », c’est à dire un logiciel de base et une couche supplémentaire à installer ultérieurement, cette dernière contenant les usages les plus problématiques. Il est cependant impossible de savoir si celle-ci a été un jour implémentée. De la même manière, le logiciel Briefcam prévoit une simple case pour activer la reconnaissance faciale, qui d’après des retours du terrain est cochée par défaut. Les commerciaux de l’entreprise n’hésitent d’ailleurs pas à expliquer patiemment à leurs clients comment désactiver l’option en cas de contrôle inopiné de la CNIL.
La prétention de poser des garde-fous techniques, c’est-à-dire d’établir une frontière nette entre une VSA acceptable et une qui ne le serait pas est un mirage. « Détecter un objet au milieu de la route » et « détecter une personne qui dort dans la rue » sont deux actions qui utilisent les mêmes algorithmes, on ne peut pas établir de frontière technique entre les deux. L’opacité pratique et le manque de scrupules de la police nous assure d’une chose : le seul garde-fou possible est l’interdiction totale de la VSA.
À la fin, quasiment personne ne sait ce qu’est la VSA. Si une personne sait que la VSA existe, elle ne peut pas savoir pour autant où cette dernière est déployée. Si la personne est arrêtée par la police, elle ne saura pas si la VSA a joué un rôle dans son arrestation. Si elle a fait une demande CADA et sait que la VSA est présente dans sa ville, elle ne sera pas pour autant en mesure de savoir à quelles fins elle est vraiment utilisée et ne pourra donc pas s’y opposer.
C. Fabrique de l’acceptabilité
En parallèle de cette implantation commerciale dans les villes, l’industrie de la VSA a fait en sorte de se construire une image vertueuse dans le débat public. Afin d’emporter l’adhésion de la population et des institutions, le secteur a déployé tout un panel de stratégies pour rendre cette technologie de surveillance acceptable et être associé à une forme de respectabilité.
Affirmer la neutralité de la technique
C’est un grand classique. Les technologies de surveillance sont généralement présentées comme de simples outils techniques, qui auraient comme unique but d’aider de façon neutre et impartiale la personne qui l’utilise. Mais rien n’est neutre dans la VSA. Toute technique est formatée par ses conditions de production et par l’intention de ses auteurs. À chaque étape, la VSA reproduit et met dans le code des décisions humaines, des visions subjectives de la société, qui ont des conséquences politiques importantes.
Pour convaincre que la VSA est un logiciel sans conséquence, le choix des mots utilisés pour nommer et décrire cette technologie représentait donc un enjeu stratégique majeur. L’industrie a ainsi développé tout un discours marketing mélioratif et dédramatisant, visant à éclipser la nature réelle de ce qui était filmé et analysé par les algorithmes.
Nous avons expliqué que les logiciels de VSA analysent et classent ce qui est représenté sur les images de vidéosurveillance, c’est à dire le plus souvent des humain·es. Pour opérer des corrélations, les algorithmes vont donc utiliser les données présentes sur ces images, c’est à dire des informations et caractéristiques relatives aux corps et aux comportements, les « données biométriques ». Mais cette qualification de « biométrie » fait tout de suite appel à l’imaginaire de l’intime et revêt une symbolique forte ainsi qu’une connotation intrusive.
Dans leurs discours, les entreprises se sont ainsi efforcées de masquer cette réalité en ayant recours à des jeux sémantiques et des périphrases. Les logiciels de VSA sont généralement présentés comme analysant et classifiant des « objets », bien que cette catégorisation inclue des personnes.
Les entreprises de VSA sont pour cela aidées par le milieu académique. Des chercheur·ses ont récemment démontré comment le milieu scientifique du computer vision faisait dominer une perception neutre et purement intellectuelle des technologies d’analyse automatisée d’images d’humain·es. En séparant leurs recherches et les applications et usages qui en seront fait en aval, tout en minimisant le fait qu’elles traitent des données d’humain·es, les chercheur·ses contribuent à dissimuler le lien consubstantiel entre la technologie et ses applications pratiques, qui en font alors une couche fondatrice d’un paradigme de surveillance [19] .
En ne distinguant pas les humain·es des objets, les entreprises visent à homogénéiser et mettre au même niveau les données traitées pour ces deux catégories, alors qu’elles sont politiquement et juridiquement très différentes dans leurs conséquences. Utiliser la couleur d’une voiture pour établir des corrélations n’a pas les mêmes incidences qu’utiliser la couleur de peau d’une personne. En mettant tout dans le même sac, les promoteurs de la VSA écartent toute discussion politique sur la surveillance dont leurs logiciels sont l’instrument.
De la même manière, les logiciels ne viseraient pas des « comportements » mais des « situations ». Concernant l’audiosurveillance algorithmique implantée dans ses rues par la société Sensivic
complements article
Une question ou une remarque à faire passer au Stuut? Un complément d'information qui aurait sa place sous cet article? Clique ci-dessous!
Proposer un complément d'info