Vue normale

Il y a de nouveaux articles disponibles, cliquez pour rafraîchir la page.
À partir d’avant-hierFlux principal

Reconnaissance faciale en France – Une menace pour nos libertés

Par : Korben
28 mai 2024 à 07:39

Et si la reconnaissance faciale devenait monnaie courante en France ? Partout où vous allez, des caméras scrutent votre visage, comparent vos traits à une gigantesque base de données, et vous identifient en temps réel. Aux chiottes l’anonymat dans l’espace public, Big Brother vous observe, tout le temps, où que vous soyez. Ça fout les jetons, pas vrai ?

Et pourtant, c’est ce genre de scénario qui risque de se concrétiser si on n’y prend pas garde. Les autorités françaises multiplient les expérimentations de technologies de surveillance plus intrusives les unes que les autres avec de la reconnaissance faciale à l’entrée des lycées, de l’analyse des comportements par vidéosurveillance algorithmique dans les gares, de l’identification des supporters dans les stades… Ça part dans tous les sens !

Alors quand il s’agit de vérifier son identité à l’aéroport pour passer plus vite ou de déverrouiller notre smartphone, pourquoi pas mais quand il s’agit d’identifier automatiquement et pister les gens à leur insu, en permanence, dans l’espace public, ça s’appelle de la surveillance de masse. Et c’est très dangereux pour nos libertés fondamentales.

C’est une atteinte disproportionnée à notre droit à la vie privée car être épié en continu, sans rien avoir à se reprocher, juste parce qu’on met le nez dehors, ça reste inacceptable dans une société démocratique et ça menace également sérieusement le droit de manifester et la liberté d’expression. Si on sait qu’on sera identifié et fiché dès qu’on participe à un rassemblement, les gens vont y réfléchir à 2 fois avant de descendre dans la rue. Bref, c’est la porte ouverte à l’autocensure et au musellement de toute contestation.

Enfin, on sait que la reconnaissance faciale est loin d’être infaillible. Elle fait beaucoup d’erreurs, surtout sur les visages noirs et métissés. Du coup, il y a un gros risque d’aggravation des discriminations et de ciblage de certaines populations. Sans parler du fait que ces outils high-tech entre les mains des régimes autoritaires, c’est un cauchemar assuré pour les opposants et les minorités…

Bref, la reconnaissance faciale appliquée à la surveillance de masse, c’est non comme l’illustre très bien le court-métrage d’Amnesty International que je vous invite à regarder :

Tout cela nous rapproche dangereusement d’une société de contrôle façon 1984 ou Minority Report et perso, c’est pas le futur dont je rêve !

Heureusement, tout n’est pas perdu puisqu’en France, la CNIL veille au grain et recadre régulièrement les velléités sécuritaires abusives du mieux qu’elle peut. Mais face à la pression et avec ses moyens limités, ça ne suffira pas. Il faudrait surtout une loi claire pour interdire purement et simplement la reconnaissance faciale à des fins d’identification dans l’espace public, autrement les garde-fous sauteront les uns après les autres.

Bref, c’est ce que réclame Amnesty International avec sa campagne lancée à l’occasion des Jeux olympiques. L’objectif, c’est de créer une prise de conscience et de pousser nos élus à légiférer avant qu’il ne soit trop tard. parce qu’une fois que la reconnaissance faciale se sera répandue comme une traînée de poudre, ce sera beaucoup plus dur de revenir en arrière…

D’ailleurs, vous pouvez aussi agir en signant la pétition d’Amnesty International pour dire « Non à la reconnaissance faciale en France »

En espérant que ce court-métrage ne devienne pas notre quotidien.

Source

Vidéosurveillance algorithmique – Pas le temps de souffler, l’Assemblée prépare déjà son extension !

Par : Korben
14 mai 2024 à 13:58

À peine un an après avoir validé une première « expérimentation » de vidéosurveillance algorithmique (VSA) pour les JO 2024, nos chers députés élevés au grain, reviennent avec une nouvelle proposition de loi pour étendre ces jouets de flicage high-tech aux transports publics. Et moi qui pensais qu’on aurait le droit à un petit répit le temps de voir les dérives des premiers déploiements de VSA et leurs conséquences sur nos libertés, c’est raté ! Le rouleau compresseur sécuritaire est lancé à pleine vitesse et visiblement, impossible de l’arrêter.

L’année dernière, pour soi-disant « sécuriser » les Jeux Olympiques, le gouvernement et sa clique de députés ont voté une loi qui autorise, de manière « expérimentale » bien sûr, l’utilisation d’algorithmes de reconnaissance de comportements suspects dans l’espace public. En gros, on vous colle des caméras high-tech partout capables de repérer toutes seules si quelqu’un a un comportement bizarre, agressif ou menaçant. Un sac abandonné, un déplacement en zigzag dans la foule, des gestes brusques… bref, si l’algo vous trouve louche, vous avez droit à un petit contrôle d’identité ! C’est beau la technologie, non ?

Le hic, c’est que comme d’hab’ et comme pour FR-Alert hier, on met la charrue avant les bœufs. Les premières autorisations pour utiliser ces logiciels de surveillance viennent à peine de tomber et on n’a strictement aucun retour sur leur efficacité ou leurs dangers. Rien, nada, que dalle mais ça n’empêche pas nos valeureux élus de foncer tête baissée pour en remettre une couche. Mercredi, ils vont donc plancher sur un nouveau torchon qui vise à légaliser une autre forme de vidéosurveillance algorithmique, cette fois-ci dans les transports.

Il s’agit d’autoriser la RATP et la SNCF (coucou Valérie !) à utiliser des algorithmes pour faire des recherches automatisées dans leurs enregistrements vidéos afin de répondre à des réquisitions judiciaires. Vous voyez le délire ? Quelqu’un commet un petit délit dans le métro, les flics balancent sa description à l’algo qui va alors passer au peigne fin des heures de vidéos pour le retrouver en quelques minutes. Ça peut aussi retracer son trajet en repérant les correspondances qu’il a empruntées.

Ça peut paraitre super cool comme techno quand on s’appelle Batman et qu’on veut botter le cul du Joker, mais évidemment, ce type de surveillance de masse complètement automatisée est illégal. Mais si vous croyez que ça va gêner le gouvernement, vous êtes bien innocent… car lieu de taper sur les doigts des 200 villes françaises qui utilisent déjà ce genre de logiciels en toute illégalité, ils préfèrent leur dérouler le tapis rouge en faisant mine d' »expérimenter ».

C’est un peu comme si vous annonciez vouloir « expérimenter » le braquage de banque ou la nationale à côté de chez vous à 260 km/h… Si on expérimente, y’a pas de souci non ?

L’année dernière, pour faire passer la pilule de la loi sur les JO, ils nous avaient déjà juré la main sur le cœur que c’était juste pour « voir » et qu’il y aurait une vraie évaluation avant d’aller plus loin. Mais à quoi bon tenir ses promesses quand on peut faire voter ce qu’on veut par une Assemblée aux ordres ? Circulez y a rien à voir !

Bref, vous l’aurez compris, ce nouveau texte n’est qu’une étape de plus vers la généralisation de la surveillance algorithmique de l’espace public. Aujourd’hui les transports, demain ça sera les écoles, les hôpitaux, les centres commerciaux… jusqu’à ce qu’on ne puisse plus faire un pas dans la rue sans être scruté, analysé, fiché…et noté par des algorithmes !

Alors évidemment, il est plus que temps de se bouger les fesses et de gueuler un bon coup ! La Quadrature du Net est sur le pont et, je le rappelle, a lancé une grande campagne de mobilisation avec plein d’outils pour mettre des bâtons dans les roues de Big Brother. Donc ils comptent sur vous pour relayer à fond, interpeller vos élus, informer vos potes… Bref, ne les laissez pas transformer nos villes en gigantesques panoptiques !

Source

❌
❌