Vue normale

Il y a de nouveaux articles disponibles, cliquez pour rafraîchir la page.
À partir d’avant-hierFlux principal

Reconnaissance faciale en France – Une menace pour nos libertés

Par : Korben
28 mai 2024 à 07:39

Et si la reconnaissance faciale devenait monnaie courante en France ? Partout où vous allez, des caméras scrutent votre visage, comparent vos traits à une gigantesque base de données, et vous identifient en temps réel. Aux chiottes l’anonymat dans l’espace public, Big Brother vous observe, tout le temps, où que vous soyez. Ça fout les jetons, pas vrai ?

Et pourtant, c’est ce genre de scénario qui risque de se concrétiser si on n’y prend pas garde. Les autorités françaises multiplient les expérimentations de technologies de surveillance plus intrusives les unes que les autres avec de la reconnaissance faciale à l’entrée des lycées, de l’analyse des comportements par vidéosurveillance algorithmique dans les gares, de l’identification des supporters dans les stades… Ça part dans tous les sens !

Alors quand il s’agit de vérifier son identité à l’aéroport pour passer plus vite ou de déverrouiller notre smartphone, pourquoi pas mais quand il s’agit d’identifier automatiquement et pister les gens à leur insu, en permanence, dans l’espace public, ça s’appelle de la surveillance de masse. Et c’est très dangereux pour nos libertés fondamentales.

C’est une atteinte disproportionnée à notre droit à la vie privée car être épié en continu, sans rien avoir à se reprocher, juste parce qu’on met le nez dehors, ça reste inacceptable dans une société démocratique et ça menace également sérieusement le droit de manifester et la liberté d’expression. Si on sait qu’on sera identifié et fiché dès qu’on participe à un rassemblement, les gens vont y réfléchir à 2 fois avant de descendre dans la rue. Bref, c’est la porte ouverte à l’autocensure et au musellement de toute contestation.

Enfin, on sait que la reconnaissance faciale est loin d’être infaillible. Elle fait beaucoup d’erreurs, surtout sur les visages noirs et métissés. Du coup, il y a un gros risque d’aggravation des discriminations et de ciblage de certaines populations. Sans parler du fait que ces outils high-tech entre les mains des régimes autoritaires, c’est un cauchemar assuré pour les opposants et les minorités…

Bref, la reconnaissance faciale appliquée à la surveillance de masse, c’est non comme l’illustre très bien le court-métrage d’Amnesty International que je vous invite à regarder :

Tout cela nous rapproche dangereusement d’une société de contrôle façon 1984 ou Minority Report et perso, c’est pas le futur dont je rêve !

Heureusement, tout n’est pas perdu puisqu’en France, la CNIL veille au grain et recadre régulièrement les velléités sécuritaires abusives du mieux qu’elle peut. Mais face à la pression et avec ses moyens limités, ça ne suffira pas. Il faudrait surtout une loi claire pour interdire purement et simplement la reconnaissance faciale à des fins d’identification dans l’espace public, autrement les garde-fous sauteront les uns après les autres.

Bref, c’est ce que réclame Amnesty International avec sa campagne lancée à l’occasion des Jeux olympiques. L’objectif, c’est de créer une prise de conscience et de pousser nos élus à légiférer avant qu’il ne soit trop tard. parce qu’une fois que la reconnaissance faciale se sera répandue comme une traînée de poudre, ce sera beaucoup plus dur de revenir en arrière…

D’ailleurs, vous pouvez aussi agir en signant la pétition d’Amnesty International pour dire « Non à la reconnaissance faciale en France »

En espérant que ce court-métrage ne devienne pas notre quotidien.

Source

Vidéosurveillance algorithmique – Pas le temps de souffler, l’Assemblée prépare déjà son extension !

Par : Korben
14 mai 2024 à 13:58

À peine un an après avoir validé une première « expérimentation » de vidéosurveillance algorithmique (VSA) pour les JO 2024, nos chers députés élevés au grain, reviennent avec une nouvelle proposition de loi pour étendre ces jouets de flicage high-tech aux transports publics. Et moi qui pensais qu’on aurait le droit à un petit répit le temps de voir les dérives des premiers déploiements de VSA et leurs conséquences sur nos libertés, c’est raté ! Le rouleau compresseur sécuritaire est lancé à pleine vitesse et visiblement, impossible de l’arrêter.

L’année dernière, pour soi-disant « sécuriser » les Jeux Olympiques, le gouvernement et sa clique de députés ont voté une loi qui autorise, de manière « expérimentale » bien sûr, l’utilisation d’algorithmes de reconnaissance de comportements suspects dans l’espace public. En gros, on vous colle des caméras high-tech partout capables de repérer toutes seules si quelqu’un a un comportement bizarre, agressif ou menaçant. Un sac abandonné, un déplacement en zigzag dans la foule, des gestes brusques… bref, si l’algo vous trouve louche, vous avez droit à un petit contrôle d’identité ! C’est beau la technologie, non ?

Le hic, c’est que comme d’hab’ et comme pour FR-Alert hier, on met la charrue avant les bœufs. Les premières autorisations pour utiliser ces logiciels de surveillance viennent à peine de tomber et on n’a strictement aucun retour sur leur efficacité ou leurs dangers. Rien, nada, que dalle mais ça n’empêche pas nos valeureux élus de foncer tête baissée pour en remettre une couche. Mercredi, ils vont donc plancher sur un nouveau torchon qui vise à légaliser une autre forme de vidéosurveillance algorithmique, cette fois-ci dans les transports.

Il s’agit d’autoriser la RATP et la SNCF (coucou Valérie !) à utiliser des algorithmes pour faire des recherches automatisées dans leurs enregistrements vidéos afin de répondre à des réquisitions judiciaires. Vous voyez le délire ? Quelqu’un commet un petit délit dans le métro, les flics balancent sa description à l’algo qui va alors passer au peigne fin des heures de vidéos pour le retrouver en quelques minutes. Ça peut aussi retracer son trajet en repérant les correspondances qu’il a empruntées.

Ça peut paraitre super cool comme techno quand on s’appelle Batman et qu’on veut botter le cul du Joker, mais évidemment, ce type de surveillance de masse complètement automatisée est illégal. Mais si vous croyez que ça va gêner le gouvernement, vous êtes bien innocent… car lieu de taper sur les doigts des 200 villes françaises qui utilisent déjà ce genre de logiciels en toute illégalité, ils préfèrent leur dérouler le tapis rouge en faisant mine d' »expérimenter ».

C’est un peu comme si vous annonciez vouloir « expérimenter » le braquage de banque ou la nationale à côté de chez vous à 260 km/h… Si on expérimente, y’a pas de souci non ?

L’année dernière, pour faire passer la pilule de la loi sur les JO, ils nous avaient déjà juré la main sur le cœur que c’était juste pour « voir » et qu’il y aurait une vraie évaluation avant d’aller plus loin. Mais à quoi bon tenir ses promesses quand on peut faire voter ce qu’on veut par une Assemblée aux ordres ? Circulez y a rien à voir !

Bref, vous l’aurez compris, ce nouveau texte n’est qu’une étape de plus vers la généralisation de la surveillance algorithmique de l’espace public. Aujourd’hui les transports, demain ça sera les écoles, les hôpitaux, les centres commerciaux… jusqu’à ce qu’on ne puisse plus faire un pas dans la rue sans être scruté, analysé, fiché…et noté par des algorithmes !

Alors évidemment, il est plus que temps de se bouger les fesses et de gueuler un bon coup ! La Quadrature du Net est sur le pont et, je le rappelle, a lancé une grande campagne de mobilisation avec plein d’outils pour mettre des bâtons dans les roues de Big Brother. Donc ils comptent sur vous pour relayer à fond, interpeller vos élus, informer vos potes… Bref, ne les laissez pas transformer nos villes en gigantesques panoptiques !

Source

Une faille de sécurité massive liée à la reconnaissance faciale dans des bars australiens

Par : Korben
2 mai 2024 à 16:13

Imaginez… Vous vous pointez tranquillou au bar du coin pour siroter une petite mousse entre potes et là, surprise ! Pendant que vous trinquez gaiement, une borne de reconnaissance faciale vous scanne en douce pour vérifier si vous avez bien l’âge légal, que vous n’êtes pas accro aux machines à sous et encore moins Xavier Dupont de Ligonnès. Sympa l’ambiance, non ?

C’est exactement ce qui se passe depuis quelque temps dans certains bars et clubs en Australie, grâce (ou à cause, c’est selon) de la société Outabox et de ses bornes biométriques magiques. Le hic, c’est qu’un méchant pirate a visiblement réussi à mettre la main sur la base de données des joyeux fêtards, avec au menu les données de reconnaissance faciale, les scans de permis de conduire, les signatures, les infos d’adhésion au club, les adresses, les dates de naissance, les numéros de téléphone et même l’historique d’utilisation des machines à sous pour certains. Bref, de quoi ruiner une réputation en quelques clics !

Selon les informations rapportées par le site web « Have I Been Outaboxed », plus d’un million de personnes auraient été affectées par cette fuite de données. Le site affirme également que ces données sensibles se seraient baladées sur un bête tableau Excel sans protections. Cependant, ces déclaration sont à prendre avec précaution, car leur véracité n’a pas pu être confirmée de manière indépendante.

Les flics australiens sont sur le coup et ont déjà alpagué un individu qui risque de passer un sale quart d’heure mais le mal est fait et des tas de gens risquent de se faire spammer, arnaquer ou subir du chantage s’ils ont eu le malheur de mettre les pieds dans l’un des 19 clubs équipés de ces satanées bornes.

Les experts en sécurité et les défenseurs de la vie privée montent au créneau et dénoncent les dérives de ces technologies de surveillance, surtout quand c’est géré avec les pieds. Ça soulève pas mal de questions : à quel point peut-on faire confiance à des entreprises pour stocker ce genre de données ultra-sensibles ? Est-ce bien raisonnable de balancer sa trombine et ses infos persos à tout va pour pouvoir aller boire un coup ? Qui contrôle vraiment l’usage de ces systèmes ? Les régulateurs ont-ils les moyens de vérifier ce qui se passe derrière les écrans ?

Des initiatives commencent même à émerger pour mieux encadrer le déploiement de la reconnaissance faciale dans l’espace public. Certaines villes ou États l’ont carrément interdit mais dans l’ensemble, c’est encore un peu le Far West et les entreprises font un peu ce qu’elles veulent. Il y a sans doute un équilibre à trouver entre les usages légitimes (sécurité, prévention de la fraude…) et le respect de la vie privée des citoyens.

En attendant, méfiance ! Si vous passez en Australie pour les vacances et que vous voyez une borne louche vous faire de l’œil à l’entrée de votre bar préféré, n’hésitez pas à râler un bon coup pour éviter que ces pratiques se généralisent. Après tout, les données personnelles et la vie privée, c’est précieux et pas question de les brader sur l’autel de la techno-sécurité !

Et si un barman vous demande un selfie, COUP DE BOULE ! lol

Source

La Quadrature du Net contre-attaque face à la surveillance algorithmique

Par : Korben
2 mai 2024 à 15:28

Plic, ploc, plic, ploc… Vous entendez ce bruit ? C’est celui de nos libertés qui s’érodent, goutte après goutte, sous les assauts répétés de la surveillance généralisée. Et le dernier tsunami en date n’est autre que la vidéosurveillance algorithmique (VSA), ce monstre tentaculaire qui s’apprête à transformer nos rues en un gigantesque panoptique à ciel ouvert. Mais heureusement, tel un David numérique face au Goliath de la Technopolice, La Quadrature du Net sort sa fronde et ses plus belles pierres pour contre-attaquer !

Première salve : le lancement d’une grande campagne de sensibilisation et de mobilisation citoyenne. L’idée est d’informer le grand public sur les dangers de ce 1984 à la sauce 2024 et donner des outils concrets pour riposter. Au menu : une brochure détaillée à diffuser sans modération, des affiches choc à placarder sur tous les murs, et même un compte Mastodon dédié, Attrap’Surveillance, pour suivre l’évolution de la menace et organiser la résistance. Ce compte analyse les recueils des actes administratifs des préfectures pour détecter les premières expérimentations de vidéosurveillance algorithmique, autorisées localement par des arrêtés préfectoraux dans le cadre de la loi du 24 janvier 2023. Parce que face à la prolifération des caméras biométriques, il va falloir plus que quelques bouts de scotchs ou coups de peinture sur les objectifs des caméras pour sauver notre vie privée !

Deuxième salve : le dépôt d’une plainte contre le projet Prevent PCP devant la CNIL. C’est quoi encore ce truc ? Et bien c’est une expérimentation grandeur nature de la reconnaissance biométrique dans les gares, présentée comme un outil miraculeux pour détecter les bagages abandonnés. Ce dispositif suit les personnes qui ont déposé un bagage à travers l’ensemble des caméras en utilisant de la reconnaissance de caractéristiques physiques. Sauf que derrière cette jolie vitrine se cache un véritable cheval de Troie sécuritaire, mené en catimini par un consortium d’entreprises et d’institutions publiques (dont ces chères SNCF et RATP). Un projet totalement illégal, en somme, que La Quadrature entend bien renvoyer sur les rails de l’État de droit.

Car ne nous y trompons pas, derrière les jolis slogans sur la « sécurité augmentée » et la « smart city » notamment survendue dans le cadre des Jeux Olympiques, c’est bien de contrôle social qu’il s’agit. Ces dispositifs de vidéosurveillance « intelligents » sont en réalité programmés pour repérer automatiquement certaines catégories d’événements, comme le franchissement ou la présence d’une personne dans une zone interdite ou sensible, une densité trop élevée de personnes, un mouvement de foule ou encore la présence d’objets abandonnés.

Autant d’informations précieuses pour ficher, tracer et réprimer toute personne ou comportement jugé « anormal » ou « à risque » par les autorités. Sans oublier les inévitables biais, bugs et détournements inhérents à ces technologies opaques et faillibles, qui risquent de transformer nos villes en véritables usines à discrimination et à exclusion.

Face à cette dystopie qui n’a plus rien de fictive, il est donc urgent de se mobiliser et de résister au contrôle permanent de nos faits et gestes. Et c’est précisément ce que propose La Quadrature avec sa campagne percutante et ses actions juridiques ciblées.

Bref n’attendez plus et rejoignez le combat, diffusez l’information, et montrez à Big Brother que la liberté n’est pas soluble dans ses algorithmes.

La Pokémon Company lance une chasse contre les Mods et menace les Youtubeurs

Par : Korben
21 mars 2024 à 06:39

Ça chauffe pour les mods Pokémon ! La Pokémon Company a décidé de partir en guerre contre tous les mods qui osent introduire nos petits monstres préférés dans d’autres jeux. On pensait qu’ils s’étaient calmés après avoir canardé le mod de Palworld qui ajoutait des vrais Pokémon, mais que nenni ! Ils remettent ça, et en beauté.

Le pauvre Youtubeur NoahJ456 vient d’en faire les frais. Une de ses vidéos vieille de 7 ans, qui montrait un mod Call of Duty avec des Pokémon, s’est fait dégommer par un strike de Pokémon Co. Et attention, après 3 strikes, c’est la suppression pure et simple de la chaîne !

Sympa comme épée de Damoclès…

Bon ok, légalement, Pokémon Co. est dans son droit. Les Pokémon sont leur propriété intellectuelle, et ils peuvent faire retirer ce qu’ils veulent. N’empêche que moralement, c’est plus que limite. On parle de fans qui kiffent tellement les Pokémon qu’ils veulent les voir partout, même dans d’autres jeux ! Aucun mal à ça non ? Ça ne retire rien à Pokémon, au contraire, ça ne fait que renforcer la hype autour de la franchise.

Mais visiblement, c’est no fun allowed dès qu’on touche au sacro-saint contrôle de la marque… Même le créateur du mod Palworld, Toasted Shoes, a dit qu’il regrettait d’avoir été « imprudent » et d’avoir potentiellement déclenché cette nouvelle vague de chasse aux sorcières. C’est dire le niveau de pression !

Et le pire, c’est que malgré tous ces mods « illégaux », les jeux Pokémon continuent de cartonner ! Les derniers Scarlet et Violet se sont arrachés comme des petits pains, bugs et Dexit compris. Alors pourquoi s’acharner contre la créativité des fans ? Juste pour montrer qui est le boss et faire un exemple ?

Franchement, c’est d’une tristesse… Pokémon Co. devrait au contraire être fier que sa création inspire autant les joueurs et modders. Mais non, dès que ça touche à leur précieux copyright, y a plus personne et ça envoie un message de merde aux fans qui voudraient créer autour de la franchise.

Après, faut pas trop s’étonner non plus. Pokémon Co. n’a jamais été un grand défenseur de la liberté créative, on l’a déjà vu avec leur goût à utiliser les créations des fans sans les créditer. Mais quand même, de là à aller déterrer des vidéos d’il y a 7 ans… breeef.

Avis à tous les créateurs de contenu : planquez vite vos videos qui traitent des mods Pokémon car Big Pikachu Brother arrive !

Source : Pokémon Co. Is Now DMCAing Years Old Videos Showing Pokémon Modded Into Other Games

❌
❌