Vue normale

Il y a de nouveaux articles disponibles, cliquez pour rafraîchir la page.
À partir d’avant-hierFlux principal

FFmpeg - Comment normaliser le volume audio proprement avec loudnorm

Par : Korben
17 février 2026 à 09:25

Vous avez déjà remarqué comment le volume varie d'une vidéo à l'autre sur YouTube, ou pire, comment certaines pubs sont 10 fois plus fortes que le contenu ? Bah c'est parce que tout le monde n'utilise pas la même norme de volume. Et si vous produisez du contenu audio/vidéo, c'est le genre de détail qui fait la différence entre un truc amateur et un rendu pro.

La bonne nouvelle, c'est que FFmpeg intègre déjà un filtre qui s'appelle loudnorm et qui gère tout ça automatiquement. La norme utilisée, c'est le LUFS (Loudness Units Full Scale), qui est devenue le standard de l'industrie, et YouTube, Spotify, les TV... tout le monde utilise ça maintenant pour mesurer et normaliser le volume audio.

D'ailleurs, si vous débutez complètement avec cet outil, je vous conseille de jeter un œil à mon guide FFmpeg pour les nuls pour bien piger les bases de la ligne de commande.

Allez, c'est partiii ! Temps estimé : 2-5 minutes par fichier (selon la méthode choisie)

Mais, avant de se lancer dans les commandes, un petit point sur les paramètres qu'on va manipuler. Le filtre loudnorm utilise trois valeurs principales. D'abord I (Integrated loudness), c'est le volume moyen global mesuré en LUFS. La valeur standard pour le streaming, c'est -16 LUFS pour YouTube et Spotify, ou -23 LUFS pour la diffusion broadcast. Ensuite TP (True Peak), le niveau maximal que le signal ne doit jamais dépasser. On met généralement -1.5 dB pour avoir une marge de sécurité. Et enfin LRA (Loudness Range), qui définit la plage dynamique autorisée, généralement autour de 11 dB.

Méthode 1 : Normalisation simple (single-pass)

C'est la méthode la plus rapide, parfaite pour du traitement à la volée :

ffmpeg -i entree.wav -af loudnorm=I=-16:TP=-1.5:LRA=11 -ar 48000 sortie.wav

Pourquoi ces valeurs : -16 LUFS c'est le standard YouTube/Spotify, -1.5 dB de true peak évite le clipping, et 11 dB de range dynamique garde un son naturel.

Le truc c'est que cette méthode fait une analyse en temps réel et ajuste à la volée. C'est bien, mais pas parfait. Pour un résultat vraiment précis, y'a mieux.

Méthode 2 : Normalisation en deux passes (dual-pass)

Cette méthode analyse d'abord le fichier complet, puis applique les corrections exactes. C'est plus long mais beaucoup plus précis.

Première passe, on analyse :

ffmpeg -i entree.wav -af loudnorm=I=-16:TP=-1.5:LRA=11:print_format=json -f null -

FFmpeg va vous sortir un bloc JSON avec les mesures du fichier (input_i, input_tp, input_lra, input_thresh). Notez-les bien, car vous allez les injecter dans la deuxième passe.

Deuxième passe, on applique avec les valeurs mesurées (remplacez les chiffres par ceux obtenus à l'étape précédente) :

ffmpeg -i entree.wav -af loudnorm=I=-16:TP=-1.5:LRA=11:measured_I=-24.35:measured_TP=-2.15:measured_LRA=8.54:measured_thresh=-35.21:offset=0:linear=true -ar 48000 sortie.wav

Pourquoi cette méthode ? En fait, en passant les valeurs mesurées, FFmpeg sait exactement de combien ajuster. L'option linear=true force une normalisation linéaire plutôt que dynamique, ce qui préserve mieux la dynamique originale.

Pour les fichiers vidéo

Le principe est le même, on ajoute juste -c:v copy pour garder la vidéo intacte sans la ré-encoder :

ffmpeg -i video.mp4 -c:v copy -af loudnorm=I=-16:TP=-1.5:LRA=11 -ar 48000 video_normalise.mp4

D'ailleurs, pour ceux qui veulent automatiser ça à l'extrême, j'avais parlé de FFmpegfs , un système de fichiers qui transcode automatiquement ce que vous déposez dessus. C'est pratique si vous avez une grosse bibliothèque à gérer.

Traitement par lots avec ffmpeg-normalize

Si vous avez plein de fichiers à traiter, y'a un outil Python qui automatise la méthode dual-pass :

pip install ffmpeg-normalize
ffmpeg-normalize *.wav -o output_folder/ -c:a pcm_s16le

Cet outil fait automatiquement les deux passes et supporte le traitement parallèle. Pratique pour normaliser une bibliothèque entière.

Et en cas de problème ?

Erreur "No such filter: loudnorm" : Votre version de FFmpeg est trop ancienne (il faut la 3.1 minimum). Mettez à jour votre binaire.

Le son est distordu après normalisation : Le fichier source était probablement déjà saturé. Essayez de baisser le target (-18 LUFS au lieu de -16) ou augmentez le headroom du true peak (-2 dB au lieu de -1.5).

Voilà, maintenant vous n'avez plus d'excuse pour avoir des niveaux audio qui varient dans tous les sens. Le LUFS c'est le standard, FFmpeg gère ça nativement, et ça prend 30 secondes.

Vos auditeurs vous remercieront.

Source

Le CNRS victime d'une fuite de données, avec numéros de sécu et RIB dans la nature

Par : Korben
16 février 2026 à 17:16
– Article invité, rédigé par Vincent Lautier –

Le CNRS vient de confirmer un incident de cybersécurité qui a mené au téléchargement non autorisé de fichiers contenant des données personnelles d'anciens agents. Noms, adresses, numéros de sécurité sociale, RIB : la totale donc. L'organisme a déposé plainte et prévenu la CNIL.

Des données très sensibles

C'est ce lundi 16 février que le CNRS a informé ses agents d'une fuite de données sur un de ses serveurs. Des fichiers contenant des informations de ressources humaines ont été téléchargés sans autorisation. Et on ne parle pas de données anodines : noms, prénoms, dates de naissance, adresses postales, numéros de sécurité sociale et RIB. Le tout accompagné du statut de l'agent, du type de contrat et de la structure d'affectation. Le serveur a été isolé et arrêté dès la découverte de l'incident, et l'organisme assure que la fuite ne s'est pas propagée au reste de ses infrastructures.

Qui est concerné ?

Seuls les personnels recrutés avant le 1er janvier 2007 sont touchés, qu'ils aient été titulaires ou non. Si vous avez travaillé au CNRS après cette date, vous n'êtes pas concerné. Le nombre exact de victimes n'a pas été communiqué, mais vu la taille de l'organisme, on parle potentiellement de plusieurs milliers de personnes. Le CNRS recommande de prévenir sa banque, de surveiller ses comptes, de vérifier si ses données circulent sur haveibeenpwned.com, et de rester vigilant face aux tentatives de phishing ou d'usurpation d'identité. La CNIL et l'ANSSI ont été prévenues, et une plainte a été déposée auprès de la section cybercriminalité du parquet de Paris.

Les institutions françaises en ligne de mire

On n'est pas vraiment sur une première niveau cyberattaques sur des services de l'état. Le ministère de l'Intérieur, celui des Sports, et d'autres organismes avaient été visés. L'URSSAF a aussi confirmé une fuite touchant les données de 12 millions de salariés. Le CNRS lui-même avait été la cible d'un défacement de plusieurs de ses sous-domaines fin janvier. Deux incidents distincts, mais la tendance est claire, et c'est franchement moche.

On va quand même saluer le fait que le CNRS a communiqué rapidement, avec un communiqué officiel et une FAQ pour les personnes concernées. C'est loin d'être toujours le cas. Mais on va quand même se questionner sur le fait que des RIB et des numéros de sécu trainent sur un serveur, alors qu'on parle de données parfois veilles depuis presque 20 ans... Pourquoi ces informations étaient-elles encore accessibles ? La question du stockage prolongé de données sensibles revient sur la table, et visiblement, personne n'a encore de bonne réponse. En attendant, si vous avez porté la blouse du CNRS avant 2007, un petit tour sur votre relevé bancaire ne serait pas du luxe.

Article invité publié par Vincent Lautier . Vous pouvez aussi faire un saut sur mon blog , ma page de recommandations Amazon , ou lire tous les tests que je publie dans la catégorie "Gadgets Tech" , comme cette liseuse Android de dingue ou ces AirTags pour Android !

Wikipedia vs archive.today - 700 000 liens en sursis

Par : Korben
12 février 2026 à 15:56

Un peu moins de 700 000 liens, c'est le nombre de références vers archive.today que Wikipedia envisage de supprimer d'un coup ! Et la raison est assez dingue... en fait le service d'archivage a planqué du code DDoS dans son CAPTCHA afin d'attaquer le blog d'un mec qui a eu le malheur de chercher l'identité du fondateur du site.

L'histoire est tordue vous allez voir...

En 2023, un blogueur du nom de Jani Patokallio publie un article sur son blog Gyrovague pour tenter d'identifier le créateur d'archive.today, un certain "Denis Petrov" (probablement un pseudo). Pas de quoi fouetter un chat, sauf que le principal intéressé n'a visiblement pas kiffé.

Du coup, un bout de JavaScript s'est retrouvé comme de par hasard dans la page CAPTCHA du service, exécutant une requête vers le blog de Patokallio toutes les 300 millisecondes. Chaque visiteur qui passait par le CAPTCHA devenait alors un soldat involontaire d'une attaque DDoS.

Et le bonhomme ne s'est pas arrêté là... il a ensuite menacé de créer un site porno avec le nom du blogueur. On est vraiment dans la réponse proportionnée, clairement.

Le souci, c'est que Wikipedia utilise archive.today de manière MASSIVE. Cela représente 695 000 liens répartis sur environ 400 000 pages. C'est le deuxième fournisseur d'archives de toute l'encyclopédie !

Du coup, les éditeurs se retrouvent face à un sacré dilemme. D'un côté, on a ceux qui veulent tout blacklister parce que "la sécurité de vos lecteurs, ça passe avant les citations". Et de l'autre, ceux qui rappellent que le service contient des archives qu'on ne trouve NULLE PART ailleurs, même pas sur la Wayback Machine .

Bon courage pour trouver un remplaçant les mecs !

Et petit détail qui n'en est pas un, au passage... En fait, archive.today sert aussi à contourner des paywalls. C'est pratique pour vérifier des sources, ou lire de supers articles sans payer mais techniquement c'est illégal.

Mais quand la source originale a disparu, on fait comment ? Et c'est là tout l'intérêt de ces services d'archivage.

Bon, les paywalls, on comprend tous pourquoi ça existe. Produire de l'info de qualité, ça coûte un bras. Sauf que c'est quand même un truc un peu naze. Vous bossez, vous produisez un contenu top, et au final y'a que 10 personnes qui payent pour le lire. Et ce sont les mêmes 10 personnes qui sont pigistes et qui vont reprendre votre info pour la diffuser gratuitement sur leur média ! On le voit avec Mediapart... des enquêtes énormes derrière un paywall, et toute la presse qui reprend leurs scoops sans payer. Je trouve ça vraiment dommage.

Moi, ce que j'aime dans le fait d'écrire sur le web, c'est que vous me lisiez. Et mettre du contenu derrière un paywall, ça voudrait dire que plein d'entre vous ne me liraient plus. C'est pour cela que même le contenu que je réserve en avant-première sur Patreon , au bout de quelques semaines, je le libère pour tout le monde.

Quand je vois The Verge par exemple qui en met dans tous les sens... ben j'y vais plus. J'ai pas envie de payer un abonnement de plus pour une valeur ajoutée pas folle. C'est un peu comme les bandeaux cookies, à savoir un effet de bord regrettable du web moderne. On doit faire avec parce que personne n'a trouvé mieux comme idée...

Bref, entre les DDoS vengeurs, les 700 000 liens en sursis et les paywalls qui pourrissent tout ... le web ouvert, c'est pas gagné les amis. Voilà voilà.

Source

Waymo - Ses voitures autonomes pilotées depuis les Philippines

Par : Korben
12 février 2026 à 15:38

Les voitures Waymo, celles qui se baladent toutes seules à San Francisco, Phoenix ou Los Angeles... ne seraient pas si autonomes que ça en fait. Hé oui, quand elles sont paumées, ce sont des opérateurs aux Philippines qui leur disent quoi faire.

C'est le chef de la sécurité de Waymo lui-même, Mauricio Peña, qui a lâché le morceau lors d'une audience au Congrès américain le 4 février dernier. Du coup on apprend que ces fameux robotaxis, quand ils bloquent sur une situation (un carrefour bizarre, un chantier, une route pas cartographiée...), envoient une demande d'aide à des opérateurs humains qui pour certains sont basés aux États-Unis et d'autres aux Philippines.

Peña a bien insisté : ces opérateurs "fournissent des indications" mais "ne conduisent pas le véhicule à distance". En gros, c'est de la téléassistance, plutôt que du téléguidage et le robotaxi reste "toujours en charge" de la conduite.

Sauf que le sénateur Ed Markey, lui, voit pas ça du même œil. Selon lui, avoir des gens à l'étranger qui influencent le comportement de milliers de véhicules sur les routes américaines, c'est un sacré problème de (cyber) sécurité. Il parle carrément de "prise de contrôle par des acteurs hostiles" qui pourraient obtenir un accès quasi-total à ces bagnoles.

Hé oui, tout peut arriver dans la vie, Ed !

D'ailleurs y'a eu un accident avec l'un de ces taxis sans conducteur qui a percuté un gamin près d'une école primaire à Santa Monica, il n'y a pas longtemps. Alors est ce que c'était la faute de l'IA qui conduisait ou un opérateur humain à l'autre bout du monde qui s'est assis sur son clavier ? Allez savoir...

Et la filiale d'Alphabet n'est pas la seule dans ce cas car Tesla aussi s'appuie sur des opérateurs à distance pour superviser ses véhicules autonomes.

Perso, ce qui me dérange c'est pas qu'il y ait des humains dans la boucle. En fait c'est normal, la techno n'est pas encore au point. Mais le piège, il est au niveau du marketing. On nous vend de l'"autonome", du "sans conducteur", de la voiture du futur pilotée par l'IA ... alors qu'en fait y'a un call center aux Philippines qui veille au grain.

Et le plus marrant dans tout ça, c'est que les opérateurs doivent avoir un permis de conduire et sont contrôlés sur les infractions routières qu'ils auraient commis de leur côté à titre perso. Il faut des gens irréprochables avec le permis... pour aider une bagnole qui est censée ne pas en avoir besoin (de permis). J'adore ^^.

Voilà, comme je l'expliquais dans mon article sur la conduite autonome , y'a encore BEAUCOUP de chemin à faire avant d'avoir de vrais véhicules sans chauffeur. Et finalement, même les meilleurs comme Waymo "trichent" un peu.

Source

Hallucinating Splines - Le SimCity où les IA font mieux que votre Maire

Par : Korben
12 février 2026 à 15:11

SimCity, je pense que tout le monde connaît. Moi c'est vraiment l'un de jeux préférés. Enfin la version SimCity 2000. C'est que des bons souvenirs pour moi. Dans ce jeu, vous posiez des routes, des zones résidentielles, et vous regardiez votre ville grandir... ou cramer, selon les jours. Hé bien Hallucinating Splines , c'est le même délire, sauf que c'est une IA qui joue à votre place.

Ce projet est basé sur Micropolis , la version open source du SimCity original sorti en 1989 (Et surtout pas les trucs d'EA qui ont suivi ^^). Du coup, on a un vrai moteur de simulation urbaine avec zonage résidentiel, commercial, industriel, gestion des services publics, du trafic... bref le package complet.

Sauf qu'ici, personne ne touche la souris. Des agents autonomes prennent les décisions, construisent les infrastructures et gèrent la croissance de leur ville sans intervention humaine. Enfin, sauf si vous comptez le clic pour lancer la simulation.

Et visiblement ça tient plutôt bien la route (sans mauvais jeu de mots). 96 maires IA, 607 villes construites et une population cumulée de plus de 10 millions d'habitants virtuels. C'est pas mal hein pour des programmes qui n'ont jamais mis les pieds dans un conseil municipal !

En fait, le concept s'appelle "Vibe a City". Vous cliquez sur un bouton et hop, une IA se met à bâtir sa métropole en temps réel sous vos yeux, sans intervention humain. Les villes portent également des noms générés plutôt poétiques je trouve... Turtle Ziggurat, Storm Cove, Azure Heath, Procedural Mesa (ok celui-là est un peu trop honnête).

Et y'a même un leaderboard avec un système de scoring. Chaque cité a son indicateur d'activité (Tout fraiche, récente, ancienne ou stagnante), les stats se rafraîchissent toutes les 30 secondes et on peut trier par population, par score ou par date. Une certaine Annexed Colony tape par exemple dans les 185 000 habitants en l'an 2428 dans le jeu. C'est foufou !

Côté technique, plutôt que de repartir de zéro, tout repose sur micropolisJS, une implémentation JavaScript/HTML5 de Micropolis sous licence GPL v3, et le code est dispo sur GitHub (un git clone et c'est parti). Si vous connaissez Microlandia que j'avais présenté il y a quelques semaines, c'est dans la même veine mais avec une couche d'agents IA par-dessus.

Et n'oubliez pas d'aller voir le petit clin d’œil sur la page de crédits ou dans le footer qui affiche le Dr. Wright, le fameux conseiller de SimCity sur SNES. Après le piège, c'est que vous allez y passer des heures à regarder une IA construire ce que vous n'avez jamais réussi à faire dans le jeu. Ahahaha !

A découvrir ici !

Test du NAS UGREEN NASync DXP4800 Pro

Par : Korben
12 février 2026 à 13:56

– Article invité, rédigé par Vincent Lautier, contient des liens affiliés Amazon –

Tiens, et si on parlait de NAS aujourd’hui ? On va même parle d’une nouveauté qui est sortie il y a quelques jours, le UGREEN NASync DXP4800 Pro . On ne parle pas de la version "Plus", mais bien du modèle "Pro" qui commence à avoir de sérieux arguments pour lui.

Pour tout vous dire, j'ai profité du besoin d’un couple d'amis pour leur faire une installation propre, avec ce modèle, et c’est vraiment un super produit. Lui est sur PC, elle sur Mac, et ils bossent tout les deux dans la création audiovisuelle. Sauf que voilà, comme souvent dans ces métiers, avec des centaines de gigas de russes qui trainent un peu partout, la gestion des données devient vite un sujet sensible et d'inquiétude, avec plein de disques durs externes un peu partout, en vrac, rien de pratique.

Si on regarde dans les détails son équipement c'est vraiment pas mal du tout. Le bouzin est équipé d'un processeur  Intel Core i3-1315U avec 6 cœurs, de 8 Go de RAM DDR5 (qu'on peut pousser jusqu'à 96 Go) et surtout d'un port 10GbE et d'un port 2,5GbE. On a aussi deux emplacements M.2 NVMe pour le cache, c'est complètement optionnel mais ça peut servir pour booster les accès aux petits fichiers. Alors oui, vous allez me dire que ce NAS est peut-être un peu surdimenssioné pour un usage à la maison, mais quand on a aussi un usage pro ou semi-pro, c'est quand même rassurant d'avoir une machine qui ne sera pas à genoux dans trois ans, et qui est évolutive.

Pour l'installation des disques, on a essayé d'être stratégiques en optimisant au mieux les 4 baies. On a monté les deux premiers disques en RAID 1 pour tout ce qui touche au boulot : sauvegarde des projets, rushs originaux et documents administratifs. C'est la ceinture et les bretelles, si un disque lâche, le travail est en sécurité. Pour les deux autres baies, on est partis sur du RAID 0 dédié à Plex. Pourquoi ? Parce que leur bibliothèque de films, on s'en fiche un peu de la perdre. Si un disque fini par décéder, ce n'est pas un drame national, on re-télécharge les fichiers et c'est reparti.

Ce qui m'a vraiment bluffé, c'est la rapidité de la mise en route. En quelques minutes, l'UGOS Pro, le système d'exploitation maison basé sur Debian, était opérationnel. UGREEN a fait un boulot assez dingue sur l'interface : c'est propre, c'est fluide et on n'est pas perdu dans des menus labyrinthiques. On sent que la marque veut venir chasser sur les terres de Synology en proposant une expérience utilisateur léchée tout en gardant une puissance matérielle brute supérieure. L’installation de Plex n’est pas encore proposée nativement sur l’OS de UGREEN (ça reste possible, en passant par Docker). Mais très franchement, même sur mon Synology je préfère avoir Plex qui tourne sur une machine déporté (en l’occurrence un Mac mini dans mon cas). Pour eux, ça sera sur le PC de la maison. Le NAS servant uniquement pour le stockage et le partage de données.

Ce NAS est disponible pour sa sortie à 699,99€ en promo (au lieu de 779,99€, il faut cocher le coupon sur Amazon) , ça n’est pas donné, mais c’est vraiment un NAS très solide, bien fini, et qui doit faire le job pendant au moins 7-8 ans. Puis quand on regarde la qualité de fabrication en aluminium et la connectivité réseau, le rapport performance-prix est vraiment bon. C'est une machine de guerre silencieuse qui s'intègre parfaitement dans un bureau ou un salon. Mes amis ont maintenant un système où le PC et le Mac communiquent sans friction, avec une vitesse de transfert qui permet de monter directement depuis le NAS.

Si vous voulez un NAS solide, qui tiendra dans le temps, et que vous n'avez pas à bidouiller dans tous les sens, c'est franchement un très bon choix, et pour tout vous dire j'ai même envie d'en prendre un pour moi ha ha.

Le NAS UGREEN DXP4800 Pro est disponible ici sur Amazon , et n’oubliez pas de cocher le coupon pour avoir la promo !

Article invité publié par Vincent Lautier . Vous pouvez aussi faire un saut sur mon blog , ma page de recommandations Amazon , ou lire tous les tests que je publie dans la catégorie "Gadgets Tech" , comme cette liseuse Android de dingue ou ces AirTags pour Android !

Claude ouvre ses outils pro à tous (et y'a zéro pub)

Par : Korben
12 février 2026 à 09:20

OpenAI colle des pubs dans ChatGPT, et pendant ce temps, Anthropic fait exactement l'inverse puisqu'ils viennent d'ouvrir tous les outils premium de Claude aux utilisateurs gratuits.

Création de fichiers Excel, PowerPoint, Word, PDF (oui, tout ça)... c'était autrefois réservé aux abonnés Pro et depuis hier, c'est accessible à tout le monde ! Vous pouvez donc créer un tableau Excel avec des formules, un PowerPoint bien formaté, ou un document Word prêt à envoyer.

Côté connecteurs, vous pouvez brancher Claude directement sur Slack, Notion, Figma, WordPress, Zapier, Stripe, Canva, Asana et même PayPal. En gros, l'IA va chercher des infos dans vos outils et agit dessus plutôt que de vous laisser faire du copier-coller.

Y'a aussi les Skills (pour expliquer rapidos, ce sont des fichiers d'automatisation) que vous configurez pour que l'assistant fasse des tâches répétitives à votre place. Du coup, si vous avez déjà bidouillé avec ses capacités de dev , vous voyez l'intérêt d'avoir ça.

Anthropic a aussi glissé la "conversation compaction" qui garde le contexte sur des échanges plus longs. Le modèle pour les gratuits, c'est Sonnet 4.5 et les abonnés Pro à 20$/mois gardent Opus. Attention quand même, les limites d'utilisation n'ont PAS bougé parce que bon, faut bien vendre le Pro. Donc au bout de quelques échanges, ça sera moins chouette ^^... sauf si vous passez à la caisse, évidemment.

Moi je suis pas super fan de leur application Desktop et je préfère largement la version Claude Code en CLI mais bon, c'est juste une question de goût, car ça marche tout aussi bien.

Bref, entre les pubs d'OpenAI et les outils gratuits d'Anthropic... le choix est vite fait ! Anthropic est à un virage important et il ne faut pas qu'ils se loupent, car les gens sont ( enfin ) en train de se rendre compte que leur Claude est biiiiien au dessus de ce que propose ChatGPT.

Source

Jeux vidéo et violence - Spoiler, c'est du pipeau

Par : Korben
7 février 2026 à 18:46

Les jeux vidéo rendent violent. Sérieusement ? En fucking 2026, y'a encore des gens pour sortir ça à table le dimanche ou piiiire en public sur le net ?

Aaaaannnh, c'est la honte quand même de dire ça, prem deug. C'est un peu comme ceux qui pensaient que le rock rendait sataniste ou que la BD poussait au crime dans les années 50. À chaque génération, les mêmes paniques… et à chaque fois, la science finit par leur donner tort, ce qui nous permet de nous foutre de leur gueule.

Alors parce que pour battre l'obscurantisme, y'a rien de mieux que de la science, des preuves, des choses tangibles et vraies, je vais vous en donner un peu pour votre argent…

Tenez, en 2019, une équipe d'Oxford (Przybylski et Weinstein, pour les curieux) a suivi 1004 adolescents britanniques pour mesurer l'impact des jeux violents sur leur comportement. Résultat… aucun lien. Ouais, que dalle, et c'était pas un petit sondage BFMTV ou je sais pas quoi, hein… Non, c'est l'une des études les plus rigoureuses sur le sujet, avec des données croisées entre les ados ET leurs parents.

En 2018, des chercheurs du Max Planck Institute à Berlin ont également fait jouer 90 adultes à GTA V pendant deux mois . Tous les jours, 30 minutes minimum sur la version PC. Ensuite, passage au scanner IRM. Aucune modification du comportement, aucune hausse d'agressivité. Rien du tout !

Et c'est pas fini. En 2022, Johannes et son équipe ont suivi 2580 joueurs d'Apex Legends et Outriders avec des données télémétriques Steam et Xbox Live (pas du déclaratif, de la vraie data serveur). Même résultat. Y'a waloooo !

Hé mais j'ai encore mieux les amis puisqu'une étude portant sur une durée de 10 ANS (!!!) publiée dans Cyberpsychology a suivi des gamins qui ont grandi avec GTA. De 10 à 20 ans, avec des questionnaires annuels ! Résultat, y'a pas plus de violence, pas plus de dépression, pas plus d'anxiété. En fait, les groupes ne diffèrent même pas sur les comportements prosociaux. Y'a eu un seul cas de figure où on observait un léger effet, c'est les gamins qui cumulaient jeux violents ET problèmes familiaux préexistants. Sauf que là, c'est le contexte familial le problème, pas la manette. Ce serait bien plus efficace de faire des lois pour interdire les familles de merde, en fait !

Du coup, si la science dit NON, alors pourquoi ce débat pour décérébrés continue ?

Le problème c'est qu'à une époque lointaine que seuls les profs de théâtre auraient pu connaitre, certaines méta-analyses (coucou Anderson et Bushman) trouvaient des corrélations minuscules entre les jeux vidéo et la violence… Genre r = 0,11, ce qui en gros signifie que les JV n'expliqueraient que 2 % du comportement violent d'une personne… Donc autant dire quasiment rien. C'est moins que l'effet de la météo sur votre humeur !!

Et surtout, d'autres chercheurs ont démontré un peu plus tard que ces résultats étaient biaisés . En gros, on publiait les études qui trouvaient un effet et on planquait celles qui trouvaient rien. C'est un cas particulier typique du biais de publication (et y'en avait un sacré paquet des études planquées).

D'ailleurs, même l'APA , la plus grande association de psychologie au monde, a revu sa position en 2020. Leur conclusion : pas de preuve suffisante d'un lien causal. Bon bah quand la plus grosse autorité en psycho vous dit que c'est du vent… normalement, on remballe.

Après, attention, hein, ça veut pas dire que laisser un gosse de 8 ans jouer à GTA Online 12 h par jour c'est une super idée. À la base, la classification PEGI 18 existe pour une raison. Sauf que là, c'est une question d'éducation et de contrôle parental… mais pas de violence virtuelle qui "contaminerait" le cerveau. Et ça, aucune étude sérieuse ne le conteste.

Et si vous voulez des chiffres qui parlent, en voilà. J'ai pas les chiffres en France, mais depuis les années 90, la violence juvénile aux USA a chuté de +80 % selon le Bureau of Justice Statistics. Pendant ce temps, GTA V a dépassé les 200 millions d'exemplaires vendus depuis sa sortie en septembre 2013. Call of Duty, toutes versions confondues depuis CoD 4 en 2007, c'est plus de 400 millions de copies.

Donc NORMALEMENT si les jeux rendaient violent, on devrait nager dans le sang h24, là non ?

Ah et j'oubliais… Le cas du Japon est encore plus parlant. C'est LE pays du gaming, premier marché de la planète par habitant… et un taux d'homicides de 0,2 pour 100 000 habitants en 2023 . Aux USA, c'est plus de 5 . VINGT-CINQ fois plus. Cherchez l'erreur. (Tips : y'en a pas, sauf si on considère que les Japonais sont secrètement immunisés contre les pixels violents.)

Une étude menée par Przybylski sur Animal Crossing a même montré que jouer pouvait être bénéfique pour le moral. Et le NIH a découvert en 2022 que les enfants qui jouent plus de 3 h par jour ont de meilleures performances cognitives que les autres (oui oui, vous avez bien lu). Du coup, non seulement les jeux vidéo ne rendent pas violents mais en plus, ils vous rendent plus malins. C'est diiiingue !

Allez, hop, un dernier clou dans le cercueil et après je vous laisse.

En 2011, la Cour suprême des États-Unis, c'est-à le plus haut tribunal de ce pays de fous, a examiné la question de savoir si les jeux vidéo violents représentaient un vrai danger . Verdict, par 7 voix contre 2, les juges ont conclu que non car les preuves scientifiques étaient insuffisantes pour établir un lien entre jeux vidéo et violence. C'est même le juge Scalia, pourtant connu pour ses positions ultraconservatrices, qui a rédigé la décision. Quand même, hein les gars !!! Autrement dit, même la justice américaine a fini par dire stop aux marchands de peur.

Et le CNRS le confirme , au cas où y'aurait encore des sceptiques.

Alors la prochaine fois qu'un tocard vous sortira le couplet "nia nia nia les jeux vidéo rendent nos enfants violents, nia nia nia", vous aurez une vision claire concernant le vide abyssal de ses connaissances sur ce sujet. Et dites-vous que si ça balance des conneries aussi grosses que ça et aussi débunkées que ça, mais putain qu'est-ce que ça doit être sur les autres sujets… Argh !

Perso, moi ce qui va finir par me rendre violent un jour, c'est la connerie humaine.

Vous avez une chaise de bureau ? Il vous faut ce tapis !

Par : Korben
7 février 2026 à 11:17

– Article invité, rédigé par Vincent Lautier, contient des liens affiliés Amazon –

Je vais vous parler d’un truc improbable aujourd’hui. Comme je suis passionné de tests à la con et de trucs genre télé-achat, on me qualifie parfois de vendeur de tapis. Eh bien vous savez quoi, je vais le prendre au pied de la lettre, et je vais vous parler d’un tapis que j’ai acheté ha ha.

J’ai déménagé récemment dans un nouvel appartement, avec un chouette bureau, équipé d’un parquet en bois. Jusque-là rien de fou, c’est la première fois que j’ai un bureau avec un parquet. Sauf que littéralement 48 heures après mon emménagement, j’ai eu une lettre de mon voisin du dessous m’expliquant que j’étais un affreux punk qui faisait trop de bruit au-dessus de sa tête. J’ai compris que ma chaise de bureau avec ses roulettes, en plus d’abîmer le parquet, faisait un bruit des enfers chez mon voisin du dessous.

Je me suis souvenu qu’il existait des sortes de tapis en plastique transparent pour ce genre de truc, j’ai déjà eu ça chez certains clients chez qui je travaillais. C’était moche et pas très agréable sous la roulette. Alors j’ai cherché sur Amazon et j’ai trouvé ce truc merveilleux . C’est un petit tapis assez fin en polyester, qui permet tout simplement de cesser le bruit infernal des roulettes sur le parquet, et en plus de le protéger. Il y a plein de designs assez mignons, moi j’ai choisi celui-ci un peu vintage, et franchement, c’est top. C’est fin, c’est dense, les bords ne repiquent pas, et ça évite les traces de votre chaise de bureau.

Le gain au niveau du bruit généré par votre chaise est assez fou, les vibrations aussi sont absorbées, et le tout adhère parfaitement au sol. Si vous décidez de le déplacer, il ne laissera aucune trace, c’est vraiment un tapis, juste avec la bonne texture et la bonne épaisseur. Vous pouvez même le passer à la machine à laver si besoin.

Bref, voilà, si vous avez une chaise de bureau posée sur un sol dur, je recommande très très fort. Disponible ici sur Amazon .

Article invité publié par Vincent Lautier . Vous pouvez aussi faire un saut sur mon blog , ma page de recommandations Amazon , ou lire tous les tests que je publie dans la catégorie "Gadgets Tech" , comme cette liseuse Android de dingue ou ces AirTags pour Android !

WeekInPapers - Pour suivre la recherche en informatique sans se noyer

Par : Korben
7 février 2026 à 09:07

Vous avez déjà essayé de suivre ce qui se passe dans la recherche en informatique ? Moi oui, et c'est l'enfer. Chaque semaine, des centaines de nouveaux papiers débarquent sur arXiv . Et entre le machine learning, la vision par ordinateur, la crypto, le NLP et tout le reste, y'a de quoi perdre la tête. Et puis bon, lire des abstracts de 500 mots bourrés de jargon technique, c'est pas vraiment ce qu'on fait pour se détendre le dimanche...

Du coup ça tombe bien puisque WeekInPapers tente de résoudre ce problème. Le concept est simple : chaque semaine, le site liste tous les papiers publiés sur arXiv dans le domaine de l'informatique, avec des résumés générés par IA et un glossaire des termes techniques. L'idée, c'est de rendre la recherche accessible aux gens comme moi qui n'ont pas un doctorat en deep learning.

Le site couvre une trentaine de catégories différentes : Machine learning, vision par ordinateur, intelligence artificielle, traitement du langage naturel, robotique, cryptographie, architecture hardware, graphisme, interaction homme-machine... Bref, à peu près tous les domaines de l'informatique.

Cette semaine par exemple, y'avait plus de 300 papiers listés. Rien que ça...

L'interface est plutôt bien foutue puisque vous avez une sidebar avec des filtres pour sélectionner les catégories qui vous intéressent. Et chaque papier apparaît sous forme de tuile cliquable avec le titre, la date, les tags de catégorie et l'identifiant arXiv. Vous survolez une tuile et hop, l'abstract s'affiche. Et si vous cliquez, vous avez les détails complets.

Ce qui est cool, c'est que les papiers sont souvent taggés dans plusieurs domaines. Du coup, un article sur les réseaux de neurones pour la génération vidéo apparaîtra à la fois dans machine learning et dans vision par ordinateur. C'est chouette pour ne pas louper des trucs qui chevauchent plusieurs disciplines.

Ce projet a été créé par Matthew Oxley et moi, ce que je préfère, ce sont les résumés générés par un LLM qui permettent d'avoir une idée rapide de ce que raconte un papier sans se taper 15 pages de formules mathématiques. Après, si un truc vous intéresse vraiment, rien ne vous empêche d'aller lire le papier original, évidemment.

Voilà, pour les chercheurs, les étudiants ou juste les curieux qui veulent rester au courant des dernières avancées, c'est une ressource plutôt pratique. En tout cas, plus pratique que de faire du doom-scrolling sur X en espérant tomber sur un thread intéressant.

Trois-Rivières - Le jeu vidéo qui sensibilise à l'écologie

Par : Korben
6 février 2026 à 10:34

On parle souvent de sobriété numérique, mais c'est assez rare de voir ça appliqué concrètement dans le monde du jeu vidéo car d'ordinaire, c'est plutôt la course aux téraflops et aux textures 4K qui font pleurer votre carte graphique. Du coup, quand un projet comme Trois-Rivières déboule, je trouve que ça mérite qu'on s'y arrête 2 minutes.

L'idée de Richard Hanna et de son équipe, c'est de proposer un jeu d'action-aventure en pixel-art qui ne se contente pas d'être joli, mais qui porte un vrai message engagé. On y suit Maï, une randonneuse qui arrive dans un village paisible où trois affluents se rejoignent. Sauf que voilà, la flotte est polluée et il va falloir remonter à la source pour comprendre ce qui cloche. Et là, on entre dans le vif du sujet : le jeu traite des impacts environnementaux et sociaux de la fabrication de nos joujoux numériques. De la mine à l'usine de recyclage, en passant par l'assemblage, tout y passe.

Ce qui est vraiment chouette avec Trois-Rivières, c'est la démarche d'écoconception derrière le projet. Le jeu est ultra léger (14,2 Mo au total, dont 10,4 Mo pour la musique et les sons) et tourne directement dans votre navigateur, que vous soyez sur PC, tablette ou même sur un vieux coucou comme un iPhone 6S de 2015. Pas besoin donc d'installer quoi que ce soit, hop, on lance et ça joue. C'est développé avec le framework Phaser et le résultat est super propre. Pour ceux qui s'intéressent à la création de jeux vidéo , c'est un bel exemple de ce qu'on peut faire avec de la contrainte technique intelligente.

D'ailleurs, le projet a reçu le soutien du Ministère de la Culture et de l'ADEME via le programme Alt Impact. C'est dire si le message est pris au sérieux. Si vous avez envie de tâter du pixel tout en réfléchissant à votre consommation de hardware, c'est vraiment sympa à expérimenter et petit bonus qui fait plaisir : le code source et les musiques sont sous licence libre (MIT pour le code, CC pour les sons).

Bref, un grand merci à Richard Hanna de m'avoir fait découvrir ça, et bravo à toute l'équipe pour le boulot. C'est gratuit, c'est libre, et ça fait réfléchir... C'est par ici que ça se passe .

AstroClick - Le système solaire en voxel dans votre navigateur

Par : Korben
6 février 2026 à 07:24

AstroClick, c'est un simulateur interactif du système solaire en 3D, 100% gratuit et open source, qui tourne dans le navigateur. Ce projet a été développé par Charlie, un lecteur du blog (merci !), et perso je trouve que ça mérite un petit coup de projecteur.

AstroClick, le système solaire en cubes

Quand vous débarquez sur le site, vous avez le Soleil au centre avec toutes les planètes qui gravitent autour en temps réel. Vous pouvez donc zoomer, dézoomer, tourner autour... et même accélérer le temps pour voir les orbites défiler plus vite. Le rendu est en voxel (oui, des petits cubes), ce qui donne un côté Minecraft spatial pas dégueu du tout.

Et c'est pas juste joli puisque chaque planète est cliquable et vous donne des infos astronomiques réelles. On retrouve aussi l'ISS, Hubble et même le télescope James Webb dans le lot. Vous pouvez même basculer entre une vue simplifiée (pour que ce soit lisible) et une vue à l'échelle réelle des distances... et là vous comprendrez VRAIMENT à quel point l'espace c'est grand. Genre, IMMENSE 😱.

La navigation dans AstroClick, plutôt fluide

Côté technique, c'est du React Three Fiber avec Next.js 14, le tout sous licence MIT sur GitHub ( github.com/sartilas/AstroClick si vous voulez fouiller le code). Les textures viennent de la NASA, y'a même de l'audio ambiant pour l'immersion. Hop, vous activez le son et vous vous la jouez Thomas Pesquet depuis votre canapé. L'appli est traduite en 6 langues (français, anglais, espagnol, russe, chinois et hindi) donc tout le monde peut en profiter.

Si vous avez des gamins curieux ou si vous êtes vous-même un peu geek de l'espace, c'est un super outil pédagogique, je trouve. Attention par contre, sur mobile c'est pas ouf... le WebGL rame un peu sur les petits écrans (sauf si vous avez un flagship récent), mais sur un PC ça envoie par contre. Pas d'abonnement, pas de tracking, juste de la science accessible en un clic. Si vous avez envie de explorer le système solaire dans votre navigateur , c'est le genre de projet qu'on ne voit pas assez.

Bref, merci Charlie pour le taf. Allez voir AstroClick et amusez-vous bien !

Neocities - Bing blackliste 1,5 million de sites et s'en tape

Par : Korben
5 février 2026 à 21:13

Je vous en parlais y'a pas longtemps, Neocities c'est cette plateforme qui fait revivre l'esprit GeoCities avec ses sites web persos pleins de GIFs qui clignotent et de fonds étoilés. Eh ben les galères continuent pour eux... et ça pique.

Car Bing a décidé de bloquer purement et simplement les 1,5 million de sites hébergés sur leur service. C'est le domaine ENTIER neocities.org qui a été viré de l'index du moteur de recherche de Microsoft et du coup, tous les sous-domaines des utilisateurs avec, en fait. D'ailleurs, c'est pas la première fois puisqu'un blocage similaire avait déjà eu lieu l'été dernier, soi-disant résolu après un contact avec Microsoft.

Kyle Drake, le fondateur, a vu son trafic Bing passer d'environ 500 000 visiteurs par jour à... zéro. Et en cherchant "Neocities" sur Bing, y'a juste un site copycat qui apparait en bonne place. D'ailleurs c'est possiblement du phishing donc gaffe à vous !

Après avoir découvert de ce qu'il se passe, Drake tente de contacter Microsoft pour régler ça. Il soumet alors une douzaine de tickets via les Bing Webmaster Tools. Sauf que derrière, y'a personne. Enfin si, y'a un chatbot IA qui répond en boucle sans rien résoudre. Le mec a même essayé d'acheter de la pub Bing juste pour avoir un être humain au bout du fil. QUE DALLE !

C'est quand Ars Technica a contacté Microsoft que ça a (un peu) bougé. En 24 heures, hop, la page d'accueil est réapparue dans les résultats de recherche. Sauf que les sous-domaines des utilisateurs, eux, sont toujours bloqués pour la plupart. Microsoft a juste dit que "certains sites violaient leurs règles", sans dire lesquels. Et bien sûr, ils refusent de discuter directement avec la plateforme...

Bing ne pèse que ~4,5% du marché mondial. Mais c'est le moteur par défaut de Windows, et surtout, plein d'autres moteurs (dont DuckDuckGo) s'appuient en bonne partie sur l'index Bing en coulisses. Du coup, c'est pas juste un problème Bing, c'est tout un pan du web qui perd l'accès à ces sites.

Le fondateur le dit lui-même , c'est "un des derniers bastions du contenu humain" sur le web. Pas d'IA slop ni de contenu généré pour gratter du référencement. Neocities, ce sont juste des gens qui font des sites persos chelous, des fanpages, de l'art...etc bref c'est totalement le genre de truc qu'un moteur de recherche devrait mettre en avant à une époque où tout est noyé sous de la bouillie synthétique. Mais bon...

Heureusement que Google continue d'indexer les sites Neocities normalement... ^^

Source

1dex - Toutes les données d'un quartier en un clic

Par : Korben
5 février 2026 à 06:13

Quentin, fidèle lecteur de Korben, développe en solo depuis presque un an un outil qui va parler à tous ceux qui cherchent un appart ou une maison et qui en ont marre de jongler entre quinze onglets pour avoir une vision claire d'un quartier.

1dex.fr c'est une plateforme qui agrège un paquet de données géographiques et immobilières sur n'importe quelle adresse en France. Prix de vente au m², transactions DVF, permis de construire, qualité de l'eau, pollution de l'air, travaux à proximité, écoles... Le tout sur une interface cartographique plutôt bien foutue.

Concrètement, vous entrez une adresse, vous cliquez sur "Analyser cette zone" et hop, la carte se remplit de données. On peut alors visualiser les parcelles alentours, voir les dernières ventes, repérer les chantiers en cours, et même afficher les immeubles avec syndic de copropriété. Y'a même un système de calques pour switcher entre fond de carte classique, vue satellite ou mode sombre.

Perso j'aime bien ce genre d'outil qui met la data à portée de main sans avoir besoin de fouiller data.gouv.fr pendant des heures.

Son modèle est freemium mais rassurez-vous, l'essentiel est gratuit avec une limite journalière d'analyses. Si vous dépassez, soit vous revenez le lendemain, soit vous passez à la caisse pour un accès intensif. Quentin bosse aussi sur une API pour les pros et une extension navigateur qui ajoutera les données 1dex directement sur les annonces immo. Pas mal pour éviter les mauvaises surprises avant même de visiter !

Voilà si vous êtes en recherche de logement ou juste curieux de savoir ce qui se passe autour de chez vous, ça vaut le coup d'œil -> 1dex.fr

Et bravo à Quentin !

C'est prouvé : Le vibe coding va tuer l'open source

Par : Korben
3 février 2026 à 14:29

Une équipe de chercheurs en économie vient de poser des maths sur un truc que pas mal de devs sentaient venir... Le vibe coding serait en train de tuer l'open source. Pas au sens figuré, hein. Au sens "les mainteneurs ne pourront bientôt plus payer leurs factures". J'ai parcouru le papier ce midi, et je pense que ça va vous choquer...

En gros, le document modélise ce qui se passe quand des millions de devs arrêtent d'aller sur Stack Overflow et de lire la doc officielle pour plutôt demander à Claude, Copilot, Cursor ou Windsurf de tout faire à leur place. En fait, à cause de ces nouvelles habitudes, les projets open source qui vivaient de la pub sur leur site, des sponsors attirés par le trafic, ou de la visibilité communautaire... perdent tout. Le trafic baisse, les dons baissent, les revenus baissent.

Et les chiffres font mal !

Tailwind CSS, par exemple. J'ai regardé les stats npm de tailwindcss sur npmtrends.com... les téléchargements hebdo dépassent les 44 millions en janvier 2026, c'est du jamais vu. Sauf que les visites sur tailwindcss.com ont plongé d'environ 40%.

Côté revenus, c'est encore pire, puisque ça a chuté d'à peu près 80%. Adam Wathan, le créateur de Tailwind, en parlait début 2026 et ça avait l'air de bien le déprimer.

Pendant ce temps, Stack Overflow a perdu un quart de son activité depuis fin 2022 avec l'arrivée de ChatGPT. Bah oui, plus besoin de poser des questions quand l'IA vous mâche le travail.

En fait, l'IA utilise MASSIVEMENT l'open source pour générer du code. Elle s'appuie dessus, elle recommande les packages, elle les intègre automatiquement. Mais elle ne renvoie personne vers les sites des projets. C'est un peu comme si Spotify jouait vos morceaux sans jamais afficher le nom de l'artiste... et sans le payer non plus !

D'ailleurs, les auteurs du papier font exactement cette analogie. Ils proposent un modèle "Spotify pour l'open source" où les plateformes d'IA (OpenAI, Anthropic, GitHub) partageraient leurs revenus d'abonnement avec les mainteneurs en fonction de l'utilisation réelle des packages. Leur calcul montre que sociétés d'IA devraient contribuer au minimum à hauteur 84% de ce que les utilisateurs classiques apportent, sinon c'est la spirale de la mort pour les projets.

Perso, ça me rappelle la fameuse lettre de Bill Gates en 1976 qui gueulait déjà que personne ne voulait payer pour le logiciel. Cinquante ans plus tard, on en est toujours au même point, sauf que maintenant c'est l'IA qui fait le travail de sape. Et comme le disait Linus Torvalds récemment , le vibe coding c'est "horrible, horrible" pour la maintenance du code. Pas juste parce que le code généré est souvent bancal, mais parce que ça coupe le lien entre le dev et l'écosystème qui le nourrit.

Après, attention, ça veut pas dire que TOUS les projets open source vont crever du jour au lendemain. Ceux qui ont des contrats enterprise genre Red Hat ou du support payant à la Elastic s'en sortent... pour l'instant. Pareil pour les gros projets type Linux ou Kubernetes qui sont soutenus par des fondations. Le problème, c'est surtout les petits projets maintenus par une ou deux personnes qui vivaient de la visibilité. Vous savez, le mec qui maintient un package npm avec 2 millions de téléchargements hebdo depuis son appart, sans sponsor... ben lui, il est dans la panade. Sauf si le mec a un Patreon bien rempli ou un contrat de consulting à côté, mais ça c'est l'exception, pas la règle.

Et n'allez pas croire que les GitHub Sponsors suffisent... j'ai galéré à trouver ne serait-ce qu'un seul projet avec plus de 500$/mois via ce système.

Le plus flippant dans tout ça, c'est que même si l'IA rend chaque dev individuellement plus productif, le résultat net peut être carrément NÉGATIF pour tout le monde. Moins de projets open source viables, moins de diversité, moins d'innovation à la base. Et ces auteurs le démontrent mathématiquement avec leur modèle à deux canaux (productivité vs diversion de la demande).

Et sachez le, même dans le scénario le plus optimiste où les plateformes d'IA payeraient leur part, si ce ratio tombe en dessous de 84%... c'est foutu. Le modèle diverge et les projets meurent quand même.

Bref, si les plateformes d'IA ne trouvent pas un moyen de rémunérer l'open source qu'elles exploitent, on court droit vers un appauvrissement massif de l'écosystème open source.

Source

Firefox 148 - L'IA arrive, mais c'est vous le patron

Par : Korben
3 février 2026 à 10:33

Vous vous souvenez quand je vous parlais du fameux kill switch IA de Firefox en décembre dernier ? Hé bien c'est désormais chose faite ! Mozilla vient d'annoncer que Firefox 148, qui sort le 24 février, embarquera une toute nouvelle section "Contrôles de l'IA" dans ses paramètres, entièrement dédiée aux contrôles de l'IA.

Et perso, je suis RAVI.

La nouvelle section Contrôles de l'IA dans Firefox 148

J'ai fouillé un peu dans les menus de la Nightly pour voir à quoi ça ressemble et c'est plutôt bien fichu. Vous aurez accès à un panneau centralisé dans Paramètres > Contrôles de l'IA, qui vous permettra de gérer individuellement chaque fonctionnalité IA du navigateur. Traduction automatique, texte alternatif pour les PDF (top pour l'accessibilité), groupement d'onglets intelligent, prévisualisation de liens, tout ça avec de l'IA locale ... et même un chatbot (pas local) intégré dans la barre latérale. Du coup, chaque brique peut être activée ou désactivée selon vos envies ou votre religion ^^.

Mozilla a intégré le support de Claude (d'Anthropic), ChatGPT, Microsoft Copilot, Google Gemini et Mistral Le Chat. Cinq fournisseurs au choix, directement dans la sidebar depuis un petit moment déjà et j'avoue que je l'utilise pas mal (avec Claude) pour lire des résumés de pages trop longues (mon temps est précieux ^^) ou avoir des explications sur des trucs un peu trop compliqués pour mon petit cerveau.

La vraie feature cool c'est ce bouton magique. Y'a un switch global "Bloquer les améliorations ayant recours à l'IA" qui coupe TOUT d'un seul geste. Toutes les fonctions IA actuelles ET futures. Vos préférences sont conservées entre les mises à jour, ce qui veut dire que Mozilla ne viendra pas réactiver un truc en douce après un update. C'est ce que le nouveau PDG Anthony Enzor-DeMeo avait promis en décembre... et ils ont tenu parole, les bougres !

Attention quand même, y'a un piège pour les impatients : Toutes les fonctions IA sont désactivées par défaut. Faut donc aller les activer vous-même, une par une. Comme ça, pas de mauvaise surprise au premier lancement et pas d'hystériques colériques sur le dos de Mozilla. C'est un peu plus de clics pour ceux qui veulent TOUT activer, mais au moins personne pourra dire qu'on lui a forcé la main. Sauf que si vous êtes comme moi et que vous voulez tout tester d'un coup... bah va falloir être patient et cocher chaque case ^^.

C'est ça que j'adore chez Mozilla. Pendant que d'autres navigateurs vous imposent des fonctions IA sans rien demander (coucou les bulles Copilot dans Edge que vous pouvez même pas virer proprement...), Firefox continue de miser sur le choix de l'utilisateur. Comme je le dis depuis des années, l'important c'est d'avoir le choix . Vous voulez de l'IA partout ? Activez tout. Vous n'en voulez pas ? Un clic et c'est réglé. Pas de dark patterns, pas de menus cachés au fin fond des about:config.

Pour ceux qui ont suivi l'évolution de Firefox 142 avec l'IA locale et les LLM qui tournent directement sur votre machine, c'est la suite logique. Mozilla construit petit à petit un écosystème IA qui respecte la vie privée, et ça franchement... c'est tellement rare que ça mérite d'être dit.

Bref, la version est déjà dispo dans Firefox Nightly pour les plus impatients !

Source

Test du dock Thunderbolt 5 UGREEN Revodok Max 2131. Votre bureau va apprécier

Par : Korben
2 février 2026 à 15:25

– Article invité, rédigé par Vincent Lautier, contient des liens affiliés Amazon –

En mai dernier, je vous parlais de mon coup de cœur pour le Revodok Max 213, un dock très complet , Thunderbolt 4, qui faisait déjà des miracles sur mon bureau. Sauf que voilà, les mois ont passé, et je suis un geek bien trop relou pour accepter de continuer à utiliser un ancien modèle, alors qu'il a été mis à jour ! Entre une promotion indécente sur Amazon et mon envie de préparer le terrain pour mon future MacBook Pro, j'ai fini par sauter le pas pour le UGREEN Revodok Max 2131, la déclinaison Thunderbolt 5 , et je suis bien content.

Soyons honnêtes deux minutes : mon MacBook Air M4 actuel ne gère "que" le Thunderbolt 4. En branchant cette nouvelle version, je ne gagne clairement pas de vitesse de transfert immédiate par rapport à mon ancien modèle. C’est même techniquement surdimensionné pour mon usage actuel, mais l'investissement est en fait stratégique. Je prévois de passer au prochain MacBook Pro M5 dès sa sortie, et avec ce dock, je suis certain que mon setup sera prêt le jour J pour exploiter la pleine puissance du TB5. Et puis surtout, à 315 euros au lieu de 450 euros, je n'avais pas trop à hésiter.

Alors sur le papier vous le savez, l'intérêt du Thunderbolt 5 c'est surtout sa bande passante délirante. On passe de 40 Gbps à 80 Gbps bidirectionnels, et même jusqu'à 120 Gbps via le mode "Bandwidth Boost" pour l'affichage. Pour ceux qui travaillent avec des écrans haute résolution, c'est quand même sympathique. Ce modèle permet de gérer un double affichage 8K à 60 Hz sur les puces Pro et Max, ou de saturer des SSD externes ultra-rapides sans ressentir le moindre ralentissement sur le reste des ports. Zéro compromis donc.

C'est aussi un monstre de charge.

On passe de 90W sur l'ancien modèle à 140W de Power Delivery sur celui-ci. Pour mon MacBook Air, c'est toujours inutile, mais pour les utilisateurs de PC portables gaming ou de MacBook Pro gourmands en ressources, vous pouvez mettre le chargeur d'origine de votre ordi à la poubelle. La station gère intelligemment la distribution d'énergie, envoyant même du jus supplémentaire sur les ports de façade pour charger un smartphone ou une tablette en charge rapide simultanément.

Il a plutôt une bonne tête en plus, avec un châssis en aluminium pour bien dissiper la chaleur. La connectique est complète avec 13 ports, dont du RJ45 en 2,5 GbE pour les amateurs de réseaux rapides et des lecteurs de cartes microSD et SD 4.0 pour les photographes comme moi. Point important quand même, il faut obligatoirement être sous macOS 15 Sequoia ou Windows 11 pour en profiter pleinement, mais bon, si vous lorgnez sur ce genre de produit, c'est que vous êtes à jour.

Bon, vous l'avez compris, si vous aimez avoir du bon matériel sur votre bureau, ça se considère clairement, surtout avec la promo actuelle sur Amazon. Et oui, même si votre ordinateur du moment est limité au Thunderbolt 4, vous gagnez quand même en puissance de charge, et vous êtes déjà prêts pour votre prochaine évolution matérielle. Dispo ici sur Amazon !

Article invité publié par Vincent Lautier . Vous pouvez aussi faire un saut sur mon blog , ma page de recommandations Amazon , ou lire tous les tests que je publie dans la catégorie "Gadgets Tech" , comme cette liseuse Android de dingue ou ces AirTags pour Android !

Notepad++ - Votre éditeur de texte préféré a été piraté

Par : Korben
2 février 2026 à 12:13

Si vous utilisez Notepad++, faut que vous sachiez qu'il s'est passé un truc moche. Entre juin et décembre 2025, les serveurs de mise à jour de votre éditeur de texte préféré ont été piratés par Lotus Blossom, un groupe de hackers chinois actifs depuis 2009 et spécialisés dans l'espionnage gouvernemental. Ouin 🥲.

En gros, les attaquants ont réussi à compromettre l'infrastructure de l'ancien hébergeur du projet pour détourner le trafic de mise à jour. Certains utilisateurs se retrouvaient redirigés vers des serveurs malveillants qui leur servaient des binaires vérolés au lieu des vraies mises à jour. Et le chercheur en sécurité Kevin Beaumont confirme que trois organisations ayant des intérêts en Asie de l'Est ont subi des intrusions via cette méthode... avec des hackers qui naviguaient VRAIMENT sur les PC des victimes en temps réel.

Le pire ? Les hackers ont gardé un accès aux services internes jusqu'au 2 décembre, même après la correction de la faille initiale en septembre. Ils exploitaient une vulnérabilité dans le script getDownloadUrl.php et les faiblesses de WinGUP, l'outil de mise à jour. Les anciennes versions utilisaient même un certificat auto-signé dispo sur GitHub... autant dire que c'était open bar.

Rapid7 a publié une analyse technique du malware déployé via cette attaque. Baptisé "Chrysalis", c'est une backdoor complète avec shell interactif, exfiltration de fichiers, création de processus à distance... le package complet de l'espion. Le truc vicieux, c'est que le serveur de commande utilisait une URL qui imitait l'API de DeepSeek pour passer sous les radars.

Beaumont alerte aussi sur le fait que les moteurs de recherche sont bourrés de pubs qui poussent des versions vérolées de Notepad++. Sans compter des extensions malveillantes qui circulent. Bref, c'est la fête.

Bon, pour vous protéger, mettez à jour Notepad++ vers la version 8.9.1 minimum (et pas 8.8.9 comme annoncé initialement, ils ont renforcé les protections depuis). Si vous avez un doute, désinstallez tout et retéléchargez directement depuis notepad-plus-plus.org. Changez vos mots de passe si vous utilisiez cet outil pendant la période critique, et les admins réseau, bloquez l'accès Internet de gup.exe dans votre pare-feu. Hop, c'est réglé. Si vous cherchez des alternatives le temps que ça se tasse, y'a Notepads ou NotepadNext qui font du super boulot, et les indicateurs de compromission sont dans le rapport de Rapid7 .

Bref, restez vigilants !

Source & Source

Souveraineté numérique : un enjeu mondial ?

Par : Wisy
31 janvier 2026 à 23:47

La souveraineté numérique n’est plus seulement un débat européen ou français : c’est devenu un sujet mondial.
Du Canada à l’Union européenne, en passant par les États‑Unis, la Chine, l’Inde ou encore l’Afrique, chaque région tente aujourd’hui de reprendre le contrôle de ses données, de ses infrastructures et de ses technologies.
Dans un monde où données, infrastructures et technologies façonnent nos décisions, nos économies et même nos démocraties, une question centrale émerge :

Comment chaque pays peut-il conserver son autonomie numérique face aux géants technologiques ?

Qu’est‑ce que la souveraineté numérique ?

La souveraineté numérique désigne la capacité d’un État, d’une organisation ou d’un citoyen à garder le contrôle sur ses données, ses infrastructures technologiques et ses usages numériques. En d’autres mots : savoir , comment et sous quelle juridiction nos données et nos outils sont exploités.

Le concept apparaît à la fin des années 1990 et se précise au fil des années face à la domination grandissante des géants technologiques mondiaux. Aujourd’hui, il englobe :

  • la maîtrise des données
  • l’indépendance vis‑à‑vis des plateformes étrangères
  • la protection contre les lois extraterritoriales (Cloud Act, Patriot Act, section 702 du FISA, Executive Order 12333, etc… )
  • la sécurité des infrastructures critiques
  • la capacité d’innovation locale.

Les trois piliers universels de la souveraineté numérique

La maîtrise des données


Peu importe le pays, la question centrale est : où sont stockées les données et qui y a accès ?

Pour le Canada, cela inclut par exemple la protection des données citoyennes à travers des initiatives comme les solutions CIRA DNS Firewall, qui encouragent à privilégier des technologies développées au pays pour améliorer la souveraineté et la cybersécurité.

Pour l’Europe, le RGPD reste une référence mondiale pour assurer une protection élevée des données personnelles.

Note : Le RGPD ne couvre pas les données industrielles. Ces dernières relèvent d’autres cadres juridiques et réglementaires.

Données personnelles, données de santé, données industrielles…
Elles représentent un nouveau pouvoir économique et politique. Assurer la souveraineté numérique, c’est :

  • savoir où les données sont stockées,
  • décider qui peut y accéder,
  • s’assurer qu’elles sont protégées par des lois adaptées (ex. RGPD, Loi25).

Le contrôle des infrastructures


Cela comprend les :

  • data centers,
  • clouds,
  • câbles sous-marins,
  • satellites,
  • serveurs et réseaux.

Les collectivités françaises peuvent utiliser des clouds certifiés SecNumCloud, qui garantissent un haut niveau de sécurité et de conformité, mais pas une souveraineté garantie.
En effet, comme l’a rappelé le directeur de l’ANSSI, SecNumCloud ne protège pas contre toutes les formes d’extraterritorialité, notamment si le fournisseur reste soumis à un droit étranger.

Source recommandée : analyse de Vincent Strubel, DG de l’ANSSI.

L’indépendance technologique


Il s’agit de limiter les dépendances critiques, notamment en :

  • utilisant des technologies locales ou open source,
  • diversifiant les fournisseurs,
  • renforçant les capacités nationales d’innovation,
  • évitant les situations où un acteur étranger pourrait couper l’accès à un service essentiel.

Tour du monde des stratégies de souveraineté numérique

Canada : priorité à la protection des données
Canada

Le Canada adopte une approche pragmatique axée sur :

  • l’hébergement local des données,
  • le renforcement de la cybersécurité,
  • l’adoption de solutions “made in Canada” pour les organisations publiques et privées.

CIRA, par exemple, encourage les organisations à donner la priorité à la souveraineté des données afin de renforcer la sécurité et la résilience face aux cybermenaces.

Données : Quelle est l’importance de la souveraineté des données pour les organisations canadiennes?

Europe : l’autonomie numérique comme mission stratégique
europe

L’Union européenne est l’un des acteurs les plus avancés, avec :

  • des réglementations strictes (RGPD, NIS 2, DORA, Data Governance Act, Data Act, etc.),
  • des initiatives cloud souverain,
  • des alternatives européennes aux solutions américaines,
  • la création d’un Observatoire de la souveraineté numérique pour mesurer les dépendances critiques, lancé en France en janvier 2026.

Plusieurs États membres abandonnent progressivement des outils américains (Teams, Zoom) au profit de solutions souveraines développées en interne ou en Europe. En France, la migration vers Visio, une plateforme souveraine hébergée localement, illustre ce virage massif.

Donnée : Sommet sur la souveraineté numérique européenne : des engagements emblématiques pour une Europe plus compétitive et souveraine

États‑Unis : la puissance technologique comme souveraineté
USA

La souveraineté numérique américaine repose sur :

  • la domination du cloud mondial (AWS, Azure, Google Cloud),
  • le contrôle des plateformes (Meta, Google, X…),
  • les lois extraterritoriales comme le Cloud Act, qui obligent les entreprises américaines à fournir des données même si elles sont stockées à l’étranger.
  • Le contrôle des câbles sous-marins, dont les GAFAM détiennent plus de 70 %
  • Les lois extraterritoriales, notamment le Cloud Act (réquisition judiciaire encadrée pour enquêtes criminelles), Section 702 du FISA (surveillance électronique secrète par la NSA), Executive Order 12333 (collecte de renseignement en dehors du territoire américain).

Note : Le FISA est généralement considéré plus intrusif que le Cloud Act, car il relève du renseignement, pas d’une procédure judiciaire.

Paradoxalement, cette souveraineté américaine devient un enjeu de dépendance pour les autres pays.

Chine : souveraineté totale et contrôle strict
Chine

La Chine applique l’une des approches les plus radicales :

  • Internet national contrôlé (Great Firewall),
  • plateformes chinoises (WeChat, Alibaba, Tencent),
  • cloud souverain,
  • hébergement obligatoire des données en Chine.

Son modèle repose sur une souveraineté numérique autoritaire et centralisée, profondément différente de l’approche européenne.

Donnée : La chine et le controle d’internet. Une Cybersouveraineté ambivalente.

Inde : souveraineté numérique et essor technologique
Inde

L’Inde mise sur :

  • le développement massif de technologies nationales,
  • des clouds locaux,
  • le projet “Digital India” pour contrôler ses données et infrastructures,
  • des législations contraignantes pour limiter l’influence étrangère.
Afrique : entre dépendances et émergence
Afrique

De nombreux États africains cherchent à réduire leur dépendance aux technologies étrangères.
Les enjeux sont importants :

  • Hébergement local rare → dépendance au cloud américain ou chinois
  • Besoin d’infrastructures souveraines
  • Volonté croissante de régulation plus stricte du numérique

Plusieurs pays lancent des politiques de cybersécurité nationales pour renforcer leur autonomie.

Donnée : La Souveraineté Numérique en Afrique : Enjeux Stratégiques, Défis et Opportunités


Pourquoi la souveraineté numérique est devenue un enjeu mondial ?

Plusieurs facteurs contribuent à placer la souveraineté numérique au cœur des débats :

La domination des géants du numérique

Les GAFAM (Google, Amazon, Microsoft, Apple, Meta) et leurs équivalents chinois (BATX) contrôlent une part massive des données mondiales.
Ils influencent les communications, l’innovation, les flux d’information et même certaines décisions politiques.

La montée des tensions géopolitiques

Sanctions extraterritoriales, menaces de coupures de services, “kill switches”, espionnage numérique…
L’Europe, Le Canada, et bien d’autres, fortement dépendants des clouds et technologies américains, se retrouvent en posture fragile.

L’explosion des cyberattaques

Les infrastructures critiques (santé, énergie, transport, collectivités) sont devenues des cibles.
Sans maîtrise des systèmes, impossible d’assurer continuité, résilience ou protection.

IA et données sensibles

L’IA dépend fortement du contrôle des données et du calcul, deux ressources stratégiques.

Ce que cela implique pour les entreprises

Peu importe le pays, les entreprises doivent :

  • choisir des clouds alignés avec leurs lois nationales (ex : RGPD en Europe) ;
  • renforcer la cybersécurité ;
  • éviter la dépendance totale à un seul fournisseur étranger ;
  • privilégier les solutions souveraines ou open source ;
  • connaître les réglementations transfrontalières qui s’appliquent.

Un enjeu mondial, une responsabilité partagée

numérique mondiaux


La souveraineté numérique est devenue un impératif planétaire.
Chaque région du monde, selon ses valeurs et ses besoins, tente aujourd’hui de trouver le juste équilibre entre :

  • sécurité,
  • indépendance,
  • innovation,
  • ouverture internationale.

Qu’il s’agisse de l’Europe, de la France, des États‑Unis, de la Chine, de l’Inde, de l’Afrique ou du Canada, tous convergent vers un même constat :

Aucun pays ne peut dépendre entièrement de technologies qu’il ne contrôle pas.

La souveraineté numérique n’est donc pas une option :


c’est une condition essentielle pour l’avenir démocratique, économique et technologique du monde.

À voir également : Sécurité : Créer facilement des mots de passe efficaces



L’article Souveraineté numérique : un enjeu mondial ? est apparu en premier sur Le Blog du Wis.

❌
❌