Top 10 PowerShell Commands to Use in 2026
From automation to system management, these are the PowerShell commands IT pros should know and use in 2026.
The post Top 10 PowerShell Commands to Use in 2026 appeared first on TechRepublic.
From automation to system management, these are the PowerShell commands IT pros should know and use in 2026.
The post Top 10 PowerShell Commands to Use in 2026 appeared first on TechRepublic.
Vous avez un serveur dans un placard, un NAS chez vos parents, ou une machine headless qui fait des siennes et qui refuse de booter correctement ? Alors vous connaissez forcement cette galère quand c'est impossible d'y accéder à distance parce que l'OS a crashé, que le réseau ne répond plus, ou que vous avez besoin de tripatouiller le BIOS pour changer un réglage.
Ah mais c'est terminé ces galères de cro-magnons, car il existe maintenant un petit boîtier open source qui règle tout ça et qui s'appelle LeafKVM. C'est un KVM over IP sans fil, avec un écran tactile intégré, qui vous permet de prendre le contrôle total d'une machine depuis votre navigateur web, sans avoir besoin d'installer quoi que ce soit sur la machine cible.
Vous branchez le LeafKVM en HDMI sur votre serveur (pour capturer l'image) et en USB (pour émuler clavier/souris), et hop, vous accédez à l'écran de la machine depuis n'importe quel navigateur que vous soyez sur votre canapé ou à l'autre bout du monde via RustDesk , vous voyez exactement ce que la machine affiche, du BIOS jusqu'à l'OS, et vous pouvez taper au clavier comme si vous étiez devant. Vous pouvez même monter des images ISO à distance pour réinstaller un OS sur une machine plantée, ce qui est quand même bien pratique.
Et LeafKVM embarque sa propre connectivité Wi-Fi 5 avec un mode hotspot intégré, du coup, même si votre serveur n'a pas de réseau fonctionnel (genre le driver réseau qui merde au boot), vous pouvez quand même y accéder en vous connectant directement au Wi-Fi du boîtier depuis votre smartphone. Pas besoin de trimballer un écran et un clavier dans votre local technique, le LeafKVM fait tout ça dans son boîtier alu de 90x65mm qui tient dans la poche.
Côté specs, on a donc un processeur Rockchip RV1106G3 avec 256 Mo de RAM et 16 Go de stockage eMMC, une puce Toshiba TC358743 pour la capture HDMI jusqu'en 1080p/60fps avec une latence sous les 100ms, du Wi-Fi 5 et Bluetooth via une puce RTL8821CS, un port Ethernet 100 Mbps avec support PoE optionnel, et surtout cet écran tactile IPS de 2,4 pouces qui permet de configurer le réseau ou de prévisualiser l'écran directement sur le boîtier sans avoir besoin d'un PC.
Le tout est vraiment open source avec les schémas hardware sous licence CERN-OHL-W et le logiciel sous GPLv2/v3. Le firmware est basé sur Linux Buildroot avec un backend en Rust, et l'interface web est dérivée du projet JetKVM. Bref, vous pous pouvez auditer le code si ça vous amuse mais également le modifier et le compiler vous-même si ça vous chante..
Par rapport aux alternatives comme le JetKVM à 69 dollars qui n'a pas de Wi-Fi hotspot, ou le NanoKVM de Sipeed qui est moins cher mais qui a eu quelques soucis de sécurité avec ses mots de passe par défaut, le LeafKVM se positionne très bien sur le créneau du "fait maison mais bien fini".
Le projet est actuellement en pré-lancement sur Crowd Supply, donc pas encore de prix annoncé, mais si vous êtes du genre à avoir des machines éparpillées un peu partout et que vous en avez marre de vous déplacer à chaque fois qu'une d'elles fait des caprices, ça vaut le coup de garder un œil dessus.
Merci à Letsar pour le partage !
![]()
Je sais pas vous, mais moi dès que j'ai un truc à écrire sur mon smartphone, je le dicte. Et que je sois sous Android ou soit iOS, je sais très bien que chaque mot que je prononce part directement sur les serveurs de Google ou Apple. Pourquoi j'ai trouvé FUTO Voice Input , intéressant parce que lui, garde tout sur votre téléphone...
C'est une appli Android qui utilise le modèle Whisper d'OpenAI pour faire de la reconnaissance vocale vraiment précise et ça tourne nickel sur un smartphone moderne. Trois tailles de modèle sont dispo : tiny, base, et small. La base suffira dans 90% des cas, mais vous pouvez basculer sur la small qui est un peu plus grosse, si vous avez un accent à couper au couteau ou si vous parlez dans le métro.
FUTO Voice Input supporte également 16 langues dont le français, l'anglais, l'allemand, l'espagnol, le japonais et plein d'autres et l'appli s'intègre directement comme clavier de saisie vocale Android, du coup elle fonctionne avec n'importe quelle application. Vous pouvez donc l'utiliser avec des claviers comme AnySoftKeyboard ou Unexpected Keyboard . Par contre, oubliez Gboard ou le clavier Samsung qui ont leur propre système verrouillé.
Le projet vient de FUTO, une organisation fondée par Eron Wolf (ex-investisseur de WhatsApp) et Louis Rossmann, le YouTubeur américain connu pour son combat pour le droit à la réparation, y bosse comme directeur de la com. Donc niveau éthique, je pense que c'est OK.
L'appli est dispo sur le Play Store, sur F-Droid, ou en APK direct d'environ 70 Mo. Y'a une version gratuite et une version payante sous forme de licence unique (pas d'abonnement, ouf) et le code source est ouvert et disponible sur GitLab.
Voilà, si vous en avez marre que vos paroles soient analysées par des serveurs à l'autre bout de la planète, FUTO Voice Input c'est une très bonne option !
Merci à PARADOXE_ pour l'info !
![]()
Vous savez que depuis quelques années, des startups équipent les camions poubelle et les bus de caméras IA pour cartographier automatiquement l'état des routes ? Comme ça, pendant que le chauffeur fait sa tournée, une intelligence artificielle détecte les nids-de-poule, les fissures et autres joyeusetés routières en temps réel. Chaque défaut est géolocalisé, scoré par gravité, et hop, les équipes de maintenance savent exactement où intervenir.
Bon apparemment, là où j'habite, ils n'utilisent pas ça parce que les routes sont des champs de mines, mais si le Maire se chauffe en DIY, ce projet maintenu par un certain Peter va l'intéresser.
C'est sur GitHub et c'est un stack complet pour faire exactement la même chose que les startups spécialisées en nids de poule... un vrai projet end-to-end avec l'entraînement du modèle sur du GPU cloud, une API backend containerisée, et même une app mobile React Native pour scanner les routes depuis votre téléphone.
Le projet s'appelle pothole-detection-yolo et ça utilise YOLOv8, le modèle de détection d'objets qui fait fureur en ce moment dans le domaine de la vision par ordinateur. Concrètement, le modèle a été entraîné sur un dataset de nids-de-poule disponible sur HuggingFace, avec des images de 640x640 pixels. L'entraînement s'est fait sur Nebius Cloud avec des GPUs H100, donc du sérieux, pas du Colab gratuit qui timeout au bout de 20 minutes.
Ce qui est cool avec ce projet, c'est qu'il ne s'arrête pas au modèle. Y'a une API FastAPI complète qui expose deux endpoints : /detect pour envoyer une image et récupérer les bounding boxes avec les scores de confiance, et /health pour vérifier que le service tourne. Le tout est containerisé en Docker avec support GPU automatique. Et si vous avez pas de carte graphique, ça bascule sur CPU.
Et la cerise sur le gâteau, c'est l'app mobile Expo/React Native. Vous ouvrez l'app, vous prenez une photo d'une route avec votre smartphone, l'image est envoyée à l'API, et vous récupérez les détections en temps réel avec les rectangles dessinés autour des nids-de-poule et les pourcentages de confiance affichés. Bref, c'est exactement ce que font les boites tech à plusieurs millions, sauf que là c'est open source sous licence Apache 2.0.
YOLOv8 atteint facilement entre 93 et 99% de précision pour la détection de nids-de-poule selon les variantes utilisées et des chercheurs ont même combiné YOLOv8 avec des données de nuages de points 3D pour atteindre 95.8% de précision sur des tronçons de tests d'environ 5 km. Bref, c'est du solide et ça fonctionne .
Le truc intéressant pour les bricoleurs, c'est que le modèle entraîné est directement téléchargeable sur HuggingFace donc vous pouvez donc skip toute la partie entraînement si vous voulez juste tester le résultat. Une seule commande Docker pour lancer l'API, et vous êtes opérationnel. Pour les plus motivés qui veulent entraîner leur propre modèle avec des données locales de vos routes françaises pleines de cratères, le code d'entraînement est là aussi avec les configs Ultralytics.
Bref, si vous êtes une petite mairie qui veut cartographier l'état de vos routes sans claquer 50 000 euros dans une solution proprio, ou juste un dev curieux de voir comment fonctionne la stack derrière ces caméras intelligentes qu'on voit de plus en plus sur les véhicules de service, ce projet est une mine d'or.
Tout est là , documenté, et ça fonctionne du feu de dieu.
![]()
Qui se rappelle de Stunt Car Racer ?
C'était un jeu de course complètement barré sur Amiga où on pilotait une voiture avec un énorme V8 qui crachait des flammes sur des circuits surélevés dans le vide. Si vous avez connu ça à l'époque, vous savez à quel point c'était addictif et ce jeu de 1989 signé Geoff Crammond (le mec derrière les simulations Grand Prix ultra-réalistes) reste encore aujourd'hui une référence en termes de physique de conduite.
Hé bien bonne nouvelle les amis, un remake PC est en cours de développement par des fans passionnés ! Le projet existe depuis 2019, initié par D. Vernon et A. Copland, et il est maintenant maintenu par omenoid et ptitSeb qui continuent de le faire évoluer et contrairement à pas mal de projets fans qui tombent dans l'oubli, celui-ci est bien vivant.
Le concept original était déjà dingue pour l'époque. Vous aviez des circuits surélevés comme des montagnes russes géantes, avec des sauts impossibles, des virages relevés, et surtout le fameux Ski Jump qui faisait flipper tout le monde. Le truc, c'est que si vous ratiez un saut ou que vous alliez trop vite dans un virage, votre caisse tombait dans le vide. Pas de barrières de sécurité, pas de seconde chance, pas de Lakitu Pêcheur... ^^ et votre voiture accumulait aussi des dégâts au fil des courses.
Trop de crashes et au bout d'un moment, c'était game over pour la saison.
Le remake reprend donc tout ça avec une modélisation complète des circuits et une physique de suspension fidèle à l'original. Les développeurs ont aussi récemment intégré un patch qui améliore considérablement le framerate, ce qui rend l'expérience beaucoup plus fluide que le jeu d'origine.
Geoff Crammond en 1987 sur un vrai kart relié à un Commodore 64
Pour ceux qui veulent tester, le projet est disponible sur GitHub avec une version Windows prête à l'emploi . Y'a aussi une version Linux en développement pour les manchots du dimanche.
Ce qui est cool avec ce genre de projet, c'est qu'il permet de redécouvrir des jeux qui ont marqué l'histoire du jeu vidéo mais qui sont devenus quasi injouables sur du hardware moderne. Geoff Crammond avait passé trois ans à développer Stunt Car Racer, en partant d'un simple simulateur de terrain pour Commodore 64 avant de transformer le concept en jeu de course aérien et à l'époque, ce résultat avait été salué, comme l'un des meilleurs jeux de course jamais créés, par Amiga Power qui l'avait classé dans son top 10 de tous les temps.
Bref, si vous avez la nostalgie des années Amiga ou si vous êtes simplement curieux de découvrir un classique qui a influencé pas mal de jeux de course modernes, c'est le moment de tester ce remake. Au pire vous aurez passé un bon moment à vous casser la figure sur le Ski Jump, au mieux vous comprendrez pourquoi les "vieux" en parlent encore 35 ans plus tard...
![]()
Si vous utilisez des conteneurs Docker au quotidien, vous allez sauter de joie car Docker vient d'annoncer que ses Docker Hardened Images (DHI), ces fameuses images ultra-sécurisées qui étaient réservées aux entreprises prêtes à cracher le pognon, sont maintenant gratuites pour tout le monde. Et c'est pas encore un truc limité avec des restrictions à la noix, non non... C'est du vrai open source sous licence Apache 2.0.
Ils proposent donc plus de 1 000 images conteneur prêtes à l'emploi, construites sur Debian et Alpine et ces images sont "durcies", c'est-à-dire qu'elles ont été débarrassées de tous les composants inutiles qui traînent habituellement dans les images de base et qui ne servent qu'à augmenter la surface d'attaque. Du coup, ça leur permet d'annoncer une réduction des vulnérabilités de plus de 95% par rapport aux images classiques. C'est pas maaaal, hein ?
Et ce qui est top c'est que chaque image embarque un SBOM complet (le fameux Software Bill of Materials), des données CVE transparentes accessibles publiquement, une preuve cryptographique d'authenticité et une provenance SLSA Level 3. Bref, c'est plutôt sérieux de ce que je capte.
Car faut dire que les attaques sur la supply chain logicielle, c'est devenu le cauchemar numéro un des développeurs. En 2025, ces attaques auraient causé plus de 60 milliards de dollars de dommages selon les estimations, soit le triple d'il y a quatre ans, du coup, avoir des images béton dès le départ, sans devoir se prendre la tête à tout vérifier soi-même, ça fait la diff.
Maintenant, si vous êtes une grosse boîte avec des besoins spécifiques, Docker propose aussi une version Enterprise payante avec des SLA garantis sur la remédiation des CVE, des images compatibles FIPS, des options de personnalisation et même un support étendu de 5 ans après la fin du support officiel. Des entreprises comme Adobe et Qualcomm ont déjà fait le saut mais pour nous, utilisateurs lambdas et autres développeurs qui bossons sur nos projets perso ou des startups incroyables du futur, la version gratuite devrait largement suffire.
Et en cadeau bonux, sachez que l'assistant IA de Docker peut maintenant scanner vos conteneurs existants et vous recommander automatiquement les images durcies équivalentes. Y'a même des Hardened Helm Charts pour Kubernetes et des serveurs MCP durcis (MongoDB, Grafana, GitHub...). Que demande le peuple ?
Voilà, si vous voulez vous y mettre, tout est dispo sur le Docker Hub sans aucune restriction d'usage ni abonnement requis. Foncez !
![]()
Vous faites un peu de l'électronique et vous utilisez KiCad pour vos PCB ?
Et si l'avenir de la conception électronique c'était aussi l'IA ? J'en sais rien mais ce qui a l'air de se profiler à l'horizon avec ce dataset qui vient de sortir sur Hugging Face et qui devrait intéresser pas mal de monde. Ça s'appelle Open Schematics et c'est une collection de plus de 84 000 schémas électroniques au format KiCad, prêts à être utilisés pour entraîner des modèles d'IA.
Le truc c'est que jusqu'à maintenant, si vous vouliez créer une IA capable de comprendre ou de générer des schémas électroniques, y'avait pas vraiment de dataset propre et bien structuré pour ça. Bhupendra Hada (alias bshada sur Hugging Face) a donc décidé de combler ce manque en compilant tout ça à partir de projets hardware open source trouvés sur GitHub.
Chaque entrée de son dataset contient donc le fichier schéma brut au format .kicad_sch, une image PNG du rendu, la liste des composants utilisés, et des métadonnées en JSON et YAML. Du coup vous avez tout ce qu'il faut pour entraîner un modèle à faire du text-to-image, de l'image-to-text, ou de la génération de circuits à partir de specs.
Le dataset pèse 6,67 Go au format Parquet et couvre une variété de projets assez dingue. On y trouve des cartes de programmation UART, des amplificateurs à tubes, des onduleurs triphasés open source, des points d'extrémité Zigbee, des projets ESP32+RS232, et même des macropads custom. Bref, y'a de tout, du projet étudiant au truc bien avancé.
Ce qui est cool c'est que le dataset est structuré pour plusieurs cas d'usage. Vous pouvez l'utiliser pour entraîner une IA à reconnaître des composants sur un schéma, à générer de la documentation automatique depuis un circuit, à détecter des erreurs de conception, ou même à suggérer des améliorations. Y'a aussi un potentiel éducatif évident pour créer des outils d'apprentissage interactifs en électronique.
Bien sûr, la qualité et la complexité des schémas varient pas mal d'un projet à l'autre. Certains ont des métadonnées incomplètes, et les conventions de nommage des composants sont pas toujours cohérentes... C'est le souci quand on scrappe des projets open source, y'a du bon et du moins bon mais pour un dataset de cette taille, c'est déjà une base de travail solide.
Le tout est sous licence CC-BY-4.0, donc vous pouvez l'utiliser librement du moment que vous créditez la source. Que vous bossiez sur de l'IA appliquée à l'électronique ou que vous cherchiez juste une grosse base de schémas KiCad à explorer, c'est clairement une ressource à bookmarker.
![]()
Parfois, c'est galère de chercher des logiciels sur GitHub... et je sais de quoi je parle car je passe littéralement mes journées à faire ça... Faut trouver un projet cool, faut aller dans les releases ou le compiler, l'installer, le tester et ensuite déterminer si ça vous sera utile avant de passer à la rédaction d'un article comme celui que vous êtes en train de lire.
J'adore faire ça mais aller digger Github, ça peut vite devenir pénible.
Alors ça tombe bien car voici un projet qui transforme GitHub en véritable App Store. Ça s'appelle Github Store , c'est disponible sur Android et desktop (Windows, macOS, Linux), et ça vous propose une interface propre qui présente les logiciels open source comme dans un store classique, avec des catégories, des screenshots, des descriptions, et un bouton pour installer en un clic.
Comme c'est bien pensé, l'application va automatiquement indexer les repos GitHub qui contiennent des binaires installables dans leurs releases. Elle filtre les vrais installeurs (.apk, .exe, .msi, .dmg, .pkg, .deb, .rpm) et ignore les archives de code source que GitHub génère automatiquement, du coup, vous ne voyez que les trucs que vous pouvez réellement installer.
L'interface est organisée avec des sections "Populaire", "Récemment mis à jour" et "Nouveautés" et vous pouvez aussi filtrer par plateforme pour ne voir que les apps compatibles avec votre système. Puis quand vous cliquez sur une app, vous avez tous les détails : nombre d'étoiles, forks, issues, le README complet rendu en markdown, les notes de release, et la liste des fichiers disponibles avec leur taille.
Pour qu'un repo apparaisse dans Github Store, il faut qu'il soit public, qu'il ait au moins une release publiée (pas de brouillon), et que cette release contienne un installeur dans un format supporté. Et y'a pas de soumission manuelle à faire, puisque tout est automatique.
Côté technique, c'est du Kotlin Multiplatform avec Compose pour l'interface. Sur Android, quand vous installez une app, ça délègue au gestionnaire de paquets natif et sur desktop, ça télécharge le fichier et l'ouvre avec l'application par défaut de votre système.
Vous pouvez vous connecter avec votre compte GitHub via OAuth. C'est pas obligatoire, mais ça permet de passer de 60 à 5000 requêtes par heure sur l'API GitHub, ce qui est bien si vous êtes du genre à explorer plein de repos.
L'app est dispo sur les releases GitHub du projet et aussi sur F-Droid pour Android. C'est sous licence Apache 2.0, donc vous pouvez en faire ce que vous voulez.
Attention quand même, les développeurs le précisent bien que Github Store ne fait que vous aider à découvrir et télécharger des releases. La sécurité et le comportement des logiciels que vous installez, c'est la responsabilité de leurs auteurs respectifs et la votre, donc comme d'hab, faites gaffe à ce que vous installez.
Un grand merci à Lorenper pour l'info !
![]()
Vous avez des AirPods Pro que vous avez payés 300 balles et quand vous les branchez sur votre téléphone Android ou votre PC Linux, la moitié des fonctionnalités disparaissent. C'est pas parce que le matériel ne peut pas les faire mais juste parce qu'Apple a décidé que vous n'aviez pas le droit de les utiliser si vous n'êtes pas dans leur écosystème. Snif !
Et là, LibrePods débarque et règle ce problème. Ils s'agit d'un projet open source qui déverrouille toutes les fonctionnalités exclusives des AirPods sur les appareils non-Apple, et c'est compatible avec les AirPods Pro 2, AirPods Pro 3 (sauf le monitoring cardiaque), les AirPods 4, et même les AirPods Max en mode complet. Les autres modèles AirPods ont également un support basique (batterie et détection d'oreilles).
Mais alors qu'est-ce que vous récupérez avec LibrePods ?
Hé bien tout ce qu'Apple vous a vendu mais que vous ne pouviez pas utiliser ailleurs que sous iOS. Par exemple, le contrôle du bruit actif et la transparence adaptative, la détection d'oreille qui met en pause quand vous retirez un écouteur, les gestes de la tête pour répondre aux appels, le statut de batterie précis, les paramètres d'aide auditive complets, la connexion à deux appareils simultanés, et la reconnaissance de conversation qui baisse automatiquement le volume.
La dernière version (v0.2.0-alpha) a ajouté pas mal de trucs sympas comme la possibilité de voir la batterie de vos AirPods même quand ils ne sont pas connectés à votre téléphone, la connexion automatique quand vous recevez un appel ou lancez de la musique, et la personnalisation complète du mode transparence (amplification, balance, tonalité, réduction du bruit ambiant).
Techniquement, LibrePods fonctionne en utilisant un hook sur le Bluetooth Device Identification. Ce DID Bluetooth, c'est ce qui permet aux appareils de s'identifier entre eux et Apple utilise ce système pour vérifier si l'appareil connecté est un produit Apple. Si oui, les fonctionnalités se débloquent, si non, elles restent cachées. LibrePods se fait donc passer pour un appareil Apple à ce niveau, du coup, les AirPods croient qu'ils sont connectés à un iPhone ou un Mac. Et là, hop, tout se débloque ! Chouette non ?
Et c'est pas un hack compliqué... Ça consiste juste à enlever un filtre logiciel qu'Apple a mis volontairement pour vous forcer à rester dans leur écosystème.
LibrePods fonctionne sur Android et Linux. Notez que pour Android, vous devez avoir un appareil rooté avec Xposed installé à cause d'un bug dans la stack Bluetooth d'Android. Par contre, bonne nouvelle si vous êtes sur un OnePlus ou un Oppo avec ColorOS ou OxygenOS 16, vous pouvez utiliser l'app sans root pour les fonctions de base comme l'ANC, la reconnaissance de conversation et la détection d'oreilles !
Sur Linux, une nouvelle version est en développement actif et promet d'apporter encore plus de fonctionnalités mais en attendant, l'ancienne version permet déjà de contrôler les modes de bruit, les paramètres d'aide auditive, et d'autres fonctions.
D'autres applis existent pour gérer les AirPods sur Android comme CAPod, AirPodsDesktop, MagicPods, EarX mais elles ne proposent pas grand chose par rapport à LibrePods.
C'est vrai que l'Union Européenne force les fabricants à déverrouiller le firmware de certains appareils pour permettre la réparation et l'interopérabilité sauf que les écouteurs Bluetooth ne sont pas couverts par ces lois, ce qui fait qu'Apple peut continuer à brider des fonctionnalités matérielles avec du logiciel sans aucun problème légal.
LibrePods prouve donc qu'on n'a pas besoin d'attendre des lois. Faut juste des hackers qui en ont marre de se faire entuber et un peu de code !
Voilà, si vous avez des AirPods et que vous utilisez Android ou Linux, franchement, allez voir. Y'a tout sur le repo GitHub : le code source, les instructions d'installation, la doc technique...etc
Merci à Kiyoshi pour l'info !
![]()
Vous cherchez une app de prise de notes que vous pouvez héberger vous-même, sans dépendre d'un cloud propriétaire qui va analyser vos pensées les plus intimes pour vous balancer de la pub ciblée ?
Ça tombe bien car j'ai reçu un mail d'un lecteur, Tim, qui bosse dessus depuis des années et qui vient de la partager en open source. Alors je fais mon taf et je vous en parle !
Ça s'appelle Poznote , et c'est une application web légère pour la prise de notes. Le truc cool, c'est que vous gardez la main sur vos données puisque tout tourne chez vous. Pas de cloud tiers, pas de tracking, pas de "on analyse vos notes pour améliorer notre IA". Vos notes restent vos notes.
Côté fonctionnalités, y'a de quoi faire puisque c'est un éditeur de texte enrichi, avec support Markdown, une recherche super puissante, un système de tags, le support des pièces jointes, des espaces de travail multiples... Et y'a aussi des trucs plus originaux comme l'intégration d'Excalidraw pour dessiner des schémas et les diagrammes Mermaid pour les devs qui aiment visualiser leurs architectures. Et bien sûr, mode sombre parce qu'on est en 2025 quand même et que cette année était bien bre-som quand même !
Ce projet tourne avec PHP 8, SQLite pour la base de données, et un peu de JavaScript vanilla avec React juste pour le composant Excalidraw. Et les notes sont stockées en HTML/Markdown avec les métadonnées dans SQLite et les pièces jointes dans le système de fichiers.
Pour l'installation, c'est du Docker comme d'hab, donc vous récupérez l'image, vous configurez quelques variables d'environnement, et hop ça tourne sur le port 8040 avec les credentials par défaut admin/admin123! . Le projet supporte même les instances multiples si vous voulez séparer vos notes perso de vos notes pro sur le même serveur.
Y'a aussi une API REST complète avec documentation Swagger intégrée pour ceux qui veulent automatiser des trucs ou intégrer Poznote dans leur workflow. Vous pouvez aussi partager des notes publiquement si besoin, créer des listes de tâches, et y'a un système de corbeille pour récupérer ce que vous avez supprimé par erreur.
Le backup est également intégré directement dans l'app avec export complet de vos données et vous pouvez même consulter vos notes offline une fois exportées. Et tout le code est sous licence MIT.
Voilà, si vous voulez tester avant de vous lancer, y'a une démo dispo sur poznote-demo.up.railway.app avec les identifiants poznote/poznote. Ça vous donnera une idée de l'interface et des fonctionnalités sans rien installer.
Bref, si vous cherchez une solution de notes auto-hébergée incroyable, Poznote c'est gratuit, c'est open source, et ça respecte votre vie privée. C'est le top du top alors je dis un grand bravo à Tim pour le boulot accompli !!
![]()
Vous avez des dossiers sensibles que vous aimeriez chiffrer avant de les balancer sur un cloud ou un disque externe ? Ça tombe bien, je vous ai trouvé un petit outil en Rust qui va vous plaire.
Obsidenc , c'est son nom, est un utilitaire de chiffrement que son créateur qualifie de "paranoid-grade". Et après avoir jeté un œil au code source, je peux vous dire que c'est pas du marketing puisque ce truc archive votre répertoire en TAR et le chiffre avec XChaCha20-Poly1305, un algorithme AEAD moderne qui assure à la fois la confidentialité et l'intégrité de vos données.
Côté dérivation de clé, ça utilise Argon2id conforme à la RFC 9106. Pour les non-initiés, Argon2id c'est l'algo qui a gagné le Password Hashing Competition et qui est spécifiquement conçu pour résister aux attaques par GPU et circuits spécialisés (ASIC). L'outil adapte automatiquement les paramètres à votre machine en utilisant 85% de votre RAM disponible (entre 512 Mo minimum et 2 Go maximum) afin de rendre le brute-force astronomiquement coûteux. Et si vous avez moins de RAM dispo, il compense en augmentant le nombre d'itérations.
C'est du code Rust bien propre qui utilise les bibliothèques cryptographiques RustCrypto (bien auditées par la communauté) et le code implémente des bonnes pratiques de sécurité comme le memory locking (mlock sur Unix, VirtualLock sur Windows) pour éviter que vos clés se retrouvent dans le swap, et le zeroize pour effacer la mémoire sensible après utilisation.
Vous compilez ça avec cargo build --release, puis pour chiffrer un dossier :
obsidenc encrypt ~/mon-dossier ~/mon-dossier.oen
Pour déchiffrer :
obsidenc decrypt ~/mon-dossier.oen ~/mon-dossier-dechiffre
Le mot de passe doit faire minimum 20 caractères (pas de négociation possible, déso pas déso) et vous devez le confirmer deux fois. Vous pouvez aussi ajouter un fichier de clé en plus du mot de passe pour du 2FA old-school.
L'outil a aussi quelques protections défensives sympas. Par exemple, il refuse les symlinks (vecteur d'attaque classique), limite le nombre de fichiers à 1 million et la longueur des chemins à 4096 caractères pour éviter les zip bombs. Sur les systèmes Unix, il vérifie même que votre fichier de clé n'est pas lisible par tout le monde (chmod 600 obligatoire).
Cet outil part du principe qu'un attaquant peut avoir accès à votre fichier chiffré et dispose de temps illimité pour tenter de le casser, du coup, tout est conçu pour rendre l'attaque offline la plus douloureuse possible.
Bref, si vous cherchez un moyen de sauvegarder vos dossiers sensibles de manière vraiment sécurisée avant de les balancer sur un cloud ou un disque externe, obsidenc fait le taf et en plus c'est open source (MIT/Apache 2.0) !
![]()
Vous voulez faire tourner un modèle d'IA en local sans avoir besoin d'un serveur de la NASA ? Eh bien Nvidia vient de lâcher une bombe avec Nemotron 3, une famille de modèles open source plutôt impressionnant et surtout, ils ont publié leurs données d'entraînement afin de jouer la transparence totale. Chapeau !
Le modèle phare de cette nouvelle famille s'appelle Nemotron 3 Nano et c'est un modèle de 30 milliards de paramètres, mais attention, il n'en active que 3,5 milliards à la fois grâce à une architecture hybride qui mélange du Mamba-2 et du Mixture-of-Experts ( MoE ). Ça permet de garder des performances de ouf tout en restant léger niveau ressources.
Sous le capot, Nvidia a également mis le paquet puisque le modèle a été entraîné sur 25 trillions de tokens. J'ai bien dit "trillions"... Pour vous donner une idée, les données d'entraînement incluent du Common Crawl de 2013 à 2025, du code dans 43 langages différents, des articles scientifiques, et une tonne de données synthétiques générées par d'autres modèles. Et tout ça, Nvidia l'a rendu public donc vous pouvez télécharger les datasets sur Hugging Face et vérifier par vous-même ce qui a servi à entraîner le bouzin.
Côté performances, Nemotron 3 Nano se défend plutôt bien . Sur les benchmarks de raisonnement mathématique comme AIME25, il atteint 99,2% quand on lui donne accès à des outils. Sur le coding avec LiveCodeBench, il tape du 68,3%, ce qui le place devant Qwen3-30B. Et pour les tâches d'agent logiciel genre SWE-Bench, il monte à 38,8%. Pas mal pour un modèle qu'on peut faire tourner sur du matos grand public.
D'ailleurs, parlons du matos justement. Nemotron 3 Nano tourne sur des cartes comme la H100, la A100, ou même la future RTX PRO 6000 et supporte jusqu'à 1 million de tokens en contexte si vous avez assez de VRAM. Et niveau vitesse, Nvidia annonce un débit de tokens 4 fois supérieur à la génération précédente, avec 60% de tokens de raisonnement en moins. C'est donc exactement ce que tout le monde demande à saoir du token qui sort vite pour les workflows agentiques.
Maintenant, pour l'utiliser, c'est hyper simple. Il est dispo sur Hugging Face, et vous pouvez le lancer avec Transformers, vLLM, TensorRT, ou même llama.cpp. Y'a même un mode "thinking" qu'on peut activer ou désactiver selon si on veut du raisonnement poussé ou des réponses rapides.
Pour ma part, je l'ai testé à l'aide d'Ollama comme ceci :
ollama run nemotron-3-nano:30b
J'ai trouvé que vitesse de génération était vraiment impressionnante, ça débite beaucoup plus qu'un Llama 3 qui est de taille équivalente. Après, je suis sur un Mac M4 avec 128 Go de RAM, donc je suis plutôt bien loti mais j'ai trouvé ce modèle vraiment très rapide. Je pense que je vais vraiment m'en servir pour des trucs comme de la qualification, du résumé, de l'analyse ce genre de choses.
A voir maintenant si en français il s'en sort bien sur les tournures de phrases. Quoi qu'il en soit pour du développement et des workflows agentiques, il n'y a pas photo, ça va être mon nouveau modèle par défaut quand j'ai besoin de choses en local.
La famille Nemotron 3 ne se limite pas au Nano évidemment. Y'a aussi le Super avec environ 100 milliards de paramètres pour les applications multi-agents, et l'Ultra avec 500 milliards pour les tâches vraiment complexes. Ces deux-là arriveront au premier semestre 2026 donc faudra encore être un peu patient. Nvidia a aussi sorti des bibliothèques comme NeMo Gym pour l'entraînement et NeMo RL pour le fine-tuning.
Jensen Huang, le patron de Nvidia, a aussi dit un truc intéressant lors de l'annonce : "L'innovation ouverte est le fondement du progrès de l'IA." Venant d'une boîte qui a longtemps joué la carte proprio sur ses technos, je trouve que c'est un sacré virage et des entreprises comme Accenture, Deloitte, Oracle, Palantir, ou même Cursor sont déjà en train d'intégrer Nemotron dans leurs produits.
Ce qui est cool aussi, c'est que le modèle supporte 24 langues officielles de l'UE plus une dizaine d'autres comme l'arabe, le chinois ou le japonais et côté code, il gère Python, C++, Java, Rust, Go, et même du CUDA. Bref, c'est plutôt polyvalent.
Voilà, donc si vous cherchez un modèle open source sérieux avec des données d'entraînement transparentes et une vitesse de génération qui arrache, Nemotron 3 Nano mérite clairement le coup d’œil !
![]()
Vous avez déjà passé des heures à éplucher des fichiers de logs de plusieurs millions de lignes pour trouver ce qui cloche ? Genre une pauvre erreur bizarre qui se produit une fois sur 100 000, noyée dans un océan de messages répétitifs et d'infos inutiles ? Moi, oui plein de fois !
Mais ça c'était avant de tomber sur Cordon !
Cordon est un outil en Python qui utilise des modèles de transformers et du scoring k-NN pour détecter les anomalies sémantiques dans vos logs. En gros, au lieu de chercher des mots-clés comme un bourrin avec grep, Cordon comprend le sens des messages et repère ce qui sort de l'ordinaire.
Les patterns répétitifs sont alors considérés comme du bruit de fond normal, même si ce sont des erreurs parce que si vous avez la même erreur FATALE qui se répète 10 000 fois, c'est probablement un problème connu. Et vous, ce que vous voulez trouver, c'est l'événement rare, celui qui se produit une seule fois et qui est sémantiquement différent du reste.
L'installation est simple comme bonjour. Un petit pip install cordon et c'est réglé. Pour l'utilisation de base, vous balancez juste votre fichier de logs en argument :
cordon system.log
Et hop, Cordon va analyser tout ça et vous sortir uniquement les trucs intéressants. Par défaut, il garde les 10% les plus "anormaux" sémantiquement. Vous pouvez ajuster ce pourcentage avec --anomaly-percentile 0.05 pour être plus sélectif (top 5%).
Sous le capot, ça utilise le modèle all-MiniLM-L6-v2 de sentence-transformers pour vectoriser les logs. Le fichier est découpé en fenêtres de N lignes (4 par défaut), chaque fenêtre est transformée en vecteur, puis un score de densité k-NN est calculé. Les fenêtres qui ont des vecteurs très différents du reste sont marquées comme anomalies.
Et si vous avez un GPU, Cordon peut l'utiliser automatiquement avec l'option --device cuda. D'après les benchmarks, ça donne un speedup de 5 à 15x sur le scoring pour les gros datasets. Sur des logs HDFS de 1 à 5 millions de lignes, l'outil arrive à réduire le volume de 98%. Autant dire que ça filtre sévère.
Y'a aussi un mode "range" qui est pratique pour explorer par tranches. Genre si vous voulez exclure le top 5% (trop bizarre, probablement du garbage) mais garder le top 5-15%, vous faites :
cordon --anomaly-range 0.05 0.15 app.log
Ça permet d'affiner l'investigation de manière itérative.
Pour les environnements conteneurisés, Cordon propose également une image Docker avec un backend llama.cpp au lieu de sentence-transformers. Pratique si vous voulez utiliser des modèles GGUF ou si vous êtes dans un contexte où les dépendances PyTorch posent problème.
L'outil peut aussi s'utiliser comme bibliothèque Python si vous voulez l'intégrer dans vos propres scripts :
analyzer = SemanticLogAnalyzer()
output = analyzer.analyze_file(Path("system.log"))
C'est top moumoute pour le prétraitement de logs avant de les balancer à un LLM (pour réduire le contexte), le triage initial de fichiers de logs inconnus, ou la découverte de patterns inattendus. Par contre, si vous cherchez une erreur spécifique que vous connaissez déjà, grep reste votre ami. Et si vous avez besoin d'un historique complet pour la conformité, oubliez Cordon qui est volontairement "lossy".
Notez qu'au premier lancement, Cordon téléchargera le modèle d'embedding (environ 80 Mo) donc ce sera un peu lent, mais ensuite, ça sera quasi instantané car les lancements suivants utiliseront le cache. Et si vos logs sont très verbeux avec de longues lignes, le modèle par défaut (256 tokens max) risque de tronquer les lignes, dans ce cas, passez à un modèle plus costaud comme BAAI/bge-base-en-v1.5 qui supporte 512 tokens avec le paramètre --model-name.
Voilà, j'espère que ça vous sera utile ! C'est open source sous licence Apache 2.0 et ça se trouve sur GitHub .
![]()
Modifier un PDF, c’est toujours la galère surtout si c’est un PDF avec que des images sans texte sélectionnable. Soit vous avez Adobe Acrobat qui coûte une couille, soit vous vous tapez des outils en ligne douteux, soit vous exportez en Word et vous priez pour que la mise en page survive. Bref, vous faites vos trucs de losers….
Mais ça c’était sans compter sur Nano-PDF qui propose une approche radicalement différente : Vous décrivez ce que vous voulez changer en langage naturel, et l’IA se chargera du reste.
Par exemple, si vous avez une présentation PDF avec une faute de frappe sur la slide n°5, au lieu de galérer avec un éditeur, vous tapez juste
`nano-pdf edit ma_presentation.pdf 5 "Corrige la faute sur le mot 'investisement'"`
Et hop, c’est réglé. Vous voulez mettre à jour un graphique avec les données de 2025 ? Pareil, vous décrivez le changement et l’outil se débrouille !
Nano-PDF utilise le modèle Gemini 3 Pro Image de Google (surnommé “Nano Banana Pro”) pour interpréter vos instructions et générer les modifications visuelles. Le workflow technique est d’ailleurs bien fichu puisque les pages PDF sont converties en images via Poppler , envoyées au modèle avec votre prompt, puis les images générées sont reconverties en PDF avec une couche de texte restaurée par OCR via Tesseract. Du coup, vos PDF restent sélectionnables et cherchables après modification, contrairement aux solutions qui vous filent des images aplaties.
Côté fonctionnalités, y’a pas mal de choses sympas. Vous pouvez par exemple éditer plusieurs pages en une seule commande, créer de nouvelles slides qui respectent le style visuel de votre deck existant, même utiliser des pages de référence pour que l’IA comprenne mieux votre charte graphique, et le traitement par lot est géré en parallèle pour gagner du temps sur les grosses présentations.
L’installation passe par pip avec
`pip install nano-pdf`
Et comme je vous le disais, il vous faudra aussi Poppler pour le rendu PDF et Tesseract pour l’OCR. Et attention, petit détail qui a son importance, l’API Gemini Pro Image nécessite un compte payant. Faudra sortir la thune car les clés gratuites ne permettent pas de générer des images… donc bon, prévoyez quelques euros de crédit Google Cloud si vous voulez tester.
Le truc cool, c’est par défaut c’est du 4K en résolution, mais vous pouvez descendre en 2K ou 1K si vous voulez économiser sur les coûts d’API. Y’a aussi une option --use-context qui envoie tout le texte du PDF au modèle pour qu’il comprenne mieux le contexte de vos modifications. Et si vous créez une nouvelle slide, cette option est activée par défaut pour que le résultat soit cohérent avec le reste du document.
Voilà, si vous passez votre vie à modifier des présentations PDF et que vous en avez marre des workflows à rallonge, installez Nano-PDF . C’est open source sous licence MIT, et ça change la vie !
Merci Lorenper pour le partage !
![]()
Si vous avez déjà essayé de générer du pixel art avec une IA comme Midjourney ou le nouveau modèle Nano Banana Pro de Google, vous avez forcément remarqué ce problème : c’est moche de ouf ! Enfin non, c’est pas moche dans l’absolu, mais les pixels sont tout sauf alignés sur une grille propre. On se retrouve avec des trucs qui ressemblent à du pixel art de loin, mais qui sont en fait une bouillabaisse de pixels de tailles variables, mal placés, avec des anti-aliasing qui n’ont rien à faire là.
Heureusement pour nous, Pixel Snapper va nous aider à corriger tout ça en quelques secondes !
L’outil est développé par Hugo-Dz sur GitHub dans le cadre du projet Sprite Fusion. Vous balancez votre image de pixel art foireuse, et il recale automatiquement chaque pixel sur une grille propre comme ça, fini les pixels qui font du 1,3 × 0,8 au lieu de faire un beau carré 1 × 1 comme le bon dieu du rétro gaming l’a voulu.
Voici la différence… A gauche c’est l’image IA, et à droite, c’est l’image recalée comme il faut :
Le truc cool, c’est que l’outil préserve tous les détails de votre image, c’est à dire le dithering, les courbes, les petits trucs subtils que vous ne voulez pas perdre dans la conversion. C’est pas un outil qui va vous massacrer l’image en la pixelisant bêtement même si certaines couleurs sautent car faut pas dépasser les 16 couleurs.
Voilà, il analyse la structure et recale intelligemment chaque élément sur la grille cible en moins de 2 secondes. Y’a pas besoin de vous créer un compte et c’est sans limite.
En plus, c’est gratuit et open source, donc vous pouvez l’utiliser pour vos projets perso comme pour vos jeux commerciaux sans vous poser de questions. D’ailleurs si vous bossez avec Unity, Godot, Defold ou Flame, les assets générés sont directement utilisables dans vos projets.
Voilà, si vous utilisez des générateurs d’images IA pour créer des assets de jeux rétro et que vous en avez marre de passer des heures à recaler les pixels à la main, testez Pixel Snapper !
![]()
Vous vous souvenez quand les géants de la tech ont promis à la Maison Blanche qu’ils allaient marquer toutes les images générées par IA avec des filigranes invisibles pour lutter contre les deepfakes ? Hé bien, des chercheurs de l’Université de Waterloo au Canada viennent de démontrer que c’était du pipeau avec un outil de leur cru baptisé UnMarker qui supprime n’importe quel watermark IA en quelques minutes, sans même avoir besoin de savoir comment le filigrane a été créé.
Andre Kassis et Urs Hengartner , les deux chercheurs derrière ce projet, ont publié leurs travaux lors du 46ème symposium IEEE sur la sécurité et la vie privée en mai 2025 et leurs résultats sont assez dévastateurs pour l’industrie.
En effet, ils ont testé leur attaque contre à peu près tous les systèmes de watermarking existants : Yu1, Yu2, HiDDeN, PTW, StegaStamp, TRW, Stable Signature… Et le meilleur taux de détection après passage dans UnMarker qu’ils ont obtenu c’est 43%. Et en dessous de 50%, c’est considéré comme inutile statistiquement parlant.
Ils ont aussi testé le tout nouveau, tout beau SynthID de Google, que Mountain View présente comme LA solution miracle. Et résultat le taux de détection est passe de 100% à environ 21% donc autant vous dire que c’est complètement pété.
Alors comment ça marche ce truc ?
Hé bien l’astuce d’UnMarker, c’est d’exploiter une faille fondamentale que tous les systèmes de watermarking partagent. Comme l’explique Kassis avec une analogie plutôt parlante, “Si vous gribouillez l’adresse sur une lettre, le facteur ne pourra plus la livrer.” et comme tous ces systèmes doivent stocker leur watermark dans les variations spectrales des pixels, UnMarker cible précisément ce canal pour le perturber, sans créer d’artefacts visuels. L’image reste ainsi identique à l’œil nu, mais le filigrane invisible est devenu illisible.
Unmarker.it est donc une version côté client de leur outil , qui tourne entièrement dans votre navigateur. Vous déposez une image, vous la “secouez, remuez et écrasez” comme ils disent, et hop, plus de watermark ! Par contre, si le watermark est aussi visuel comme la petite étoile de Gemini, pensez à mettre un petit coup de pinceau dessus pour la cacher.
Et c’est là que ça devient vraiment inquiétant pour la lutte contre les deepfakes car toute la stratégie des gouvernements et des plateformes repose sur l’idée qu’on peut marquer les contenus IA pour les identifier automatiquement. Donc si n’importe quel clampin peut supprimer ces marqueurs en quelques clics, tout le système s’effondre. Les chercheurs sont d’ailleurs assez cash dans leur conclusion, je cite : “Nos résultats montrent que le watermarking n’est pas une défense viable contre les deepfakes, et nous exhortons la communauté à explorer des alternatives.”
Voilà, si vous pensiez que les watermarks invisibles allaient nous sauver de la désinformation par l’IA, vous vous mettez le doigt dans l’œil !
![]()
Si vous avez grandi avec les bips et les blops des consoles 8 bits et que vous avez toujours rêvé de composer vos propres musiques façon NES, Game Boy ou Mega Drive, pas besoin d’investir dans un Ableton Live ou un FL Studio à whatmille boules car je vous ai trouvé un truc qui va vous permettre de composer de la musique 8 bit comme un chef !
Ça s’appelle Furnace et c’est un tracker de chiptune open source qui émule plus de 60 puces sonores différentes et vous fera peut-être regretter de pas avoir appris le solfège quand vous étiez plus jeune..
Alors pour ceux qui ne connaissent pas, un tracker c’est un logiciel de composition musicale où on empile des notes et des patterns les uns sur les autres, un peu comme dans les jeux de rythme (Guitar Hero ?), sauf que là c’est vous qui créez la musique. Et Furnace, c’est probablement le plus gros tracker multi-système jamais créé avec plus de 200 configurations prêtes à l’emploi dispo.
Le truc vraiment cool, c’est que ce logiciel utilise des cœurs d’émulation de qualité comme Nuked, MAME, SameBoy ou encore reSID pour reproduire fidèlement le son du hardware original. Donc que vous vouliez le son crunchy du Commodore 64, les nappes FM de la Mega Drive ou les samples de l’Amiga, tout y est émulé avec une précision quasi parfaite !
Côté puces supportées, y’a vraiment de quoi faire… La famille Yamaha FM au complet (YM2151, YM2612, YM2413, l’OPL3…), les puces Nintendo (NES, SNES, Game Boy), le mythique SID du C64, les puces d’arcade Neo Geo et CPS-1, et même des trucs plus exotiques comme l’Atari 2600 ou le Vectrex. En tout, le tracker gère jusqu’à 32 puces simultanées soit 128 canaux au total… De quoi composer une symphonie 8 bits de compétition.
L’interface est entièrement modulable et vous pouvez arranger les fenêtres comme bon vous semble. Y’a même un oscilloscope par canal avec centrage de la forme d’onde pour les perfectionnistes et si vous utilisiez DefleMask avant, bonne nouvelle puisque Furnace charge et sauvegarde les fichiers .dmf et .dmw donc vous pouvez migrer tranquillou.
Pour l’export, c’est pas mal non plus puisque vous pouvez sortir vos compos en WAV (par puce ou par canal), en VGM, en ZSM pour le Commander X16, et même directement en ROM Atari 2600 ou 400/800. Hé oui, vous pouvez littéralement mettre votre musique sur une vraie cartouche si ça vous éclate, les nerdzzzz.
Le projet tourne sous licence GPL, donc c’est gratuit et open source et il est dispo pour Windows, macOS (Intel et Apple Silicon), Linux et FreeBSD.
Voilà, si vous avez la fibre chiptune et que vous cherchez un outil complet pour composer de la musique rétro, foncez tester Furnace . Peut-être que ça vous permettra enfin de créer la bande son du jeu vidéo de vos rêves !!!
![]()
Ce matin, vous vous êtes levé, motivé, vous vous êtes posé sur l’ordinateur, très concentré, pour vous lancer dans la réparation de votre aspirateur robot qui fait encore des siennes. Vous lancez le tutoriel YouTube et au bout de 3 minutes, d’un seul coup le mec pose son tournevis et se met à vous parler de sa gourde magique sponsorisée durant 90 longues secondes.
Grmpfff… Bon, après on va pas se mentir, les sponsors, c’est ce qui permet aux créateurs de vivre de leur passion et de continuer à produire du contenu gratuit dont vous vous goinfrez comme des petits cochons grassouillets. C’est le deal. Mais parfois, quand on est pressé ou qu’on enchaîne les tutos, on aimerait bien pouvoir zapper ces passages pour y revenir plus tard évidemment (ou pas ^^).
C’est là qu’intervient SponsorBlock, une extension open source qui permet de sauter automatiquement les segments sponsorisés dans les vidéos YouTube. Le principe : quand quelqu’un identifie un passage pub dans une vidéo, il le signale via l’extension, et ensuite tous les autres utilisateurs peuvent choisir de sauter automatiquement ce passage. C’est du crowdsourcing, et plus de 13 millions de personnes utilisent l’extension .
Bien sûr, si vous utilisez ce genre d’outil et que vous appréciez vraiment un créateur, pensez à le soutenir autrement. Que ce soit via un like, un partage, un abonnement à son Patreon, ou tout simplement en désactivant l’extension sur ses vidéos. Les sponsors, c’est souvent ce qui leur permet de bouffer et de continuer à créer du contenu de qualité. Cet outil est pratique, mais il ne faut pas oublier qu’il y a des humains derrière les vidéos.
Ceci étant dit, l’extension ne se limite pas qu’aux sponsors. Vous pouvez aussi la configurer pour sauter les intros interminables, les outros avec les rappels d’abonnement, ou même les passages non-musicaux dans les clips. L’extension affiche des segments colorés sur la timeline YouTube : du jaune pour les sponsors, du vert pour les intros, du bleu pour les outros, violet pour l’auto-promo, rose pour les intermissions… Vous choisissez ce que vous voulez skipper et ce que vous gardez.
Niveau stats, les utilisateurs ont soumis plus de 17 millions de segments et il y a un système de votes qui permet d’évaluer la qualité des signalements, donc les segments mal identifiés finissent par disparaître.
L’extension est dispo sur tous les navigateurs classiques : Chrome, Firefox, Edge, Safari, Opera… Et si vous êtes sur mobile, y’a des solutions aussi. Par exemple sous Android, des apps comme ReVanced intègrent SponsorBlock nativement. Sur iOS, y’a une app dédiée pour Safari. Enfin, pour les plus geeks d’entre vous, des ports existent pour MPV, Kodi, les TV connectées, Android TV, et même Chromecast.
Côté vie privée, la base de données est publique et n’importe qui peut la télécharger ou l’auditer. Le développeur principal, Ajay Ramachandran, a même mis en place un système de requête qui préserve la vie privée, donc l’extension ne sait pas quelle vidéo vous regardez quand elle interroge le serveur.
Voilà, si vous passez beaucoup de temps sur YouTube et que vous cherchez à optimiser votre temps de visionnage, SponsorBlock peut vous intéresser. C’est gratuit et open source.
![]()
Microsoft a officiellement enterré le Windows Subsystem for Android (WSA) le 5 mars dernier car le projet n’a jamais réussi à générer d’argent et l’absence de Google Play Services a été le dernier clou dans le cercueil. Du coup, plus de mises à jour, plus de support, plus d’Amazon Appstore dans le Microsoft Store.. Snif…
Sauf que voilà, y’a des gens qui refusent de lâcher l’affaire et c’est comme ça qu’est né le projet WSABuilds dispo sur GitHub qui propose des builds pré-compilées de WSA avec tout ce qui manquait à la version officielle : le Google Play Store, Magisk ou KernelSU pour le root, et des versions stables régulièrement mises à jour !
WSABuilds vous permet donc de continuer à faire tourner des apps Android sur Windows 10 et 11, même après l’abandon de Microsoft et les builds sont disponibles en plusieurs variantes. Soit avec ou sans Google Apps, avec Magisk ou KernelSU pour le root, en version stable ou LTS…etc. Et vous avez aussi le choix entre x86_64 et ARM64 selon votre config.
L’installation est plutôt simple puisque vous n’avez qu’à télécharger l’archive depuis les releases GitHub ou OneDrive, vous extrayez tout ce bordel, vous renommez le dossier en “WSA” (important d’avoir un nom court), et vous lancez l’install via PowerShell. Le projet contient des scripts qui gèrent tout le processus, donc c’est encore plus confortable que votre chaise de gamer acheté sur Aliexpress.
Côté prérequis, il vous faut Windows 11 build 22000.526 ou plus, ou Windows 10 22H2 avec minimum 8 Go de RAM, même si 16 Go sont recommandés pour une expérience fluide. Et bien sûr, faudra activer la virtualisation dans le BIOS.
Et si vous aviez déjà WSA installé d’avant ce 5 mars 2025 fatidique, il continue de fonctionner mais sans aucune mise à jour, donc WSABuilds devient donc la seule option viable pour avoir une version maintenue et avec le Play Store intégré !
Et pour ceux qui préfèrent les alternatives classiques comme BlueStacks ou NoxPlayer , c’est toujours possible mais WSA reste la solution la plus propre car elle s’intègre nativement à Windows sans passer par un émulateur tiers.
Amusez-vous bien !
![]()