Vue lecture

Il y a de nouveaux articles disponibles, cliquez pour rafraîchir la page.

OBS Studio 32 débarque avec un tout nouveau moteur de rendu pour macOS

Passer d'OpenGL à Metal, c'était visiblement pas une mince affaire pour l'équipe d'OBS. La techno d'Apple est sortie y'a 10 ans sous macOS mais ça leur a pris un peu de temps pour la migration... Et n'allez pas croire que je "juge"... Tout ce temps, c'est normal car c'est un soft multiplateforme, donc faut gérer trois écosystèmes en parallèle et ça, ça prend un temps fou.

Tous les effets visuels d'OBS ont dû être réécrits pour fonctionner avec Metal, le langage graphique d'Apple étant bien plus exigeant que celui de Windows et la preview peut parfois légèrement saccader à cause de macOS, mais le flux final reste impeccable.

Niveau performances, Metal fait aussi bien voire mieux qu'OpenGL dans les builds Release mais c'est surtout pour le débogage que ça change tout car les développeurs ont maintenant accès à des outils de diagnostic bien plus performants, ce qui devrait accélérer les corrections de bugs et les futures améliorations.

Pour l'activer (ouais on est chaud !!), c'est hyper simple. Vous allez dans les paramètres d'OBS 32.0, onglet Avancé, section Vidéo, et vous sélectionnez Metal dans le menu déroulant du renderer. Un petit redémarrage de l'appli et hop, vous êtes passé sur le nouveau moteur.

Ce qui est cool aussi avec cette version 32.0, c'est qu'elle inclut un gestionnaire de plugins et des améliorations pour les fonctionnalités NVIDIA RTX.

L'équipe OBS bosse aussi sur des backends Vulkan pour Linux et Direct3D 12 pour Windows, parce que les anciennes APIs comme OpenGL et D3D11 reçoivent de moins en moins de support des fabricants de GPU, donc si vous êtes sur Linux ou Windows, votre tour viendra aussi.

Voilà, après si ça bug, revenez sur OpenGL, mais y'a quand même de bonnes chances que ça tourne mieux qu'avant.

Source

Tunnl.gg - Exposez votre localhost en une seule commande SSH

Vous développez un truc en local et vous avez besoin de le montrer à quelqu'un au travers d'Internet, genre pour tester un webhook, faire une démo rapide, ou juste impressionner votre collègue à distance ? Hé bien au lieu de vous farcir une config nginx + certificats SSL + ouverture de ports sur le routeur (Beurk !), y'a Tunnl.gg qui fait tout ça en une SEULE ligne de commande.

Vous tapez une commande SSH, et hop, vous avez une URL publique qui pointe vers votre serveur local. Pas de client à installer, pas de compte à créer, pas de token à configurer, juste SSH, que vous avez forcément déjà sur votre machine.

Donc pour exposer votre app qui tourne sur le port 8080, vous faites :

ssh -t -R 80:localhost:8080 proxy.tunnl.gg

Et c'est parti ! Le service vous file une URL avec un sous-domaine aléatoire, genre abc123.tunnl.gg, et tout ce qui arrive dessus est redirigé vers votre localhost:8080. Et magie magie, HTTPS est automatique, donc pas besoin de vous soucier des certificats.

Du coup, si vous connaissez déjà ce genre d'outils, vous pensez peut-être à Bore que j'ai présenté il y a pas longtemps, ou Portr qui fait sensiblement la même chose, ou encore Chisel pour les amateurs de tunnels TCP/UDP via HTTP. Tous ces outils font du tunneling, mais Tunnl.gg se distingue par son approche "zéro friction" sans binaire à télécharger, et sans compte à vous créer.

Pour le moment, le service est gratuit pour un usage personnel mais les développeurs prévoient des plans payants plus tard avec des features comme les domaines personnalisés, les sous-domaines persistants et des limites de débit plus élevées. On verra bien mais en attendant, pour tester un truc vite fait ou faire une démo, la version gratuite suffira largement.

Bon, y'a quand même quelques trucs à savoir. Primo, ça ne marche qu'avec du trafic HTTP/HTTPS pour l'instant. Deuxio, le TLS est côté serveur, donc techniquement ils peuvent voir votre trafic même s'ils disent ne pas l'inspecter. Donc pour des données vraiment sensibles, gardez ça en tête. Et tertio, comme tout service de ce type, y'a des limites de fair-use pour éviter les abus.

Bref, si vous cherchez un moyen rapide d'exposer un port local sans vous prendre la tête avec la config, Tunnl.gg fera le taf. Au pire vous aurez découvert une alternative de plus à ngrok , au mieux ça deviendra votre outil par défaut pour les démos express...

Merci à Lorenper pour le partage !

SkillsMP - Plus de 26 000 skills Claude à portée de clic

Vous utilisez Claude Code ? Alors vous savez probablement que l'outil d'Anthropic peut être étendu avec des "Skills", c'est à dire des modules qui ajoutent des capacités supplémentaires à Claude. Y'a un fichier SKILL.md, des scripts optionnels, et comme ça, votre assistant sait faire de nouvelles choses. Sauf que pour trouver ces skills quand on n'a pas envie de se les palucher à la main (ou à l'IA), faut aller les chercher dans les repos GitHub, fouiller les README, comparer les étoiles... La flemme quoi...

C'est la raison d'être de SkillsMP qui vient résoudre ce problème. C'est en fait un marketplace communautaire (pas affilié à Anthropic) qui agrège plus de 26 000 skills Claude provenant de dépôts GitHub publics, le tout présenté dans une interface qui ressemble à un App Store, avec des catégories, des stats, et tout le toutim.

Je vous préviens d'emblée, le site est un peu bordélique. Entre les filtres, les catégories (Développement, Outils, Data & AI, DevOps...), les tris par popularité ou mise à jour récente, et l'interface du tur-fu, faut un peu tâtonner au début. Mais une fois qu'on a pigé comment ça marche, c'est vraiment cool de pouvoir explorer tout ça au même endroit.

Le truc intéressant c'est que SkillsMP filtre automatiquement les repos de mauvaise qualité. Pour qu'un skill apparaisse, il faut minimum 2 étoiles sur GitHub. Ça évite de se retrouver avec des trucs abandonnés ou mal foutus. Y'a même un badge "Marketplace Ready" pour les skills qui ont un fichier marketplace.json bien configuré.

Pour installer un skill que vous avez trouvé, vous avez alors 3 options. Soit vous le mettez dans ~/.claude/skills/ pour l'avoir disponible partout sur votre machine. Soit vous le collez dans .claude/skills/ dans votre projet si vous voulez le partager avec votre équipe via Git. Soit vous passez par l'installation plugin avec une commande du genre /plugin marketplace add anthropics/skills.

La différence avec les commandes slash c'est que les skills sont "model-invoked". Ça veut dire que c'est Claude qui décide tout seul quand les utiliser en fonction du contexte de votre demande. Vous n'avez donc pas besoin de taper /truc pour activer un skill, il se déclenche automatiquement quand c'est pertinent.

Attention quand même, comme toujours avec du code open source venu d'Internet, les développeurs de SkillsMP le précisent bien, ils filtrent les repos pourris mais ça reste votre responsabilité de vérifier ce que vous installez. Un skill a accès à pas mal de trucs sur votre machine, donc prenez 2 minutes pour auditer le code avant d'installer un truc d'un développeur inconnu.

Bref, si vous passez beaucoup de temps sur Claude Code et que vous voulez découvrir ce que la communauté a créé comme extensions, SkillsMP c'est un bon point de départ. C'est gratuit, y'a pas besoin de compte, et ça vous évite de passer des heures à fouiller GitHub manuellement.

Un grand merci à Lorenper pour le partage !

Github Store - Un App Store qui pioche directement dans les releases GitHub

Parfois, c'est galère de chercher des logiciels sur GitHub... et je sais de quoi je parle car je passe littéralement mes journées à faire ça... Faut trouver un projet cool, faut aller dans les releases ou le compiler, l'installer, le tester et ensuite déterminer si ça vous sera utile avant de passer à la rédaction d'un article comme celui que vous êtes en train de lire.

J'adore faire ça mais aller digger Github, ça peut vite devenir pénible.

Alors ça tombe bien car voici un projet qui transforme GitHub en véritable App Store. Ça s'appelle Github Store , c'est disponible sur Android et desktop (Windows, macOS, Linux), et ça vous propose une interface propre qui présente les logiciels open source comme dans un store classique, avec des catégories, des screenshots, des descriptions, et un bouton pour installer en un clic.

Comme c'est bien pensé, l'application va automatiquement indexer les repos GitHub qui contiennent des binaires installables dans leurs releases. Elle filtre les vrais installeurs (.apk, .exe, .msi, .dmg, .pkg, .deb, .rpm) et ignore les archives de code source que GitHub génère automatiquement, du coup, vous ne voyez que les trucs que vous pouvez réellement installer.

L'interface est organisée avec des sections "Populaire", "Récemment mis à jour" et "Nouveautés" et vous pouvez aussi filtrer par plateforme pour ne voir que les apps compatibles avec votre système. Puis quand vous cliquez sur une app, vous avez tous les détails : nombre d'étoiles, forks, issues, le README complet rendu en markdown, les notes de release, et la liste des fichiers disponibles avec leur taille.

Pour qu'un repo apparaisse dans Github Store, il faut qu'il soit public, qu'il ait au moins une release publiée (pas de brouillon), et que cette release contienne un installeur dans un format supporté. Et y'a pas de soumission manuelle à faire, puisque tout est automatique.

Côté technique, c'est du Kotlin Multiplatform avec Compose pour l'interface. Sur Android, quand vous installez une app, ça délègue au gestionnaire de paquets natif et sur desktop, ça télécharge le fichier et l'ouvre avec l'application par défaut de votre système.

Vous pouvez vous connecter avec votre compte GitHub via OAuth. C'est pas obligatoire, mais ça permet de passer de 60 à 5000 requêtes par heure sur l'API GitHub, ce qui est bien si vous êtes du genre à explorer plein de repos.

L'app est dispo sur les releases GitHub du projet et aussi sur F-Droid pour Android. C'est sous licence Apache 2.0, donc vous pouvez en faire ce que vous voulez.

Attention quand même, les développeurs le précisent bien que Github Store ne fait que vous aider à découvrir et télécharger des releases. La sécurité et le comportement des logiciels que vous installez, c'est la responsabilité de leurs auteurs respectifs et la votre, donc comme d'hab, faites gaffe à ce que vous installez.

Un grand merci à Lorenper pour l'info !

sqlit - Quand y'en a marre de lancer SQL Server Management Studio pour une requête

Vous aussi vous avez ce truc où vous devez juste faire un petit SELECT rapide sur votre base de données, et là vous lancez un monstre du genre SQL Server Management Studio ou DBeaver, vous attendez que ça se charge pendant 47 ans, que ça bouffe les 2 Go de RAM qu'il vous reste, et tout ça pour une requête de 3 lignes ?

Moi ça m'énerve profondément, j'avoue... Pas le temps, pas la patience !

Heureusement, y'a un dev qui en a eu encore plus marre que moi et qui a pondu sqlit . C'est une interface TUI (Terminal User Interface, je précise...) qui tourne direct dans votre terminal et qui supporte un paquet de bases de données différentes telles que PostgreSQL, MySQL, SQL Server, SQLite, MariaDB, Oracle, DuckDB, CockroachDB, Supabase, Turso... La liste est longue mais en gros, si ça parle SQL, sqlit sait s'y connecter.

Le truc est inspiré de lazygit , un client Git en TUI que beaucoup de devs adorent, ce qui fait qu'on retrouve cette approche "lazy" où l'interface se suffit à elle-même. Comme ça y'a pas besoin de mémoriser 150 raccourcis clavier, puidqu'il y a une aide contextuelle qui s'affiche et qui vous dit quoi faire, comme votre maman quand vous ne l'avez absolument pas sollicitée.

On a donc de l'autocomplétion SQL qui va chercher les noms de tables et de colonnes, un historique des requêtes par connexion (pratique pour retrouver cette requête chelou qu'on avait bidouillée y'a 3 semaines), et même la gestion des tunnels SSH intégrée pour se connecter à des bases distantes. Les utilisateurs de Vim seront contents aussi, car y'a un mode d'édition modal pour naviguer comme dans votre éditeur préféré.

Pour l'installer, c'est hyper simple :

pip install sqlit-tui

Et après vous tapez sqlit dans votre terminal et c'est parti. Les drivers pour chaque type de base de données s'installent à la demande la première fois que vous essayez de vous connecter. Donc pas de dépendances inutiles qui traînent si vous utilisez juste PostgreSQL par exemple.

Y'a aussi un mode CLI si vous voulez scripter vos requêtes :

sqlit query -c "MaConnexion" -q "SELECT * FROM Users" --format csv

Le seul truc naze je trouve, c'est le nom "sqlit" qui ressemble trop à SQLite. Bon courage pour googler des infos dessus... Je sais de quoi je parle, toutes les 2 semaines, y'a une entreprise Korben qui pop en voulant surfer sur mon buzz (ouais j'ai le melon, mdr) et qui passe toutes ses levées de fonds en adwords pour se positionner avant moi sur Google ^^. C'est couillon ^^.

Bref, si vous vivez dans le terminal et que vous en avez marre de lancer des client lourds juste pour un SELECT, c'est vraiment pratique.

Cordon - L'outil qui trouve les aiguilles dans vos meules de logs

Vous avez déjà passé des heures à éplucher des fichiers de logs de plusieurs millions de lignes pour trouver ce qui cloche ? Genre une pauvre erreur bizarre qui se produit une fois sur 100 000, noyée dans un océan de messages répétitifs et d'infos inutiles ? Moi, oui plein de fois !

Mais ça c'était avant de tomber sur Cordon !

Cordon est un outil en Python qui utilise des modèles de transformers et du scoring k-NN pour détecter les anomalies sémantiques dans vos logs. En gros, au lieu de chercher des mots-clés comme un bourrin avec grep, Cordon comprend le sens des messages et repère ce qui sort de l'ordinaire.

Les patterns répétitifs sont alors considérés comme du bruit de fond normal, même si ce sont des erreurs parce que si vous avez la même erreur FATALE qui se répète 10 000 fois, c'est probablement un problème connu. Et vous, ce que vous voulez trouver, c'est l'événement rare, celui qui se produit une seule fois et qui est sémantiquement différent du reste.

L'installation est simple comme bonjour. Un petit pip install cordon et c'est réglé. Pour l'utilisation de base, vous balancez juste votre fichier de logs en argument :

cordon system.log

Et hop, Cordon va analyser tout ça et vous sortir uniquement les trucs intéressants. Par défaut, il garde les 10% les plus "anormaux" sémantiquement. Vous pouvez ajuster ce pourcentage avec --anomaly-percentile 0.05 pour être plus sélectif (top 5%).

Sous le capot, ça utilise le modèle all-MiniLM-L6-v2 de sentence-transformers pour vectoriser les logs. Le fichier est découpé en fenêtres de N lignes (4 par défaut), chaque fenêtre est transformée en vecteur, puis un score de densité k-NN est calculé. Les fenêtres qui ont des vecteurs très différents du reste sont marquées comme anomalies.

Et si vous avez un GPU, Cordon peut l'utiliser automatiquement avec l'option --device cuda. D'après les benchmarks, ça donne un speedup de 5 à 15x sur le scoring pour les gros datasets. Sur des logs HDFS de 1 à 5 millions de lignes, l'outil arrive à réduire le volume de 98%. Autant dire que ça filtre sévère.

Y'a aussi un mode "range" qui est pratique pour explorer par tranches. Genre si vous voulez exclure le top 5% (trop bizarre, probablement du garbage) mais garder le top 5-15%, vous faites :

cordon --anomaly-range 0.05 0.15 app.log

Ça permet d'affiner l'investigation de manière itérative.

Pour les environnements conteneurisés, Cordon propose également une image Docker avec un backend llama.cpp au lieu de sentence-transformers. Pratique si vous voulez utiliser des modèles GGUF ou si vous êtes dans un contexte où les dépendances PyTorch posent problème.

L'outil peut aussi s'utiliser comme bibliothèque Python si vous voulez l'intégrer dans vos propres scripts :

analyzer = SemanticLogAnalyzer()
output = analyzer.analyze_file(Path("system.log"))

C'est top moumoute pour le prétraitement de logs avant de les balancer à un LLM (pour réduire le contexte), le triage initial de fichiers de logs inconnus, ou la découverte de patterns inattendus. Par contre, si vous cherchez une erreur spécifique que vous connaissez déjà, grep reste votre ami. Et si vous avez besoin d'un historique complet pour la conformité, oubliez Cordon qui est volontairement "lossy".

Notez qu'au premier lancement, Cordon téléchargera le modèle d'embedding (environ 80 Mo) donc ce sera un peu lent, mais ensuite, ça sera quasi instantané car les lancements suivants utiliseront le cache. Et si vos logs sont très verbeux avec de longues lignes, le modèle par défaut (256 tokens max) risque de tronquer les lignes, dans ce cas, passez à un modèle plus costaud comme BAAI/bge-base-en-v1.5 qui supporte 512 tokens avec le paramètre --model-name.

Voilà, j'espère que ça vous sera utile ! C'est open source sous licence Apache 2.0 et ça se trouve sur GitHub .

Google Antigravity - Bienvenue dans l'ère du développeur qui ne développe plus

Oh non, vilain Korben va encore parler de méchante IA, lol ! Car oui, j’sais pas si vous avez vu, mais Google vient de lancer Antigravity et tout le monde s’emballe et un Mars (uh uh !) en disant que c’est LE nouvel IDE magique pour coder avec des agents IA ! Et c’est surtout une grosse pub pour son nouveau modèle Gemini 3 sorti en même temps, faut bien le dire !

Et pour le coup, faut reconnaître que niveau timing, Google a frappé fort puisque Gemini 3 débarque moins d’une semaine après la sortie de GPT-5.1 d’OpenAI et seulement deux mois après Claude Sonnet 4.5. Hé oui, la guerre des modèles fait rage et personne ne veut laisser les autres prendre l’avantage, à ma plus grande joie (Oui, j’aime la tech et tester tous ces trucs) !

Sur le papier Antigravity est donc une plateforme de développement “agent-first” où les agents IA ont un accès direct à votre éditeur de code (un VS Code as usual), votre terminal et votre navigateur. Comme ça, ils peuvent écrire des specs, coder vos idées les plus folles, puis tester et valider tout ça pendant que vous, de votre côté, vous pouvez continuer à écrire des saloperies sur Mastodon !

Que demande le peuple ? lol

Et ces petits agents IA sont très forts pour produire ce que Google appelle des “artefacts”. En gros, ce sont des listes de tâches, des plans d’implémentation, des screenshots, ou encore des enregistrements vidéo de ce qu’ils ont fait ou prévoient de faire. Et vous, de votre côté, votre seul job c’est de valider ces artefacts et de commenter ce qui est produit.

Félicitations, vous venez d’avoir une promotion ! Vous n’êtes plus développeur, vous êtes maintenant chef de projet !

On peut bien sûr, toujours éditer le code, mais on va arrêter de faire semblant, ce n’est clairement plus l’objectif puisque ce sont les agents qui s’en occupent. Et ces derniers sont capables d’apprendre de vos retours en se construisant une base de connaissance interne avec vos feedbacks afin d’affiner les process et de tendre le plus efficacement possible vers vos objectifs.

Voilà… Maintenant, si vous aimez vraiment écrire du code avec vos petits doigts boudinés, ça ne sera pas fun, c’est certain. Par contre, si comme moi, vous êtes un piètre codeur mais que vous avez des tas d’idées folles et que vous aimez orchestrer, piloter, et valider des trucs, vous allez sur-kiffer !

Mis à par Gemini 3, Antigravity supporte aussi GPT-OSS, et les modèles d’Anthropic (Claude Sonnet 4.5 pour être précis) et d’OpenAI. L’outil est pour le moment gratuit en preview publique pour Mac, Windows et Linux et les limites d’utilisation de Gemini 3 Pro (en mode Low) sont très généreuses selon Google.

Et pour ceux qui se demandent si Gemini 3 c’est du vent ou du solide, sachez que le modèle cartonne sur les benchmarks avec un score de 1501 Elo sur LMArena (record absolu), 37.5% sur Humanity’s Last Exam (niveau PhD quand même), 91.9% sur GPQA Diamond, et 76.2% sur SWE-bench Verified qui teste spécifiquement les capacités de coding. Bref, sur le papier, c’est du lourd.

Google a même prévu une version “Deep Think” de Gemini 3 pour les abonnés Ultra qui arrivera dans les prochaines semaines, avec encore plus de capacités de raisonnement pour les tâches complexes. Et avec plus de 650 millions d’utilisateurs mensuels sur Gemini, on sent que Google veut vraiment en faire son fer de lance et détrôner OpenAI et Anthropic dans le cœur des codeurs !

Bref, maintenant à voir ce que ça donne en vrai et si ça fonctionne mieux que Windsurf ou Cursor, mais ça, je vous le dirai plus tard quand je me serais un peu plus amusé avec… Antigravity, c’est peut-être l’avenir du dev, ou c’est peut-être juste Google qui essaie de vous forcer à changer de taf sans vous demander votre avis… qui sait ?

On verra bien si leur mayonnaise prend, mais en attendant, si vous testez, dites-moi ce que vous en pensez, je suis curieux.

Github Copilot pour Xcode est sorti - Et c'est Microsoft qui l'a fait !

Pendant qu’Apple peaufine son IA maison pour Xcode (sans date de sortie, évidemment), Microsoft vient tranquillou installer ses petites affaires dans l’écosystème le plus verrouillé du marché en sortant son extension officielle Github Copilot pour Xcode , pile-poil au moment où les rumeurs nous soufflent qu’Apple travaille aussi sur sa propre solution locale.

Cette extension de Github pour Xcode propose trois fonctionnalités principales. Tout d’abord de la complétion de code en temps réel. Ensuite, pendant que vous tapez, un tchat vous permet de poser des questions sur votre code, et il y a également un mode Agent qui peut modifier directement vos fichiers et lancer des commandes terminal. C’est gratuit jusqu’à 2000 complétions et 50 messages tchat par mois, donc largement de quoi rendre accro la majorité des devs iOS avant qu’Apple ne sorte son propre truc !

Maintenant pour utiliser un outil Microsoft dans un IDE Apple, vous devez accorder trois permissions macOS sacrées : Background, Accessibilité, et Xcode Source Editor Extension. Hé oui, Apple force littéralement ses développeurs à ouvrir toutes ces portes et niveau permissions, c’est l’Accessibilité qui pose régulièrement problème, car faut souvent la désactiver puis la réactiver pour que ça fonctionne correctement.

Ensuite l’installation est assez classique. Soit via Homebrew ou en téléchargeant le DMG directement depuis le dépôt GitHub.

brew install --cask github-copilot-for-xcode

Vous glissez ensuite l’app dans Applications, vous accordez les trois permissions système, vous activez l’extension dans les préférences Xcode, et hop, vous signez ça avec votre compte GitHub Copilot.

Un autre projet communautaire existait déjà intitni/CopilotForXcode , non officiel mais fonctionnel, qui supportait GitHub Copilot, Codeium et ChatGPT mais comme Microsoft sort maintenant sa version officielle pour contrôler le territoire comme un dealer dans son quartier, j’imagine que cette dernière ne va plus faire long feu.

Les tests comparatifs montrent que Copilot reste plus rapide et plus précis que le système de prédiction local d’Apple intégré dans Xcode car Apple mise uniquement sur du traitement local avec un modèle embarqué (pas de cloud donc, tout est sur votre Mac), surtout que Microsoft a déjà des années d’avance sur l’entraînement de ses IA et la rapidité de ses serveurs.

Donc voilà, les développeurs iOS se retrouvent maintenant à choisir entre attendre un hypothétique Copilot d’Apple sans date de sortie, ou donner les clés de leur Xcode à Microsoft dès maintenant. Ou alors continuer à coder sans IA comme les hommes de Cro-Magnon à l’époque !

En tout cas, avec 2000 complétions gratuites par mois comme dose pour devenir accro, combien vont résister si Apple tarde encore 6 mois de plus ??

Source

Dyad - Créer des apps web avec l'IA sans coder et sans sacrifier vos données perso

Vous connaissez ces outils qui promettent de créer des apps web juste en discutant avec une IA ? Genre Lovable, v0, Bolt, Replit…etc. C’est magique, sauf que tout tourne dans le cloud, vos données passent par leurs serveurs et vous êtes du coup enfermés dans leur écosystème.

Hé bien Dyad fait la même chose, mais un peu différemment puisque tout tourne en local sur votre machine. En plus c’est open-source et c’est gratuit.

Dyad, c’est donc un builder d’applications web piloté par IA. Vous lui expliquez ce que vous voulez, il génère le code directement chez vous sur votre machine et le truc cool, c’est qu’il vous laisse choisir votre modèle IA.

ChatGPT d’OpenAI, Gemini 2.5 Pro de Google, Claude Sonnet 4.5 d’Anthropic, prenez ce que vous voulez, vous mettez vos propres clés API et ça roule. Et si vous tenez vraiment à une vie privée totale, vous pouvez même utiliser Ollama pour faire tourner des modèles en local sans jamais que ça se connecte à internet.

Le projet est dispo sur GitHub , c’est codé en TypeScript, ça s’installe sur Mac et Windows, et y’a aucune inscription requise. Bref, vous téléchargez, vous lancez, et ça marche.

Dyad s’intègre avec Supabase pour la partie backendce qui permet d’avoir une bonne authentification, une base de données, des fonctions serveurr…etc. Tout y est, du coup vous pouvez créer des vraies apps full-stack, et pas juste des interfaces statiques comme on peut le faire avec mon petit LocalSite . Vous partez d’une idée, vous discutez avec l’IA, et vous sortez une application complète qui tourne sur votre machine en full vibe coding !

Il y a bien sûr des plans payants mais la version gratuite fait déjà le job pour du développement solo. Le créateur de Dyad s’appelle Will Chen et a même monté une communauté Reddit r/dyadbuilders où chacun montre un peu ce qu’il a fait. Ça peut vous donner des idées des capacités de cet outil.

Bref, si vous voulez jouer avec un vrai app builder IA sans dépendre du cloud et sans vendre votre âme à une plateforme propriétaire, Dyad fera très bien le job ! Vous pouvez même ensuite ouvrir les fichiers générés dans un VS Code ou Cursor si vous voulez mettre les mains dans le cambouis.

Transformez vos ebooks en cartes mentales

Un dénommé SSShooter, développeur de son état, a concocté un projet open source qui pourrait bien vous aider pour mieux apprendre n’importe quel sujet, à l’aide de cartes mentales. Baptisé Ebook to Mindmap , son outil transforme vos EPUB et PDF en cartes mentales interactives, le tout propulsé grâce à l’intelligence artificielle.

Cela permet de ne plus vous cogner 300 pages d’un traité sur le machine learning tout en griffonnant des notes sur un coin de nappe. Là vous glissez votre fichier dans l’outil et voilà ! Vous obtenez une carte mentale structurée regroupant tous les concepts clés, les relations entre les idées et l’architecture globale du bouquin.

Ce qui est plutôt cool avec cet outil, c’est qu’il ne se contente pas de vous balancer un résumé basique. Le projet utilise Google Gemini ou GPT d’OpenAI pour analyser intelligemment le contenu. Il détermine automatiquement la structure des chapitres, ignore les préfaces et tables des matières inutiles et vous propose trois modes de traitement différents selon vos besoins.

Que vous ayez besoin d’un simple résumé textuel parce que vous êtes pressé, d’une mindmap par chapitre pour une analyse détaillée, ou d’une carte mentale globale du livre entier, c’est vous qui choisissez. Et tout ça avec un système de cache intelligent qui vous épargne de re-traiter les mêmes bouquins encore et encore.

Pour l’installation, rien de compliqué si vous avez Node.js 18+ sur votre machine. Un petit git clone, un pnpm install et hop, vous êtes lancé. Vous configurez votre clé API (Google Gemini ou OpenAI), vous uploadez votre ebook et vous laissez l’outil faire son travail. Y’a même une démo accessible ici en ligne pour tester sans installer.

Mais comme le code est open source, vous gardez le contrôle sur le processus. Vous pouvez ainsi définir la profondeur des sous-chapitres à analyser, choisir le type de livre (technique, fiction, business…) et même ajuster les paramètres avancés selon vos besoins spécifiques.

Pour les étudiants qui doivent se farcir des pavés de 800 pages sur la thermodynamique quantique, ou pour les professionnels qui veulent extraire rapidement l’essence d’un livre business sans y passer le weekend, c’est parfait. Et pour les curieux qui accumulent les ebooks mais n’ont jamais le temps de tous les lire en détail, c’est la solution miracle.

Le seul bémol que je vois, c’est qu’il faut quand même une clé API pour faire tourner l’IA. Mais bon, avec les tarifs actuels de Google Gemini, ça reste largement abordable pour un usage personnel. Et puis si vous êtes développeur, rien ne vous empêche de forker le projet et d’y intégrer votre propre modèle d’IA local comme je l’ai fait pour LocalSite .

GHBuster - Le détecteur de comptes GitHub bidons de DataDog

Saviez-vous qu’il y a plus de 3,7 millions de fausses étoiles qui polluent GitHub , et que 16% des repos étaient déjà touchés fin 2024. C’est pour cela que DataDog a sorti GHBuster , un outil qui détecte justement les comptes et repos GitHub suspects grâce à des algos heuristiques bien senties.

Le principe c’est qu’au lieu de chercher bêtement des patterns, GHBuster analyse plusieurs comportements louches en même temps. Genre, il repère quand un repo a plein d’étoiles venant de comptes créés le même jour et check aussi d’autres trucs sympas comme les commits avec des emails non liés au profil GitHub (pratique pour repérer les acteurs malveillants qui utilisent plusieurs comptes bidons). Il trouve aussi les utilisateurs qui n’ont que des forks de repos supprimés, ou ceux dont tous les commits viennent d’emails non vérifiés.

L’installation est super simple pour ceux qui veulent tester :

uv pip install "git+https://github.com/DataDog/ghbuster.git"
export GITHUB_TOKEN=votre_token_github
ghbuster

Et le problème de ces fausses “étoiles”, c’est un phénomène qui prend de l’ampleur et ces repos vérolés contiennent souvent des malwares cachés dans des logiciels piratés, des cheats de jeux ou des bots crypto.

DataDog ne s’arrête pas là car ils ont aussi intégré GHBuster dans leur suite de sécurité Cloud SIEM. Ça permet de monitorer en temps réel les activités suspectes sur GitHub, comme l’ajout de clés SSH depuis des IP douteuses ou la désactivation du secret scanning.

Pour les devs et les entreprises, c’est un vrai casse-tête car comment faire confiance à un repo avec 10 000 étoiles si la moitié sont bidons ? GHBuster apporte heureusement une partie de la réponse en permettant d’identifier rapidement les patterns suspects.

DataDog recommande aussi de configurer vos filtres web pour surveiller le trafic GitHub et détecter les téléchargements anormaux. Utilisez des outils de scan automatique comme GitGuardian ou GitHub Advanced Security pour repérer les malwares potentiels dans le code.

Je trouve ça cool de voir des boîtes comme DataDog partager leurs outils en open source et j’espère que GHBuster vous aidera à y voir un peu plus clair dans ce bazar sur GitHub.

TheAuditor - L'outil de sécurité qui rend vos assistants IA moins laxistes sur la sécurité de votre code

J’sais pas vous, mais moi quand je vois Claude Code ou Cursor pondre du code avec des injections SQL grosses comme des maisons, j’ai envie de pleurer. Le pire, c’est que ces assistants IA sont incapables de vérifier si leur code est bien sécurisé. La plupart du temps ils pissent de la ligne, mais ils ne voient rien en. ce qui concerne d’éventuelles failles.

Du coup la bonne nouvelle, c’est l’arrivée de cet outil génial pour résoudre ce problème : TheAuditor . En gros, c’est une plateforme SAST (Static Application Security Testing) pensée dès le départ pour fonctionner avec les assistants IA.

L’idée c’est qu’au lieu d’avoir une IA qui code dans le vide, TheAuditor lui donne des yeux pour voir ce qu’elle fait vraiment. L’outil analyse le code, trouve les failles de sécurité (il détecte le Top 10 de l’OWASP, les injections, les problèmes d’authentifications…etc), et génère des rapports optimisés pour que l’IA puisse ensuite les comprendre et corriger ses erreurs toute seule.

Et surtout, ça fonctionne avec N’IMPORTE QUEL assistant IA. Pas besoin d’intégration spéciale, pas de SDK, rien. Vous demandez juste à votre IA de lancer aud full (ou vous le lancez vous-même) et elle lit les résultats dans .pf/readthis/. Que vous utilisiez Claude, Cursor, Codex, Windsurf ou Copilot, ça marche pareil.

L’installation est super simple. Vous clonez le repo dans ton dossier d’outils (pas dans votre projet !), vous faites un

pip install -e .

et c’est parti.

Ensuite dans votre projet, vous lancez :

aud setup-claude --target .

puis vous l’initialisez avec :

aud init

et enfin :

aud full

pour avoir votre audit complet.

TheAuditor fait tourner 14 phases d’analyse en parallèle. Ça va de la détection des frameworks (Django, Flask, React…) à l’analyse des dépendances, en passant par le suivi du flux de données pour identifier les points d’injection. Il génère même des graphiques de dépendances avec Graphviz pour visualiser l’architecture de ton code.

Un truc “marrant” que le créateur mentionne dans son projet, c’est que son outil déclenche les antivirus ! Donc c’est pas la peine de m’écrire pour me dire que votre antivirus random à la période d’essai expirée a détecté un grave danger et que vous êtes vachement déçu parce que Korben.info c’est devenu de la merde, et que vous allez portez plainte parce qu’à cause de moi, y’a un virus dans votre imprimante maintenant et ce genre de conneries ^^. C’est normal en fait parce que l’outil doit détailler les vulnérabilités qu’il trouve dans la documentation. Et pour l’antivirus, écrire des patterns de vulnérabilités détectées, c’est suspect. Mais bon, c’est le prix à payer pour avoir un vrai scanner de sécurité.

Le workflow maintenant avec ce truc, ça consiste donc à demander une fonctionnalité à votre assistant IA. Lui, en bonne victime, il la code, puis lance TheAuditor automatiquement, lit ensuite le rapport, corrige les problèmes de sécurité, relance TheAuditor pour vérifier que tout est OK, et ainsi de suite jusqu’à ce que ce soit clean. Comme ça plus besoin de toucher au terminal, l’IA gère tout.

Pour les refactorings, c’est également du bonheur puisque l’outil détecte automatiquement les migrations incomplètes, les incompatibilités d’API entre frontend et backend, les changements de modèles de données mal propagés. Vous pouvez même définir vos propres règles de corrélation dans /correlations/rules/.

Voilà, si vous en avez marre que vos assistants IA génèrent du code troué et que vous voulez dormir tranquille, TheAuditor pourrait bien devenir votre meilleur pote.

❌