Fortinet warns of a critical FortiClient EMS zero-day vulnerability that is currently being exploited, allowing attackers to bypass authentication and execute commands.
Windows 11’s Built-In Video Editor Just Changed — And Not Everyone Likes It In a controversial move, Microsoft is now forcing users to use OneDrive with Clipchamp, the default video editor in Windows 11. This change is sparking frustration across the tech community—and it could completely change how you edit videos on your PC. ⚠️ […]
Google n'a jamais sorti d'API publique pour NotebookLM, son outil qui transforme vos documents en podcasts, quiz et autres résumés grâce à l'IA. Pas de SDK, pas de CLI, y'a rien du tout alors on est tous triiiiiste. A peine juste une interface web avec ses boutons moches et ses menus déroulants, mais impossible à scripter ou à intégrer dans le moindre pipeline bash.
Mais un dev bien inspiré a reverse-engineeré les endpoints REST internes et a pondu notebooklm-py, une lib Python de 168 Ko qui fait tout ce que le web UI refuse de faire. Franchement, c'était pas trop tôt ! Vous en avez rêvé, lui l'a fait !
Un pip install notebooklm-py et voilà, vous avez accès à toute la machinerie Notebook LM à savoir : créer des notebooks, injecter des sources (URLs, PDF, vidéos YouTube, fichiers Google Drive, documents Word, images PNG), poser des questions à vos docs, et surtout générer du contenu... podcasts audio en MP3, vidéos explicatives en MP4, quiz, flashcards, slides en PPTX, infographies en PNG, mind maps en JSON.
Carrément dingue ! Et tout ça pilotable depuis votre terminal zsh ou en script Python async.
En fait, le vrai bonus c'est que la lib déverrouille des fonctionnalités que l'interface web ne propose même pas comme télécharger tous vos podcasts d'un coup en batch au lieu de cliquer un par un sur chaque fichier MP3, exporter vos 50 flashcards en JSON structuré au lieu de juste les afficher à l'écran ou encore récupérer vos slides en PPTX éditable plutôt que le PDF figé.
Ce genre de features, on avait fini par accepter que Google s'en fiche mais pourtant, extraire l'arbre complet d'une mind map en JSON pour la balancer dans D3.js ou Mermaid... clairement c'est un truc que Google aurait dû proposer depuis le début !
Côté CLI, c'est propre. Vous vous authentifiez une fois via notebooklm login (ça ouvre Chromium via Playwright pour choper les cookies de session Google), puis vous enchaînez les commandes.
notebooklm create "Ma Recherche" pour créer un notebook vide,
notebooklm source add ./mon-rapport.pdf pour balancer vos fichiers,
notebooklm generate audio "rends ça punchy" --wait pour lancer la génération de podcast,
et notebooklm download audio ./podcast.mp3 pour récupérer le MP3 sur votre disque.
On peut même éditer ses slides individuellement avec des prompts en langage naturel, du genre "ajoute un graphique sur cette slide-là" !
Pour ceux qui veulent brancher ça dans leurs pipelines, y'a comme je le disais l'API Python async complète. Vous pouvez donc monter un petit cron qui ingère vos derniers bookmarks le vendredi soir, et génèrer un résumé audio de 5 minutes, puis balancer le MP3 directement sur votre NAS Synology.
D'ailleurs, si vous avez déjà joué avec des outils pour
booster votre productivité avec l'IA
, c'est un peu dans la même veine... sauf qu'ici on tape directement dans les tripes des serveurs Google, sans intermédiaire. Ça tourne avec du Python, et y'a même un mode "agent" (un skill en fait) pour brancher ça dans Claude Code ou Codex. Pas mal, hein ?
Le fait que ça gère aussi la recherche web et Drive avec import automatique des résultats dans vos notebooks, c'est top, un peu comme
Oboe qui génère des cours complets via IA
, mais en version terminal. Et surtout, pas d'abonnement mensuel à payer, c'est votre propre compte Google qui fait tourner la machine.
Bien sûr, ça reste du reverse-engineering d'APIs non-documentées de Google, ce qui fait que les endpoints REST peuvent changer du jour au lendemain et tout péter. Le projet le dit clairement, c'est plutôt taillé pour du prototypage, de la recherche ou des projets perso et SURTOUT PAS pour de la prod sur un serveur Nginx en front avec 10 000 utilisateurs prêts à ruer dans les brancards en cas de panne.
Et puis faut quand même s'authentifier via un vrai compte Google avec Playwright et Chromium, donc pas question de faire tourner ça sur un serveur headless sans un minimum de config.
Bref, tant que Google ne coupe pas ses endpoints, c'est open bar.
Splitter son terminal en plusieurs panneaux, gérer des sessions persistantes, le tout avec les mêmes raccourcis que tmux... mais sous un bon gros Windows des familles, nativement, en Rust et sans avoir besoin de se galérer avec WSL !
C'est exactement ce que fait
psmux
, un multiplexeur de terminal conçu pour PowerShell et cmd.exe qui utilise directement l'API ConPTY de Windows 10/11. Du coup, pas de couche d'émulation Unix, pas de Cygwin, pas de MSYS2... ça tourne direct sur votre bécane.
Pour ceux qui débarquent, un multiplexeur de terminal ça permet de découper votre console en plusieurs zones (des "panes" que j’appellerai "panneau" parce que merde c'est + français), de jongler entre plusieurs sessions, et surtout de retrouver votre boulot exactement là où vous l'avez laissé même après une déconnexion. Sous Linux, tout le monde utilise tmux pour ça mais sous Windows, jusqu'ici c'était soit WSL (installer tout un sous-système Linux juste pour splitter un terminal, c'est un peu overkill quand même !), soit des splits basiques via Windows Terminal qui ne gèraient ni les sessions persistantes ni le détachement. Snif...
psmux en action sous PowerShell
L'installation est rapide. Un petit winget install psmux et hop, c'est réglé. Ça passe aussi par Cargo, Scoop ou Chocolatey pour les puristes. Ensuite, vous tapez psmux dans PowerShell 7 et vous retrouvez vos marques : Ctrl+B pour le prefix, les mêmes commandes split-window, new-session, attach... L'outil implémente 76 commandes tmux avec plus de 126 variables de formatage. Et y'a même un mode copie Vim avec 53 raccourcis clavier.
Bref, si vous avez une mémoire musculaire ultra développée pour tmux, vous êtes chez vous !
Et le truc cool, c'est que psmux lit directement vos fichiers .tmux.conf existants. Du coup, vos raccourcis custom et pas mal de thèmes (Catppuccin, Dracula, Nord...) fonctionneront directement, même si les configs tmux les plus complexes avec des scripts bash ou TPM peuvent nécessiter des ajustements. Et y'a aussi
Tmux Plugin Panel
pour vous accompagner dans l'ajout de plugins et de thèmes.
Alors je vous connais les raloux sous OuinOuin, vous allez me dire "Windows Terminal fait déjà des splits avec Alt+Shift+D"... sauf que non, c'est pas pareil. Windows Terminal découpe votre fenêtre visuellement mais ne gère ni les sessions persistantes, ni le scripting, ni le détachement. Avec psmux, vous lancez une session le lundi, vous fermez votre terminal, vous revenez le mardi et tout est encore là : vos panneaux, vos processus, votre historique. C'est ça la vraie différence avec un simple split visuel.
Côté support souris, c'est complet : clic pour sélectionner un panneau, drag pour redimensionner les bordures, molette pour remonter dans l'historique du buffer. Tout est activé par défaut, pas besoin de rajouter set -g mouse on comme sous tmux. L'outil tourne sous Windows 10 et 11, et le projet est sous licence MIT.
Après c'est encore jeune et y'a quelques galères connues notamment le support des caractères CJK et UTF-8 multi-octets qui peut se planter comme une merde sur des textes longs. Et split-window -c ne préserve pas toujours le répertoire courant (oubliez pas de vérifier votre pwd après un split). Par contre, le dev répond en quelques heures, et des PR externes sont mergées régulièrement... donc c'est bon signe !
Bref, c'est propre, c'est natif, et ça lit vos .tmux.conf ! Que demande le peuple barbu emprisonné sous Windows, finalement ? Eh bien pas grand chose de plus pour être heureux.
Un TUI en Rust pour gérer vos coffres Obsidian sans quitter le terminal c'est ce que propose Basalt qui détecte automatiquement vos vaults, affiche le markdown avec un rendu visuel, et depuis la v0.12.3, y'a même un mode vim intégré. Le tout sans avoir besoin que la vraie app tourne en arrière-plan !
Et c'est là toute la différence avec
le CLI officiel d'Obsidian
dont je vous parlais il y a quelques jours. Car le CLI a besoin de l'app qui tourne via un socket local. Basalt, lui, lit en fait vos fichiers .md directement sur le disque. Du coup, ça marche en SSH, sur un serveur headless, ou sur n'importe quelle machine où vous avez juste vos fichiers markdown. C'est carrément pratique !
L'installation se fait en une commande :
cargo install basalt-tui
Au premier lancement, l'outil va alors chercher automatiquement vos coffres en lisant le fichier de config (sous macOS c'est dans ~/Library/Application Support/obsidian/obsidian.json). Comme ça, hop hop, vos vaults apparaissent, vous naviguez au clavier et vous passez d'un coffre à l'autre avec Ctrl+G. Vous pouvez aussi passer par
aqua
ou télécharger un binaire pré-compilé sur la page releases si vous préférez.
Basalt en action, navigation dans un vault Obsidian
Vous ouvrez alors une note et le markdown s'affiche avec un rendu visuel : les # disparaissent au profit d'indicateurs plus colorés, les blocs de code ont un fond distinct, les callouts > [!NOTE] sont reconnus, et les wiki-links [[Ma Note]] sont également parsés. D'ailleurs, quand vous renommez une note avec r, tous les wiki-links qui pointent vers elle sont mis à jour automatiquement dans tout le vault. Pas de search-replace à la main, ça fait toujours du bien !
Après faut pas s'attendre à un clone complet non plus. Y'a pas de rendu pour le gras, l'italique ou les tableaux. Pas de recherche dans les notes. Pas de graph view. L'éditeur intégré est expérimental (pas d'undo, pas de copier-coller, pas de sélection). C'est assumé de ce que j'ai pu voir, car le projet se présente comme un compagnon minimaliste.
Et c'est justement pour ça que le mode vim est le bienvenu, à vrai dire. Vous pouvez activer ça dans votre config TOML comme ceci :
vim_mode = true
Le mode vim en action dans Basalt
Et là vous avez hjkl pour naviguer, gg / G pour sauter en haut et en bas, w / b pour les mots, i pour l'insertion. C'est pas forcément aussi complet qu'un vrai vim, mais franchement, pour parcourir vos notes c'est agréable.
Le vrai kiff, c'est la config TOML qui permet de lancer un éditeur externe sur la note en cours :
Du coup, le workflow devient : Basalt pour naviguer et lire et un raccourci clavier pour ouvrir dans vim (ou n'importe quel éditeur) quand vous voulez éditer sérieusement. C'est le genre de combo qui fonctionne bien quand vous bossez en
full terminal
.
Le projet est sous licence MIT, écrit en Rust avec ratatui, et tourne sur Linux, macOS et Windows. Tiens, la v0.12.3 ajoute aussi la création de notes et dossiers directement depuis l'explorateur avec n et N... Ça avance plutôt vite comme projet !!
Voilà, si vos notes vivent dans des coffres et que le terminal c'est votre habitat naturel,
Basalt
fera bien le boulot.
Design Mindset is Yanko Design’s weekly podcast, powered by KeyShot, the 3D rendering and visualization software that helps designers test how products feel, not just how they look. Hosted by Radhika Seth, the show goes deep into the philosophy and process behind world-class products, sitting down with the designers and founders who actually built them. Episode 19, premiering this week, is one of the most thought-provoking conversations the series has produced yet.
Joseph Hofer is the founder of Hofer Studio, where he consults with hardware entrepreneurs on building profitable, world-class product portfolios. Before that, he spent over a decade at BlackBerry as senior industrial designer, establishing the look and feel of the iconic Bold family and shaping devices like the Q10, Z10, and the BlackBerry Passport. His work spans over sixty design and utility patents, touching products that have sold over twenty-one million units and generated upward of $3.1 billion in revenue. More recently, he’s been the design force behind the Clicks Communicator, a physical-keyboard phone that launched at CES and challenges the smartphone status quo from the ground up.
Joseph opens the conversation with something that sounds almost poetic but lands with the weight of a core design principle, saying that “most of the objects we use every day quietly train us. They teach us how to hold them, how long to focus, how patient we need to be. When design ignores human limits, it drains us. When design respects them, it almost feels like care.” He critiques what he calls “sticky” experiences, the kind that benefit companies at users’ expense, arguing that the real question designers should be asking is whether a product helps people become a better version of themselves, or whether the company simply wins after ten years of draining them.
His case against the modern smartphone is pointed. Everything phones have become reactionary devices, he says, describing the experience of opening one to send an email and somehow finding yourself fifteen minutes deep in a reel, asking yourself how you got there. Big tech, in his view, has deliberately shaped products to increase screen time and sell more through ads. His philosophy runs in the opposite direction: good design should prompt intention before action, not exploit the absence of it.
Integration as Core Design Principle
One of the more revealing details Joseph shares early on is that at BlackBerry, the design team’s official title wasn’t “Industrial Design.” It was Design Integration. That framing stayed with him. “Integration is probably the word, the action that I look to do well in every project I work on,” he says, adding that a product can be really strong in one area but fall flat in others if you’re only focused on a single dimension. Great design, strong UX, and poor profit economics don’t add up to a sustainable company. Economics, manufacturing, cost, and complexity all have to be part of the thinking from the start.
His advice to technical founders reflects the same logic. Many of them start with a breakthrough innovation and then go looking for a market to push it into, which he sees as working in the wrong direction. The better path is to step back, clearly analyze the problem bubbling up from the market, shape an experience that solves it, and then let the technology marry with that. Letting one run too far ahead of the other is how good innovations end up as products nobody uses.
The Clicks Communicator: Intentional Mobile Interaction
The Clicks Communicator is the most direct physical expression of Hofer’s philosophy. It was the first phone he designed in ten years after BlackBerry, and the central idea is a complete inversion of how smartphones currently work. Rather than an app grid that presents notifications and pulls users in reactively, the Communicator prompts users to decide what they want to do first, then acts on it. Physical keys map to intentional shortcuts: pressing K calls a specific contact, pressing I opens Instagram only when the user has consciously chosen to. “It flips it from being reactionary to intentional,” Joseph says simply.
He’s also clear that the product’s appeal isn’t nostalgia. A lot of the customers aren’t even BlackBerry users, he notes; they’re younger people who simply want a different relationship with their mobile device. The Communicator sits within what he sees as a broader 2025 trend of “intentional tech,” products designed to decouple from the everything-phone model and serve one specific purpose well. Adding a 3.5mm headphone jack and a removable SD card wasn’t feature-stacking for its own sake either; those choices are signals to a specific audience that the team is listening and cares about them.
Recognizing Quiet Ideas and Process Discipline
When Radhika points out that the BlackBerry keyboard now feels like it was always inevitable, Hofer pushes back immediately. “Sometimes these quiet ideas that feel obvious or become obvious actually took a lot of effort and iteration to get there,” he says, describing the motto his team lived by: think, build, test. The keyboard’s evolution wasn’t a single stroke of insight; it was a response to real constraints. As iPhones pushed screens larger, BlackBerry faced intense pressure to shrink keypads, which meant switching from oval keys to square ones, losing the tactile separation users relied on. The innovation was subtle: raising a curved edge on each square key to preserve the feeling of the oval, essentially hiding a reference to the old shape inside the new form. Speed tests, accuracy tests, user sentiment on different options, all of that grinding iteration is what produced something that feels natural.
He applies the same thinking to simplicity broadly. Designing for a ten-year-old, he argues, is one of the most useful principles any designer or founder can adopt. If you can’t explain the product to a ten-year-old, it’s too complicated. He tested this literally the night before the recording, sitting down with his eight-year-old daughter to ask about her CD player. Her answer was that it had way too many buttons. Her ideal? Three: power, volume up, volume down. Six identical-feeling buttons with in-mold graphics that disappear in the dark told a clear story about what the designers had gotten wrong.
Restraint as Confidence and Commercial Strategy
The tension between restraint and visibility is something Hofer takes seriously. He doesn’t frame minimalism as a virtue in itself. “Clarity is actually an even stronger word,” he says, arguing that a vanilla product solving a vanilla problem will simply go unnoticed. The goal isn’t to be quiet; it’s to solve a real, specific problem so well that the product becomes the only answer for a particular group of people. A phrase he came up with captures where he’s trying to take the companies he works with: from viral products to vital ones, products that customers genuinely need in their lives because of the difference they’ve made.
That philosophy maps directly onto commercial outcomes. A product that meets the emotional and functional needs of a user, reduces cognitive load, lasts longer, and has lower return rates naturally builds a brand that draws people in without needing to be aggressively sold. “When products are just better,” he notes, “they need to be marketed and sold maybe less. That’s an effect on your bottom line.” His work at Hofer Studio is less about crafting beautiful objects and more about asking founders what commercial success actually means to them and building backwards from that.
When the rapid-fire round asks him to describe restraint in design in a single word, his answer arrives without hesitation: confidence. “What does obviousness create? It creates confidence. I know how to enter this experience. I know how to start this product. I feel more confident with it in my life.” It’s a fitting close to a conversation that consistently returned to the same idea: that the design decisions nobody notices are usually the ones that took the most care to make.
Design Mindset drops every week on Yanko Design. Catch Episode 19 in full wherever you listen to podcasts. For a free trial of KeyShot, visit keyshot.com/mindset.
Most of us have a box. Or a bag, or a corner of the closet where clothes go to wait for a fate we haven’t quite settled on yet. Not trash, not donation, just quietly pushed aside. The jeans that stopped fitting but once made you feel unstoppable. The sweater that pilled after three washes but somehow survived four more years. Parting with clothes is harder than it sounds, and the fashion industry has largely treated that emotional gap as a non-problem.
ByBye, a concept designed by Gyeong Wook Kim, Sooa Kim, Gayeon Kim, and Mingyeong Shin, disagrees with that approach in the most literal way possible. It’s a countertop-sized machine that takes your worn and discarded garments and transforms them, through a process of grinding, compression, and heat, into flower pots. Real, usable, actually beautiful flower pots.
Designers: Gyeong Wook Kim, Sooa Kim, Gayeon Kim, Mingyeong Shin
I want to sit with that idea for a second, because it’s a genuinely clever reframe of the problem. The designers describe ByBye not as a disposal system but as a “system of reform.” That language matters. When we throw clothes away, the garments disappear. When we donate, we hand off the moral weight to someone else. But ByBye asks you to stay present for the transformation and gives you something physical to show for it.
The mechanics are straightforward but impressively considered. You feed garments into the top opening, which uses a sliding rail mechanism to regulate input and automatically closes once the designated weight is reached. Inside, a shredder breaks the fabric down into fine particles. Those particles are then fed into a flower pot mold, compressed by a pressing plate, and hardened through high-temperature treatment. The finished pots rise up from the molding mechanism. The whole process takes about ten minutes per piece, and a companion app tracks fabric weight, the number of pots produced, and total production time.
What comes out of the machine is genuinely surprising. The pots carry a terrazzo-like texture from the mixed fibers, soft and speckled in muted blues, pinks, and greens depending on the fabric input. They look like something you’d find at a design fair, not something born from a pile of worn-out t-shirts. That aesthetic outcome feels important to the whole concept. If the result were dull or utilitarian, the emotional payoff wouldn’t land. Instead, you end up with an object that holds some trace of the original garment, and then holds a plant on top of that.
The project raises questions I keep turning over. Can the machine handle all fabric types, including synthetic blends that behave very differently under heat and compression? What’s the upper limit on pot durability when working with processed textiles? These feel like the natural next steps for a concept this promising, and I genuinely hope the team is pushing toward them.
What ByBye gets absolutely right is the emotional architecture of the experience. The name alone, a gentle play on “bye bye” and “by” as in made by, signals that this isn’t designed to make you feel guilty about your wardrobe. The copy throughout the project, “Hello? Nice to Wear You,” “Let Your Clothes Begin Again,” reads more like an invitation than an environmental lecture. That tone is rare in sustainable design, which has a tendency to lead with shame rather than possibility.
The designers put it plainly in their project statement: “Not a system of disposal, but a system of reform where clothing is seen again, and made anew.” That’s a design philosophy worth paying attention to. Fashion produces staggering amounts of textile waste every year, and while no home appliance is going to fix that alone, concepts like ByBye shift the conversation in a useful direction. They make the ending feel less like a loss and more like a beginning. Parting with clothes is still going to feel like something. But now it might feel like planting something too.
iCloud, c'est sympa pour stocker vos photos et vos documents... jusqu'au jour où comme moi, vous décidez de vous barrer. Parce que récupérer vos 200 Go de fichiers en masse depuis le cloud d'Apple (plusieurs To pour moi), c'est pas vraiment ce qu'il y a de plus simple (genre, y'a pas de bouton "tout télécharger"). J'ai bien essayé de demander un export de mes datas à Apple et pour la partie iCloud Drive, j'ai juste eu des espèces de CSV bizarres mais pas mes documents.
Heureusement, pour s'extraire des griffes de l'entreprise de Cupertino, y'a un outil Python parfait pour ça.
iFetch
, c'est un utilitaire en ligne de commande qui va se connecter à votre compte iCloud Drive et tout rapatrier en local. Le truc gère la 2FA (parce que bon, en 2026, si vous n'avez pas de 2FA activée quand c'est possible, vous méritez d'être envahi de puces de lit), les téléchargements parallèles avec 4 workers par défaut, et surtout les updates différentiels.
En gros, seuls les morceaux de fichiers qui ont changé sont re-téléchargés, du coup, sur un dossier de 50 Go déjà synchro, ça passe en quelques secondes au lieu de tout re-pomper. Et si ça plante au milieu, pas de panique, l'outil reprend là où il s'est arrêté grâce à un système de checkpointing.
Y'a aussi un truc malin, c'est le système de profils. Vous créez un fichier JSON avec des règles d'inclusion et d'exclusion, genre "tous les PDF du dossier Documents sauf ceux du dossier Private" et hop, en une commande et c'est plié.
Le support des dossiers partagés est aussi de la partie (le fameux --list-shared), y'a un système de plugins pour ceux qui veulent étendre le bazar, et même un historique de versions avec rollback automatique. Pas mal pour un outil libre !
Pour l'installer, après c'est du classique. Virtualenv Python, pip install pyicloud tqdm requests keyring, et vous stockez vos identifiants via icloud --[email protected] qui balance tout ça dans le trousseau système (Keychain sur macOS, libsecret sur Linux). D'ailleurs, si vous êtes du genre à
sauvegarder vos dotfiles dans iCloud
, c'est l'outil parfait pour faire le chemin inverse.
...et ça mouline !! Vous pouvez même monter jusqu'à 8 workers pour aller plus vite (--max-workers=8), configurer les retries (--max-retries=5) ou juste lister le contenu sans rien télécharger avec --list. Attention, si vous avez des noms de fichiers avec des caractères spéciaux (genre des accents ou des espaces... merci macOS, groumpf), vérifiez bien que tout est passé après le transfert.
Alors oui, c'est CLI only, donc oubliez l'interface graphique. La doc mériterait un petit coup de polish et surtout, si votre session 2FA expire en plein transfert... faut relancer l'auth. Ça casse pas le téléchargement en cours, mais bon, c'est un peu "chiant".
Bon au final, pour un projet open source sous licence MIT, c'est plutôt du solide. Et si vous voulez
chiffrer vos sauvegardes
une fois récupérées en local, y'a des solutions pour ça aussi.
Bref, c'est simple, ça fait le job et c'est gratuit. Que demande le peuple à part du matos Apple moins cher, lool ?
Si vous utilisez
Notion
au quotidien et que vous avez toujours rêvé de piloter vos bases de données depuis un terminal... y'a enfin un truc qui tient la route.
Ça s'appelle
notion-cli
, c'est un binaire Go qui embarque 39 commandes couvrant TOUTE l'API Notion. Il s'agit d'un seul exécutable pour macOS, Linux et Windows (amd64 et arm64) sans dépendance qui vous permet de gérer pages, bases de données, blocs et commentaires sans jamais ouvrir un navigateur.
L'installation, c'est du classique : brew install 4ier/tap/notion-cli sur macOS, go install pour les puristes, npm install -g notion-cli-go ou même Docker. Il faut juste un token d'intégration Notion (le ntn_xxxxx que vous générez sur notion.so/my-integrations), vous le collez dans ~/.config/notion-cli/config.json ou en variable NOTION_TOKEN, et c'est parti.
notion-cli en action dans le terminal
Le truc cool, ce sont les filtres humain-friendly. Au lieu de se taper du JSON pour filtrer une base, vous écrivez Status=Done et l'outil se débrouille tout seul. En fait, il détecte le type de chaque propriété (texte, date, sélection...) et adapte le filtre automatiquement. C'est carrément pas mal, je trouve.
Et côté Markdown, c'est la fête ! Vous exportez une page entière avec notion block list <page-id> --md --depth 3, et inversement, vous injectez un fichier .md dans Notion via notion block append <page-id> --file notes.md. Pour ceux qui bossent avec de la doc technique, ça simplifie sérieusement les choses. Bon, ça ne marche pas avec les blocs synchronisés ou les embeds exotiques, mais pour le reste c'est nickel.
D'ailleurs le mode "pipé" est vraiment malin. Car dans le terminal, l'outil affiche de jolies tables colorées mais dès que vous le "pipez" vers jq ou un script, il bascule en JSON automatiquement. Du coup, intégrer ça dans un pipeline shell ou un cron... c'est aucun parsing à faire. Voilà quoi.
Après des CLI pour Notion, y'en a déjà quelques-uns. Sauf que la plupart sont soit limités aux tâches (comme
notion-cli-go
qui gère surtout le côté todo), soit cantonnés à l'export (et souvent liés à un OS ou un langage précis).
Celui de 4ier, c'est donc le premier à couvrir l'API en entier : pages, bases, blocs, commentaires, fichiers, utilisateurs, et même un accès REST brut via notion api GET /v1/endpoint. En gros, c'est le gh de GitHub, mais pour Notion (et pour une fois, c'est pas juste du blabla marketing ^^).
Les cas d'usage qui tuent c'est par exemple un script cron qui crée une entrée hebdo avec notion page create <db-id> --db "Name=Weekly" "Status=Todo". Un backup qui exporte vos pages critiques en Markdown toutes les nuits. Ou un CI/CD qui met à jour un changelog Notion à chaque deploy. Quelques lignes de bash et c'est réglé, car l'outil gère tout le reste ! C'est hyper rare un CLI qui couvre autant de terrain.
Y'a aussi le côté agent-friendly pour ceux qui kiffent l'IA. L'outil retourne des codes de sortie propres, du JSON exploitable, et s'installe comme skill agent via npx skills add 4ier/notion-cli. Dans la lignée de
Gemini CLI
, on voit de plus en plus d'outils pensés terminal-first... et je trouve que c'est carrément bien.
Après comme souvent quand je vous présente des outils, le projet est tout frais (v0.3.0, licence MIT), avec une petite communauté donc attention, car comme tout ce qui dépend d'une API tierce, si Notion bouge ses endpoints... voilà quoi. Mais c'est propre, c'est testé, et ça tourne déjà très bien.
Gobliiins, Gobliins 2, Goblins 3... si vous avez connu les point-and-click de Coktel Vision dans les années 90, vous allez kiffer !! Pourquoi ? Hé bien parce que Pierre Gilhodes, le créateur original, vient de lâcher GOBLiiNS6 sur itch.io pour une dizaine de dollars.
On y retrouve Fingus et Winkle, les deux héros de Gobliins 2, partis cette fois à la recherche du Prince Bouffon, fils du roi Angoulafre, dans un monde médiéval en guerre, avec de la magie, et des puzzles complètement tordus à résoudre.
Mais avant, un petit rappel pour les bébés qui me lisent. En fait dans la série des Goblins, le nombre de "i" dans le titre correspond au nombre de personnages jouables. Gobliiins = 3 persos. Gobliins 2 = 2 persos. Goblins 3 = 1 perso. Du coup GOBLiiNS6 avec ses 2 i, c'est donc encore un duo à coordonner intelligemment pour progresser (et oui, je sais compter ^^).
Et c'est pas un fan game ou un énième remake fait à l'arrache, puisque c'est Pierre Gilhodes lui-même qui est aux manettes. Le bonhomme avait déjà sorti
GOBLiiiNS5
sur Steam en 2023 (avec 3 i, donc 3 personnages, z'avez capté ??). GOBLiiNS6 c'est donc finalement la suite directe.
Le jeu propose 16 niveaux en 2D au format 16/9, bourrés d'énigmes à résoudre. Chaque personnage gère son propre inventaire, pas de partage entre les deux (Vous allez tellement galérer à vous souvenir qui trimballe quoi ^^) et le système de jeu repose sur la coopération entre les deux compères, car chacun a des capacités différentes pour débloquer les situations.
Le piège et le côté fun de cette série de jeux, c'est donc justement de tester toutes les combinaisons possibles entre les personnages et les objets. Vous utilisez le mauvais perso au mauvais endroit ? Hop, animation comique et retour à la case départ. C'est voulu ! C'est absurde, c'est drôle, et c'est tout l'ADN de la franchise !
C'est un point-and-click qui va certainement vous rappeller l'époque où les jeux d'aventure français tenaient la dragée haute aux LucasArts et Sierra de l'époque. Coktel Vision, c'était quand même Woodruff, Lost in Time, Ween... etc. Quelle époque !!
GOBLiiNS6 est disponible en français et en anglais et vous pourrez le lancer au choix en plein écran ou fenêtré... car oui c'est du Windows pur !! Pas de Mac ni de console pour le moment. Voici une petite vidéo si vous voulez voir à quoi ça ressemble :
Le jeu est dispo ici sur
itch.io
pour une dizaine de dollars. Vous cliquez, vous payez, et c'est plié ! De quoi occuper vos soirées au lieu de scroller sur Mastodon ou Bsky à la recherche de votre prochain drama préféré.
Si vous êtes comme moi et que vous vivez dans Apple Notes parce que c'est fluide, synchronisé partout, et que ça marche sans qu'on ait à se poser de questions, cet outil va vous plaire.
Parce que oui, voilà, le jour où vous voulez bidouiller vos notes en ligne de commande, les exporter en Markdown, ou simplement éviter de vous retrouver coincé dans votre prison dorée Apple... Et bien c'est la galère. J'ai longtemps cherché une solution propre. Je me suis même dit à un moment que j'allais coder un script Python foireux pour scrapper la base SQLite locale, mais j'ai vite abandonné l'idée.
Pourquoi ? Parce que j'ai découvert
Stash
, un petit outil en ligne de commande qui fait le pont entre vos notes Apple et des fichiers Markdown.
Et le truc cool, c'est que ça marche dans les deux sens. Vous pouvez exporter vos notes Apple en Markdown (comme ici :
Exporter pour vos backups
), mais aussi éditer vos fichiers Markdown et renvoyer les changements directement dans Apple Notes. C'est une vrai synchro bidirectionnelle qui vous rend vraiment maître de vos données.
J'ai testé ça sur macOS Tahoe avec un dossier de notes en vrac. J'ai lancé le bousin, et ça m'a fait plaisir de voir mes fichiers .md popper proprement dans le terminal, prêts à être commités ensuite sur un GitHub ou édités dans VS Code.
Et là, magie !! Vos modifs se retrouvent dans l'app Notes, synchronisées sur tous vos appareils Apple (iPhone, iPad, Mac). C'est dommage que ça soit pas natif ce truc.
Stash c'est chouette (Oula pas facile à prononcer vite celle là) parce qu'il utilise du YAML front-matter pour lier chaque fichier Markdown à une note Apple spécifique (via un ID unique). Quand vous faites stash push, le contenu du fichier écrase la note. Quand vous faites stash pull, la note écrase le fichier.
Attention toutefois car c'est là que ça se corse... Stash écrase sans pitié !! Si vous modifiez votre note sur l'iPhone ET votre fichier Markdown en même temps, c'est le dernier qui parle qui a raison. Y'a pas de fusion intelligente à la Git, donc gaffe aux conflits. C'est un peu brut de décoffrage, mais au moins c'est clair et prévisible.
Bref, pour ceux qui veulent scripter leurs notes, automatiser des backups, ou simplement bosser en Markdown avec leur éditeur préféré, c'est le chaînon manquant. J'avais testé Obsidian et Joplin par le passé, mais la synchro iCloud ou WebDAV m'avait saoulé. Là, c'est le bon compromis avec l'interface Apple pour la saisie, le Markdown pour le stockage long terme.
Vous avez un logiciel qui cause un peu trop avec Internet alors qu'il n'a rien à y faire ? Ou un petit utilitaire qui balance de la télémétrie dans votre dos sans vous demander votre avis ? Ou peut-être juste une application que vous voulez forcer en mode hors-ligne sans pour autant couper tout votre réseau ?
C'est LA situation classique où pour leur couper la chique, on finit par se battre avec les menus obscurs du pare-feu Windows. Sauf que maintenant, y'a un petit outil CLI qui fait exactement ça en une seconde : ProcNetBlocker.
C'est un utilitaire Windows en ligne de commande qui permet de bloquer l'accès réseau de n'importe quel processus comme ça pas besoin de créer des règles à rallonge. Vous tapez une commande, et hop, le processus est instantanément coupé du monde extérieur. C'est idéal pour blinder sa
vie privée face au tracking
incessant de certains éditeurs.
L'outil est super flexible puisqu'il propose deux approches. La première, c'est de cibler un processus par son PID (l'identifiant de processus). C'est parfait pour agir dans l'urgence sur un truc qui tourne déjà. La seconde, c'est de bloquer par le chemin de l'exécutable. Là, c'est plus radical puisque l'outil crée une règle persistante qui s'appliquera à chaque fois que vous lancerez cette application précise.
Le truc est portable (un petit ZIP de 7,5 Mo), et faut juste avoir les droits administrateur (logique, puisqu'on touche au pare-feu) et s'assurer que le service du pare-feu Windows est bien en cours d'exécution. Si vous utilisez déjà des solutions comme
CrowdSec
pour sécuriser vos serveurs, ProcNetBlocker sera un excellent complément pour vos postes de travail.
Une fois le ZIP récupéré sur le site d'AutoClose, voici les commandes magiques à connaître :
1. Bloquer un processus par son PID
Si vous connaissez l'ID du processus (via le gestionnaire des tâches ou un petit tasklist) :
Le projet supporte Windows 7, 8, 10 et 11 (ainsi que les versions Server en 64 bits) et c'est un must-have pour ceux qui aiment garder le contrôle sur ce qui sort de leur ordi !
Vous en avez marre de payer des licences pour des apps de nettoyage macOS qui font grosso modo la même chose ? CleanMyMac, AppCleaner, DaisyDisk, Sensei, iStat Menus... C'est pas les options qui manquent, mais le portefeuille finit par tirer la gueule, du coup, quand je suis tombé sur Mole, je me suis dit que j'allais vous en parler.
Mole
c'est un outil en ligne de commande (donc ça fait peuuuuur, ahaha mais c'est cool vous allez voir) qui regroupe toutes ces fonctionnalités dans un seul binaire. C'est open source, sous licence MIT, et ça pèse que dalle et en gros, l'idée c'est de taper la commande "mo" suivi d'un paramètre et hop, ça fait le taf.
mo # Interactive menu
mo clean # Deep cleanup
mo uninstall # Remove apps + leftovers
mo optimize # Refresh caches & services
mo analyze # Visual disk explorer
mo status # Live system health dashboard
mo purge # Clean project build artifacts
mo touchid # Configure Touch ID for sudo
mo update # Update Mole
mo remove # Remove Mole from system
mo --help # Show help
mo --version # Show installed version
mo clean --dry-run # Preview cleanup plan
mo clean --whitelist # Adjust protected caches
mo uninstall --force-rescan # Rescan apps and refresh cache
mo optimize --whitelist # Adjust protected optimization items
Par exemple, pour le nettoyage en profondeur, c'est mo clean. L'outil va scanner vos caches système, les logs, les données des navigateurs, et tout le bordel qui s'accumule avec le temps. Dans les exemples donnés par le développeur, il parle de récupérer jusqu'à 95 Go d'espace disque. Évidemment ça dépend de votre usage, mais ça donne une idée du potentiel.
Pour désinstaller proprement une app, mo uninstall fera le job. Et contrairement à la méthode du glisser-déposer dans la corbeille qui laisse traîner des fichiers de préférences partout, Mole traque tous les fichiers associés à l'application et les vire ensemble, comme ce que fait AppCleaner...
Côté monitoring système, mo status vous affiche un dashboard temps réel avec CPU, RAM, réseau, et métriques de santé. Un peu comme iStat Menus mais directement dans votre terminal. Et avec mo analyze, vous avez un explorateur visuel de l'espace disque avec des barres de progression ASCII. Très DaisyDisk vibes. Et mo analyze c'est pareil mais pour l'espace disque...
La commande mo optimize va rafraîchir les caches système et relancer certains services pour remettre de l'ordre. Et pour les devs, mo purge est une tuerie : ça nettoie les dossiers de build de vos projets (node_modules, target, build...) qui peuvent facilement bouffer des dizaines de gigas si vous bossez sur plusieurs projets.
Petit bonus sympa, mo touchid permet de configurer Touch ID avec sudo, ce qui vous évitera de taper votre mot de passe admin 15 fois par jour.
Voilà... Maintenant si ça vous chauffe, l'installation se fait soit via Homebrew avec brew install tw93/tap/mole, soit via curl directement. Le projet est écrit en Shell et Go, ce qui explique qu'il soit aussi léger et rapide. Seul bémol relevé par le développeur, évitez
iTerm2
qui a des soucis de compatibilité.
Alacritty
,
Kitty
, WezTerm ou
Ghostty
par contre fonctionnent nickel.
L'outil supporte aussi les options classiques genre --dry-run pour prévisualiser les changements sans rien supprimer, --whitelist pour protéger certains éléments, et --debug pour les curieux et la navigation se fait avec les flèches ou en mode Vim (hjkl) pour les puristes.
Bref, si vous êtes à l'aise avec le terminal et que vous en avez marre de multiplier les apps payantes pour faire des trucs basiques, Mole mérite un petit test !
Vous aussi vous avez ce truc où vous devez juste faire un petit SELECT rapide sur votre base de données, et là vous lancez un monstre du genre SQL Server Management Studio ou DBeaver, vous attendez que ça se charge pendant 47 ans, que ça bouffe les 2 Go de RAM qu'il vous reste, et tout ça pour une requête de 3 lignes ?
Moi ça m'énerve profondément, j'avoue... Pas le temps, pas la patience !
Heureusement, y'a un dev qui en a eu encore plus marre que moi et qui a pondu sqlit. C'est une interface TUI (Terminal User Interface, je précise...) qui tourne direct dans votre terminal et qui supporte un paquet de bases de données différentes telles que PostgreSQL, MySQL, SQL Server, SQLite, MariaDB, Oracle, DuckDB, CockroachDB, Supabase, Turso... La liste est longue mais en gros, si ça parle SQL, sqlit sait s'y connecter.
Le truc est inspiré de
lazygit
, un client Git en TUI que beaucoup de devs adorent, ce qui fait qu'on retrouve cette approche "lazy" où l'interface se suffit à elle-même. Comme ça y'a pas besoin de mémoriser 150 raccourcis clavier, puidqu'il y a une aide contextuelle qui s'affiche et qui vous dit quoi faire, comme votre maman quand vous ne l'avez absolument pas sollicitée.
On a donc de l'autocomplétion SQL qui va chercher les noms de tables et de colonnes, un historique des requêtes par connexion (pratique pour retrouver cette requête chelou qu'on avait bidouillée y'a 3 semaines), et même la gestion des tunnels SSH intégrée pour se connecter à des bases distantes. Les utilisateurs de Vim seront contents aussi, car y'a un mode d'édition modal pour naviguer comme dans votre éditeur préféré.
Pour l'installer, c'est hyper simple :
pip install sqlit-tui
Et après vous tapez sqlit dans votre terminal et c'est parti. Les drivers pour chaque type de base de données s'installent à la demande la première fois que vous essayez de vous connecter. Donc pas de dépendances inutiles qui traînent si vous utilisez juste PostgreSQL par exemple.
Y'a aussi un mode CLI si vous voulez scripter vos requêtes :
Le seul truc naze je trouve, c'est le nom "sqlit" qui ressemble trop à SQLite. Bon courage pour googler des infos dessus... Je sais de quoi je parle, toutes les 2 semaines, y'a une entreprise Korben qui pop en voulant surfer sur mon buzz (ouais j'ai le melon, mdr) et qui passe toutes ses levées de fonds en adwords pour se positionner avant moi sur Google ^^. C'est couillon ^^.
Bref, si vous vivez dans le terminal et que vous en avez marre de lancer des client lourds juste pour un SELECT, c'est vraiment pratique.
Vous avez déjà vu quelqu’un polluer le ciel avec +10 000 satellites puis proposer d’en lancer des millions de plus pour sauver la planète ?
Bienvenue dans l’univers mental dérangé d’Elon Musk, où la solution à la pollution, c’est toujours plus de pollution… mais en mieux, évidemment !
Le 3 novembre dernier, Musk a balancé sur son réseau social de fachos, une idée qui ressemble à du Rick et Morty dans le texte : “Une large constellation de satellites alimentés à l’énergie solaire et dotés d’une IA serait capable d’endiguer le réchauffement climatique en ajustant légèrement la quantité d’énergie solaire atteignant la Terre”.
Hein ?
C’est une propal qui couterait des trillons de dollars, soit environ 200 ans de budget de la NASA et je vous rappelle quand même que c’est le même gars qui dirigeait le “Department of Government Efficiency” (DOGE) dont la mission était de traquer le moindre dollar de dépense publique inutile. Lol.
En plus, les satellites Starlink actuels posent déjà d’importants problèmes, en perturbant notamment les observations astronomiques. La V2 de ses satellites émet quand même
32 fois plus de radiations électromagnétiques
que la V1, ce qui fout en l’air pas mal de radio-telescopes.
Et maintenant, son plan ce serait d’en ajouter des millions de plus ? Autant éteindre un incendie avec de l’essence.
Et puis est-ce que techniquement, ça fonctionnerait ?
Hé bien pour réduire le réchauffement climatique de manière significative, il faudrait bloquer environ 1 à 2% du rayonnement solaire qui atteint la Terre. Ça représente une surface de plusieurs millions de km² en orbite, positionnée au point de Lagrange L1 (à environ 2,36 millions de km de la Terre). Pour vous donner un point de comparaison, l’ensemble des satellites Starlink actuels ont une surface totale vraiment ridicule par rapport à ce qui serait nécessaire pour ce projet.
Et le temps de développement estimé par les spécialistes pour un tel projet serait d’environ 25 ans. En gros, 25 ans durant lesquels on pourrait continuer à cramer du charbon et du pétrole en se disant “c’est bon, on est sauvé, le bouclier spatial arrive”. J’ai comme un arrière-goût de Don’t Look Up dans la bouche…
Et puis il y a surtout ce problème du “termination shock”. Si le système tombe en panne, est saboté pendant une guerre, ou simplement arrêté pour maintenance, ça provoquerait une augmentation brutale et catastrophique des températures. Bref, on aurait créé une dépendance dont on ne pourrait plus se passer sans catastrophe majeure. C’est l’arme climatique parfaite déguisée en solution environnementale. Hé oui, le climat, ça ne marche pas vraiment comme un thermostat…
Et au fait, qui contrôlerait ce thermostat planétaire ?
Musk ? SpaceX ? Le gouvernement américain ? L’ONU ? Ils nous feraient payer combien pour avoir un peu plus de luminosité sur nos tomates ? Et si bloquer le soleil pour refroidir l’Europe provoque une sécheresse en Afrique, on fait quoi ?
On vote ? lol
Bah non… Car pour le moment, il n’existe aucun cadre légal international pour gérer ça. L’
Union of Concerned Scientists
s’oppose même officiellement au déploiement de la géo-ingénierie solaire parce que ça pose des risques environnementaux, sociaux et géopolitiques inacceptables. L’agence environnementale allemande dit carrément que c’est “hautement risqué et ne représente pas une solution praticable à la crise climatique”.
Mais le pire, c’est que cette idée ne résout rien au problème de fond. Le CO2 continuera de s’accumuler dans l’atmosphère et l’acidification des océans continuera. Ce serait juste un pansement spatial sur un cancer planétaire.
Quand je pense que pour une fraction du coût de cette constellation de satellites, on pourrait décarboner complètement l’économie mondiale avec du renouvelable, du nucléaire, masse d’isolation des bâtiments…etc. En vrai, on a déjà des tas de solutions qui fonctionnent et qui sont moins chers, mais, bon, on préfère croire en des milliardaires qui se prennent pour des Dieux.
Voilà, une encore une belle idée de merde d’Elon Musk !
Ça buzze, et certains pourraient croire que c’est sérieux. Sauf que ça ne l’est pas. C’est techniquement délirant, économiquement absurde, écologiquement risqué, et politiquement ingérable !
Quand je bossais comme consultant y’a genre 10 000 ans, je devais tracker le temps que je passais pour chaque client dans un fichier Excel. Et ça mes amis, c’était super chiant mais nécessaire. Après peut-être que vous de votre côté, vous n’êtes pas tropfliqué mais vous vous imposez l’envoi de messages Slack stratégiques juste avant de vous déconnecter, ou vous faites partir des emails à 23h pour montrer que vous êtes un esclave acharné du capitalisme ?
Bienvenue dans l’ère du grand théâtre de la productivité.
Après quand on est freelance ou qu’on essayer de bien équilibrer son temps de travail, c’est sympa aussi de pouvoir tracker ce qu’on fait en temps réel, pour nous-même, sans forcement que personne d’autre ne regarde.
Hé bien c’est exactement ce que propose
Neura Hustle Tracker
qui est un tracker de temps open-source, écrit en Rust, qui tourne dans votre terminal et stocke TOUT en local sur votre machine dans un PostgreSQL. Comme ça, aucune donnée ne quitte votre ordinateur.
L’idée, c’est donc de reprendre le pouvoir sur vos propres données de productivité en enregistrant automatiquement les applications que vous utilisez, le temps passé sur chacune, et afficher ça sous la forme de graphiques directement dans votre terminal.
Comme ça vous verrez le temps pharamineux que vous passez sur Korben.info ou Slack au lieu de vraiment bosser. Pour l’installer, ça marche sous Windows, macOS et Linux et ça peut tourner dans un Docker.
La doc est ici.
Vous pouvez même le lancer au démarrage de l’ordi, comme ça, le tracking démarre instantanément dès que vous commencez à bosser. Par contre, n’oubliez pas de le couper quand vous voulez faire un truc en dehors des radars hein ^^.
Le projet est encore jeune, mais il évolue rapidement. Adolfo, le développeur principal, a d’ailleurs récemment ajouté des commandes pour naviguer dans l’historique complet (touches h pour history et b pour breakdown) et améliore régulièrement la qualité des visualisations.
Voilà, donc si vous en avez marre que votre productivité soit transformée en KPI pour votre manager, et que vous voulez juste comprendre comment vous passez vraiment votre temps sans avoir à rendre de comptes à personne, Neura Hustle Tracker mérite le coup d’oeil. C’est gratuit, et c’est open-source !
Vous savez ce moment où vous regardez votre historique Git et vous vous demandez qui est le débile qui a écrit ce code dégueulasse ?
Ah bah ouais, c’était vous il y a 3 mois ^^. Eh bien
GitType
a trouvé la meilleure des thérapies qui est de vous faire retaper tout ça, lettre par lettre, comme une punition de primaire version développeur, totalement gamifiée avec des points, un chrono, et la possibilité de mesurer à quel point vos doigts sont devenus flasques depuis que Copilot fait tout le boulot à votre place.
Le tagline du projet, c’est “Show your AI who’s boss: just you, your keyboard, and your coding sins”. Et c’est pas une blague, c’est un manifeste car pendant que Copilot, ChatGPT, Claude Code et compagnie écrivent du code à notre place, GitType vous fait faire exactement l’inverse… il vous force à retaper du code pour redevenir bon !
Et contrairement aux tests de frappes classiques comme
Ttyper
ou
tt
qui vous font taper du texte générique, GitType utilise du VRAI code source. Votre code, celui de vos repos préférés, ou des repos trending de GitHub. Comme ça, vous ne vous entraînez pas sur du “the quick brown fox jumps over the lazy dog” à la con, mais sur vos propres merdes spaghettico-syntaxiques en Rust, TypeScript, Python ou Go.
Le jeu vous propose plusieurs modes. Y’a le mode Normal pour vous échauffer tranquillement, le Time Attack quand vous voulez vous mettre la pression, et des niveaux de difficulté de Easy à Zen pour ceux qui veulent méditer en tapant du code. Le tout avec un tracking en temps réel de votre WPM (words per minute) et de votre précision. Comme ça, plus vous progressez, plus vous montez dans le ranking avec des titres de développeur qui évoluent.
GitType supporte plus de 15 langages de programmation et propose plus de 15 thèmes visuels en mode Dark ou Light, avec possibilité de personnaliser le vôtre. L’installation est simple…
Ou via Brew, ou avec un téléchargement direct de binaires. Ça prend 30 secondes chrono. Autre truc sympa aussi, vous pouvez cloner n’importe quel repo GitHub directement depuis le jeu pour vous entraîner dessus.
Comme ça, vous pourrez réaliser votre fantasme le plus humide, à savoir retaper le code de Linus Torvalds !
Cet outil va comme ça l’air de rien vous réapprendre à taper du code vous même, parce que faut bien le reconnaitre, depuis que tout le monde s’est mis au vibe coding, c’est difficile de dire à nos doigts et nos cerveaux de s’y remettre. Avec GitType, vos doigts retrouvent leurs réflexes, vous mémorisez mieux la syntaxe, vous devenez plus rapide au clavier, votre haleine redevient fraiche et vous chopez enfin des matchs sur Tinder, c’est SÛR !!
Ce projet est dispo en
open-source sous licence MIT
et franchement, vu comment nos IA nous assistent de partout, c’est pas plus mal de garder un peu de muscle mémoire au cas où…
Vous avez un site WordPress et vous voulez ajouter de l’IA dedans ?
Alors pour faire ça, vous installez un super plugin qui utilise ChatGPT. Parfait ! Sauf que 2 mois après, vous découvrez l’existence d’un nouvelle version de Claude qui est bien meilleure. Ou Gemini sort une fonctionnalité que vous voulez absolument..
Mais bon, votre plugin est marié avec OpenAI, et impossible de divorcer. Du coup, vous êtes coincé. Bienvenue dans le grand bordel de l’IA, où chaque outil parle sa propre langue et refuse de discuter avec les autres.
Heureusement, WordPress vient de sortir un truc qui pourrait bien changer tout ça. En gros, ils ont créé trois outils qui fonctionnent ensemble pour transformer WordPress en “traducteur universel” pour les IA. Ça s’appelle l’Abilities API, le PHP AI Client SDK, et le support du MCP (Model Context Protocol).
D’après
l’annonce officielle sur Make WordPress
, l’idée c’est donc de créer un registre central où toutes les capacités de WordPress sont décrites de manière lisible par les machines.
Jonathan Bossenger explique
que l’Abilities API ne se limite pas à découvrir les capacités du site, mais gère aussi les permissions et l’exécution de manière sécurisée. Votre site peut dire à une IA “Voilà ce que je sais faire, voilà ce que tu peux toucher, et voilà comment tu exécutes ça”.
//N'importe quel plugin peut enregistrer ses capacités avec le hook `init`.
wp_register_ability( 'my-seo-plugin/analyze-content-seo', [
'label' => __( 'AnalyserleSEOducontenu', 'my-seo-plugin' ),
'description' => __( 'Analyselecontenudel\'article pour améliorer le SEO.','my-seo-plugin'),'thinking_message'=>__('Analyse de votre contenu en cours !','my-seo-plugin'),'success_message'=>__('Contenu analysé avec succès.','my-seo-plugin'),'execute_callback'=>['MySEOPlugin','analyze_content'],'input_schema'=>['type'=>'object','properties'=>['post_id'=>['type'=>'integer','description'=>__('L\'identifiantdel\'article.','my-seo-plugin'),'required'=>true],],'additional_properties'=>false,],'output_schema'=>['type'=>'number','description'=>__('Le score du contenu en pourcentage.','my-seo-plugin'),'required'=>true,],'permission_callback'=>'edit_posts',]);
Le truc marrant, c’est que WordPress a la réputation d’être la technologie “has-been” du web. Les hipsters du dev vous disent que c’est un dinosaure, qu’il faut passer à Next.js ou je ne sais quoi, et pourtant, c’est ce dino qui devient le premier CMS à adopter le MCP, qui est quand même un standard ultra-récent. Si vous n’avez jamais entendu parlé de MCP, c’est développé par Anthropic et ça permet de standardiser la façon dont les IA communiquent avec les outils externes.
WordPress a intégré le MCP en quelques mois et je vous explique rapidmeent comment ça marche, parce que c’est pas si compliqué.
Le PHP AI Client SDK v0.1.0
est en fait une interface unifiée pour parler à n’importe quelle IA. Vous écrivez votre code une fois, et ça fonctionne avec OpenAI, Claude, Gemini, ou même un modèle local que vous faites tourner chez vous. Ce SDK se charge donc de traduire vos requêtes dans le langage de chaque provider.
C’est donc surtout un truc pour les développeurs, les agences, les gens qui codent des plugins et des thèmes custom. Et si vous êtes un utilisateur lambda de Wordpress (qui ne code pas dans cet écosystème), sachez quand même que les plugins et thèmes que vous utiliserez demain seront construits là-dessus.
Donc indirectement, ça va influencer votre expérience car vous aurez des plugins qui vous laisseront choisir votre fournisseur de LLM IA dans les réglages. Par exemple, un plugin de rédaction pourra utiliser Claude pour le style, GPT-4 pour la structure, et Gemini pour la recherche d’images, tout en même temps si vous le souhaitez… Ce sera un peu comme le Bluetooth ou l’électricité : vous ne savez pas vraiment comment ça marche, mais vous l’utiliserez tous les jours sans y penser.
Ce SDK est déjà disponible via Composer
pour les devs qui veulent tester et WordPress 6.9 intégrera l’Abilities API directement dans son core. Après ça, on devrait donc voir une explosion de plugins qui utiliseront plusieurs IA simultanément.
Après si vous n’utilisez pas Wordpress, rassurez-vous, c’est pas juste une feature de chez eux… C’est un standard qui pourra être adopté également par d’autres CMS. Un peu comme RSS à l’époque qui a commencé dans un coin, puis que tout le monde a adopté parce que c’était ouvert et pratique. Et bien là, c’est pareil, l’Abilities API et le MCP sont open source donc n’importe qui peut les implémenter dans ses outils.
A voir maintenant comment les projets concurrents vont réagir… Wix va-t-il continuer à pousser son intégration exclusive avec ChatGPT ? Shopify va-t-il ouvrir son API IA ? Ou est-ce qu’ils vont tous regarder WordPress prendre une longueur d’avance et se dire “Merde, on a peut-être loupé un truc” ?
Bref, moi je trouve ça cool car WordPress aurait pu faire comme les autres, c’est à dire un beau partenariat exclusif avec OpenAI, un joli chèque, et enfermer 43% du web dans un écosystème propriétaire… Mais au lieu de ça, ils ont créé un standard ouvert et gratuit comme ça, c’est la communauté qui décide.
Et ça c’est beau ! Donc si vous êtes dev et que vous voulez tester,
le repo GitHub du PHP AI Client
est dispo ici avec toute la doc. Et si vous êtes juste utilisateur curieux, gardez un œil sur les plugins qui sortiront après WordPress 6.9 car ça va devenir intéressant…