Vue normale

Il y a de nouveaux articles disponibles, cliquez pour rafraîchir la page.
À partir d’avant-hierFlux principal

This Does Not Compute Turns Tiny Mac Clock Into Working Raspberry Pi Macintosh

Par : Gaurav Sood
18 février 2026 à 16:20

If you appreciate retro computing and DIY electronics, a new project from This Does Not Compute (YouTube channel) will be the best thing you will see today. The build emulates the 1984 Apple Macintosh, but in a miniaturized version. Not the smallest, but decently small to sit in the corner of your desk and do more than its intended function of a clock.

If that sounds puzzling, here’s a clearer explanation. The modder has actually taken a Maclock, which is a clock that looks identical to the original Mac, but of course considerably smaller, and ripped it open. He replaced the original alarm clock mechanics with a Raspberry Pi, turning it into a homage to the classic Apple computer.

Designer: This Does Not Compute

The project, as the modder himself states, “is just for fun” and doesn’t really reach out to prove anything other than love to toil with anything Mac. With the innards of the clock replaced by Raspberry Pi Zero 2 W, the original display of the clock is also swapped with a 640×480 2.8-in color screen from Wave Share, and the project is interestingly called Wondermac. The name is in reference to Wonder Boy, the Chinese company that makes Maclock.

The modder, as you can see in detail in the video above, starts by cracking open the Maclock case, which has screws, but they are only used to mimic the Macintosh and have no significant usage. Opening the case was “probably the hardest part of the whole project,” he says. The case is clipped together pretty tightly, but he was able to separate the front bezel from the back using a wide metal pry tool. Once the front panel was free, he unplugged the wiring harness and pulled out the main circuit board and the screen to clear up the space inside the Maclock body, which will now have new guts and a new purpose.

“Compact, low power, and relatively inexpensive,” Raspberry Pi Zero 2 W was a clear choice for the Mac’s innards, the modder affirms. It comes with a pin header presoldered and includes a heatsink, which would be a nifty addition to keep this tiny computer cool when it does some computing. The Pi is now connected to the externally purchased screen, and the modder gets down to launching the Raspberry Pi imager app and installing Minivvac on an SD card for the software side of the project.

For powering the Wondermac, the modder doesn’t rely on the Maclock’s built-in battery; instead, they take advantage of the USB-C port on the back housing for power. After some tweaking to power output, some wire soldering, and sticking, he was able to get the power going as required to run the screen. Finally, he designed a 3D printed bracket with black filament to fit the screen in place, and then everything was assembled back into shape. Content with the outcome, he leaves the little Mac on the desk with the Afterdark screen saver.

The post This Does Not Compute Turns Tiny Mac Clock Into Working Raspberry Pi Macintosh first appeared on Yanko Design.

VoxDrop - La dictée vocale ultra-rapide qui tourne en local sur Mac

Par : Korben
9 février 2026 à 07:00

La dictée vocale, y'a plein d'outils pour ça. Sauf que la plupart envoient votre voix dans le cloud pour la transcrire, et surtout... c'est lent. Chez Google, chez OpenAI, chez Apple... entre le moment où vous parlez et celui où le texte s'affiche, y'a toujours cette latence qui casse tout. Et ça fait des mois que ça me gonflait, surtout en bossant sur mon Mac Studio M4 et mon MacBook Air M2 qui sont quand même censés être des bêtes de course.

Du coup je me suis codé VoxDrop au départ rien que pour moi. Une app macOS qui transforme votre voix en texte, et avec laquelle TOUT se passe en local sur votre machine. Zéro cloud, zéro donnée qui fuite, et surtout c'est rapide. Vous appuyez sur un raccourci (⌥ + Espace par défaut), vous parlez, vous relâchez, et hop, le texte apparaît directement là où se trouve votre curseur. Pas de fenêtre à ouvrir, pas de copier-coller. L'app est super légère et reste discrète en tâche de fond sans bouffer votre RAM.

L'interface de VoxDrop - sobre et efficace ( Source )

Côté moteurs de transcription, y'en a 7 au choix. J'ai voulu ratisser large en mettant des modèles américains, français et chinois. Parakeet de NVIDIA (600 Mo) est le modèle par défaut. Il est super rapide, c'est mon préféré. J'ai mis aussi Whisper avec ses variantes Small, Medium, Turbo et Large v3 qui couvre tous les cas. Y'a aussi Voxtral Mini de chez Mistral, made in France, et Qwen3-ASR le modèle chinois.

Les 7 moteurs de transcription au choix ( Source )

Alors pourquoi sur architecture Silicon ? Hé bien déjà parce que c'est ce que j'utilise au quotidien et aussi parce que les puces Apple Silicon (M1, M2, M3, M4) ont un avantage énorme pour l'IA locale : la mémoire unifiée. En gros, le CPU et le GPU partagent la même RAM. Un modèle chargé en mémoire est donc directement accessible au GPU Metal pour les calculs, sans copie de données. C'est pas magique non plus hein, si votre modèle fait 3 Go et que vous avez 8 Go de RAM, ça va ramer. Mais sur un MacBook Air M2, un modèle de 400 Mo tourne en temps réel sans broncher.

Et VoxDrop ne fait pas QUE de la transcription. Y'a aussi du post-traitement local avec une traduction dans 13 langues mais aussi une reformulation (mode pro, décontracté, concis, structuré...), le tout via le modèle de langage embarqué GemmaTranslate. Et vous avez 5 raccourcis clavier indépendants, chacun avec sa propre config. Un pour dicter, un pour traduire en direct, un pour reformuler ce que vous avez sélectionné...etc. Perso, au quotidien, ceux qui l'utilisent ne peuvent s'en passer. Et moi non plus ! Sauf si vous tapez plus vite que vous ne parlez, mais bon, ça m'étonnerait ^^.

Maintenant, pourquoi c'est pas sur l'App Store ?

Parce que VoxDrop est réservé à mes abonnés Patreon . Vous me soutenez pour la veille techno et la vulgarisation, et en retour j'ai envie de vous filer des outils concrets que j'utilise moi-même tous les jours. Pas de commission, pas d'intermédiaire. Juste un truc développé pour les gens qui me suivent.

J'espère d'ailleurs que ce sera la première d'une série d'apps comme ça. En tout cas, je ne crois pas avoir vu ce modèle de licence ailleurs. J'ai même développé un petit framework exprès pour ça, que je compte bien réutiliser.

Voilà, un GROS merci à tous ceux qui ont bêta-testé l'app pour moi, vos retours ont été très précieux !

Et si vous êtes déjà sur Patreon , VoxDrop est dispo ici !

WeekInPapers - Pour suivre la recherche en informatique sans se noyer

Par : Korben
7 février 2026 à 09:07

Vous avez déjà essayé de suivre ce qui se passe dans la recherche en informatique ? Moi oui, et c'est l'enfer. Chaque semaine, des centaines de nouveaux papiers débarquent sur arXiv . Et entre le machine learning, la vision par ordinateur, la crypto, le NLP et tout le reste, y'a de quoi perdre la tête. Et puis bon, lire des abstracts de 500 mots bourrés de jargon technique, c'est pas vraiment ce qu'on fait pour se détendre le dimanche...

Du coup ça tombe bien puisque WeekInPapers tente de résoudre ce problème. Le concept est simple : chaque semaine, le site liste tous les papiers publiés sur arXiv dans le domaine de l'informatique, avec des résumés générés par IA et un glossaire des termes techniques. L'idée, c'est de rendre la recherche accessible aux gens comme moi qui n'ont pas un doctorat en deep learning.

Le site couvre une trentaine de catégories différentes : Machine learning, vision par ordinateur, intelligence artificielle, traitement du langage naturel, robotique, cryptographie, architecture hardware, graphisme, interaction homme-machine... Bref, à peu près tous les domaines de l'informatique.

Cette semaine par exemple, y'avait plus de 300 papiers listés. Rien que ça...

L'interface est plutôt bien foutue puisque vous avez une sidebar avec des filtres pour sélectionner les catégories qui vous intéressent. Et chaque papier apparaît sous forme de tuile cliquable avec le titre, la date, les tags de catégorie et l'identifiant arXiv. Vous survolez une tuile et hop, l'abstract s'affiche. Et si vous cliquez, vous avez les détails complets.

Ce qui est cool, c'est que les papiers sont souvent taggés dans plusieurs domaines. Du coup, un article sur les réseaux de neurones pour la génération vidéo apparaîtra à la fois dans machine learning et dans vision par ordinateur. C'est chouette pour ne pas louper des trucs qui chevauchent plusieurs disciplines.

Ce projet a été créé par Matthew Oxley et moi, ce que je préfère, ce sont les résumés générés par un LLM qui permettent d'avoir une idée rapide de ce que raconte un papier sans se taper 15 pages de formules mathématiques. Après, si un truc vous intéresse vraiment, rien ne vous empêche d'aller lire le papier original, évidemment.

Voilà, pour les chercheurs, les étudiants ou juste les curieux qui veulent rester au courant des dernières avancées, c'est une ressource plutôt pratique. En tout cas, plus pratique que de faire du doom-scrolling sur X en espérant tomber sur un thread intéressant.

NotchPrompter – Un prompteur de texte qui se loge dans l’encoche de votre Mac

Par : Korben
1 février 2026 à 09:58

Vous faites des vidéos face caméra pour YouTube ou Twitch et vous galérez à retenir vos textes ? Ou alors vous avez juste besoin d’un pense-bête qui reste toujours sous vos yeux pendant que vous bossez sur des trucs sérieux ? Si vous êtes sur Mac, y'a une petite pépite open source qui vient de sortir et qui utilise intelligemment un espace souvent critiqué de nos machines : NotchPrompter .

Ça se matérialise sous la forme d'une petite fenêtre de prompteur minimaliste qui vient se loger juste sous l’encoche (le fameux notch) de votre MacBook Air ou Pro. L'idée, c'est de garder votre texte le plus près possible de la caméra pour que votre regard ne semble pas fuir vers le bas ou le côté pendant que vous lisez.

Côté fonctionnalités, c'est de la "sobre-tech" efficace. Vous avez le défilement automatique avec une vitesse réglable, la possibilité d'ajuster la taille de la police, et même une fonction de pause automatique quand vous passez la souris sur la fenêtre. Le petit plus qui tue ? L'activation vocale pour démarrer ou stopper le prompteur à la voix, pratique quand on a les mains occupées. L’application est hyper légère et ne pompera pas vos précieuses ressources CPU, ce qui est crucial si vous enregistrez en même temps avec OBS ou ScreenFlow.

Le projet est disponible gratuitement sur GitHub sous licence MIT. Il vous faudra au minimum macOS 13.0 pour le faire tourner. Pour l'installation, direction la page des Releases, on télécharge le ZIP, on extrait et on glisse l'app dans le dossier Applications.

Petit point important, comme l'application n'est pas notarisée par Apple (le développeur préfère garder ses 99$ plutôt que de les filer à la pomme chaque année), macOS va râler au premier lancement. Pas de panique, il suffit d'aller dans vos Réglages Système > Confidentialité et sécurité, de descendre tout en bas et de cliquer sur "Ouvrir quand même". Si ça ne fonctionne pas, vous pouvez aussi tenter avec Sentinel . C'est le prix à payer pour de l'open source pur jus sur Mac.

Bref, que ce soit pour vos streams, vos présentations clients ou juste pour ne plus oublier vos notes en plein call Zoom, NotchPrompter est un outil génial qui transforme un défaut de design matériel en véritable atout productivité.

Merci à Lorenper pour le partage !

Windows vs Linux vs macOS: Which One Is Actually Best for Students?

Par : Nayan
30 décembre 2025 à 14:25
Choosing the right operating system as a student can feel confusing. Windows, Linux, and macOS all claim to be the best—but which one truly fits student life? Whether you’re attending online classes, coding, designing, gaming, or just taking notes, your OS choice matters more than you think. In this guide, we’ll compare Windows vs Linux […]

OBS Studio 32 débarque avec un tout nouveau moteur de rendu pour macOS

Par : Korben
21 décembre 2025 à 09:07

Passer d'OpenGL à Metal, c'était visiblement pas une mince affaire pour l'équipe d'OBS. La techno d'Apple est sortie y'a 10 ans sous macOS mais ça leur a pris un peu de temps pour la migration... Et n'allez pas croire que je "juge"... Tout ce temps, c'est normal car c'est un soft multiplateforme, donc faut gérer trois écosystèmes en parallèle et ça, ça prend un temps fou.

Tous les effets visuels d'OBS ont dû être réécrits pour fonctionner avec Metal, le langage graphique d'Apple étant bien plus exigeant que celui de Windows et la preview peut parfois légèrement saccader à cause de macOS, mais le flux final reste impeccable.

Niveau performances, Metal fait aussi bien voire mieux qu'OpenGL dans les builds Release mais c'est surtout pour le débogage que ça change tout car les développeurs ont maintenant accès à des outils de diagnostic bien plus performants, ce qui devrait accélérer les corrections de bugs et les futures améliorations.

Pour l'activer (ouais on est chaud !!), c'est hyper simple. Vous allez dans les paramètres d'OBS 32.0, onglet Avancé, section Vidéo, et vous sélectionnez Metal dans le menu déroulant du renderer. Un petit redémarrage de l'appli et hop, vous êtes passé sur le nouveau moteur.

Ce qui est cool aussi avec cette version 32.0, c'est qu'elle inclut un gestionnaire de plugins et des améliorations pour les fonctionnalités NVIDIA RTX.

L'équipe OBS bosse aussi sur des backends Vulkan pour Linux et Direct3D 12 pour Windows, parce que les anciennes APIs comme OpenGL et D3D11 reçoivent de moins en moins de support des fabricants de GPU, donc si vous êtes sur Linux ou Windows, votre tour viendra aussi.

Voilà, après si ça bug, revenez sur OpenGL, mais y'a quand même de bonnes chances que ça tourne mieux qu'avant.

Source

1,5 To de VRAM sur un Mac Studio - Le RDMA Thunderbolt 5 qui change la donne

Par : Korben
21 décembre 2025 à 08:04

Vous rêvez de faire tourner des modèles d'IA de 600 milliards de paramètres sur votre bureau sans avoir à vendre vos enfants ? Hé bien Jeff Geerling vient de tester un truc qui va vous faire baver, je pense. En tout cas, moi ça m'énerve (dans le bon sens du terme hein...) !

Apple lui a prêté 4 Mac Studios M3 Ultra pour tester une nouvelle fonctionnalité qui débarque avec macOS 26.2 et qui s'appelle le RDMA over Thunderbolt 5. En gros, c'est une techno qui permet à plusieurs Macs de partager leur mémoire unifiée comme si c'était un seul gros pool de RAM et du coup, au lieu d'avoir 4 machines séparées avec chacune leur mémoire, vous vous retrouvez avec 1,5 To de VRAM partagée accessible par toutes les machines.

Le setup de Jeff c'est deux Mac Studios avec 512 Go de RAM chacun à environ 11 700 dollars pièce, plus deux autres avec 256 Go à 8 100 dollars. Total de la douloureuse : environ 40 000 dollars. Ça pique, c'est clair, mais attendez de voir ce que ça fait.

Le truc qui change vraiment la donne avec le RDMA c'est la latence. Avant, quand un Mac devait accéder à la mémoire d'un autre Mac via le réseau, ça prenait environ 300 microsecondes. Avec cette nouvelle implémentation Thunderbolt 5, on tombe à moins de 50 microsecondes. Ça paraît rien comme ça, mais pour faire tourner ce genre de modèles, c'est énorme.

Jeff a fait tourner des benchmarks classiques et les résultats sont plutôt impressionnants. Sur Geekbench 6, le M3 Ultra explose le Dell Pro Max et l'AMD Ryzen AI Max+ 395 en mono et multi-coeur. Mais le plus fou c'est sur le benchmark HPL en virgule flottante 64 bits où c'est le seul système desktop testé à dépasser 1 Téraflop, avec presque le double des performances du Nvidia GB10.

Côté modèles IA massifs, le cluster fait tourner Qwen3 235B à 32 tokens par seconde avec Exo, DeepSeek V3.1 et ses 671 milliards de paramètres scale correctement sur les 4 machines, et même Kimi K2 Thinking avec ses 1000 milliards de paramètres tourne à environ 30 tokens par seconde. Tout ça en consommant environ 250 watts max et en faisant quasi aucun bruit.

Par contre, c'est encore du logiciel en beta et ça se sent. Par exemple, Jeff a eu pas mal de crashs pendant ses tests HPL sur Thunderbolt avec des instabilités qui ont nécessité des redémarrages fréquents, ou encore le fait que seulement 4 Macs sont supportés pour l'instant malgré les 5 ports Thunderbolt 5 disponibles. Ensuite y'a le problème de l'administration à distance qui est inexistante, car impossible de mettre à jour macOS via SSH, donc faut se taper l'interface graphique à la main sur chaque machine.

Bref, c'est hyper prometteur comme techno, surtout pour ceux qui veulent faire tourner des LLM monstrueux sur leur bureau sans monter une salle serveur mais faudra attendre que le logiciel murisse un peu avant de claquer vos 40 000 balles de PEL dedans.

Source

Comment Boston Dynamics compte construire un cerveau pour Atlas

Par : Korben
20 décembre 2025 à 07:38

Boston Dynamics que vous connaissez tous pour ses chiens robots tueurs de la mort, vient de sortir une vidéo de 40 minutes. Pas de saltos arrière ou de robots qui dansent mais plutôt une loooongue session où ça parle stratégie IA et vision à long terme. Et comme j'ai trouvé que c'était intéressant, je partage ça avec vous !

Zach Jacowski, le responsable d'Atlas (15 ans de boîte, il dirigeait Spot avant), discute donc avec Alberto Rodriguez, un ancien prof du MIT qui a lâché sa chaire pour rejoindre l'aventure et ce qu'ils racontent, c'est ni plus ni moins comment ils comptent construire un "cerveau robot" capable d'apprendre à faire n'importe quelle tâche. Je m'imagine déjà avec un robot korben , clone de ma modeste personne capable de faire tout le boulot domestique à ma place aussi bien que moi... Ce serait fou.

Leur objectif à Boston Dynamics, c'est donc de créer le premier robot humanoïde commercialement viable au monde et pour ça, ils ont choisi de commencer par l'industrie, notamment les usines du groupe Hyundai (qui possède Boston Dynamics).

Alors pourquoi ? Hé bien parce que même dans les usines les plus modernes et automatisées, y'a encore des dizaines de milliers de tâches qui sont faites à la main. C'est fou hein ? Automatiser ça c'est un cauchemar, car pour automatiser UNE seule tâche (genre visser une roue sur une voiture), il faudrait environ un an de développement et plus d'un million de dollars.

Ça demande des ingénieurs qui conçoivent une machine spécialisée, un embout sur mesure, un système d'alimentation des vis... Bref, multiplié par les dizaines de milliers de tâches différentes dans une usine, on serait encore en train de bosser sur cette automatisation dans 100 ans...

L'idée de Boston Dynamics, c'est donc de construire un robot polyvalent avec un cerveau généraliste. Comme ça au lieu de programmer chaque tâche à la main, on apprend au robot comment faire. Et tout comme le font les grands modèles de langage type ChatGPT, ils utilisent une approche en deux phases : le pre-training (où le robot accumule du "bon sens" physique) et le post-training (où on l'affine pour une tâche spécifique en une journée au lieu d'un an).

Mais le gros défi, c'est clairement les données. ChatGPT a été entraîné sur à peu près toute la connaissance humaine disponible sur Internet mais pour un robot qui doit apprendre à manipuler des objets physiques, y'a pas d'équivalent qui traîne quelque part.

Du coup, ils utilisent trois sources de data.

La première, c'est la téléopération. Des opérateurs portent un casque VR, voient à travers les yeux du robot et le contrôlent avec leur corps. Après quelques semaines d'entraînement, ils deviennent alors capables de faire faire à peu près n'importe quoi au robot. C'est la donnée la plus précieuse, car il n'y a aucun écart entre ce qui est démontré et ce que le robot peut reproduire. Par contre, ça ne se scale pas des masses.

La deuxième source, c'est l'apprentissage par renforcement en simulation. On laisse le robot explorer par lui-même, essayer, échouer, optimiser ses comportements. L'avantage c'est qu'on peut le faire tourner sur des milliers de GPU en parallèle et générer des données à une échelle impossible en conditions réelles. Et contrairement à la téléopération, le robot peut apprendre des mouvements ultra-rapides et précis qu'un humain aurait du mal à démontrer, du genre faire une roue ou insérer une pièce avec une précision millimétrique.

La troisième source, c'est le pari le plus ambitieux, je trouve. Il s'agit d'apprendre directement en observant des humains.

Alors est-ce qu'on peut entraîner un robot à réparer un vélo en lui montrant des vidéos YouTube de gens qui réparent des vélos ? Pas encore... pour l'instant c'est plus de la recherche que de la production, mais l'idée c'est d'équiper des humains de capteurs (caméras sur la tête, gants tactiles) et de leur faire faire leur boulot normalement pendant que le système apprend.

Et ils ne cherchent pas à tout faire avec un seul réseau neuronal de bout en bout. Ils gardent une séparation entre le "système 1" (les réflexes rapides, l'équilibre, la coordination motrice, un peu comme notre cervelet) et le "système 2" (la réflexion, la compréhension de la scène, la prise de décision). Le modèle de comportement génère des commandes pour les mains, les pieds et le torse, et un contrôleur bas niveau s'occupe de réaliser tout ça physiquement sur le robot.

C'est bien pensé je trouve. Et dans tout ce bordel ambiant autour de la robotique actuelle, eux semblent avoir trouver leur voie. Ils veulent transformer l'industrie, les usines...etc. Leur plan est clair et ils savent exactement ce qu'ils doivent réussir avant de passer à la suite (livraison à domicile, robots domestiques...).

Voilà, je pense que ça peut vous intéresser, même si c'est full english...

Un projet open source qui détecte les nids-de-poule

Par : Korben
19 décembre 2025 à 12:00

Vous savez que depuis quelques années, des startups équipent les camions poubelle et les bus de caméras IA pour cartographier automatiquement l'état des routes ? Comme ça, pendant que le chauffeur fait sa tournée, une intelligence artificielle détecte les nids-de-poule, les fissures et autres joyeusetés routières en temps réel. Chaque défaut est géolocalisé, scoré par gravité, et hop, les équipes de maintenance savent exactement où intervenir.

Bon apparemment, là où j'habite, ils n'utilisent pas ça parce que les routes sont des champs de mines, mais si le Maire se chauffe en DIY, ce projet maintenu par un certain Peter va l'intéresser.

C'est sur GitHub et c'est un stack complet pour faire exactement la même chose que les startups spécialisées en nids de poule... un vrai projet end-to-end avec l'entraînement du modèle sur du GPU cloud, une API backend containerisée, et même une app mobile React Native pour scanner les routes depuis votre téléphone.

Le projet s'appelle pothole-detection-yolo et ça utilise YOLOv8, le modèle de détection d'objets qui fait fureur en ce moment dans le domaine de la vision par ordinateur. Concrètement, le modèle a été entraîné sur un dataset de nids-de-poule disponible sur HuggingFace, avec des images de 640x640 pixels. L'entraînement s'est fait sur Nebius Cloud avec des GPUs H100, donc du sérieux, pas du Colab gratuit qui timeout au bout de 20 minutes.

Ce qui est cool avec ce projet, c'est qu'il ne s'arrête pas au modèle. Y'a une API FastAPI complète qui expose deux endpoints : /detect pour envoyer une image et récupérer les bounding boxes avec les scores de confiance, et /health pour vérifier que le service tourne. Le tout est containerisé en Docker avec support GPU automatique. Et si vous avez pas de carte graphique, ça bascule sur CPU.

Et la cerise sur le gâteau, c'est l'app mobile Expo/React Native. Vous ouvrez l'app, vous prenez une photo d'une route avec votre smartphone, l'image est envoyée à l'API, et vous récupérez les détections en temps réel avec les rectangles dessinés autour des nids-de-poule et les pourcentages de confiance affichés. Bref, c'est exactement ce que font les boites tech à plusieurs millions, sauf que là c'est open source sous licence Apache 2.0.

YOLOv8 atteint facilement entre 93 et 99% de précision pour la détection de nids-de-poule selon les variantes utilisées et des chercheurs ont même combiné YOLOv8 avec des données de nuages de points 3D pour atteindre 95.8% de précision sur des tronçons de tests d'environ 5 km. Bref, c'est du solide et ça fonctionne .

Le truc intéressant pour les bricoleurs, c'est que le modèle entraîné est directement téléchargeable sur HuggingFace donc vous pouvez donc skip toute la partie entraînement si vous voulez juste tester le résultat. Une seule commande Docker pour lancer l'API, et vous êtes opérationnel. Pour les plus motivés qui veulent entraîner leur propre modèle avec des données locales de vos routes françaises pleines de cratères, le code d'entraînement est là aussi avec les configs Ultralytics.

Bref, si vous êtes une petite mairie qui veut cartographier l'état de vos routes sans claquer 50 000 euros dans une solution proprio, ou juste un dev curieux de voir comment fonctionne la stack derrière ces caméras intelligentes qu'on voit de plus en plus sur les véhicules de service, ce projet est une mine d'or.

Tout est là , documenté, et ça fonctionne du feu de dieu.

Mole - L'outil CLI qui remplace CleanMyMac et toute la clique

Par : Korben
18 décembre 2025 à 05:45

Vous en avez marre de payer des licences pour des apps de nettoyage macOS qui font grosso modo la même chose ? CleanMyMac, AppCleaner, DaisyDisk, Sensei, iStat Menus... C'est pas les options qui manquent, mais le portefeuille finit par tirer la gueule, du coup, quand je suis tombé sur Mole, je me suis dit que j'allais vous en parler.

Mole c'est un outil en ligne de commande (donc ça fait peuuuuur, ahaha mais c'est cool vous allez voir) qui regroupe toutes ces fonctionnalités dans un seul binaire. C'est open source, sous licence MIT, et ça pèse que dalle et en gros, l'idée c'est de taper la commande "mo" suivi d'un paramètre et hop, ça fait le taf.

mo # Interactive menu
mo clean # Deep cleanup
mo uninstall # Remove apps + leftovers
mo optimize # Refresh caches & services
mo analyze # Visual disk explorer
mo status # Live system health dashboard
mo purge # Clean project build artifacts

mo touchid # Configure Touch ID for sudo
mo update # Update Mole
mo remove # Remove Mole from system
mo --help # Show help
mo --version # Show installed version

mo clean --dry-run # Preview cleanup plan
mo clean --whitelist # Adjust protected caches
mo uninstall --force-rescan # Rescan apps and refresh cache
mo optimize --whitelist # Adjust protected optimization items

Par exemple, pour le nettoyage en profondeur, c'est mo clean. L'outil va scanner vos caches système, les logs, les données des navigateurs, et tout le bordel qui s'accumule avec le temps. Dans les exemples donnés par le développeur, il parle de récupérer jusqu'à 95 Go d'espace disque. Évidemment ça dépend de votre usage, mais ça donne une idée du potentiel.

Pour désinstaller proprement une app, mo uninstall fera le job. Et contrairement à la méthode du glisser-déposer dans la corbeille qui laisse traîner des fichiers de préférences partout, Mole traque tous les fichiers associés à l'application et les vire ensemble, comme ce que fait AppCleaner...

Côté monitoring système, mo status vous affiche un dashboard temps réel avec CPU, RAM, réseau, et métriques de santé. Un peu comme iStat Menus mais directement dans votre terminal. Et avec mo analyze, vous avez un explorateur visuel de l'espace disque avec des barres de progression ASCII. Très DaisyDisk vibes. Et mo analyze c'est pareil mais pour l'espace disque...

La commande mo optimize va rafraîchir les caches système et relancer certains services pour remettre de l'ordre. Et pour les devs, mo purge est une tuerie : ça nettoie les dossiers de build de vos projets (node_modules, target, build...) qui peuvent facilement bouffer des dizaines de gigas si vous bossez sur plusieurs projets.

Petit bonus sympa, mo touchid permet de configurer Touch ID avec sudo, ce qui vous évitera de taper votre mot de passe admin 15 fois par jour.

Voilà... Maintenant si ça vous chauffe, l'installation se fait soit via Homebrew avec brew install tw93/tap/mole, soit via curl directement. Le projet est écrit en Shell et Go, ce qui explique qu'il soit aussi léger et rapide. Seul bémol relevé par le développeur, évitez iTerm2 qui a des soucis de compatibilité. Alacritty , Kitty , WezTerm ou Ghostty par contre fonctionnent nickel.

L'outil supporte aussi les options classiques genre --dry-run pour prévisualiser les changements sans rien supprimer, --whitelist pour protéger certains éléments, et --debug pour les curieux et la navigation se fait avec les flèches ou en mode Vim (hjkl) pour les puristes.

Bref, si vous êtes à l'aise avec le terminal et que vous en avez marre de multiplier les apps payantes pour faire des trucs basiques, Mole mérite un petit test !

New Apple Leak: Studio Display 2 May Match MacBook Pro Screen Tech

12 décembre 2025 à 16:58

A new Apple leak suggests the next Studio Display could add HDR, 120Hz ProMotion, and a faster A19 chip, signaling a major upgrade for pro Mac users.

The post New Apple Leak: Studio Display 2 May Match MacBook Pro Screen Tech appeared first on TechRepublic.

FlyOOBE - L'outil qui installe Windows 11 sur n'importe quel PC

Par : Korben
1 décembre 2025 à 10:40

Vous avez un PC qui tourne encore parfaitement sous Windows 10 mais Microsoft vous dit qu’il est comme vous, c’est à dire “trop vieux” pour Windows 11 ?

Et bien, bienvenue dans le club des 240 millions de machines destinées à la casse. Woohoo ! D’ailleurs selon cette étude , si on empilait tous ces PC les uns sur les autres, la pile ferait 600 kilomètres de plus que le diamètre de la Lune. Sympa pour la planète.

Bref, face à ce gâchis monumental programmé pour le 14 octobre de cette année, date de fin du support de Windows 10 , un développeur connu sous le pseudo Belim (builtbybel sur GitHub) a créé FlyOOBE (prononcez “fly-oh-bee”, comme une petite abeille qui buzz). C’est un outil qui fait exactement ce que Microsoft ne veut pas à savoir installer Windows 11 sur n’importe quel PC, même sans TPM 2.0, sans Secure Boot, et avec un processeur de 2010. Et en bonus, il vire tous les bloatwares au passage.

FlyOOBE, c’est l’évolution de Bloatynosy devenu Flyby11, dont je vous ai déjà parlé en long, en large et en travers. C’était un simple patcher qui avait déjà permis à des milliers d’utilisateurs de contourner les restrictions matérielles de Windows 11. Mais la version 2.2 qui vient de sortir va beaucoup plus loin car au lieu de simplement bypasser les vérifications de compatibilité, FlyOOBE vous permet de personnaliser complètement l’expérience d’install et de post-install de Windows 11.

Comme ça, fini les écrans de configuration à rallonge, les applications préinstallées dont tout le monde se fout, et les paramètres de confidentialité douteux activés par défaut.

Mais avant de rentrer dans le détail, pour comprendre pourquoi FlyOOBE existe, il faut revenir sur les exigences matérielles de Windows 11. Microsoft demande actuellement pour Windows 11, un processeur de 8e génération Intel ou 2e génération AMD Ryzen minimum, 4 Go de RAM (8 Go pour une expérience correcte), le TPM 2.0, l’UEFI avec Secure Boot activé, et j’en passe.

Vous l’avez déjà compris, ce sont des exigences qui excluent automatiquement des millions de PC parfaitement fonctionnels.

Bien sûr, tout comme Retailleau ou Darmanin, Microsoft n’a qu’un seul mot à la bouche pour justifier ce massacre informatique : La sécurité. Hé oui car le TPM 2.0 est censé protéger vos données sensibles, et le Secure Boot quant à lui empêche le démarrage de malwares au niveau du bootloader.

Noble intention, j’en conviens, sauf que dans les faits, ça ressemble surtout à de l’obsolescence programmée ++ imaginée pour booster les ventes de nouveaux PC. Plusieurs personnes parlent même d’une stratégie pour augmenter les ventes de Copilot+ PC , ces nouvelles machines avec NPU intégré capable de faire tourner de l’IA en local.

Alors oui, Microsoft propose bien des Extended Security Updates (ESU) pour 30 dollars par an après octobre 2025, mais c’est juste repousser le problème. Et pour les entreprises, ces tarifs grimpent à 61 $ la première année, 122 $ la deuxième, et 244 $ la troisième. Ils abusent pas un peu là quand même ? Donc autant dire que pour beaucoup de boites, ces vieux PC ce sera direction la déchetterie.

Du coup, le principe de FlyOOBE est très malin, je trouve car au lieu de modifier Windows 11 directement, il utilise une astuce découverte par la communauté il y a quelques temps. Il lance en fait l’installation en mode “Windows Server”, qui n’a pas les mêmes restrictions que la version client. Une fois l’installation terminée, vous vous retrouvez alors avec un Windows 11 parfaitement fonctionnel, mais rassurez vous, pas une version serveur.

Selon le développeur de FlyOOBE, la méthode utilise exactement le même contournement que celui documenté par Microsoft pour les environnements virtuels sauf qu’au lieu de l’appliquer à une VM, FlyOOBE l’applique à votre vraie machine. Et il a fait un boulot de dingue car tout le processus est automatisé… L’outil télécharge l’ISO de Windows 11 via le script Fido (développé par Pete Batard de Rufus ), applique les patchs nécessaires, et lance l’installation.

Pour ceux qui dormaient depuis 25 ans, OOBE signifie “Out-Of-Box Experience”. C’est cette série d’écrans à la con que vous voyez quand vous démarrez Windows pour la première fois : Création du compte, paramètres de confidentialité, connexion au Wi-Fi, tout ça. Microsoft en profite pour vous faire créer un compte Microsoft (obligatoire sur Windows 11 Home), activer la télémétrie, installer Office 365 en trial, et autres joyeusetés.

FlyOOBE vous permet donc de court-circuiter tout ça. Plus besoin de compte Microsoft, vous pouvez créer un compte local directement. Les paramètres de confidentialité sont configurés pour protéger vos données par défaut. Et surtout, l’outil peut automatiquement désinstaller toute une liste de bloatwares (traduction : logiciels à la con) comme Candy Crush, TikTok, les jeux Xbox que vous n’avez jamais demandés, Cortana, et même Teams si vous voulez.

Cette version 2.2 marque une vraie évolution puisque le développeur (qui avoue être “en guerre contre les choix de performance de Microsoft”) a bossé comme un fou pour transformer FlyOOBE en boite à outils pour Windows. Grâce à lui, on a maintenant une interface modernisée avec un mode compact élégant, des boutons qui passent en mode icônes seules quand ils sont actifs (comme les apps natives Windows 11, sauf que là ça marche bien). Le démarrage est plus rapide, la consommation mémoire réduite… Bref, c’est pas comme le menu Démarrer de Windows 11 ou l’Explorateur qui sont des monstres XAML/WinUI bourrés de bloat.

Le développeur a d’ailleurs un petit coup de gueule savoureux dans ses notes de version : “Peut-être qu’un jour Microsoft corrigera les vrais problèmes de performance au lieu d’ajouter un énième bouton Copilot lumineux. Honnêtement, ça fait mal de voir un OS qu’on a aimé être lentement ruiné par les mauvaises priorités.” On sent le mec qui en a ras-le-bol, et je le comprends…

FlyOOBE est donc passé d’un simple assistant OOBE à un véritable hub de contrôle Windows. Le moteur d’extensions a été complètement retravaillé, avec un système de catégories et de filtres. Certaines pages OOBE sont devenues de véritables mini-apps autonomes, comme Dumputer ou CoTweaker (des anciens outils standalone du même dev qui vivent maintenant leur meilleure vie à l’intérieur de FlyOOBE). Il y a aussi un nouveau tableau de bord Home qui catégorise et recommande intelligemment les options, un système de navigation avec historique complet (comme dans un navigateur), et un moniteur d’activité natif qui log les actions système en temps réel.

L’App Installer intégré propose aussi d’installer automatiquement des logiciels vraiment utiles tels que Firefox, VLC, 7-Zip, Notepad++, et autres essentiels. Pratique donc pour avoir une machine propre et fonctionnelle dès le départ, sans passer des heures à tout configurer manuellement.

Maintenant faut que je sois clair avec vous, utiliser FlyOOBE, c’est contourner les mesures de sécurité mises en place par Microsoft. Le développeur lui-même précise que les mises à jour futures ne sont pas garanties sur les machines “non supportées”. Donc si Microsoft décide de bloquer complètement les PC sans TPM 2.0 dans une future mise à jour, vous pourriez vous retrouver coincé.

Il y a aussi le cas du POPCNT, une instruction CPU que FlyOOBE ne peut pas contourner donc si votre processeur ne la supporte pas (généralement les CPU d’avant 2010), Windows 11 ne fonctionnera tout simplement pas, même avec FlyOOBE. L’outil intègre d’ailleurs un “compatibility checker” pour vérifier ce point avant l’installation.

Notez qu’ en février dernier, Microsoft Defender a commencé à flaguer Flyby11 comme “Win32/Patcher” , le classant comme application potentiellement indésirable. Le développeur a alors contacté Microsoft et la version actuelle n’est plus détectée, mais ça montre que Microsoft n’apprécie pas vraiment ce genre d’outils.

Maintenant pour utiliser FlyOOBE, pas besoin d’un tuto à rallonge car c’est ultra simple. Vous téléchargez l’exécutable depuis les releases GitHub , vous le lancez, et vous avez quatre options :

  1. Upgrade : Pour passer de Windows 10 à 11 sur une machine incompatible
  2. Install Only : Pour une installation propre avec personnalisation OOBE
  3. Experience : Pour configurer Windows après installation
  4. Apps : Pour gérer les bloatwares et installer des apps utiles

Si vous choisissez l’upgrade, FlyOOBE téléchargera automatiquement l’ISO de Windows 11, appliquera les patchs, et lancera le processus. Comptez alors environ 30 minutes à 1 heure selon votre machine et votre connexion internet. Rassurez-vous, l’outil gardera vos fichiers et tous vos programmes car c’est une vraie mise à niveau, et pas une réinstallation. L’Autopilot intégré a d’ailleurs été amélioré pour vous guider de manière encore plus autonome pendant l’installation.

Petite note pour ceux qui cherchaient le script ConsumerESU (pour les mises à jour de sécurité étendues) : il a temporairement disparu de GitHub, probablement un faux positif qui a fait suspendre le repo, comme c’est déjà arrivé au profil de Belim lui-même. Les joies de la modération automatique…

Maintenant, pour ceux qui veulent aller plus loin, il y a même des builds “Nightly” mis à jour régulièrement avec les dernières fonctionnalités expérimentales. L’ancien Flyby11 3.0 “Classic” existe toujours mais est désormais marqué comme deprecated, donc le dev recommande de passer à FlyOOBE. Notez aussi que FlyOOBE n’est pas le seul outil pour contourner les restrictions de Windows 11. Rufus permet aussi de créer une clé USB d’installation sans les checks TPM/Secure Boot . Il y a aussi les méthodes manuelles avec des modifications du registre pendant l’installation. Ou carrément passer à Linux, comme le suggèrent certains barbus qui veulent entrainer encore plus de monde dans leur galère… Roooh, ça va, je rigole !

Mais FlyOOBE c’est mon préféré parce qu’il a plusieurs avantages. D’abord, c’est tout-en-un : bypass les restrictions, personnalisation OOBE, et debloating. Ensuite, c’est portable (moins de 400 Ko !), donc pas besoin d’installation et surtout, c’est maintenu activement avec des mises à jour régulières pour s’adapter aux changements de Microsoft. Le dev mentionne d’ailleurs son autre projet CrapFixer , une sorte de CCleaner 2.0 de l’époque dorée de Windows XP, si vous êtes nostalgiques.

Alors Microsoft va-t-il bloquer définitivement FlyOOBE et les outils similaires ? C’est possible car ils ont déjà resserré la vis plusieurs fois, mais les devs trouvent toujours de nouvelles méthodes de contournement. Et c’est encore pire pour activer Windows…

Bref, si vous avez un PC sous Windows 10 qui ne passe pas les vérifications de compatibilité Windows 11, donnez une chance à FlyOOBE. Au pire, vous perdez une heure et au mieux, vous donnez une seconde vie à votre machine et vous évitez de participer à la montagne de déchets électroniques que ça va provoquer.

Et ça, c’est déjà une petite victoire.

Source

Article publié initialement le 4 septembre 2025. Mis à jour le 1 décembre 2025. Merci à Lorenper.

Magicbrake - Handbrake en mode facile

Par : Korben
19 novembre 2025 à 08:34

HandBrake c’est un chef-d’œuvre open source qui fait, en gros, tout ce qu’on peut rêver en terme de conversion vidéo…

Ainsi, si vous voulez juste transformer une vidéo en MP4 qui marche sur votre téléphone, HandBrake est capable de vous proposer 147 options, 23 presets différents, des onglets pour les codecs, les sous-titres, les filtres, l’audio multi-pistes. Ensuite, vous cliquez sur OK en priant pour que le preset par défaut fasse le taf !

Et c’est ça le problème car c’est un super outil mais pour le maitriser, faut faire 18 formations ;-). Heureusement Magicbrake dit stop à cette folie !

Car Magicbrake c’est une app macOS qui ne permet de faire qu’UNE chose. Vous glissez une vidéo dessus, vous cliquez sur le bouton, et vous récupérez un MP4. Y’a pas de menu, pas d’options et encore moins de documentation à lire et ça c’est cool !

Techniquement, c’est un wrapper GUI qui utilise HandBrakeCLI avec le preset “Very Fast 1080p30” préconfigué. C’est con mais ça fera plaisir aux gens qui n’ont pas envie de se prendre la tête avec l’interface d’Handbrake qui ressemble à un cockpit d’Airbus.

Voilà, Magicbrake c’est juste un problème réel résolu avec le moins de code possible et également un bon rappel que des fois, la meilleure solution c’est la simplicité.

Bref, pour la majorité des gens qui veulent juste convertir une vidéo de leur GoPro, leur drone, ou récupérer un vieux fichier AVI des années 2000, Magicbrake fera bien le taf. Après vous voulez vous lancer dans le choix d’un bitrate ou l’incrust de sous titres, pas le choix, faudra aller sur Handbrake.

Le site officiel Magicbrake est ici !

MocoLlamma - Ollama gérable depuis iPhone, iPad et Vision Pro

Par : Korben
7 novembre 2025 à 09:00

Vous avez installé Ollama sur votre Mac et vous êtes le plus joyeux de tous les mammifères car vous faites tourner Llama 3.x en local comme un chef. Et puis un soir, posé dans votre canapé avec votre iPad de bourgeois capitaliste, vous vous dites que ce serait bien de pull un nouveau modèle. Et là, vous réalisez qu’il va falloir sortir le MacBook, ouvrir un terminal, taper ollama pull mistral, attendre et attendre… Grosse flemme non ?

Hé oui, Ollama reste un outil en ligne de commande. C’est génial pour les devs, mais galère pour le reste et vous avez beau avoir de la puissance de calcul dans votre poche avec un iPhone ou un iPad, c’est impossible de gérer vos modèles sans SSH et sans Terminal.

Heureusement, MocoLlamma vient combler ce fossé. C’est une app de gestion Ollama pour macOS, iOS, iPadOS, et même visionOS si vous avez ce truc. C’est donc une vraie app native avec interface graphique, développée en Swift et SwiftUI dans laquelle ous ajoutez vos serveurs Ollama, et où vous gérez vos modèles, et vous testez vos LLM via un chat basique.

L’app s’organise autour de trois onglets. Le premier, Server, vous permet d’ajouter et de switcher entre plusieurs serveurs Ollama. Vous pouvez ainsi renommer chaque serveur, gérer les connexions, bref, tout ce qu’il faut pour jongler entre votre Mac local, votre serveur, ou votre instance cloud si vous en utilisez une.

Le second onglet, Model, affiche tous les modèles disponibles sur le serveur sélectionné. Vous voyez ainsi les infos de chaque modèle, vous pouvez les trier par taille, les ajouter ou les supprimer. Comme ça, plus besoin de taper ollama list pour savoir ce qui tourne. Tout est là, visuellement, avec la possibilité de gérer vos modèles d’un tapotage bien senti.

Le troisième onglet, Chat, permet de tester rapidement un modèle. C’est volontairement basique et l’idée n’est pas de remplacer ChatGPT ou Open WebUI, mais juste de vérifier qu’un modèle répond correctement. Genre, vous venez de pull Qwen 3, et vous voulez voir s’il fonctionne avant de l’intégrer dans votre workflow. Hop, quelques questions rapides dans le chat, et vous savez.

Il existe bien sûr des tonnes d’alternatives de GUI pour Ollama comme Open WebUI , LM Studio , Jan , GPT4All … Mais aucune ne supporte nativement visionOS ou les iPad / iPhone. Alors que MocoLlamma, si.

C’est actuellement la seule app qui vous permet de gérer vos LLM locaux depuis ces appareils Apple… C’est assez niche c’est vrai mais ça peut rendre service.

Le nom “MocoLlamma” est ce qu’on appelle un mot valise de “Model”, “Control”, “Ollama”, et “Manage”. C’est moche de ouf, c’est pas super à retenir, mais au moins ça décrit exactement ce que fait l’app.

Y’a la version gratuite qui est disponible sur GitHub, mais uniquement pour macOS (c’est sous license MIT) et la version payante, à 1,99 dollars sur l’App Store, supporte macOS, iOS, iPadOS, et visionOS. La différence principale pour l’app macOS c’est surtout les mises à jour automatiques. Vous payez 2 balles pour le confort.

Et là, un point crucial, sachez que MocoLlamma ne collecte AUCUNE donnée utilisateur. Bref, cette appli vient combler le trou qui se trouve entre “j’ai installé Ollama” et “je peux gérer mes modèles depuis mon iPhone”. Si vous avez ce besoin, c’est donc à considérer.

Merci à Lorenper pour la découverte.

Windows 11 - Comment activer la réparation automatique par le cloud

Par : Korben
29 octobre 2025 à 07:42

Bon, j’utilise plus vraiment Windows tous les jours, à part quand je veux faire des tests comme aujourd’hui mais je suis quand même encore traumatisé de ces moments horribles où mon PC refusait de démarrer, avec à l’époque, un écran bleu, qui s’enchaine sur une boucle de réparation automatique qui tourne en rond, et moi qui fait ma prière au Dieu de la Tech pour que ça reparte tout seul et que je ne flingue pas encore une journée de boulot.

Et bien Microsoft vient d’ajouter une fonctionnalité dans Windows 11 qui pourrait vous sauver la mise si vous avez la même phobie que moi. Ça s’appelle Quick Machine Recovery , et c’est un système de réparation automatique qui télécharge des correctifs directement depuis les serveurs de Microsoft.

Ainsi, quand votre Windows 11 refuse de booter, après plusieurs tentatives le système va automatiquement se connecter à Internet, envoyer des diagnostics à Microsoft, et télécharger un correctif spécifique pour votre problème. Tout ça sans que vous ayez à sortir une clé USB de récupération ou à appeler le support technique.

Quick Machine Recovery (qu’on va appeler QMR pour aller plus vite) fonctionne différemment selon votre édition de Windows. Sur Windows 11 Home, c’est activé par défaut alors que sur Windows 11 Pro et Enterprise, c’est désactivé par défaut et il faut donc le configurer manuellement.

Et il y a deux modes distincts dans l’outil. Le premier, c’est la réparation par le cloud (Cloud Remediation), c’est-à-dire que Windows va chercher des correctifs sur les serveurs Windows Update. Et le second, c’est la réparation automatique (Auto Remediation), c’est-à-dire que le système va tenter de se réparer tout seul plusieurs fois de suite sans vous demander votre avis.

Vous de votre côté, vous avez juste besoin de :

  • Windows 11 version 24H2 ou supérieure
  • Une connexion Internet (évidemment, sinon pas de cloud ^^)
  • Un compte administrateur pour modifier les paramètres

Ça prend 2 minutes pour s’activer, et entre 5 à 10 minutes en cas de réparation réelle.

Bref, quand votre PC plante au démarrage, voici ce qui se passe en coulisses. Après plusieurs échecs de boot, Windows entre automatiquement dans l’environnement de récupération WinRE (Windows Recovery Environment), c’est-à-dire ce mode minimal de dépannage qui se lance avant le système Windows complet. Le système établit alors une connexion réseau, envoie les données de diagnostic à Microsoft (type d’erreur, fichiers concernés, configuration matérielle), et recherche une solution spécifique sur les serveurs.

Si Microsoft connaît déjà ce problème et dispose d’un correctif, le fix est téléchargé et appliqué automatiquement et le PC redémarre pépouze. Mais si ça ne marche pas du premier coup, le processus se répète jusqu’à la résolution ou jusqu’à ce que le système abandonne et vous propose les options de récupération manuelles classiques.

Le cas d’usage parfait, si je devais en trouver un c’est l’incident CrowdStrike de juillet 2024. Je ne sais pas si vous vous souvenez, mais une mise à jour défectueuse avait planté plus de 8 millions de PC Windows dans le monde. Les machines refusaient de booter et à l’époque si QMR avait existé, tous ces systèmes bloqués pendant 5 jours ou plus auraient été réparés en quelques minutes au lieu de nécessiter une intervention manuelle sur chaque machine.

Maintenant comment est ce qu’on active ça ?

Hé bien, ouvrez les Paramètres Windows avec la combinaison de touches Windows + I puis allez dans Système puis Récupération. Vous allez voir une section “Récupération machine rapide”.

Cliquez alors sur le bouton à côté de “Récupération machine rapide” pour l’activer. Le petit bouton passe au bleu, c’est bon, vous êtes un champion des nouvelles technologies \o.

Et voilà, c’est tout.

Sur ce coup-là, Microsoft a fait simple.

Maintenant si vous ne voyez pas cette option, c’est pas la peine de m’envoyer un email énervé. Vérifiez plutôt que vous êtes bien sur Windows 11 24H2 à minima. Tapez winver dans le menu Démarrer (ou appuyez sur Windows + R, tapez winver et validez) pour voir votre version exacte. Vous devriez voir “Version 24H2” ou supérieure.

Après par défaut, même avec la réparation par le cloud activée, Windows va vous demander une confirmation avant de tenter une réparation donc si vous voulez que le système se débrouille tout seul, vous pouvez aussi activer la réparation automatique.

Toujours dans Système > Récupération > Quick Machine Recovery, activez alors le bouton “Continuez la recherche si aucune solution n’est trouvée”.

Mais attention, une fois que cette option est activée, votre PC va tenter de se réparer seul sans vous consulter. C’est pratique si vous gérez plusieurs machines à distance notamment, mais ça peut être relou si vous ne vous y attendez pas. Le PC va redémarrer plusieurs fois de suite pendant qu’il cherche une solution.

Donc si vous hésitez, laissez cette option désactivée. La réparation seulement via le cloud suffit dans la plupart des cas.

Après QMR ne répare pas TOUS les problèmes du monde non plus… Si votre disque dur est HS, aucun correctif cloud ne va le ressusciter. Si votre RAM est défectueuse, c’est pareil. Et si votre femme et votre chien vous ont quitté, c’est pas non plus de son ressort. En fait, QMR cible uniquement les pannes logicielles : pilotes corrompus, fichiers système endommagés, conflits de mise à jour, registre cassé…etc

Gardez aussi en tête que QMR envoie des données de diagnostic à Microsoft donc si vous êtes dans un environnement où la confidentialité est critique (entreprise avec données sensibles, environnement réglementé…etc), vérifiez que votre politique de sécurité autorise ce genre de télémétrie avant d’activer la fonctionnalité.

Après si vous avez activé QMR et que votre PC continue de planter au boot malgré plusieurs tentatives de réparation, laissez le système essayer 3/4 fois et si après ça le problème persiste, Windows va normalement vous proposer les options avancées (Mode sans échec, Restauration système, Invite de commandes, c’est-à-dire la ligne de commande Windows).

Essayez alors le Mode sans échec, c’est-à-dire un mode de démarrage minimal qui charge uniquement les pilotes essentiels et si le système boote en mode sans échec, le problème vient probablement d’un pilote ou d’un logiciel installé récemment. Désinstallez alors toutes les dernières mises à jour ou pilotes ajoutés récemment.

Et si même le mode sans échec ne fonctionne pas, utilisez une clé USB de récupération Windows 11. Bootez dessus, allez dans Réparer l’ordinateur > Dépannage > Options avancées, et utilisez les outils en ligne de commande comme :

sfc /scannow (System File Checker, c’est-à-dire l’outil de vérification des fichiers système) pour réparer les fichiers système,

DISM /Online /Cleanup-Image /RestoreHealth (Deployment Image Servicing and Management, c’est-à-dire l’outil de maintenance de l’image Windows) pour réparer l’image Windows,

et chkdsk C: /f /r pour vérifier et réparer le disque.

Pour les admin sys qui gèrent un parc de machines, QMR peut également se configurer via Intune, c’est-à-dire l’outil de gestion Microsoft 365, ou les stratégies de groupe (Group Policy). La documentation Microsoft donne tous les détails pour un déploiement centralisé :

  • HKLM\SOFTWARE\Microsoft\Windows NT\CurrentVersion\Winlogon\CloudRemediationEnabled (valeur DWORD, c’est-à-dire un nombre entier 32 bits) = 1 pour activer la réparation cloud
  • HKLM\SOFTWARE\Microsoft\Windows NT\CurrentVersion\Winlogon\AutoRemediationEnabled (valeur DWORD) = 1 pour activer la réparation automatique

Attention, ces clés doivent être créées manuellement dans le registre si elles n’existent pas. Ensuite, vous devrez effectuer le petit redémarrage réglementaire après modification. Et faites bien une sauvegarde du registre avant toute modification (Fichier > Exporter dans regedit).

Voilà pour mon topo sur QMR. Sur le papier je trouve que c’est une excellente idée… Ça augmente bien le taux de réussite de récupération d’un PC et surtout, ça fait gagner du temps. Après en pratique, comme d’hab ça dépend de votre situation. En tout cas, ça ne mange pas de pain donc activez la.

Et quoi qu’il arrive, faites des sauvegardes régulières !

Bonne chance !

Source

Comment se débarrasser de Liquid Glass sous macOS 26 Tahoe ?

Par : Korben
21 octobre 2025 à 09:53

Apple a sorti il y a quelques jours macOS 26 Tahoe avec sa nouvelle interface “Liquid Glass” qui est censée “révolutionner votre expérience utilisateur”. Mais bon ça plait pas à grande monde… Y’a soit les gars comme moi à qui ça en touche une sans faire bouger l’autre. J’ai même pas trop vu la différence à vrai dire. Puis y’a les gens qui veulent la désactiver le plus vite possible.

Le problème c’est que quand Apple lance un truc “révolutionnaire” que tout le monde cherche à virer, c’est jamais simple !

Pour ceux qui en sont encore à se demander s’il faut passer sous Windows 11, sachez que Liquid Glass, c’est cette nouvelle couche visuelle qu’Apple a plaquée sur macOS 26. C’est de mon point de vue, une bonne grosse idée marketing pour nous vendre de la transparence, de la luminosité, des effets de flou artistique partout. Ça fait joli dans les keynotes avec les animations fluides et des transitions qui brillent sauf qu’en vrai, sur le Mac, ça donne surtout des menus où on voit que dalle et des fenêtres où le texte est en partie illisible.

Voilà donc le premier vrai gros problème de Liquid Glass, c’est la lisibilité. Les menus sont tellement transparents que vous ne voyez plus ce qui est écrit dedans et le Centre de contrôle c’est une abomination, avec des couches de blanc sur du blanc et juste une petite ombre portée ridicule pour différencier les éléments.

Et le pire, c’est que c’est pas un design pensé pour Mac. C’est un design iOS qu’Apple a voulu coller de force sur macOS. Les boutons arrondis façon Liquid Glass qui sont super réactifs sur un écran tactile, bah sur Mac avec une souris, c’est juste des boutons tout naze et vu que les barres d’outils c’est partout dans macOS, on se tape ça en permanence !

Certains utilisateurs bien OuinOuin relous se plaignent même de fatigue oculaire. Le contraste bas, la transparence excessive et l’encombrement visuel font que tout se mélange dans leur petit cerveau tout mou et au final on passe plus de temps à plisser les yeux pour lire un menu qu’à bosser. Et c’est pas Apple qui va rembourser les séances chez l’orthoptiste !

Heureusement, y’a des solutions pour virer toute cette merde. La première c’est la méthode officielle via les réglages d’accessibilité. Vous ouvrez Réglages Système, vous allez dans Accessibilité puis Affichage, et vous cochez “Réduire la transparence”. Ça désactive pas complètement Liquid Glass mais ça réduit l’intensité de l’effet. C’est mieux que rien.

Mais si vous voulez vraiment tuer Liquid Glass dans l’œuf, y’a une commande qui fait le taf très bien. Vous ouvrez un Terminal et vous tapez :

defaults write -g com.apple.SwiftUI.DisableSolarium -bool YES

Vous redémarrez ensuite votre Mac et hop, Liquid Glass sera un lointain souvenir. Ce qui est marrant, c’est que cette commande suggère que Liquid Glass n’est qu’un simple skin plaquée par-dessus l’interface classique de macOS… donc au final toute cette révolution visuelle incroyable c’est juste un bon gros vernis qui va même surement jaunir avec le temps.

Et pour ceux qui veulent aller encore plus loin, y’a SolidGlass , un petit utilitaire gratuit et open-source qui vous permet de désactiver Liquid Glass soit pour tout le système, soit app par app. Vous le téléchargez, vous lui donnez les permissions d’accessibilité (oui, ça demande pas mal d’accès mais c’est open-source donc vous pouvez vérifier le code), et il vous liste toutes vos apps installées avec des cases à cocher.

Vous cochez une app, vous la relancez, et bim, plus de Liquid Glass sur cette app. C’est parfait si vous voulez garder l’effet sur certaines apps et le virer sur d’autres par contre attention, certaines apps système sont obligées de garder leur effet Liquid Glass. C’est donc parfois impossible à virer mais c’est comme ça. (Merci Apple ^^)

Puis si ça vous plait pas, c’est peut-être le moment de retourner sous Windows ou d’aller découvrir les plaines sauvages de Linux !

Source

Github Copilot pour Xcode est sorti - Et c'est Microsoft qui l'a fait !

Par : Korben
21 octobre 2025 à 09:20

Pendant qu’Apple peaufine son IA maison pour Xcode (sans date de sortie, évidemment), Microsoft vient tranquillou installer ses petites affaires dans l’écosystème le plus verrouillé du marché en sortant son extension officielle Github Copilot pour Xcode , pile-poil au moment où les rumeurs nous soufflent qu’Apple travaille aussi sur sa propre solution locale.

Cette extension de Github pour Xcode propose trois fonctionnalités principales. Tout d’abord de la complétion de code en temps réel. Ensuite, pendant que vous tapez, un tchat vous permet de poser des questions sur votre code, et il y a également un mode Agent qui peut modifier directement vos fichiers et lancer des commandes terminal. C’est gratuit jusqu’à 2000 complétions et 50 messages tchat par mois, donc largement de quoi rendre accro la majorité des devs iOS avant qu’Apple ne sorte son propre truc !

Maintenant pour utiliser un outil Microsoft dans un IDE Apple, vous devez accorder trois permissions macOS sacrées : Background, Accessibilité, et Xcode Source Editor Extension. Hé oui, Apple force littéralement ses développeurs à ouvrir toutes ces portes et niveau permissions, c’est l’Accessibilité qui pose régulièrement problème, car faut souvent la désactiver puis la réactiver pour que ça fonctionne correctement.

Ensuite l’installation est assez classique. Soit via Homebrew ou en téléchargeant le DMG directement depuis le dépôt GitHub.

brew install --cask github-copilot-for-xcode

Vous glissez ensuite l’app dans Applications, vous accordez les trois permissions système, vous activez l’extension dans les préférences Xcode, et hop, vous signez ça avec votre compte GitHub Copilot.

Un autre projet communautaire existait déjà intitni/CopilotForXcode , non officiel mais fonctionnel, qui supportait GitHub Copilot, Codeium et ChatGPT mais comme Microsoft sort maintenant sa version officielle pour contrôler le territoire comme un dealer dans son quartier, j’imagine que cette dernière ne va plus faire long feu.

Les tests comparatifs montrent que Copilot reste plus rapide et plus précis que le système de prédiction local d’Apple intégré dans Xcode car Apple mise uniquement sur du traitement local avec un modèle embarqué (pas de cloud donc, tout est sur votre Mac), surtout que Microsoft a déjà des années d’avance sur l’entraînement de ses IA et la rapidité de ses serveurs.

Donc voilà, les développeurs iOS se retrouvent maintenant à choisir entre attendre un hypothétique Copilot d’Apple sans date de sortie, ou donner les clés de leur Xcode à Microsoft dès maintenant. Ou alors continuer à coder sans IA comme les hommes de Cro-Magnon à l’époque !

En tout cas, avec 2000 complétions gratuites par mois comme dose pour devenir accro, combien vont résister si Apple tarde encore 6 mois de plus ??

Source

❌
❌