Vue normale

Il y a de nouveaux articles disponibles, cliquez pour rafraîchir la page.
À partir d’avant-hierFlux principal

Nano-PDF - Éditez vos PDF grâce à l'IA Nano Banana

Par : Korben
1 décembre 2025 à 12:10

Modifier un PDF, c’est toujours la galère surtout si c’est un PDF avec que des images sans texte sélectionnable. Soit vous avez Adobe Acrobat qui coûte une couille, soit vous vous tapez des outils en ligne douteux, soit vous exportez en Word et vous priez pour que la mise en page survive. Bref, vous faites vos trucs de losers….

Mais ça c’était sans compter sur Nano-PDF qui propose une approche radicalement différente : Vous décrivez ce que vous voulez changer en langage naturel, et l’IA se chargera du reste.

Par exemple, si vous avez une présentation PDF avec une faute de frappe sur la slide n°5, au lieu de galérer avec un éditeur, vous tapez juste

`nano-pdf edit ma_presentation.pdf 5 "Corrige la faute sur le mot 'investisement'"`

Et hop, c’est réglé. Vous voulez mettre à jour un graphique avec les données de 2025 ? Pareil, vous décrivez le changement et l’outil se débrouille !

Nano-PDF utilise le modèle Gemini 3 Pro Image de Google (surnommé “Nano Banana Pro”) pour interpréter vos instructions et générer les modifications visuelles. Le workflow technique est d’ailleurs bien fichu puisque les pages PDF sont converties en images via Poppler , envoyées au modèle avec votre prompt, puis les images générées sont reconverties en PDF avec une couche de texte restaurée par OCR via Tesseract. Du coup, vos PDF restent sélectionnables et cherchables après modification, contrairement aux solutions qui vous filent des images aplaties.

Côté fonctionnalités, y’a pas mal de choses sympas. Vous pouvez par exemple éditer plusieurs pages en une seule commande, créer de nouvelles slides qui respectent le style visuel de votre deck existant, même utiliser des pages de référence pour que l’IA comprenne mieux votre charte graphique, et le traitement par lot est géré en parallèle pour gagner du temps sur les grosses présentations.

L’installation passe par pip avec

`pip install nano-pdf`

Et comme je vous le disais, il vous faudra aussi Poppler pour le rendu PDF et Tesseract pour l’OCR. Et attention, petit détail qui a son importance, l’API Gemini Pro Image nécessite un compte payant. Faudra sortir la thune car les clés gratuites ne permettent pas de générer des images… donc bon, prévoyez quelques euros de crédit Google Cloud si vous voulez tester.

Le truc cool, c’est par défaut c’est du 4K en résolution, mais vous pouvez descendre en 2K ou 1K si vous voulez économiser sur les coûts d’API. Y’a aussi une option --use-context qui envoie tout le texte du PDF au modèle pour qu’il comprenne mieux le contexte de vos modifications. Et si vous créez une nouvelle slide, cette option est activée par défaut pour que le résultat soit cohérent avec le reste du document.

Voilà, si vous passez votre vie à modifier des présentations PDF et que vous en avez marre des workflows à rallonge, installez Nano-PDF . C’est open source sous licence MIT, et ça change la vie !

Merci Lorenper pour le partage !

Pixel Snapper - L'outil qui répare le pixel art baveux des IA

Par : Korben
1 décembre 2025 à 11:21

Si vous avez déjà essayé de générer du pixel art avec une IA comme Midjourney ou le nouveau modèle Nano Banana Pro de Google, vous avez forcément remarqué ce problème : c’est moche de ouf ! Enfin non, c’est pas moche dans l’absolu, mais les pixels sont tout sauf alignés sur une grille propre. On se retrouve avec des trucs qui ressemblent à du pixel art de loin, mais qui sont en fait une bouillabaisse de pixels de tailles variables, mal placés, avec des anti-aliasing qui n’ont rien à faire là.

Heureusement pour nous, Pixel Snapper va nous aider à corriger tout ça en quelques secondes !

L’outil est développé par Hugo-Dz sur GitHub dans le cadre du projet Sprite Fusion. Vous balancez votre image de pixel art foireuse, et il recale automatiquement chaque pixel sur une grille propre comme ça, fini les pixels qui font du 1,3 × 0,8 au lieu de faire un beau carré 1 × 1 comme le bon dieu du rétro gaming l’a voulu.

Voici la différence… A gauche c’est l’image IA, et à droite, c’est l’image recalée comme il faut :

Le truc cool, c’est que l’outil préserve tous les détails de votre image, c’est à dire le dithering, les courbes, les petits trucs subtils que vous ne voulez pas perdre dans la conversion. C’est pas un outil qui va vous massacrer l’image en la pixelisant bêtement même si certaines couleurs sautent car faut pas dépasser les 16 couleurs.

Voilà, il analyse la structure et recale intelligemment chaque élément sur la grille cible en moins de 2 secondes. Y’a pas besoin de vous créer un compte et c’est sans limite.

En plus, c’est gratuit et open source, donc vous pouvez l’utiliser pour vos projets perso comme pour vos jeux commerciaux sans vous poser de questions. D’ailleurs si vous bossez avec Unity, Godot, Defold ou Flame, les assets générés sont directement utilisables dans vos projets.

Voilà, si vous utilisez des générateurs d’images IA pour créer des assets de jeux rétro et que vous en avez marre de passer des heures à recaler les pixels à la main, testez Pixel Snapper !

UnMarker - Les watermarks IA ne servent à rien

Par : Korben
1 décembre 2025 à 10:20

Vous vous souvenez quand les géants de la tech ont promis à la Maison Blanche qu’ils allaient marquer toutes les images générées par IA avec des filigranes invisibles pour lutter contre les deepfakes ? Hé bien, des chercheurs de l’Université de Waterloo au Canada viennent de démontrer que c’était du pipeau avec un outil de leur cru baptisé UnMarker qui supprime n’importe quel watermark IA en quelques minutes, sans même avoir besoin de savoir comment le filigrane a été créé.

Andre Kassis et Urs Hengartner , les deux chercheurs derrière ce projet, ont publié leurs travaux lors du 46ème symposium IEEE sur la sécurité et la vie privée en mai 2025 et leurs résultats sont assez dévastateurs pour l’industrie.

En effet, ils ont testé leur attaque contre à peu près tous les systèmes de watermarking existants : Yu1, Yu2, HiDDeN, PTW, StegaStamp, TRW, Stable Signature… Et le meilleur taux de détection après passage dans UnMarker qu’ils ont obtenu c’est 43%. Et en dessous de 50%, c’est considéré comme inutile statistiquement parlant.

Ils ont aussi testé le tout nouveau, tout beau SynthID de Google, que Mountain View présente comme LA solution miracle. Et résultat le taux de détection est passe de 100% à environ 21% donc autant vous dire que c’est complètement pété.

Alors comment ça marche ce truc ?

Hé bien l’astuce d’UnMarker, c’est d’exploiter une faille fondamentale que tous les systèmes de watermarking partagent. Comme l’explique Kassis avec une analogie plutôt parlante, “Si vous gribouillez l’adresse sur une lettre, le facteur ne pourra plus la livrer.” et comme tous ces systèmes doivent stocker leur watermark dans les variations spectrales des pixels, UnMarker cible précisément ce canal pour le perturber, sans créer d’artefacts visuels. L’image reste ainsi identique à l’œil nu, mais le filigrane invisible est devenu illisible.

Unmarker.it est donc une version côté client de leur outil , qui tourne entièrement dans votre navigateur. Vous déposez une image, vous la “secouez, remuez et écrasez” comme ils disent, et hop, plus de watermark ! Par contre, si le watermark est aussi visuel comme la petite étoile de Gemini, pensez à mettre un petit coup de pinceau dessus pour la cacher.

Et c’est là que ça devient vraiment inquiétant pour la lutte contre les deepfakes car toute la stratégie des gouvernements et des plateformes repose sur l’idée qu’on peut marquer les contenus IA pour les identifier automatiquement. Donc si n’importe quel clampin peut supprimer ces marqueurs en quelques clics, tout le système s’effondre. Les chercheurs sont d’ailleurs assez cash dans leur conclusion, je cite : “Nos résultats montrent que le watermarking n’est pas une défense viable contre les deepfakes, et nous exhortons la communauté à explorer des alternatives.

Voilà, si vous pensiez que les watermarks invisibles allaient nous sauver de la désinformation par l’IA, vous vous mettez le doigt dans l’œil !

Furnace - Le tracker qui transforme votre PC en console 8 bits musicale

Par : Korben
1 décembre 2025 à 08:46

Si vous avez grandi avec les bips et les blops des consoles 8 bits et que vous avez toujours rêvé de composer vos propres musiques façon NES, Game Boy ou Mega Drive, pas besoin d’investir dans un Ableton Live ou un FL Studio à whatmille boules car je vous ai trouvé un truc qui va vous permettre de composer de la musique 8 bit comme un chef !

Ça s’appelle Furnace et c’est un tracker de chiptune open source qui émule plus de 60 puces sonores différentes et vous fera peut-être regretter de pas avoir appris le solfège quand vous étiez plus jeune..

Alors pour ceux qui ne connaissent pas, un tracker c’est un logiciel de composition musicale où on empile des notes et des patterns les uns sur les autres, un peu comme dans les jeux de rythme (Guitar Hero ?), sauf que là c’est vous qui créez la musique. Et Furnace, c’est probablement le plus gros tracker multi-système jamais créé avec plus de 200 configurations prêtes à l’emploi dispo.

Le truc vraiment cool, c’est que ce logiciel utilise des cœurs d’émulation de qualité comme Nuked, MAME, SameBoy ou encore reSID pour reproduire fidèlement le son du hardware original. Donc que vous vouliez le son crunchy du Commodore 64, les nappes FM de la Mega Drive ou les samples de l’Amiga, tout y est émulé avec une précision quasi parfaite !

Côté puces supportées, y’a vraiment de quoi faire… La famille Yamaha FM au complet (YM2151, YM2612, YM2413, l’OPL3…), les puces Nintendo (NES, SNES, Game Boy), le mythique SID du C64, les puces d’arcade Neo Geo et CPS-1, et même des trucs plus exotiques comme l’Atari 2600 ou le Vectrex. En tout, le tracker gère jusqu’à 32 puces simultanées soit 128 canaux au total… De quoi composer une symphonie 8 bits de compétition.

L’interface est entièrement modulable et vous pouvez arranger les fenêtres comme bon vous semble. Y’a même un oscilloscope par canal avec centrage de la forme d’onde pour les perfectionnistes et si vous utilisiez DefleMask avant, bonne nouvelle puisque Furnace charge et sauvegarde les fichiers .dmf et .dmw donc vous pouvez migrer tranquillou.

Pour l’export, c’est pas mal non plus puisque vous pouvez sortir vos compos en WAV (par puce ou par canal), en VGM, en ZSM pour le Commander X16, et même directement en ROM Atari 2600 ou 400/800. Hé oui, vous pouvez littéralement mettre votre musique sur une vraie cartouche si ça vous éclate, les nerdzzzz.

Le projet tourne sous licence GPL, donc c’est gratuit et open source et il est dispo pour Windows, macOS (Intel et Apple Silicon), Linux et FreeBSD.

Voilà, si vous avez la fibre chiptune et que vous cherchez un outil complet pour composer de la musique rétro, foncez tester Furnace . Peut-être que ça vous permettra enfin de créer la bande son du jeu vidéo de vos rêves !!!

SponsorBlock – Gérez les sponsors YouTube à votre façon

Par : Korben
1 décembre 2025 à 08:25

Ce matin, vous vous êtes levé, motivé, vous vous êtes posé sur l’ordinateur, très concentré, pour vous lancer dans la réparation de votre aspirateur robot qui fait encore des siennes. Vous lancez le tutoriel YouTube et au bout de 3 minutes, d’un seul coup le mec pose son tournevis et se met à vous parler de sa gourde magique sponsorisée durant 90 longues secondes.

Grmpfff… Bon, après on va pas se mentir, les sponsors, c’est ce qui permet aux créateurs de vivre de leur passion et de continuer à produire du contenu gratuit dont vous vous goinfrez comme des petits cochons grassouillets. C’est le deal. Mais parfois, quand on est pressé ou qu’on enchaîne les tutos, on aimerait bien pouvoir zapper ces passages pour y revenir plus tard évidemment (ou pas ^^).

C’est là qu’intervient SponsorBlock, une extension open source qui permet de sauter automatiquement les segments sponsorisés dans les vidéos YouTube. Le principe : quand quelqu’un identifie un passage pub dans une vidéo, il le signale via l’extension, et ensuite tous les autres utilisateurs peuvent choisir de sauter automatiquement ce passage. C’est du crowdsourcing, et plus de 13 millions de personnes utilisent l’extension .

Bien sûr, si vous utilisez ce genre d’outil et que vous appréciez vraiment un créateur, pensez à le soutenir autrement. Que ce soit via un like, un partage, un abonnement à son Patreon, ou tout simplement en désactivant l’extension sur ses vidéos. Les sponsors, c’est souvent ce qui leur permet de bouffer et de continuer à créer du contenu de qualité. Cet outil est pratique, mais il ne faut pas oublier qu’il y a des humains derrière les vidéos.

Ceci étant dit, l’extension ne se limite pas qu’aux sponsors. Vous pouvez aussi la configurer pour sauter les intros interminables, les outros avec les rappels d’abonnement, ou même les passages non-musicaux dans les clips. L’extension affiche des segments colorés sur la timeline YouTube : du jaune pour les sponsors, du vert pour les intros, du bleu pour les outros, violet pour l’auto-promo, rose pour les intermissions… Vous choisissez ce que vous voulez skipper et ce que vous gardez.

Niveau stats, les utilisateurs ont soumis plus de 17 millions de segments et il y a un système de votes qui permet d’évaluer la qualité des signalements, donc les segments mal identifiés finissent par disparaître.

L’extension est dispo sur tous les navigateurs classiques : Chrome, Firefox, Edge, Safari, Opera… Et si vous êtes sur mobile, y’a des solutions aussi. Par exemple sous Android, des apps comme ReVanced intègrent SponsorBlock nativement. Sur iOS, y’a une app dédiée pour Safari. Enfin, pour les plus geeks d’entre vous, des ports existent pour MPV, Kodi, les TV connectées, Android TV, et même Chromecast.

Côté vie privée, la base de données est publique et n’importe qui peut la télécharger ou l’auditer. Le développeur principal, Ajay Ramachandran, a même mis en place un système de requête qui préserve la vie privée, donc l’extension ne sait pas quelle vidéo vous regardez quand elle interroge le serveur.

Voilà, si vous passez beaucoup de temps sur YouTube et que vous cherchez à optimiser votre temps de visionnage, SponsorBlock peut vous intéresser. C’est gratuit et open source.

WSABuilds - Le retour du Windows Subsystem pour Android (Avec le Google PlayStore, svp !)

Par : Korben
29 novembre 2025 à 07:47

Microsoft a officiellement enterré le Windows Subsystem for Android (WSA) le 5 mars dernier car le projet n’a jamais réussi à générer d’argent et l’absence de Google Play Services a été le dernier clou dans le cercueil. Du coup, plus de mises à jour, plus de support, plus d’Amazon Appstore dans le Microsoft Store.. Snif…

Sauf que voilà, y’a des gens qui refusent de lâcher l’affaire et c’est comme ça qu’est né le projet WSABuilds dispo sur GitHub qui propose des builds pré-compilées de WSA avec tout ce qui manquait à la version officielle : le Google Play Store, Magisk ou KernelSU pour le root, et des versions stables régulièrement mises à jour !

WSABuilds vous permet donc de continuer à faire tourner des apps Android sur Windows 10 et 11, même après l’abandon de Microsoft et les builds sont disponibles en plusieurs variantes. Soit avec ou sans Google Apps, avec Magisk ou KernelSU pour le root, en version stable ou LTS…etc. Et vous avez aussi le choix entre x86_64 et ARM64 selon votre config.

L’installation est plutôt simple puisque vous n’avez qu’à télécharger l’archive depuis les releases GitHub ou OneDrive, vous extrayez tout ce bordel, vous renommez le dossier en “WSA” (important d’avoir un nom court), et vous lancez l’install via PowerShell. Le projet contient des scripts qui gèrent tout le processus, donc c’est encore plus confortable que votre chaise de gamer acheté sur Aliexpress.

Côté prérequis, il vous faut Windows 11 build 22000.526 ou plus, ou Windows 10 22H2 avec minimum 8 Go de RAM, même si 16 Go sont recommandés pour une expérience fluide. Et bien sûr, faudra activer la virtualisation dans le BIOS.

Et si vous aviez déjà WSA installé d’avant ce 5 mars 2025 fatidique, il continue de fonctionner mais sans aucune mise à jour, donc WSABuilds devient donc la seule option viable pour avoir une version maintenue et avec le Play Store intégré !

Et pour ceux qui préfèrent les alternatives classiques comme BlueStacks ou NoxPlayer , c’est toujours possible mais WSA reste la solution la plus propre car elle s’intègre nativement à Windows sans passer par un émulateur tiers.

Amusez-vous bien !

Ban-Rays - Les lunettes qui détectent les smart glasses

Par : Korben
29 novembre 2025 à 06:42

De nos jours, quand un mec chelou avec des lunettes cheloues nous fixe, on ne sait plus si c’est parce qu’il nous trouve irrésistible ou s’il est en train de balancer notre tronche à une IA pour savoir qui on est. Bon, pour vous, la question se pose peut-être moins, mais vous voyez l’idée ^^.

Heureusement, pour lutter contre ça, y’a maintenant un projet open source pour détecter ces petits curieux équipés de Ray-Ban Meta ou d’autres lunettes-caméras. Ce projet s’appelle Ban-Rays (jeu de mots avec “banned”, roh roh roh) et le but c’est de créer des lunettes capables de repérer les smart glasses équipées de caméras.

Et pour arriver à cela, le dev derrière ce projet utilise deux approches complémentaires.

La première, c’est l’approche optique basée sur un principe physique assez marrant. En effet, mes capteurs CMOS des caméras ont la particularité de renvoyer la lumière infrarouge directement vers sa source. C’est ce qu’on appelle l’effet “cat-eye” ou rétro-réflectivité, du coup, en balançant des impulsions IR vers une paire de lunettes suspecte et en analysant le signal réfléchi, on peut théoriquement détecter la présence d’une caméra. Et les capteurs produisent des pics de signal bien nets et rapides, contrairement aux surfaces réfléchissantes classiques qui génèrent des ondes plus longues.

Pour le moment, les tests avec les Ray-Ban Meta montrent des résultats un peu inconsistants à courte distance (genre 10 cm), mais le principe est là et ça s’améliore. Ah oui et le matos utilisé c’est un Arduino Uno, des LEDs infrarouges (940nm et 850nm), une photodiode et un transistor. Rien de bien méchant donc niveau budget.

Et la deuxième approche, c’est côté réseau avec la détection Bluetooth Low Energy. Les Ray-Ban Meta utilisent un identifiant fabricant spécifique (0x01AB pour Meta) et un Service UUID bien particulier (0xFD5F). Le souci c’est que pour le moment, ça ne détecte les lunettes que pendant l’allumage ou le mode appairage. Pour une détection continue pendant l’utilisation normale, faudrait du matos plus costaud genre modules nRF pour sniffer les paquets CONNECT_REQ. Mais bon, ça viendra puisque c’est dans la roadmap du projet.

Alors oui, vous allez me dire que les Ray-Ban Meta ont une petite LED qui s’allume quand elles filment, donc c’est pas discret. En théorie oui auf que cette LED est tellement minuscule que la Data Privacy Commission irlandaise a carrément remis en question son efficacité comme protection de la vie privée. Et surtout, un bidouilleur propose maintenant de désactiver cette LED pour une soixantaine de dollars. Meta a bien prévu une protection qui empêche les lunettes de fonctionner si on couvre la LED avec du scotch, mais le gars a trouvé comment contourner ça et sa liste de clients s’allonge…

Et l’autre truc que j’ai remarqué avec ces lunettes connectées, c’est qu’elles se déclenchent tout le temps pour tout et n’importe quoi. Comme ça écoute en permanence pour répondre aux commandes vocales, impossible d’avoir une conversation normale sans que le machin réagisse à un mot qui ressemble vaguement à “Hey Meta”. C’est encore pire que Siri ou Alexa qui font déjà des déclenchements intempestifs. Perso, c’est pour ça que je ne veux pas de ce genre de lunettes, même si je reconnais que c’est pratique pour photographier ou filmer des choses (dans le cadre de mon boulot hein…)

Et les inquiétudes sont d’autant plus justifiées qu’une étude de 2024 a montré qu’en combinant des Ray-Ban Meta hackées avec de la reconnaissance faciale en temps réel, on pouvait identifier des inconnus dans la rue. Encore plus récemment, l’Université de San Francisco a dû alerter ses étudiants après qu’une personne mystérieuse ait utilisé ces lunettes pour filmer des femmes sur le campus et partager les vidéos en ligne. Sympa l’ambiance de parano.

Bref, si vous êtes inquiet par ça (ou juste soucieux de votre vie privée), le projet Ban-Rays est sur GitHub avec tout le code en C++, Python et un peu de C. C’est encore expérimental mais les deux approches sont prometteuses et si vous voulez contribuer, y’a plein de trucs à améliorer comme les patterns de balayage IR, la fusion des données multi-longueurs d’onde, l’interrogation active BLE…

Source

La montre Pebble est de retour - Mais ça part en vrille

Par : Korben
29 novembre 2025 à 06:06

Je ne suis pas très montre. Je n’en porte pas, je n’en possède pas… Ce temps qui passe c’est l’angoisse mais je me souviens très bien des montres Pebble qui avec leur écran e-ink tenaient des semaines sur une charge et qui ont carrément démocratisé le concept de smartwatch grand public dès 2012.

Hé bien good news, le fondateur Eric Migicovsky a décidé de les ressusciter sauf que c’est en train de tourner au vinaigre avec les bénévoles qui ont maintenu l’écosystème durant 9 ans.

Pour ceux qui ont raté tout le feuilleton, après la faillite de Pebble en 2016 et le rachat par Fitbit (puis Google), une communauté de passionnés appelée Rebble s’est formée pour sauver les meubles. Ils ont récupéré les données de l’App Store, monté une infrastructure de serveurs, financé des développements… Bref, ils ont maintenu en vie un écosystème que tout le monde avait abandonné.

Puis en janvier 2025, Google a ouvert le code source de PebbleOS et Migicovsky a sauté sur l’occasion et a lancé sa boîte Core Devices en mars pour vendre de nouvelles montres Pebble : La Pebble 2 Duo à 149$ et la Pebble Time 2 à 225$. D’ailleurs, 70% des premières unités ont déjà été livrées. Bref, jusque là, tout va bien.

Sauf que Rebble accuse maintenant Core Devices de piller leur travail sans compensation. Selon ce qu’ils racontent leur blog , Migicovsky aurait “scrapé leurs serveurs” le jour même où il devait les rencontrer pour discuter partenariat. Rebble affirme avoir investi des centaines de milliers de dollars pour maintenir l’App Store et les services backend… et Core voudrait un accès illimité à tout ça pour potentiellement créer un App Store concurrent propriétaire.

La bibliothèque mobile libpebble3 utilisée par l’app Core Devices s’appuie notamment sur du code que Rebble a financé via son programme de subventions. Et c’est pareil pour le portage Bluetooth open source vers PebbleOS puisque c’est Rebble qui a payé les devs. Et bien sûr quand ils demandent un engagement écrit que Core ne créera pas un store concurrent… C’est silence radio.

Migicovsky a ensuite répondu sur son blog perso histoire de se justifier. Il nie tout vol et affirme que 90% du code de libpebble3 a été écrit par Core Devices, et pas par la communauté. Et pour le scraping, il explique qu’il construisait juste une petite webapp pour afficher ses watchfaces préférées et que ça n’a rien téléchargé de substantiel.

Et il contre-attaque en accusant Rebble de vouloir créer un pré-carré bien verrouillé emprisonnant les 13 000 et quelques applications que des développeurs indépendants ont créées. Rebble revendiquerait 100% des données de l’App Store alors qu’ils ne sont que l’hébergeur…

Alors qui croire ? Difficile à dire mais la bonne nouvelle c’est que Core Devices a ouvert les schémas électriques et mécaniques de la Pebble 2 Duo sur GitHub et bientôt, l’installation d’apps se fera via un système de feeds multiples, un peu comme les gestionnaires de paquets open source. Chacun pourra alors choisir son store.

Reste à savoir si les deux camps arriveront à s’entendre puisque Rebble a apparemment fait marche arrière sur certaines revendications, notamment sur la propriété du contenu hébergé. Mais le climat de confiance est sérieusement entamé et pour la communauté qui a bossé durement et gratos pendant 9 ans pour sauver tout écosystème… c’est sûr que ça fait mal de voir le fondateur original débarquer et se servir OKLM.

Après pour ceux d’entre vous qui ont une Pebble ou qui lorgnent sur les nouvelles, surveillez le subreddit r/pebble et le Discord Rebble car c’est là que tout ça se passe.

Source

Linus Torvalds - Le vibe coding c'est cool, mais pas pour du code critique

Par : Korben
19 novembre 2025 à 10:08

Linus Torvalds vient de donner son avis sur l’IA et le vibe coding et ça ne va pas plaire à tout le monde, ahahaha.

Hé oui car pendant que le monde tech se déchire entre les évangélistes de l’IA qui veulent tout automatiser et les énervés qui refusent l’IA par principe idéologique, Linus débarque dans le game avec un avis… de complet normie.

Lors de l’Open Source Summit à Séoul qui vient d’avoir lieu, Linus a partagé sa vision sur l’IA générative et le fameux “vibe coding”. Et son avis, c’est que l’IA c’est juste un outil de plus !

Ah putain, ça fait plaisir de lire ça ! ( Tout comme cet article d’ailleurs )

Le vibe coding, pour ceux qui débarquent, c’est ce terme inventé par Andrej Karpathy d’OpenAI qui consiste à décrire ce que vous voulez coder à un LLM. Ce dernière génère alors le code, et vous testez si ça marche ou si ça marche pas. Et ensuite vous demandez des ajustements et ainsi de suite !

Autant dire que c’est devenu un sujet chaud pour pleiiiins de raisons.

Bref, Linus se déclare “plutôt positif” sur le vibe coding mais uniquement comme point d’entrée en informatique. Pour des petits projets, des prototypes rapides…etc c’est top car ça permet à des gens qui ne savent pas coder de faire des trucs super ! Mais après pour du code critique en production, il est cash en expliquant que ça risque d’être “horrible, horrible d’un point de vue maintenance”. Et je ne peux pas lui donner tort.

Linus n’utilise pas personnellement d’IA pour coder mais il voit bien que des gens testent l’IA pour travailler sur du code critique dans le noyau Linux et ça il s’en méfie à raison car les mainteneurs du kernel se prennent régulièrement des bugs reports et des security notices complètement bidons générés par des gens qui utilisent mal les IA.

Les crawlers IA posent aussi des problèmes techniques sur kernel.org car ces bots qui aspirent tout le code pour nourrir leurs modèles font ramer les serveurs. Quoiqu’il en soit, Linus est plutôt modéré sur le sujet de l’IA générative pour coder et attend avec impatience le jour où l’IA sera un truc moins hype. En gros, qu’on arrête d’en parler H24 et qu’on l’utilise juste quand c’est pertinent…

C’est vrai que d’un côté, vous avez ces fifous pro-IA à toutes les sauces qui pensent qu’on va tous devenir des prompt engineers et que les devs vont disparaître (spoiler : non). Et de l’autre, les donneurs de leçons en pureté technologique qui refusent l’IA en bloc sans jamais se poser la moindre question.

Du coup, je vous avoue que je suis content de voir qu’au milieu de tout ce bordel, y’a ce bon vieux Linus qui nous explique que c’est juste un stupide outil et qu’il faut simplement apprendre à l’utiliser intelligemment.

Y’aura bien sûr des comiques qui vont dire que Linus s’est “radicalisé” car avoir un avis nuancé en 2025, c’est devenu extrémiste de ce que j’ai pu voir ces derniers jours, mais sachez que Linus a un peu de bagage historique. Il se souvient par exemple, comme je le disais en intro, du même genre de débats quand les compilateurs sont arrivés. A l’époque, y’avait les puristes du pissage de code qui hurlaient que ça allait tuer le métier de “programmeur” alors qu’au final, ça a juste augmenté la productivité, la sécurité et que ça a permis de faire des trucs plus complexes.

Voilà… l’IA, c’est TOUT PAREIL. Ça va changer la manière dont on code au quotidien, mais ça va pas remplacer les devs (pas tout de suite en tout cas). Ça va juste les rendre plus productifs comme n’importe quel nouvel outil dispo dans votre boite à outils.

Et pour les fans de vibe coding qui veulent quand même l’utiliser sérieusement, gardez en tête les limites du truc. N’oubliez pas que vous ne pouvez pas comprendre ce que le code fait si vous ne le passez pas en revue. Et vous ne pourrez pas le débugger proprement, le maintenir sur le long terme, ou encore le sécuriser si vous ne comprenez pas précisément ce qu’il fait. Donc forcez-vous un peu ;-) !

Merci Linus !

Source

Itoa - Pour convertir une image en ASCII Art

Par : Korben
19 novembre 2025 à 08:16

Vous avez un iPhone qui prend des photos 48 mégapixels, un écran Retina qui affiche 254 pixels par pouce, et des GPU qui font tourner des jeux en 4K mais ce que vous n’avez pas c’est Itoa , un outil web qui fait exactement l’inverse puisqu’il transforme vos images haute-définition en une grille de caractères ASCII monochrome / couleur de 10 symboles maximum (Par exemple : .:-=+*#%@).

Car l’ASCII art, c’est littéralement la mise à mort volontaire de l’image. Vous prenez quelque chose qui a besoin de millions de pixels pour exister et vous le réduisez à une poignée de caractères typographiques et en 2025, ça continue !

Sur que itoa (ça veut dire “image to ascii art”, au fait) fait ça très bien ! C’est donc, vous l’aurez compris, un convertisseur image-vers-ASCII codé en React et Vite qui tourne directement dans votre navigateur. Vous glissez dessus une image JPG, PNG ou GIF, et hop, l’outil vous la transforme en grille de caractères.

Deux modes sont dispo : monochrome pur et dur, ou couleur où chaque caractère hérite de la teinte du pixel d’origine. Vous pouvez aussi contrôler la taille de sortie (petit, moyen, grand) et exporter le résultat en PNG si vous voulez le partager ou l’imprimer.

Techniquement, itoa utilise l’API Canvas HTML5 pour analyser votre image. Ensuite, l’image est redimensionnée en gardant son ratio, puis chaque pixel est analysé. Pour le mode monochrome, l’algorithme calcule la luminance et ensuite l’outil mappe la valeur sur une échelle de caractères allant du plus clair (.) au plus foncé (@). Et pour le mode couleur, chaque pixel conserve sa couleur RGB d’origine via des balises HTML.

Bien sûr, itoa n’est pas le seul convertisseur ASCII du monde. Y’a pas exemple ManyTools.org qui fait le job depuis des années, Folge.me avec son interface moderne et ses options couleur, ou encore ASCII-Art-Generator.org qui peut exporter en SVG.

Bref, si vous aimez la nostalgie tech ou si vous voulez illustrer des .txt, c’est l’outil qu’il vous faut !

A découvrir ici !

SpaghettiKart - Le portage PC / Switch de Mario Kart 64

Par : Korben
19 novembre 2025 à 07:49

SpaghettiKart est sorti en juin dernier et c’est le portage sur PC / Switch de Mario Kart 64, signé HarbourMasters. Si ce nom vous dit quelque chose, c’est normal car ce sont les mêmes qui ont porté Zelda Ocarina of Time avec Ship of Harkinian, Zelda Majora’s Mask avec 2Ship2Harkinian, et Star Fox 64 avec Starship . Quatre jeux N64 majeurs portés avec la même méthode, ce n’est plus du bricolage. Ils ont industrialisé le portage N64, je pense !

Et la clé, c’est libultraship . Il s’agit d’une lib qui d’éviter le gros du boulot technique pour porter des jeux N64 vers des plateformes modernes. Grâce à ça, chaque nouveau portage devient un projet de quelques mois au lieu de plusieurs années. Ship of Harkinian a défriché le terrain et maintenant, le pipeline est bien rodé.

Le fonctionnement de SpaghettiKart est simple. Vous lui fournissez votre ROM Mario Kart 64 US légale, vous générez un fichier O2R avec l’outil fourni, et vous lancez le jeu ! SpaghettiKart tourne sur Windows, Linux, macOS (pas de binaire dispo encore) et même Nintendo Switch. Comme les backends graphiques supportent DirectX11, OpenGL et Metal, c’est multiplateforme dès le départ.

Et les fonctionnalités sont celles que Nintendo devrait proposer mais ne propose pas comme le support ultrawide et 4K, une fréquence d’images élevées, de l’antialiasing, un niveau de détails poussé au mac et des contrôles personnalisables. Y’a même la possibilité de mettre vos assets customs et d’éditer des circuits donc autant dire que les moddeurs vont de régaler…etc. Bref, tout ce que Mario Kart 64 aurait dû devenir si Nintendo y avait mis 1 % de l’énergie qu’ils mettent à envoyer des DMCA .

Techniquement, SpaghettiKart est encore en work-in-progress, ça peut planter et toutes les fonctionnalités ne sont pas encore implémentées, mais le jeu est déjà jouable et fonctionnel.

HarbourMasters cible les jeux N64 emblématiques que Nintendo refuse de moderniser correctement… Bref, le catalogue N64 est en train de se faire sauver par trois dev bénévoles.

Voilà, donc si vous voulez jouer à Mario Kart 64 en ultrawide à 120 FPS avec vos propres circuits custom, allez voir SpaghettiKart sur GitHub .

Merci au matinal Lorenper pour l’info !

iMessage Exporter - Pour faire un backup de vos conversations iMessage

Par : Korben
19 novembre 2025 à 07:29

Vous avez combien de messages iMessage sur votre Mac ?

10 000 ? 50 000 ? Plus ????

Vous en avez des amis, dites moi ! Et maintenant, petite question piège : Combien de ces messages pouvez-vous réellement exploiter en dehors de l’app Messages d’Apple ?

Hé bien la réponse va vous surprendre (non) : zéro !

Hé oui, car vos conversations sont stockées dans une base SQLite quelque part sur votre disque dur , mais Apple a fait en sorte que vous ne puissiez rien en faire. Les pièces jointes sont planqués dans des dossiers obscurs avec des noms aléatoires, les métadonnées sont éclatées sur une quinzaine de tables, et les timestamps sont au format Apple (pas Unix). Vous pouvez donc ouvrir la base avec DB Browser si vous voulez, mais vous allez juste pleurer du sang devant votre écran et perdre votre joie de vivre.

Et le plus beau dans tout ça c’est qu’Apple ne propose AUCUN moyen d’exporter vos messages. Y’a rien. Y’a des boutons d’export pour vos photos, pour vos mails, pour vos contacts, mais pour vos SMS et iMessages, c’est podzob !

Donc si vous voulez quitter l’écosystème Apple et migrer vers Android (mais qui fait ça ??? lol), bonne chance pour récupérer ces 10 ans de conversations torrides avec Monique de la compta. Et si vous avez besoin d’archiver des échanges professionnels pour raisons légales, à part faire des centaines de captures écran ou de copier coller, j’vois pas.

Heureusement, un dev nommé ReagentX en a eu marre de cette situation et a créé imessage-exporter, un outil open source en Rust qui fait exactement ce qu’Apple refuse de faire à savoir vous donner accès à VOS propres données dans un format lisible et portable.

L’outil tourne sur macOS évidemment, mais aussi sur Linux et Windows. Comme ça, même si vous avez viré votre Mac depuis 3 ans, vous pouvez quand même récupérer votre ancienne base iMessage et l’exporter tranquillement depuis votre machine Ubuntu ou Windows.

Et au niveau des formats d’export, vous avez le choix entre du txt et du html. Le format html est particulièrement bien foutu parce qu’il recrée l’interface visuelle d’iMessage avec vos bulles bleues et grises, les heures d’envoi, et surtout il préserve tous les médias : photos, vidéos, audios, tout y passe. Vous vous retrouvez avec un site html statique que vous pouvez ouvrir dans n’importe quel navigateur et parcourir comme si vous étiez dans l’app Messages, sauf que là c’est rien qu’à vous et personne peut vous le reprendre (sauf le karma ^^).

Pour l’install, si vous êtes à l’aise avec Rust, hop, un simple cargo install imessage-exporter fera l’affaire. Sinon y’a un package Homebrew (brew install imessage-exporter) ou des binaires précompilés sur la page du projet pour Mac Intel et Apple Silicon.

Notez qu’il vous faudra aussi installer ImageMagick et ffmpeg pour la conversion des pièces jointes, mais rien de sorcier. Ensuite, côté utilisation, c’est de la ligne de commande pure et dure. Par exemple, pour exporter toutes vos conversations en html avec les médias dans votre dossier personnel, vous tapez :

imessage-exporter -f html -c clone

Si vous voulez exporter uniquement les conversations avec un contact spécifique, vous pouvez filtrer par numéro de téléphone :

imessage-exporter -f html -c clone -t "0612345678"

Et si votre base iMessage est corrompue ou que vous soupçonnez des problèmes, l’outil intègre aussi une fonction diagnostic qui va scanner la base et vous remonter les anomalies.

Et l’outil gère iMessage, RCS, SMS, MMS, les conversations de groupe, les messages formatés, les threads de réponse, les messages édités, les traductions, les sondages, les votes, et même les arrière-plans de chat custom. C’est ouf ! Et ça c’est parce que ReagentX maintient ce projet depuis des années et suit les updates Apple en temps réel, ce qui n’est franchement pas une mince affaire vu qu’Apple change régulièrement le schéma de leur base.

Normal que ce projet cartonne !

Voilà si vous tenez un minimum à vos données, allez faire un tour sur le repo GitHub d’imessage-exporter … çaa prend 10 minutes à installer, et vous dormirez mieux en sachant que vos échanges et autres souvenir seront conservés bien au chaud sur votre prochain backup.

Et un grand merci à Lorenper de m’avoir signalé ce projet.

SimpMusic - L'app Android qui libère Youtube Music

Par : Korben
19 novembre 2025 à 06:37

Google a YouTube Music ave un budget illimité, des équipes entières de devs, des serveurs partout dans le monde… et pourtant une autre app Android open source fait mieux le job ! Cette app c’est SimpMusic et vous allez l’adorer !

Car oui, YouTube Music officiel , c’est bridé à mort. Y’a pas lecture possible en tâche de fond sans l’option premium, y’a des pubs et des trackers partout et pas de canvas comme sur Spotify (canvas, ce sont les petites vidéos qui tournent en boucle quand vous lisez une chanson). Bref, c’est pas ouf.

Du coup, le dev de SimpMusic a eu pour idée de balancer tout ce que YouTube Music officiel refuse de vous donner : De la lecture sans pub ET en tâche de fond (vous pouvez sortir de l’app et la musique continuera à jouer), de quoi vous balader dans les nouveaux podcasts et les tubes du moment et autres playlists et y’a même du cache offline et la possibilité de vous lancer dans la lecture de paroles synchronisées avec la musique. SimpMusic offre aussi un SponsorBlock intégré, et des fonctionnalités comme le retour des dislike, le support Android Auto, des suggestions et traduction IA, et un timer qui coupe tout au bout d’un moment si vous vous endormez en musique… Bref, que des bonnes idées !

Et tout cela est codé en Kotlin et utilise les API cachées de YouTube Music. C’est donc du bon gros reverse engineering pur et simple. D’où le côté beta de l’app qui peut parfois se comporter bizarrement. Mais si ça vous dit de tester, vous pouvez choper ça sur F-Droid, IzzyOnDroid, ou directement sur les releases GitHub. Évidemment, vous ne la trouverez pas sur le Play Store puisque Google n’aime pas ce genre d’app. Ils ont même banni Spotube de leur store officiel.

Quoiqu’il en soit, si un jour Google peut décider de couper les API “cachées” ou de bannir l’app, ça sera très facile pour eux. Comme d’hab, c’est un jeu du chat et de la souris entre les devs et le géant de la tech.

Merci à Lorenper de m’avoir signalé ce projet et chapeau à maxrave-dev pour avoir osé coder ce que Google refuse de donner.

Docker Manager - Pour gérer vos conteneurs depuis votre smartphone

Par : Korben
17 novembre 2025 à 10:09

Vous vous souvenez de la dernière fois où vous avez dû redémarrer un container Docker en urgence depuis votre téléphone, planqué dans les chiottes du resto un jour de St Valentin ?

Le minuscule clavier, la connexion SSH qui rame, les commandes qu’on tape mal parce que l’autocorrect veut absolument transformer “docker ps” en “docker pas”, l’écran trop petit pour lire les logs… Bref, la grosse merde !!

Heureusement, Docker Manager débarque pour transformer ce cauchemar en expérience qui fait plaisir aux yeux. C’est une app Android qui gère vos containers Docker à distance, et c’est tellement bien foutu que vous allez enfin arrêter d’ouvrir votre laptop n’importe où juste pour faire un simple restart.

C’est vrai que faire du SSH depuis un smartphone, ça a toujours été possible. Y’a même plein d’apps terminal mobiles, de clients fait pour ça, même des bidouilles pour se connecter à vos serveurs. Mais “possible” et “agréable”, c’est pas vraiment la même chose.

Grâce à Docker Manager ce sera donc possible ET agréable ! Vous gérez déjà Docker, vous connaissez déjà les commandes, vous savez ce que vous faites mais au lieu de vous faire taper des commandes dans un terminal de 5 pouces, l’app vous offre une interface utilisateur carrée avec des boutons, des statistiques en temps réel, des logs lisibles, et même un shell interactif quand vous en avez vraiment besoin !

Vous connectez donc vos serveurs via SSH (mot de passe ou clé, comme d’hab), et hop, vous aurez accès à tout. Start/stop/restart de containers, inspection des images, gestion des volumes et des networks, stats CPU/RAM en direct… Tout ce que vous feriez normalement en SSH, mais sans vous arracher les yeux sur un terminal mobile.

Autre truc sympa, l’app supporte plusieurs serveurs, donc vous pouvez switch entre votre VPS perso, votre homelab, et votre serveur de prod en deux tapotages ^^. Elle gère aussi les VPN comme Tailscale, donc si vos serveurs sont derrière un réseau privé, pas de problème. Elle propose même des thèmes light/dark, parce que oui, même en pleine nuit à 3h du matin quand un container plante, vous avez le droit à votre petit confort visuel.

L’app supporte aussi Podman. Vous configurez juste votre CLI Docker custom, et ça marche ! Et en plus, c’est open source ! Vous pouvez même faire du cleanup système pour virer les images et containers qui traînent histoire de faire un peu de ménage.

L’app est dispo sur le Play Store et sur GitHub pour ceux qui veulent build depuis les sources ou juste regarder le code. Testez, vous verrez, ça change la vie.

Merci à Friendly_0day pour le partage !

SARCASM - Ce robot résout un Rubik's Cube en vous insultant

Par : Korben
5 novembre 2025 à 10:04

En mai de cette année, des étudiants de Purdue ont battu le record du monde du robot résolveur de Rubik’s Cube grâce à leur machine, Purdubik’s Cube qui a torché un cube en 0.103 secondes !! Plus rapide que moi mais surtout plus rapide qu’un clin d’œil !

Et pendant ce temps, un autre passionné de Rubik’s Cube, Vindar , bossait tranquillement sur SARCASM , un autre robot qui résout aussi des Rubik’s Cubes, sauf que lui, il prend son temps ! Et surtout, il vous clashe pendant qu’il le fait. Il a une voix, des animations, un système d’humeur, et une personnalité de collègue insupportable ! Il est lent, il est sarcastique, il est inutilement compliqué, et c’est exactement pour ça qu’il est génial, vous allez voir !

SARCASM, ça veut dire Slightly Annoying Rubik’s Cube Automatic Solving Machine . Déjà rien que le nom c’est tout un programme. Et ce robot n’a qu’un seul objectif : résoudre des cubes en étant légèrement casse couilles. Pas hyper rapide, pas hyper efficace, juste chiant ce qu’il faut.

Le projet a démarré pendant COVID, quand tout le monde était enfermé chez soi à chercher des trucs à faire. Certains comme moi ont fait de la brioche, d’autres ont regardé Netflix en boucle et Vindar, lui, s’est dit qu’il allait créer un robot qui insulte les gens. Et nous voilà, 5 ans avec un robot qui vanne. Oui, Vindar est du genre persévérant !

Techniquement, SARCASM est un concentré de tech aussi cool qu’absurde. Le cerveau, c’est un Teensy 4.1, un microcontrôleur ARM Cortex-M7 qui tourne à 600 MHz. Pour la vision, il a utilisé une ESP32-CAM qui capture l’état du cubeet un écran ILI9341 pour afficher une tête avec des animations lip-sync. Des moteurs pas à pas (je crois que c’est comme ça qu’on dit ^^) et des servos pour manipuler le cube, des capteurs de position, un chouette éclairage RGBW, deux batteries 18650 Li-ion avec un port de charge USB-C et il a calé tout ça dans un boîtier imprimé en 3D avec un PCB custom.

Mais le logiciel les amis, c’est là que ça devient vraiment foufou car y’a du text-to-speech avec espeak-ng, des graphiques 2D et 3D custom, des animations qui bougent en temps réel et même comme je vous le disais, un système de dialogues basé sur l’humeur du robot, avec randomisation pour que chaque interaction soit différente.

Evidemment, SARCASM dispose aussi d’un algorithme de résolution du cube avec du décodage JPEG en temps réel pour la reconnaissance des couleurs, du multithreading avec gestion d’interruptions, bref, tout ce qu’il faut pour résoudre des Rubik’s Cube et créer une personnalité à cette machine.

Le robot détecte même quand vous vous foirez en manipulant le cube, juste pour pouvoir vous clasher dessus. Chaque détail technique sert un seul objectif qui est de rendre cette machine “vivante”.

Pour faire tenir tout ça, Vindar a dû modifier le noyau du Teensy. Parce que oui, même avec 600 MHz et un ARM Cortex-M7, il fallait optimiser pour que tout rentre dans la RAM et il a mis tout son code en open-source, sous licence GPL-3.0. Après, comme le précise le dev, son code est incomplet et bordélique mais bon, ça fonctionne…

Et surtout, le robot est autonome. Vous posez un cube standard dessus, il le scanne, il calcule, il résout, tout ça offline sans API ou service de cloud.

Le projet a été présenté en détails sur le forum PJRC , la communauté autour des cartes Teensy et les retours sont unanimement positifs ! Puis au moment, celui-là on s’en souviendra !

Merci à Lorenper pour le partage de cette découverte !

LADA - L'IA qui dé-pixelise les aubergines

Par : Korben
27 octobre 2025 à 13:50

Vous connaissez l’Article 175 du Code Pénal japonais ?

Non ? Hé bien croyez le ou non, mais c’est une loi de 1907 qui interdit les représentations explicites d’appareils reproducteurs. Les japonais sont des anges, ils n’ont ni zézette, ni pépette ^^. Du coup, tous les films adultes japonais sont pixelisés depuis plus d’un siècle. 118 ans que ça pixelise à tout va mais LADA vient de sortir et va changer cela ! En fait c’est une IA open source qui retire la pixelisation sur les vidéos.

Mais avant, revenons un peu sur cette loi bizarre. L’Article 175 date de la période Meiji, et il classe comme obscènes les représentations explicites d’organes génitaux. Cette définition légale de l’obscénité, c’est donc du contenu qui excite sexuellement, offense la pudeur, et viole les concepts moraux. Et les sanctions sont assez élevées : 2 ans de prison et 2,5 millions de yens d’amende. Du coup, tous les studios auto-censurent leurs productions à base de pixelisation, floutage, barres de censure et j’en passe. Leur traditionnelle mosaïque, n’est donc pas une coutume, mais un moyen de contourner cette loi centenaire.

C’est pour cela qu’ un dev anonyme a sorti LADA , un outil Python open source qui retire la pixelisation des vidéos. Vous prenez une vidéo JAV censurée (Japanese Adult Video), vous la passez dans LADA, et l’IA détecte alors les zones pixelisées et les restaure. Et tout cela en temps réel si vous avez un bon GPU ou via un export si vous êtes plus patient.

Techniquement, LADA utilise deux types de modèles IA . Le premier pour la détection et le second pour la restauration. Plusieurs déclinaisons des modèles sont dispo si vous voulez plus de précision ou de qualité… Et pour les faire tourner, vous avez besoin d’un GPU Nvidia CUDA, idéalement une RTX 20xx ou plus récent, avec 4 à 6GB de VRAM pour du 1080p. Et pour les fans de 4K, comptez 6 à 8GB de RAM.

Après au niveau des résultats, c’est assez aléatoire. Parfois ce sera bien, parfois ce ne sera pas foufou(ne).

Et sinon comme ça s’installe ? Et bien ce sera via Flatpak pour Linux via Flathub , Docker en CLI si vous aimez les conteneurs, ou en décompressant l’archive .7z standalone sur Windows.

Y’a une interface CLI pour les puristes, une GUI pour les autres puis vous chargez votre vidéo, vous choisissez vos modèles de détection et restauration, vous lancez, et ça traite. Vous pouvez regarder ensuite le résultat (en temps réel si votre GPU suit).

Maintenant, concernant la légalité de la dé-censure, j’imagine que c’est OK si c’est pour une utilisation personnelle hors du Japon. Par contre, si vous êtes au japon, interdiction d’utiliser ce truc évidemment !

Merci à ce coquin de Lorenper pour la découverte 🙏

Duke Nukem: Zero Hour enfin décompilé !

Par : Korben
24 octobre 2025 à 08:40

Duke Nukem a sauvé le Far West de 1848, le futur post-apocalyptique et le Londres victorien de 1888, mais pendant 26 ans, il est resté coincé dans la prison ultime : une cartouche Nintendo 64 dont personne n’avait le code source.

Vous connaissez très probablement Duke Nukem 3D, le FPS culte de 1996 avec ses répliques iconiques et son humour trash, mais vous avez peut-être oublié Duke Nukem: Zero Hour, sorti en 1999 sur N64. C’était un jeu assez différent puisqu’il s’agissait d’un TPS (third-person shooter) développé par Eurocom, où Duke devait voyager dans différentes époques pour sauver le monde. Le concept était sympa, la réalisation correcte, mais c’est un jeu qui a été complètement éclipsé par les Perfect Dark et autres Goldeneye de l’époque. Snif !

Il était donc temps de le faire revenir dans le présent ! Et c’est ce qu’a fait Gillou68310 qui vient après des années de travail, de terminer la décompilation complète de Duke Nukem: Zero Hour . 100% du code machine original a été reconverti en code source C lisible et modifiable.

Le projet est sur GitHub et on y retrouve à la fois la version US et la version française du jeu et grâce à cette décompilation complète, d’autres développeurs peuvent maintenant bosser sur un port PC natif du jeu. Soit avec une approche custom comme le Ship of Harkinian (le port PC de Zelda: Ocarina of Time), soit via N64 Recomp , un projet dont je vous ai déjà parlé plusieurs fois.

Cet outil développé par Wiseguy peut transformer du code N64 en code C natif en quelques secondes (contre des années pour une décompilation traditionnelle) et avec cette décompilation de Zero Hour terminée, la route est toute tracée pour un portage rapide avec support des mods, du ray tracing via RT64 et même de la 4K.

Alors oui, Zero Hour n’était pas le meilleur jeu N64 de l’histoire c’est sûr, mais c’était un Duke Nukem oublié, avec des mécaniques intéressantes et une direction artistique sympa pour l’époque. Et grâce au boulot de Gillou68310 et de la communauté, il va pouvoir s’échapper de sa cartouche et rejoindre notre époque dans les meilleures conditions !

Pour ceux que ça intéresse, le repo GitHub est disponible ici mais attention, vous aurez besoin de votre propre ROM du jeu pour extraire les assets et compiler (c’est légal uniquement si vous possédez le jeu original).

Source

WinBoat - Lancez des applications Windows sous Linux comme si elles étaient natives

Par : Korben
20 octobre 2025 à 09:32

Les Linuxiens ont beau dire que Linux peut TOUT faire, ils gardent presque tous un dual-boot ou une VM Windows planquée quelque part pour lancer Photoshop ou remplir une page web administrative qui plante sous Firefox. C’est ça la définition du déni, les amis ^^.

Alors bien sûr, y’a Wine qui existe depuis plus de 20 ans, mais bon faut bidouiller des préfixes, installer des DLL manquantes, fouiller sur WineHQ et au final, c’est toujours du rafistolage à se taper.

Alors comme le fait Winapps , il y a aussi WinBoat , un outil capable de faire tourner un Windows dans un container Docker. Pas d’émulation, pas de traduction d’API, pas de prière à saint Wine pour que votre app se lance. Ça lance de vraies apps Windows !

Techniquement, WinBoat utilise donc Docker et KVM pour faire tourner Windows dans un container. Electron gère l’interface, FreeRDP se connecte à Windows via le protocole RemoteApp, et vos apps Windows apparaissent comme des fenêtres normales sur votre bureau Linux.

Vous cliquez sur une icône, hop, l’app se lance, et vous oubliez qu’il y a une VM qui tourne en arrière-plan.

L’installation de Windows est également automatisée. Vous lancez WinBoat, ça télécharge et configure tout, tout seul, et après c’est prêt. L’intégration filesystem permet d’accéder vos fichiers Linux depuis les apps Windows et le passthrough USB et smartcard fonctionne, ce qui règle le problème des signatures électroniques pour les démarches administratives dont je parle un peu plus haut.

Photoshop, Illustrator, InDesign, c’est clair que ces apps ne tourneront jamais correctement sous Wine parce qu’Adobe n’a jamais pensé son code pour être portable alors qu’avec WinBoat, elles tournent. Office 365 aussi, pour les boîtes qui imposent Teams et SharePoint. Ah et Affinity Photo pareil ça roule impecc aussi.

WinBoat assume quand même ses limites dès le départ car y’a pas de passthrough GPU pour le moment, donc les apps lourdes en 3D rameront. Pas de support non plus des jeux avec anti-cheat, mais le Steam Deck fait ça mieux de toute façon. Et notez qu’il vous faudra minimum 4 Go de RAM rien que pour WinBoat, parce qu’un Windows léger ça n’existe pas !

Le projet est open source sous licence MIT, gratuit, dispo en AppImage, .deb, .rpm, ou via AUR pour Arch. Docker CLI est obligatoire, mais pas Docker Desktop et FreeRDP 3.x.x avec le support son aussi. KVM aussi doit être activé sur votre système.

Bref, WinBoat c’est comme Winapps, très sympa à tester car ça marche très bien même si les perfs ne seront jamais celles d’un Windows natif. C’est dispo sur GitHub avec toute la doc si ça vous chauffe.

Merci à Lorenper pour le soft.

Vault - L'app open source qui collecte vos liens, notes et images

Par : Korben
17 octobre 2025 à 16:16

Fin de journée, c’est presque le week end et en plus les vacances scolaires sont là ! Mais je ne pouvais pas finir ma journée sans vous parler de Vault. Vault c’est une application Electron pour Mac, Windows et Linux qui vous permet de sauvegarder vos liens, vos notes et vos images à 100% en local sur votre machine.

Vous installez l’app, vous créez un ou plusieurs “coffres” (des dossiers qui organisent votre contenu), et vous commencez à sauvegarder tout ce qui vous intéresse. L’app extrait automatiquement les métadonnées des liens que vous lui donnez, le temps de lecture estimé, les infos produit si c’est une page e-commerce, et comme ça, tout reste bien organisé dans votre interface.

Vault propose aussi une extension navigateur pour Chrome, Firefox et dérivés. Comme ça, si vous tombez sur un article intéressant, hop, un clic et c’est sauvegardé directement dans votre coffre local. Et pas besoin d’ouvrir l’app, car l’extension communique directement avec elle en arrière-plan.

Ce qui me plaît dans cette approche, c’est qu’on revient aux bases. Rien n’est stocké en ligne, et si vous gérez bien vos sauvegardes, tout restera chez vous ad vitam eternam ! Après comme y’a pas de synchro native entre vos appareils, si vous bossez sur deux ou trois machines différentes, faudra gérer ça à la main avec un Dropbox ou iCloud Drive en plaçant vos coffres dans un dossier synchronisé. Mais bon, on peut pas tout avori dans la vie.

L’app supporte le Markdown pour vos notes, ce qui est sympa si vous aimez écrire en texte formaté et vous pouvez importer vos bookmarks depuis Chrome en deux clics, et exporter vos coffres pour les partager ou les archiver.

Le projet est open source sous licence MIT et est dispo ici .

Vault ne va pas changer votre vie mais c’est une app qui fait ce qu’on lui demande, sans chichi, sans tracking, sans casser les pieds et ça, moi j’adore !

❌
❌