Vue normale

Il y a de nouveaux articles disponibles, cliquez pour rafraîchir la page.
Hier — 1 décembre 2025Flux principal

Pixel Snapper - L'outil qui répare le pixel art baveux des IA

Par : Korben
1 décembre 2025 à 11:21

Si vous avez déjà essayé de générer du pixel art avec une IA comme Midjourney ou le nouveau modèle Nano Banana Pro de Google, vous avez forcément remarqué ce problème : c’est moche de ouf ! Enfin non, c’est pas moche dans l’absolu, mais les pixels sont tout sauf alignés sur une grille propre. On se retrouve avec des trucs qui ressemblent à du pixel art de loin, mais qui sont en fait une bouillabaisse de pixels de tailles variables, mal placés, avec des anti-aliasing qui n’ont rien à faire là.

Heureusement pour nous, Pixel Snapper va nous aider à corriger tout ça en quelques secondes !

L’outil est développé par Hugo-Dz sur GitHub dans le cadre du projet Sprite Fusion. Vous balancez votre image de pixel art foireuse, et il recale automatiquement chaque pixel sur une grille propre comme ça, fini les pixels qui font du 1,3 × 0,8 au lieu de faire un beau carré 1 × 1 comme le bon dieu du rétro gaming l’a voulu.

Voici la différence… A gauche c’est l’image IA, et à droite, c’est l’image recalée comme il faut :

Le truc cool, c’est que l’outil préserve tous les détails de votre image, c’est à dire le dithering, les courbes, les petits trucs subtils que vous ne voulez pas perdre dans la conversion. C’est pas un outil qui va vous massacrer l’image en la pixelisant bêtement même si certaines couleurs sautent car faut pas dépasser les 16 couleurs.

Voilà, il analyse la structure et recale intelligemment chaque élément sur la grille cible en moins de 2 secondes. Y’a pas besoin de vous créer un compte et c’est sans limite.

En plus, c’est gratuit et open source, donc vous pouvez l’utiliser pour vos projets perso comme pour vos jeux commerciaux sans vous poser de questions. D’ailleurs si vous bossez avec Unity, Godot, Defold ou Flame, les assets générés sont directement utilisables dans vos projets.

Voilà, si vous utilisez des générateurs d’images IA pour créer des assets de jeux rétro et que vous en avez marre de passer des heures à recaler les pixels à la main, testez Pixel Snapper !

À partir d’avant-hierFlux principal

Génération ultra connectée, génération ultra ciblée ? Découvrez comment la Gen-Z peut améliorer sa sécurité en ligne

1 octobre 2025 à 08:00
Les “Digital Natives” (ou natifs/enfants du numérique) sont à l'aise avec la technologie, mais seraient davantage exposés aux arnaques en ligne et autres menaces. En tout cas, bien plus qu'ils ne le pensent.

Itoa - Pour convertir une image en ASCII Art

Par : Korben
19 novembre 2025 à 08:16

Vous avez un iPhone qui prend des photos 48 mégapixels, un écran Retina qui affiche 254 pixels par pouce, et des GPU qui font tourner des jeux en 4K mais ce que vous n’avez pas c’est Itoa , un outil web qui fait exactement l’inverse puisqu’il transforme vos images haute-définition en une grille de caractères ASCII monochrome / couleur de 10 symboles maximum (Par exemple : .:-=+*#%@).

Car l’ASCII art, c’est littéralement la mise à mort volontaire de l’image. Vous prenez quelque chose qui a besoin de millions de pixels pour exister et vous le réduisez à une poignée de caractères typographiques et en 2025, ça continue !

Sur que itoa (ça veut dire “image to ascii art”, au fait) fait ça très bien ! C’est donc, vous l’aurez compris, un convertisseur image-vers-ASCII codé en React et Vite qui tourne directement dans votre navigateur. Vous glissez dessus une image JPG, PNG ou GIF, et hop, l’outil vous la transforme en grille de caractères.

Deux modes sont dispo : monochrome pur et dur, ou couleur où chaque caractère hérite de la teinte du pixel d’origine. Vous pouvez aussi contrôler la taille de sortie (petit, moyen, grand) et exporter le résultat en PNG si vous voulez le partager ou l’imprimer.

Techniquement, itoa utilise l’API Canvas HTML5 pour analyser votre image. Ensuite, l’image est redimensionnée en gardant son ratio, puis chaque pixel est analysé. Pour le mode monochrome, l’algorithme calcule la luminance et ensuite l’outil mappe la valeur sur une échelle de caractères allant du plus clair (.) au plus foncé (@). Et pour le mode couleur, chaque pixel conserve sa couleur RGB d’origine via des balises HTML.

Bien sûr, itoa n’est pas le seul convertisseur ASCII du monde. Y’a pas exemple ManyTools.org qui fait le job depuis des années, Folge.me avec son interface moderne et ses options couleur, ou encore ASCII-Art-Generator.org qui peut exporter en SVG.

Bref, si vous aimez la nostalgie tech ou si vous voulez illustrer des .txt, c’est l’outil qu’il vous faut !

A découvrir ici !

Dyad - Créer des apps web avec l'IA sans coder et sans sacrifier vos données perso

Par : Korben
9 octobre 2025 à 07:17

Vous connaissez ces outils qui promettent de créer des apps web juste en discutant avec une IA ? Genre Lovable, v0, Bolt, Replit…etc. C’est magique, sauf que tout tourne dans le cloud, vos données passent par leurs serveurs et vous êtes du coup enfermés dans leur écosystème.

Hé bien Dyad fait la même chose, mais un peu différemment puisque tout tourne en local sur votre machine. En plus c’est open-source et c’est gratuit.

Dyad, c’est donc un builder d’applications web piloté par IA. Vous lui expliquez ce que vous voulez, il génère le code directement chez vous sur votre machine et le truc cool, c’est qu’il vous laisse choisir votre modèle IA.

ChatGPT d’OpenAI, Gemini 2.5 Pro de Google, Claude Sonnet 4.5 d’Anthropic, prenez ce que vous voulez, vous mettez vos propres clés API et ça roule. Et si vous tenez vraiment à une vie privée totale, vous pouvez même utiliser Ollama pour faire tourner des modèles en local sans jamais que ça se connecte à internet.

Le projet est dispo sur GitHub , c’est codé en TypeScript, ça s’installe sur Mac et Windows, et y’a aucune inscription requise. Bref, vous téléchargez, vous lancez, et ça marche.

Dyad s’intègre avec Supabase pour la partie backendce qui permet d’avoir une bonne authentification, une base de données, des fonctions serveurr…etc. Tout y est, du coup vous pouvez créer des vraies apps full-stack, et pas juste des interfaces statiques comme on peut le faire avec mon petit LocalSite . Vous partez d’une idée, vous discutez avec l’IA, et vous sortez une application complète qui tourne sur votre machine en full vibe coding !

Il y a bien sûr des plans payants mais la version gratuite fait déjà le job pour du développement solo. Le créateur de Dyad s’appelle Will Chen et a même monté une communauté Reddit r/dyadbuilders où chacun montre un peu ce qu’il a fait. Ça peut vous donner des idées des capacités de cet outil.

Bref, si vous voulez jouer avec un vrai app builder IA sans dépendre du cloud et sans vendre votre âme à une plateforme propriétaire, Dyad fera très bien le job ! Vous pouvez même ensuite ouvrir les fichiers générés dans un VS Code ou Cursor si vous voulez mettre les mains dans le cambouis.

ImgInn - Pour consulter anonymement Instagram

Par : Korben
6 octobre 2025 à 12:34

Besoin d’aller voir le profil Instagram de quelqu’un en scrèd, sans que cette personne ne le sache ? Hé bien plus besoin de vous créer un faux compte grâce à ImgInn . En effet, ce site vous laisse surfer sur Instagram de manière totalement anonyme, sans même avoir besoin de vous connecter.

Vous allez sur ImgInn, vous tapez le nom d’utilisateur Instagram qui vous intéresse, et hop, vous accédez à tout son contenu public : posts, stories, Reels, highlights et même les photos de profil. Vous pouvez ainsi mater tout ça tranquillement sans laisser de traces.

En plus de la visualisation anonyme, ImgInn permet également de télécharger tout le contenu que vous voulez. Photos en résolution originale, vidéos en HD, stories qui vont disparaître dans 24 heures, vous pouvez tout récupérer en quelques clics. Par contre, ça ne fonctionne pas avec les comptes verrouillés (non publics).

Notez quand même qu’Instagram interdit formellement dans ses conditions d’utilisation le scraping de données et l’usage d’outils tiers qui imitent les fonctionnalités de la plateforme, donc sachez le, ImgInn viole clairement les règles d’Instagram.

Mais bon, quand on veut rester anonyme, notamment auprès de Meta, la question elle est vite répondue ^^. Notez aussi que même que si le site prétend garantir votre anonymat, il collecte forcément certaines données pour fonctionner comme votre adresse IP, les comptes que vous consultez, etc. Et bien sûr, rien ne garantit que ces informations restent vraiment confidentielles ou qu’elles ne soient pas partagées avec des tiers. Donc à utiliser avec parcimonie.

Et si ImgInn vous branche pas, y’a toute une ribambelle d’autres viewers du même genre. Dumpor propose par exemple une interface assez complète avec recherche par profil, localisation ou hashtag. SmiHub sépare carrément la partie visualisation et téléchargement en deux menus. Picuki va même jusqu’à intégrer des outils d’édition de photos. Pixnoy se concentre surtout sur les Reels, et Storistalker prétend même récupérer les posts supprimés.

A voir donc… Et pour me suivre sur Instagram c’est par ici !

Vous avez 18 mois avant de devenir complètement cons

Par : Korben
6 octobre 2025 à 08:59

Ce matin, je suis tombé sur cet article de Derek Thompson, journaliste chez The Argument, titré “ Vous avez 18 mois ”. Ça a évidemment attiré ma curiosité donc j’ai lu l’article et son message est sans appel : Le vrai danger de l’IA, c’est pas qu’elle nous remplace. C’est qu’on arrête de penser par nous-mêmes.

Car oui, les chiffres sont là, et ils font peur. Les scores de lecture aux États-Unis sont au plus bas depuis 32 ans selon le Nation’s Report Card de janvier 2025 . La lecture de livres pour le plaisir a ainsi chuté de 40% depuis les années 2000. Des étudiants arrivent dans des universités d’élite sans avoir jamais lu un livre en entier et apparemment, personne ne s’en inquiète vraiment, car tout le monde (moi y compris) est trop occupé à demander à ChatGPT de résumer les trucs qu’on devrait lire avec nos cerveaux.

Derek compare la lecture et l’écriture à la potion magique qui nous permet d’accéder à la pensée symbolique profonde . En gros, lire et écrire, c’est pas juste des compétences, c’est aussi ce qui nous permet de penser profondément. Et on est en train de jeter ce super pouvoir aux orties parce que c’est plus rapide de demander à une IA de faire le boulot à notre place.

Le truc, c’est que notre cerveau, c’est comme un muscle. Si on arrête de le faire bosser, il s’atrophie. Et avec les IA (et dans une moindre mesure avec les réseaux sociaux vidéo, genre TikTok), c’est exactement ce qu’on est en train de faire. On lui retire tous les exercices difficiles…

Lire un bouquin de 300 pages ? Pffff, trop long, on demande un résumé à l’IA. Écrire un texte argumenté ? Pffff, trop chiant, on le fait générer par ChatGPT. Réfléchir à un problème complexe ? Pfff, trop fatigant, on compte sur Macron pour nous le résoudre ou on balance la question à Claude.

Et le pire, c’est qu’on le fait consciemment. En tout cas, personnellement, j’en ai conscience et donc en ce moment je me suis remis un peu à la lecture pour essayer de conserver une bonne hygiène niveau matière grise. Comme moi, vous savez donc probablement qu’on est tous en train de se ramollir le cerveau, mais on continue parce que c’est tellement plus confortable. C’est la culture de l’optimisation poussée à l’extrême. On optimise notre code, nos workflows, notre vie… et maintenant on optimise notre cerveau pour qu’il en fasse le moins possible. De l’efficacité à court terme, mais un suicide cognitif à long terme.

Et ce qu’annonce Derek c’est que dans 18 mois, les IA auront peut-être notre niveau actuel de réflexion. Mais nous, on aura quel niveau ? Ce sont elles qui vont s’améliorer ou nous qui allons régresser pour nous mettre à leur niveau ?

Thompson parle de “deskilling” cognitif… On se déqualifie nous-mêmes. C’est comme si on allait à la salle de sport et qu’on demandait à quelqu’un d’autre de faire nos pompes. Et son parallèle avec la révolution industrielle est plutôt juste je trouve… Au XIXe siècle, les machines ont remplacé nos muscles. Les ouvriers qui faisaient des tâches physiques complexes ont été remplacés par des machines plus rapides et résultats, nos corps se sont atrophiés. On est physiquement plus faibles que nos ancêtres, c’est un fait et maintenant, ce même schéma se reproduit avec notre cerveau. L’IA remplace nos muscles mentaux, avec le même risque d’atrophie sauf que cette fois, c’est notre intelligence qu’on sacrifie sur l’autel de l’efficacité !

Il y a aussi un truc que personne ne dit, c’est l’IA conversationnelle, c’est une drogue cognitive. Ça a le même schéma addictif que les réseaux sociaux à savoir une réponse instantanée, une gratification immédiate, zéro effort. Tranquille mimil, sauf que les réseaux sociaux nous volaient notre temps alors que l’IA est en train de nous voler notre capacité à penser. On croit devenir plus productif, alors que finalement, on devient plus dépendant.

Alors que faire ? Derek ne propose pas de solution miracle, mais il a raison sur un point : Il faut voir la lecture et l’écriture comme du fitness mental.

Je ne pense pas qu’il faille boycotter l’IA comme tous ceux qui en ont peur et la diabolisent actuellement, car elle peut apporter beaucoup. Mais il faut apprendre à l’utiliser correctement, tout en préservant son hygiène mentale, sa pensée critique et son goût de l’effort.

Comme pour le sport, il faut donc s’entrainer, faire travailler notre cerveau, non seulement en lisant des livres, les articles de Korben.info ^^…etc. Mais aussi en écrivant pour générer une réflexion et des arguments qui souvent arrivent non pas avant, mais pendant le process d’écriture. Et je pense que c’est pareil pour les dev qui “vibe code”. C’est bien ça fait gagner du temps, mais si on veut conserver cette réflexion propre au code, il faut continuer au moins à lire et à comprendre ce code, et continuer à explorer des chemins de pensée profonde .

C’est chiant, c’est lent, c’est inconfortable, mais c’est le seul moyen de garder un cerveau fonctionnel.

Le vrai luxe de demain, ce ne sera plus d’avoir accès à l’IA, car tout le monde l’aura. Non, le vrai luxe, ce sera d’avoir encore un cerveau capable de penser en profondeur. Et ça, ça se bosse les amis !

Neko - Le navigateur virtuel partagé qui tourne dans Docker

Par : Korben
1 octobre 2025 à 12:43

Vous voulez regarder une vidéo YouTube avec des potes qui habitent à l’autre bout du monde sans que ça rame ? Ou vous devez faire une démo produit à un client sans avoir à lui envoyer 50 captures d’écran ? Ou mieux vous avez besoin d’un navigateur jetable qui ne laisse aucune trace après utilisation ?

Et bien pour tout ça et plus encore, voici Neko , un navigateur virtuel auto-hébergé qui tourne dans Docker et utilise WebRTC pour streamer l’écran à plusieurs utilisateurs en même temps. C’est un outil développé par m1k1o et ça permet de créer très facilement des sessions de navigation partagées avec une latence inférieure à 300 millisecondes.

Vous lancez donc Neko sur votre serveur Docker, vous accédez à l’interface web, et vous avez un navigateur complet qui tourne dans le cloud. Plusieurs personnes peuvent se connecter à la même session et voir exactement le même écran en temps réel. L’hôte de la session peut également donner ou retirer le contrôle aux participants. Un peu comme quand on partage son écran sur Zoom, mais en mieux parce que tout le monde voit le même flux avec une qualité parfaite.

D’ailleurs, la technologie derrière est plutôt intéressante puisque ça utilise du WebRTC. Ainsi, le flux média ne transite pas par un serveur centralisé mais directement en peer-to-peer entre les navigateurs. Les médias circulent via SRTP et les données via SCTP, du coup, vous avez un streaming ultra-fluide avec synchronisation audio et vidéo impeccable.

Neko affiche sur son site plusieurs cas d’usage assez pratiques. Vous pouvez par exemple organiser des watch party pour regarder des films ou séries ensemble. Vous pouvez aussi pourquoi pas faire des présentations interactives où tout le monde voit la même chose en direct. Vous pouvez l’utiliser pour du support technique à distance en montrant exactement sur quoi cliquer. Ou tout pour du debugging collaboratif quand vous galérez sur un bug avec un collègue.

Le projet supporte aussi l’automatisation avec Playwright ou Puppeteer, donc vous pouvez scripter des actions dans le navigateur virtuel. Pratique si vous devez faire des tests automatisés ou des interactions complexes sur des sites web.

Niveau sécurité et vie privée, Neko propose deux modes. Le mode persistent browser garde les sessions entre les connexions, donc vous pouvez retrouver vos onglets et votre historique. Et le mode throwaway browser qui crée une session isolée qui est détruite après utilisation, sans historique, cookies ou cache. Zéro trace !

Vous pouvez aussi l’utiliser comme jump host (hôte relais quoi…) pour accéder à des ressources internes de votre réseau sans exposer directement ces ressources. Ou pour protéger la propriété intellectuelle en permettant à des gens de consulter des documents sensibles sans pouvoir les télécharger ou les copier.

L’installation se fait via Docker avec plusieurs images disponibles puisque vous avez le choix entre Firefox, Chrome, Brave et d’autres navigateurs. Le projet est d’ailleurs assez complet avec des projets satellites comme Neko Rooms pour gérer plusieurs salles, Neko Apps pour créer un environnement virtuel complet dans le navigateur, et Neko VPN pour des connexions sécurisées. Vous pouvez même broadcaster sur Twitch, YouTube ou n’importe quel service compatible RTMP directement depuis Neko.

Notez que Neko ne se limite pas qu’aux navigateurs puisque vous pouvez faire tourner n’importe quelle application Linux dedans, comme VLC par exemple. C’est en réalité plutôt une machine virtuelle streamée qu’un simple navigateur.

Le projet est sous licence Apache 2.0, donc c’est complètement open source et il y a aussi un serveur Discord actif pour échanger avec la communauté.

Bref, si vous cherchez une alternative aux solutions propriétaires pour le partage d’écran ou les watch party, Neko fera le job. Et comme c’est auto-hébergeable et hyper flexible, vous gardez le contrôle sur vos données tout en ayant une grande liberté sur l’usage que vous en ferez ! A tester donc !

Merci à Lorenper pour le partage.

API Abilities - Le langage universel de Wordpress pour unifier les composants IA

Par : Korben
1 octobre 2025 à 06:42

Vous avez un site WordPress et vous voulez ajouter de l’IA dedans ?

Alors pour faire ça, vous installez un super plugin qui utilise ChatGPT. Parfait ! Sauf que 2 mois après, vous découvrez l’existence d’un nouvelle version de Claude qui est bien meilleure. Ou Gemini sort une fonctionnalité que vous voulez absolument..

Mais bon, votre plugin est marié avec OpenAI, et impossible de divorcer. Du coup, vous êtes coincé. Bienvenue dans le grand bordel de l’IA, où chaque outil parle sa propre langue et refuse de discuter avec les autres.

Heureusement, WordPress vient de sortir un truc qui pourrait bien changer tout ça. En gros, ils ont créé trois outils qui fonctionnent ensemble pour transformer WordPress en “traducteur universel” pour les IA. Ça s’appelle l’Abilities API, le PHP AI Client SDK, et le support du MCP (Model Context Protocol).

D’après l’annonce officielle sur Make WordPress , l’idée c’est donc de créer un registre central où toutes les capacités de WordPress sont décrites de manière lisible par les machines. Jonathan Bossenger explique que l’Abilities API ne se limite pas à découvrir les capacités du site, mais gère aussi les permissions et l’exécution de manière sécurisée. Votre site peut dire à une IA “Voilà ce que je sais faire, voilà ce que tu peux toucher, et voilà comment tu exécutes ça”.

// N'importe quel plugin peut enregistrer ses capacités avec le hook `init`.
wp_register_ability( 'my-seo-plugin/analyze-content-seo', [
 'label' => __( 'Analyser le SEO du contenu', 'my-seo-plugin' ),
 'description' => __( 'Analyse le contenu de l\'article pour améliorer le SEO.', 'my-seo-plugin' ),
 'thinking_message' => __( 'Analyse de votre contenu en cours !', 'my-seo-plugin' ),
 'success_message' => __( 'Contenu analysé avec succès.', 'my-seo-plugin' ),
 'execute_callback' => [ 'MySEOPlugin', 'analyze_content' ],
 'input_schema' => [
 'type' => 'object',
 'properties' => [
 'post_id' => [
 'type' => 'integer',
 'description' => __( 'L\'identifiant de l\'article.', 'my-seo-plugin' ),
 'required' => true
 ],
 ],
 'additional_properties' => false,
 ],
 'output_schema' => [
 'type' => 'number',
 'description' => __( 'Le score du contenu en pourcentage.', 'my-seo-plugin' ),
 'required' => true,
 ],
 'permission_callback' => 'edit_posts',
] );

Le truc marrant, c’est que WordPress a la réputation d’être la technologie “has-been” du web. Les hipsters du dev vous disent que c’est un dinosaure, qu’il faut passer à Next.js ou je ne sais quoi, et pourtant, c’est ce dino qui devient le premier CMS à adopter le MCP, qui est quand même un standard ultra-récent. Si vous n’avez jamais entendu parlé de MCP, c’est développé par Anthropic et ça permet de standardiser la façon dont les IA communiquent avec les outils externes.

WordPress a intégré le MCP en quelques mois et je vous explique rapidmeent comment ça marche, parce que c’est pas si compliqué. Le PHP AI Client SDK v0.1.0 est en fait une interface unifiée pour parler à n’importe quelle IA. Vous écrivez votre code une fois, et ça fonctionne avec OpenAI, Claude, Gemini, ou même un modèle local que vous faites tourner chez vous. Ce SDK se charge donc de traduire vos requêtes dans le langage de chaque provider.

C’est donc surtout un truc pour les développeurs, les agences, les gens qui codent des plugins et des thèmes custom. Et si vous êtes un utilisateur lambda de Wordpress (qui ne code pas dans cet écosystème), sachez quand même que les plugins et thèmes que vous utiliserez demain seront construits là-dessus.

Donc indirectement, ça va influencer votre expérience car vous aurez des plugins qui vous laisseront choisir votre fournisseur de LLM IA dans les réglages. Par exemple, un plugin de rédaction pourra utiliser Claude pour le style, GPT-4 pour la structure, et Gemini pour la recherche d’images, tout en même temps si vous le souhaitez… Ce sera un peu comme le Bluetooth ou l’électricité : vous ne savez pas vraiment comment ça marche, mais vous l’utiliserez tous les jours sans y penser.

Ce SDK est déjà disponible via Composer pour les devs qui veulent tester et WordPress 6.9 intégrera l’Abilities API directement dans son core. Après ça, on devrait donc voir une explosion de plugins qui utiliseront plusieurs IA simultanément.

Après si vous n’utilisez pas Wordpress, rassurez-vous, c’est pas juste une feature de chez eux… C’est un standard qui pourra être adopté également par d’autres CMS. Un peu comme RSS à l’époque qui a commencé dans un coin, puis que tout le monde a adopté parce que c’était ouvert et pratique. Et bien là, c’est pareil, l’Abilities API et le MCP sont open source donc n’importe qui peut les implémenter dans ses outils.

A voir maintenant comment les projets concurrents vont réagir… Wix va-t-il continuer à pousser son intégration exclusive avec ChatGPT ? Shopify va-t-il ouvrir son API IA ? Ou est-ce qu’ils vont tous regarder WordPress prendre une longueur d’avance et se dire “Merde, on a peut-être loupé un truc” ?

Bref, moi je trouve ça cool car WordPress aurait pu faire comme les autres, c’est à dire un beau partenariat exclusif avec OpenAI, un joli chèque, et enfermer 43% du web dans un écosystème propriétaire… Mais au lieu de ça, ils ont créé un standard ouvert et gratuit comme ça, c’est la communauté qui décide.

Et ça c’est beau ! Donc si vous êtes dev et que vous voulez tester, le repo GitHub du PHP AI Client est dispo ici avec toute la doc. Et si vous êtes juste utilisateur curieux, gardez un œil sur les plugins qui sortiront après WordPress 6.9 car ça va devenir intéressant…

PictureMe - Plus besoin de Photoshop pour vous refaire la gueule

Par : Korben
29 septembre 2025 à 11:31

Si vous aimez les IA génératives, je pense que vous n’êtes pas passé à côté de Nano Banana, le nouveau générateur d’images de Google. Ce truc est incroyable ! On peut vraiment faire des choses très réalistes et qui respectent le sujet initial… Plus besoin de Photoshop avec ce truc. Suffit d’avoir une idée et de lui donner.

Mais si on n’a pas d’idée, qu’est ce qu’on peut faire ? Hé bien un dev a codé une app Google Gemini qui permet de transformer votre photo en ce que vous voulez…

Soit en dessin, soit vous donner un look années 70 / 80 / 90, soit changer votre coupe de cheveux, soit même vous mettre dans situations cheloues voire faire de vous un gros tas de Mac&Cheese bien dégoutant.

Je vous laisse avec mes essais plus ou moins sympas :

Pour vous amuser, suffit donc d’aller ici , d’uploader votre photo ou d’activer votre webcam pour en prendre une bien fraiche et de choisir ce que vous voulez comme résultat.

Et le code est complètement ouvert, donc vous pouvez aussi le récupérer et le modifier pour ajouter par exemple de nouveaux prompts ou modifier les prompts existants.

Et si vous voulez encore d’idées ou tout simplement voir les possibilités de Nano Banana, rendez-vous ici, y’a des dizaines de prompts que vous n’avez plu qu’à copier coller !

Merci à Lorenper pour le partage !

Installer et mettre à jour des applications macOS en ligne de commande

Par : Korben
17 septembre 2025 à 13:23

Vous le savez, j’ai toujours eu un faible pour les outils qui font des trucs qu’ils ne devraient pas pouvoir faire. Et mas-cli , c’est exactement ça : un petit utilitaire en ligne de commande qui permet d’automatiser le Mac App Store depuis votre terminal

Si vous êtes sous Mac et que comme moi, vous trouvez l’App Store d’Apple lent et peu pratique, cet outil open-source écrit en Swift va peut-être vous changer la vie. Il utilise des frameworks Apple privés non-documentés pour automatiser un store qui n’a jamais été pensé pour ça. C’est beau comme du Bruno Le Maire dans le texte…

Les développeurs Mac, supposés accepter l’expérience voulue par Apple, recréent donc secrètement leur propre système de paquets à la Unix. L’amour c’est compliqué, je sais…

Installation

L’installation se fait très simplement via Homebrew :

brew install mas

Vous pouvez aussi récupérer directement le binaire si vous préférez.

Utilisation au quotidien

Une fois installé, vous pouvez vous connecter à l’App Store directement depuis un terminal avec :

mas signin [email protected]

Pour lister vos applications installées via l’App Store :

mas list

Lancer une recherche d’app :

mas search MOTCLÉ

capture-decran-2017-02-03-10-51-43

Et installer l’application de votre choix en utilisant son ID :

mas install 123456789

Gestion des mises à jour

Pour lister les applications qui n’ont pas été mises à jour :

mas outdated

Pour mettre une application spécifique à jour, utilisez l’ID de l’app en question :

mas upgrade 123456789

Et pour tout mettre à jour d’un coup :

mas upgrade

L’automatisation ultime

Là où ça devient vraiment intéressant, c’est que mas-cli, avec son intégration à homebrew-bundle, permet de scripter complètement l’installation d’un nouvel environnement Mac. Vous pouvez définir dans un Brewfile toutes vos apps, y compris celles du Mac App Store, et tout installer d’un coup. C’est exactement ce dont rêvent tous les développeurs qui passent leur vie dans un terminal.

Ça va être particulièrement pratique pour scripter 2 ou 3 trucs afin de gérer au mieux la mise à jour de vos applications ou la récupération régulière d’une liste de softs installés. Tout ça depuis votre terminal, sans jamais ouvrir l’interface graphique du Mac App Store.

Les limites à connaître

Comme l’expliquent les développeurs eux-mêmes , mas-cli utilise des frameworks Apple privés non-documentés qui peuvent changer sans préavis. C’est génial sur le papier, mais dans la réalité, vous ne saurez jamais si ça marchera encore demain car Apple peut décider de changer ses API.

Mais bon, en attendant que ça casse, profitons-en pour automatiser tout ce qui peut l’être !

Merci à Lorenper pour le partage.

Article paru initialement le 09/02/2017, mis à jour le 17/09/2025

Quand les hackers nous font leur cinéma

Par : Korben
17 septembre 2025 à 13:12

Alors là, j’avoue que l’info m’a fait sourire.

15 groupes de hackers qui annoncent leur retraite en même temps après 72 heures de silence radio, c’est, je crois, du jamais vu dans le milieu. Scattered Spider, ShinyHunters, Lapsus$ et une douzaine d’autres ont publié un manifeste commun sur BreachForums pour dire qu’ils raccrochaient les claviers. Voilà, terminé, ils partent “dans le silence” après avoir, je cite, “atteint leurs objectifs”

Du coup, j’ai envie de vous conter une histoire. Mais pas celle que tout le monde se raconte en ce moment sur cette “retraite”, mais plutôt celle d’une mise en scène qui nous en dit long sur ces artistes du chaos qui ont compris que leur plus grande œuvre, c’était peut-être leur propre légende.

D’après leur communiqué officiel , ils disent en effet avoir passé trois jours à “vérifier leurs plans” et à “passer du temps en famille”. Sérieux ? Qui peut croire ça ? Des cybercriminels endurcis qui synchronisent tous ensemble leurs agendas familiaux pour se faire un week-end détente avant d’annonce qu’ils arrêtent tout le lundi suivant… C’est beau comme récit non ?

Pompompurin, le créateur du forum, a fini par écoper de 3 ans de prison après avoir violé plusieurs fois ses conditions de liberté surveillée , notamment en utilisant un VPN pour accéder à Discord. De la surveillance 24h/24 à la prison ferme, le chemin a été super rapide, et pendant ce temps, ses petits copains montent sur scène pour leur grand final. Un timing parfait… trop parfait même.

En fait, tous ces groupes ont compris qu’à notre époque, la perception compte plus que la réalité. Ils ont quand même revendiqué de grosses attaques contre Jaguar, Google (4 tentatives quand même !), Salesforce et CrowdStrike et évidemment, les experts en sécurité restent sceptiques face à cette annonce de retraite.

Et perso, je pense qu’ils ont raison. ReliaQuest a même détecté une attaque sophistiquée de Scattered Spider sur une banque américaine APRÈS l’annonce de retraite.

Alors, vous y croyez toujours ?

En fait, j’ai l’impression qu’on assiste à la naissance d’un nouveau genre de cybercriminels où les mecs ne se contentent plus de voler des données, mais créent des récits montés de toutes pièces, des mythes. Et ce manifeste, c’est leur œuvre d’art. Ils y parlent de “leçons apprises à Langley” (siège de la CIA), évoquent leurs “millions accumulés” et leurs “golden parachutes”. Ça pue la comédie quand même…

Le plus drôle dans tout ça, c’est qu’ils auraient même prévu le coup des arrestations. Huit personnes sont en taule, dont quatre en France , et dans leur manifeste, ils les appellent “boucs émissaires”. Ils auraient donc volontairement laissé des fausses pistes bien en amont pour protéger les vrais acteurs et laisser des hommes de paille se faire attraper. Vous voyez le niveau de mise en scène ? C’est du Nolan avant l’heure.

Cette “retraite” et cette façon dont elle est scénarisée, c’est surtout, je pense, une stratégie de survie car la pression des autorités monte, les arrestations se multiplient, et annoncer qu’on arrête tout, c’est un bon moyen de calmer le jeu. Puis surtout, ce serait pas la première fois… On a déjà vu ça avec GandCrab en 2019 qui est revenu sous la forme de REvil. Les noms changent mais les personnes restent.

Au final, ce que je retiens de cette annonce, c’est que le cybercrime est devenu un spectacle. Ces groupes ne sont plus juste des criminels, ce sont des influenceurs qui savent jouer avec les médias, les autorités et même leurs propres victimes. Leur vraie force n’est plus seulement technique… elle est également narrative car vous le savez, contrôler le récit, c’est contrôler la réalité.

Alors voilà… quinze groupes de hackers prennent leur “retraite” mais vous le savez aussi bien que moi, même quand le rideau tombe, les acteurs sont toujours derrière, prêts pour attaquer le prochain acte. C’est pour cela que quelque chose me dit qu’on n’a pas fini d’entendre parler d’eux…

Comment les chaînes YouTube piratées propagent des arnaques et des logiciels malveillants

19 septembre 2025 à 09:59
Découvrez comment les cybercriminels s'attaquent aux chaînes YouTube et les détournent pour en faire des outils d’arnaque et de fraude. A travers cet article, nous vous indiquerons des points de vigilance à garder en tête lorsque vous regarderez des vidéos sur la plateforme.

StoryMotion - Créez des animations façon tableau blanc en quelques minutes

Par : Korben
11 septembre 2025 à 08:40

Avez-vous déjà passé des heures sur After Effects pour créer une simple animation de 30 secondes qui explique un concept. Entre nous, c’est un cauchemar. Jongler avec les keyframes, les courbes de bézier et 150 calques qui se battent en duel pour savoir lequel doit apparaître en premier, c’est bien relou et on finit par perdre plus de temps à se battre avec le logiciel qu’à créer du contenu.

Vous voyez de quoi je parle, non ?

Mais voilà, j’ai testé un truc qui s’appelle StoryMotion et qui permet de créer des animations façon tableau blanc aussi facilement que vous faites des slides PowerPoint. Pas de compétences professionnelles requises, pas de formation de 3 mois sur YouTube. Juste vous, vos idées, et un outil qui sait que votre temps est précieux.

L’idée de StoryMotion est venue à son créateur, Chun Rapeepat, après avoir utilisé Excalidraw et Keynote pendant des années pour créer des visuels pour ses articles de blogs techniques. Quand il a voulu passer à la vidéo, il s’est retrouvé à passer des heures interminables sur des logiciels complexes pour obtenir un résultat qu’il aurait pu dessiner à la main en 5 minutes.

Pour ceux qui ne connaissent pas, Excalidraw c’est un outil de dessin collaboratif open source qui a conquis le cœur des développeurs et créateurs tech, et qui permet de dessiner vos schémas, diagrammes ou illustrations directement sur un espèce de tableau blanc.

StoryMotion permet de faire la même chose mais est en plus équipé d’un éditeur de timeline. Avec cet éditeur, au lieu de jongler avec des dizaines de paramètres obscurs, vous assignez simplement des effets à vos éléments : zoom, fade, apparition progressive et la timeline vous permet d’ajuster la durée et le timing de chaque animation avec une simplicité t’as peur. C’est vraiment pensé pour ceux qui veulent créer du contenu, et pas devenir des experts en motion design.

Les cas d’usage sont nombreux. Vous pouvez par exemple expliquer un algorithme étape par étape, ou créer une animation qui montre comment fonctionne une recherche Google. Si vous voulez saire une vidéo explicative sur un concept technique complexe c’est aussi tout à fait possible ! Je vous invite à aller voir les exemples sur le site. C’est génial pour les créateurs de contenu éducatif qui veulent produire des vidéos de qualité sans y passer leur week-end.

Et une fois votre animation créée, vous pouvez l’exporter vers votre éditeur vidéo préféré, que ce soit Canva, CapCut, After Effects ou Premiere Pro. L’idée, vous l’aurez compris, n’est pas de tout faire dans StoryMotion, mais juste de gérer la partie la plus chronophage à savoir la création d’animations et cela de la manière la plus efficace possible.

L’outil est actuellement en early beta, ce qui signifie que de nouvelles fonctionnalités arrivent régulièrement et c’est gratuit pour le moment. Mais ne vous y trompez pas, dès que ça sortira de beta, ça passera payant je pense. Alors en attendant, autant en profiter !

Quand le MIT réalise un fantasme de science-fiction

Par : Korben
10 septembre 2025 à 14:25

AlterEgo, c’est la réponse du MIT au fantasme de la télépathie et contrairement à Neuralink qui nécessite une chirurgie pour implanter des électrodes dans le cerveau, cette petite merveille se porte simplement autour des oreilles comme une prothèse auditive.

Le principe est assez malin. Au lieu de lire directement dans vos pensées (ce qui reste de la science-fiction pour le moment…), AlterEgo détecte les micro-mouvements de votre bouche, de votre visage et de vos cordes vocales quand vous “parlez” silencieusement. La conduction osseuse fait le reste, transformant ces signaux en mots compréhensibles par un ordinateur.

Arnav Kapur, le scientifique qui dirige le projet, parle d’une “percée révolutionnaire” qui donnerait “le pouvoir de la télépathie, mais uniquement pour les pensées que vous voulez partager”. Ouf, on est sauvé ! Cette précision est importante car contrairement aux interfaces cerveau-machine plus agressives, là vous gardez le contrôle total sur ce que vous communiquez.

Cette idée a germé en 2018 comme projet de recherche au MIT, mais cette année l’équipe a franchi le cap en créant une start-up. Leur dispositif affiche une précision de 90%, ce qui reste impressionnant pour une technologie non-invasive. Bien sûr, chaque utilisateur doit encore calibrer l’appareil et s’entraîner, mais c’est un détail technique… En tout cas, ce qui rend AlterEgo particulièrement intéressant, c’est son potentiel pour les personnes atteintes de troubles de la parole comme la sclérose en plaques. Imaginez pouvoir communiquer naturellement malgré les limitations physiques… Ça changerait la vie de pas mal de monde, non ?

Mais les applications vont bien au-delà du médical car l’équipe envisage déjà des recherches Google silencieuses, des conversations discrètes entre deux utilisateurs, ou encore l’accès aux assistants IA sans sortir votre smartphone. Comme ça, plus besoin de tapoter frénétiquement sur un écran pour obtenir une information. Pour dicter ses SMS ou discuter avec son IA préférée dans les lieux public sans faire chier le monde, c’est l’idéal !

En tout cas, cette approche tranche radicalement avec ce qu’on voit chez la concurrence. C’est vrai qu’actuellement, les interfaces cerveau-machine sont en pleine effervescence avec pas loin de 25 essais cliniques en cours et certaines atteignent même jusqu’à 97% de précision pour la restauration de la parole, mais nécessitent quand même des interventions chirurgicales lourdes. Donc autant dire que c’est pas encore un truc que la police pourra utiliser tout de suite pour vous faire cracher des aveux ^^.

Voilà… alors que Neuralink vient de déposer des brevets pour “Telepathy”, “Blindsight” et “Telekinesis”, MIT propose son alternative chill, moins invasive mais tout aussi prometteuse et leur approche pourrait bien séduire ceux qui hésitent à franchir le pas de la chirurgie cérébrale.

L’avenir nous dira si cette approche “douce” saura rivaliser avec les méthodes plus directes, mais une chose est sûre, la course à la communication silencieuse ne fait que commencer…

Source

❌
❌