Vue normale

Il y a de nouveaux articles disponibles, cliquez pour rafraîchir la page.
À partir d’avant-hierFlux principal

Test de l’ESR Geo Wallet Boost : le porte-cartes MagSafe que vous ne perdrez pas

Par : Korben
17 novembre 2025 à 16:49

– Article invité, rédigé par Vincent Lautier, contient des liens affiliés Amazon –

Le porte-cartes MagSafe d’ESR fait partie de ces accessoires auquel on ne s’intéresse pas vraiment au début, mais qui finissent par s’intégrer naturellement dans le quotidien. Vendu autour de 32 € lors des promotions Black Friday (ça tombe bien on est en plein dedans), il se positionne comme une alternative sérieuse aux modèles MagSafe classiques, tout en ajoutant une fonctionnalité rare dans ce segment : l’intégration directe à l’app Localiser.

Un porte-cartes connecté qui reste discret

Avec son support complet de Localiser, le wallet se comporte comme un AirTag intégré, sans accessoire supplémentaire à ajouter. Si on le laisse sur une table de café, si on le fait tomber en ville ou si on se demande simplement où il a disparu chez soi, il suffit d’émettre un son ou de consulter sa position, et c’est tellement rassurant. Niveau autonomie, une charge de 1h30 avec le câble fourni suffit pour environ trois mois d’utilisation et permet de ne pas trop y penser. 

Screenshot

Une bonne capacité dans un format compact

Contrairement à beaucoup de porte-cartes MagSafe limités à deux ou trois cartes, celui d’ESR permet d’en transporter jusqu’à cinq, ou quatre accompagnées de quelques billets. Le format reste compact, et l’ensemble ne rend pas le téléphone trop épais. L’accès aux cartes est fluide grâce à une découpe bien placée qui évite de lutter pour sortir une carte de crédit ou un badge. La protection RFID ajoute une couche de sécurité bienvenue, même si ce n’est pas ce qui motivera l’achat en premier lieu.

Une fixation magnétique plus ferme que la moyenne

Le principal défaut des wallets MagSafe basiques est leur tendance à glisser ou se décrocher au moindre mouvement. ESR améliore ce point grâce à vingt aimants N52 qui offre une fixation bien plus fiable que celle de nombreux concurrents. Sur une coque MagSafe classique, l’ensemble tient parfaitement en poche, même lorsqu’on manipule le téléphone. Ce n’est pas un accessoire qui demande de la vigilance pour éviter de le perdre, ce qui renforce l’intérêt du Localiser intégré. Le design reste sobre, bien fini, et suffisamment discret pour convenir à un usage quotidien sans attirer l’attention.

Au final, ESR propose un porte-cartes MagSafe bien pratique : une fixation solide, une capacité de rangement supérieure à la moyenne et une intégration à Localiser qui améliore la tranquillité d’esprit au quotidien. Le produit n’essaie pas d’en faire trop et s’adresse surtout à ceux qui veulent limiter ce qu’ils transportent sans sacrifier la sécurité ou la praticité. Une solution simple qui fonctionne comme prévu, ce qui est finalement ce qu’on attend d’un bon accessoire MagSafe.

Ajoutons qu’ESR propose aussi un modèle avec un petit support bien pratique pour transformer votre iPhone en réveil, toujours compatible avec Localiser.

Article invité publié par Vincent Lautier . Vous pouvez aussi faire un saut sur mon blog , ma page de recommandations Amazon , ou lire tous les tests que je publie dans la catégorie “Gadgets Tech” , comme cette liseuse Android de dingue ou ces AirTags pour Android !

MocoLlamma - Ollama gérable depuis iPhone, iPad et Vision Pro

Par : Korben
7 novembre 2025 à 09:00

Vous avez installé Ollama sur votre Mac et vous êtes le plus joyeux de tous les mammifères car vous faites tourner Llama 3.x en local comme un chef. Et puis un soir, posé dans votre canapé avec votre iPad de bourgeois capitaliste, vous vous dites que ce serait bien de pull un nouveau modèle. Et là, vous réalisez qu’il va falloir sortir le MacBook, ouvrir un terminal, taper ollama pull mistral, attendre et attendre… Grosse flemme non ?

Hé oui, Ollama reste un outil en ligne de commande. C’est génial pour les devs, mais galère pour le reste et vous avez beau avoir de la puissance de calcul dans votre poche avec un iPhone ou un iPad, c’est impossible de gérer vos modèles sans SSH et sans Terminal.

Heureusement, MocoLlamma vient combler ce fossé. C’est une app de gestion Ollama pour macOS, iOS, iPadOS, et même visionOS si vous avez ce truc. C’est donc une vraie app native avec interface graphique, développée en Swift et SwiftUI dans laquelle ous ajoutez vos serveurs Ollama, et où vous gérez vos modèles, et vous testez vos LLM via un chat basique.

L’app s’organise autour de trois onglets. Le premier, Server, vous permet d’ajouter et de switcher entre plusieurs serveurs Ollama. Vous pouvez ainsi renommer chaque serveur, gérer les connexions, bref, tout ce qu’il faut pour jongler entre votre Mac local, votre serveur, ou votre instance cloud si vous en utilisez une.

Le second onglet, Model, affiche tous les modèles disponibles sur le serveur sélectionné. Vous voyez ainsi les infos de chaque modèle, vous pouvez les trier par taille, les ajouter ou les supprimer. Comme ça, plus besoin de taper ollama list pour savoir ce qui tourne. Tout est là, visuellement, avec la possibilité de gérer vos modèles d’un tapotage bien senti.

Le troisième onglet, Chat, permet de tester rapidement un modèle. C’est volontairement basique et l’idée n’est pas de remplacer ChatGPT ou Open WebUI, mais juste de vérifier qu’un modèle répond correctement. Genre, vous venez de pull Qwen 3, et vous voulez voir s’il fonctionne avant de l’intégrer dans votre workflow. Hop, quelques questions rapides dans le chat, et vous savez.

Il existe bien sûr des tonnes d’alternatives de GUI pour Ollama comme Open WebUI , LM Studio , Jan , GPT4All … Mais aucune ne supporte nativement visionOS ou les iPad / iPhone. Alors que MocoLlamma, si.

C’est actuellement la seule app qui vous permet de gérer vos LLM locaux depuis ces appareils Apple… C’est assez niche c’est vrai mais ça peut rendre service.

Le nom “MocoLlamma” est ce qu’on appelle un mot valise de “Model”, “Control”, “Ollama”, et “Manage”. C’est moche de ouf, c’est pas super à retenir, mais au moins ça décrit exactement ce que fait l’app.

Y’a la version gratuite qui est disponible sur GitHub, mais uniquement pour macOS (c’est sous license MIT) et la version payante, à 1,99 dollars sur l’App Store, supporte macOS, iOS, iPadOS, et visionOS. La différence principale pour l’app macOS c’est surtout les mises à jour automatiques. Vous payez 2 balles pour le confort.

Et là, un point crucial, sachez que MocoLlamma ne collecte AUCUNE donnée utilisateur. Bref, cette appli vient combler le trou qui se trouve entre “j’ai installé Ollama” et “je peux gérer mes modèles depuis mon iPhone”. Si vous avez ce besoin, c’est donc à considérer.

Merci à Lorenper pour la découverte.

ChronoFrame - Reprenez le contrôle de vos photos

Par : Korben
6 novembre 2025 à 11:00

Bon, si vous me lisez depuis loooongtemps, vous connaissez forcément le risque que représentent les métadonnées contenues dans les images que vous partagez en ligne. Oui, je parle bien des fameux EXIFs qui contiennent aussi bien le modèle d’appareil photo utilisé, l’heure précise à la seconde près où vous avez pris le cliché, les réglages de l’objectif, parfois même l’altitude, et surtout les coordonnées GPS exactes de l’endroit où vous étiez.

Et toutes ces données, si vous mettez vos photos en ligne par exemple, chez Google ou Apple, et bien eux les récupèrent et les utilisent. C’est dommage, surtout que ce sont des données qui sont quand même utiles pour peu qu’on garde ça en local sur sa machine.

Alors que faire ?

Hé bien, il existe un logiciel open source sous licence MIT qui s’appelle ChronoFrame . C’est une galerie photo que vous pouvez héberger vous-même, qui va parser automatiquement toutes les données exif de vos clichés, extraire la géolocalisation, faire du reverse géocoding pour identifier le lieu exact et afficher tout ça sur une espèce de carte interactive sur laquelle vous pouvez naviguer pour revoir vos souvenirs de voyage.

En gros c’est comme Google Photo sauf que c’est vous qui gérez vos données et vous contrôlez qui accède à quoi.

L’intérêt de ChronoFrame, c’est qu’il rend visible l’invisible. Vous uploadez une image, ChronoFrame lit les métadonnées, extrait les coordonnées GPS si elles existent, et lance un appel à l’API Mapbox ou MapLibre pour faire du reverse geocoding. Ça, ça veut dire transformer des coordonnées GPS (48.8584, 2.2945) en adresse lisible (“Tour Eiffel, Paris, France”).

Et surtout, ChronoFrame supporte les Live Photos d’Apple ET les Motion Photos de Google. La génération de miniatures, quand à elle, utilise ThumbHash , un algorithme de placeholder ultra-compact créé par Evan Wallace (cofondateur de Figma). Ainsi au lieu de générer plusieurs tailles de miniatures (100x100, 200x200, 400x400…etc), ThumbHash encode une version floue de l’image dans moins de 100 bytes et comme ça, les vignettes se chargent instantanément, et l’affichage est ensuite progressif (flou -> net) jusqu’à ce que l’image full résolution arrive.

L’interface est bien sûr responsive, supporte le touch et la navigation par gestes, et donne une expérience proche d’une app native. Pour la déployer, vous devez créer un fichier .env avec vos variables d’environnement (email admin, mot de passe, provider de stockage, token Mapbox…etc), vous lancez docker pull ghcr.io/hoshinosuzumi/chronoframe:latest, et hop, ça tourne direct.

Le guide de démarrage détaille tout le process et ça vous prendra 5 minutes chrono.

Voici un exemple de configuration minimale :

[email protected]
CFRAME_ADMIN_PASSWORD=VotreMotDePasse
NUXT_PUBLIC_MAP_PROVIDER=maplibre
NUXT_PUBLIC_MAP_MAPLIBRE_TOKEN=votre_token_maptiler
NUXT_STORAGE_PROVIDER=local
NUXT_PROVIDER_LOCAL_PATH=/app/data/storage
NUXT_SESSION_PASSWORD=$(openssl rand -base64 32)

Vous pouvez aussi utiliser S3 au lieu du stockage local :

NUXT_STORAGE_PROVIDER=s3
NUXT_PROVIDER_S3_ENDPOINT=https://s3.amazonaws.com
NUXT_PROVIDER_S3_BUCKET=votre-bucket
NUXT_PROVIDER_S3_REGION=eu-west-1
NUXT_PROVIDER_S3_ACCESS_KEY_ID=votre_key
NUXT_PROVIDER_S3_SECRET_ACCESS_KEY=votre_secret

Une fois lancé, vous accédez à l’interface web, vous vous loggez avec votre email/password (ou via GitHub OAuth si configuré), vous allez dans /dashboard, et vous uploadez vos photos.

Voilà, j’ai trouvé ça cool parce que reprendre le contrôle de ses photos, ça veut pas forcément dire supprimer les métadonnées comme je l’ai souvent conseillé. Ça peut aussi vouloir dire décider de qui a accès à ces métadonnées. Car ça reste des informations précieuses et c’est quand même dommage de s’en priver donc autant héberger soi-même ses photos, comme ça vous pouvez les exploiter comme bon vous semble.

Notez que ChronoFrame ne vous aidera pas à supprimer vos EXIFs, mais il existe des outils pour faire ça comme ExifTool ou mat2 . Vous pouvez aussi scripter ça avant d’uploader quoique ce soit sur les réseaux sociaux mais la plupart des gens ne le font pas parce qu’ils ne savent même pas que les données sont là. Je sais aussi que des sites comme X.com retirent certaines des méta données avant de diffuser votre photo publiquement mais ça ne veut pas dire qu’eux ne les exploitent pas en amont pour vous balancer de la pub par exemple…

Voilà, si vous voulez voir ce que ça donne, il y a un site de démo où vous pouvez voir l’interface en action !

Merci à Lorenper pour le partage de cette appli !

EuroLLM - Le LLM européen qui tourne sur votre laptop

Par : Korben
6 novembre 2025 à 09:00

Faire tourner un modèle de langage européen sur votre machine sans avoir besoin d’un serveur surpuissant branché sur une centrale nucléaire, c’est maintenant possible, les amis ! Hé oui, EuroLLM vient de prouver qu’on pouvait faire tourner un modèle à 9 milliards de paramètres dans un peu moins de 6 GB de RAM sur un simple laptop.

Une seule commande Ollama , et c’est parti mon kiki !!!

Bien sûr, il est encore loin des gros modèles proprio comme GPT-5 mais c’est le enfin le premier LLM européen que VOUS pouvez faire tourner en local. C’est respectueux de votre vie privée, des droits d’auteurs et c’est gratuit !

Un projet 100% européen

EuroLLM, c’est en réalité une coalition de labos européens : Instituto Superior Técnico (Lisbonne), University of Edinburgh , Université Paris-Saclay , Unbabel , et d’autres et c’est financé par Horizon Europe et l’ EuroHPC , et ce modèle supporte les 24 langues officielles de l’UE, plus 11 langues supplémentaires (arabe, chinois, hindi, japonais, coréen, russe, turc…).

EuroLLM-9B , le modèle de base, a été entraîné sur 4 trillions de tokens avec le supercalculateur MareNostrum 5 à Barcelone (400 GPUs Nvidia H100) et l’architecture utilise du Grouped Query Attention, RoPE, SwiGLU et RMSNorm, comme tout LLM moderne qui se respecte.

Mais il existe d’autres versions comme EuroLLM-1.7B pour smartphones et bientôt EuroLLM-22B pour plus de puissance, ainsi qu’une version vision-language (EuroVLM-9B) et un modèle Mixture-of-Experts (EuroMoE-2.6B).

Et surtout c’est sous licence Apache 2.0. Donc l’usage commercial est autorisé, vous pouvez le fine-tuner sur vos données, et les modifications sont libres, sans redevance à payer. Ce n’est pas la première fois qu’il y a des LLM européens mais ils étaient soit sous licence trop restrictives ou un peu trop lourd pour être utilisé localement par les gens normaux comme vous et moi.

Maintenant comment l’installer ?

La méthode la plus simple, c’est via Ollama :

ollama run hf.co/bartowski/EuroLLM-9B-Instruct-GGUF

Ollama télécharge le modèle en version GGUF (format optimisé CPU/GPU), et vous pouvez commencer à discuter. Il existe aussi une version pré-packagée alibayram/erurollm-9b-instruct (attention, erurollm avec un “u”), quantized en Q4_K_M pour réduire la taille à 5,6 GB.

Si vous préférez Python et Hugging Face Transformers :

from transformers import AutoTokenizer, AutoModelForCausalLM

model_name = "utter-project/EuroLLM-9B-Instruct"
tokenizer = AutoTokenizer.from_pretrained(model_name)
model = AutoModelForCausalLM.from_pretrained(model_name)

inputs = tokenizer("Explique-moi ce qu'est un LLM en français simple", return_tensors="pt")
outputs = model.generate(**inputs, max_length=200)
print(tokenizer.decode(outputs[0]))

Une fois téléchargé, le modèle reste en cache local. Vous pouvez alors l’utiliser offline, sans connexion internet. Et pour les machines avec moins de RAM, la version 1.7B tourne même sur des Raspberry Pi :

ollama run cas/eurollm-1.7b-instruct-q8

Alors pourquoi c’est important ?

EuroLLM ouvre l’IA européenne à des cas d’usage impossibles avec des API cloud. Par exemple une administration publique ne peut pas envoyer ses documents dans le cloud d’OpenAI… ce serait tout livrer aux américains. Elle peut donc fine-tuner EuroLLM localement. Un journaliste en zone sensible sans connexion fiable peut aussi embarquer le modèle sur son ordi portable. Même un chercheur qui manipule des données médicales confidentielles peut le faire en toute confiance avec EuroLLM puisque tout reste sur sa machine.

C’est cool quand même que l’Europe nous file un modèle gratuit qu’on peut installer chez soi et utiliser sans limite. Après c’est vrai que EuroLLM ne bat pas GPT-4 (pas encore) mais il est suffisamment bon pour 80% des cas d’utilisation réels tels que des résumés, de la traduction, des questions-réponses simples, de la génération de code basique.

La roadmap prévoit d’ajouter de la vision et de la voix aux modèles. D’ailleurs, comme je vous le disais, EuroVLM-9B est déjà en preview sur Hugging Face , ce qui ouvre la voie à de l’OCR multilingue, de l’analyse de documents visuels, ou encore à la création d’assistants vocaux dans n’importe quelle langue…

Voilà j’ai trouvé ça cool à tester et un grand merci à Letsar pour le partage !

Boitiers CPL - C'est l'heure de tester le Kit Multiroom Devolo Magic 2 WiFi 6 Next

Par : Korben
22 octobre 2025 à 06:25
– Article en partenariat avec Devolo –

J’avais besoin de WiFi dans un local technique pour brancher des caméras de surveillance parce que mes routeurs sont à l’opposé de la zone à couvrir et finalement la solution la plus fiable et la moins prise de tête que j’ai trouvé, ça a été de passer par mes bons vieux câbles électriques.

Devolo m’a donc envoyé ses Magic 2 WiFi 6 Next en test (Le multiroom kit avec trois adaptateurs), et je les ai vraiment trouvé pas mal. Le kit se compose d’une prise LAN que vous branchez à votre routeur en ethernet, et de deux prises WiFi que vous placez là où vous voulez chez vous. Et le tout communique via votre réseau électrique (technologie CPL ou powerline pour les intimes), et diffuse du WiFi 6 avec mesh intégré.

L’installation prend deux minutes chrono. Vous branchez les trois prises, vpous attendez un peu que toutes les diodes passent au blanc, puis avec l’app devolo Home Network, vous configurez tout ça. Aucune bidouille, aucun paramétrage manuel puisque les trois adaptateurs sont détecté tout seuls et créent alors un réseau mesh transparent.

Attention ne branchez JAMAIS vos adaptateurs CPL sur une multiprise car ça crée des perturbations qui massacrent les perfs. Branchez-les directement sur une vraie prise murale, et ensuite vous pourrez utiliser la prise intégrée aux boitiers pour brancher votre multiprise par-dessus.

Le gros atout du CPL face au mesh WiFi classique, c’est sa stabilité. Un mesh WiFi pur va fluctuer selon les interférences, les murs, les voisins qui balancent du 2.4 GHz à fond. Alors que là, le backhaul (la connexion entre les prises) passe par les câbles électriques à 2400 Mbps max, donc zéro fluctuation. Le WiFi 6 diffusé ensuite monte jusqu’à 3000 Mbps (574 Mbps en 2,4 GHz + 2402 Mbps en 5 GHz), avec du roaming automatique entre les prises.

Par contre, je vais être clair, les performances dépendent énormément de la qualité de votre installation électrique. Si votre maison date de Mathusalem avec un câblage pourri, vous n’atteindrez jamais les débits théoriques. C’est le seul point noir du CPL… ça dépend énormément de votre install électrique.

Ensuite, j’ai mesuré les performances avecc ma configuration. Même étage que le routeur je suis environ 500 Mbps en CPL et au premier étage je suis entre 330 et 415 Mbps selon où je me trouve. Du coup, pour mes caméras de surveillance ou se faire un film en streaming 4K, c’est largement suffisant et surtout ultra-stable.

Si vous regardez bien, sous chaque prise WiFi il y a deux ports Ethernet gigabit, ce qui est parfait si vous avez des appareils filaires à brancher (NAS, switch, caméras PoE avec injecteur…etc) et tout le réseau est extensible puisque vous pouvez ajouter autant de prises Devolo que vous voulez partout chez vous pour couvrir une surface gigantesque.

Le système Devolo embarque également tout ce qu’on attend d’une solution de routeurs / répéteurs modernes : un chiffrement WPA3 pour la sécurité, du WiFi invité pour vos potes histoire de pas leur filer votre mot de passe principal, contrôle parental avec programmation horaire, et Airtime Fairness pour que vos appareils rapides ne soient pas ralentis par le vieux smartphone de belle-maman. Tout se pilote bien sûr via l’app devolo Home Network, disponible sur iOS et Android.

Pour ceux qui ont des connaissances pointues en CPL, sachez que ce système utilise la techno G.hn qui est plus rapide et plus stable que l’ancien HomePlug AV2. Donc si vous avez de vieux adaptateurs CPL qui traînent, autant les offrir à quelqu’un qui n’en a pas parce que la différence de performances est énorme. Le G.hn gère carrément mieux les perturbations et offre des débits très supérieurs.

Voilà, alors si vous êtes comme moi et que vous avec une maison ancienne avec des murs épais, plusieurs étages, ou des zones où le WiFi ne passe juste pas genre loin dans le jardin, suffit d’avoir l’électricité et vous êtes opérationnel. Par contre, si vous vivez dans un appart récent avec des murs en placo, un simple système mesh WiFi fera probablement l’affaire pour moins cher.

Maintenant le truc qui pique un peu mais quand on aime on ne compte pas, c’est le prix. Comptez environ 400-470 euros le kit Multiroom (3 adaptateurs) selon les revendeurs. C’est cher, mais quand l’alternative c’est de tirer des câbles Ethernet à travers toute la baraque ou de galérer avec un mesh WiFi capricieux dans une vieille baraque, ça se défend. Et Devolo offre une garantie de trois ans, donc vous êtes tranquille.

Notez qu’il existe aussi un Starter Kit à deux adaptateurs autour de 240-260 euros si vous avez une surface plus modeste.

Donc voilà, pour mon local technique et mes caméras WiFi, le Devolo Magic 2 WiFi 6 Next fait très bien le job. Après c’est comme tout, c’est une solution miracle mais pour des cas comme le mien où le WiFi classique ne suffit pas et que les distances sont trop grandes, ça change la vie ! Et maintenant j’ai un super wifi pour bosser dans le jardin et faire mes tests de caméras !

Vault - L'app open source qui collecte vos liens, notes et images

Par : Korben
17 octobre 2025 à 16:16

Fin de journée, c’est presque le week end et en plus les vacances scolaires sont là ! Mais je ne pouvais pas finir ma journée sans vous parler de Vault. Vault c’est une application Electron pour Mac, Windows et Linux qui vous permet de sauvegarder vos liens, vos notes et vos images à 100% en local sur votre machine.

Vous installez l’app, vous créez un ou plusieurs “coffres” (des dossiers qui organisent votre contenu), et vous commencez à sauvegarder tout ce qui vous intéresse. L’app extrait automatiquement les métadonnées des liens que vous lui donnez, le temps de lecture estimé, les infos produit si c’est une page e-commerce, et comme ça, tout reste bien organisé dans votre interface.

Vault propose aussi une extension navigateur pour Chrome, Firefox et dérivés. Comme ça, si vous tombez sur un article intéressant, hop, un clic et c’est sauvegardé directement dans votre coffre local. Et pas besoin d’ouvrir l’app, car l’extension communique directement avec elle en arrière-plan.

Ce qui me plaît dans cette approche, c’est qu’on revient aux bases. Rien n’est stocké en ligne, et si vous gérez bien vos sauvegardes, tout restera chez vous ad vitam eternam ! Après comme y’a pas de synchro native entre vos appareils, si vous bossez sur deux ou trois machines différentes, faudra gérer ça à la main avec un Dropbox ou iCloud Drive en plaçant vos coffres dans un dossier synchronisé. Mais bon, on peut pas tout avori dans la vie.

L’app supporte le Markdown pour vos notes, ce qui est sympa si vous aimez écrire en texte formaté et vous pouvez importer vos bookmarks depuis Chrome en deux clics, et exporter vos coffres pour les partager ou les archiver.

Le projet est open source sous licence MIT et est dispo ici .

Vault ne va pas changer votre vie mais c’est une app qui fait ce qu’on lui demande, sans chichi, sans tracking, sans casser les pieds et ça, moi j’adore !

Dyad - Créer des apps web avec l'IA sans coder et sans sacrifier vos données perso

Par : Korben
9 octobre 2025 à 07:17

Vous connaissez ces outils qui promettent de créer des apps web juste en discutant avec une IA ? Genre Lovable, v0, Bolt, Replit…etc. C’est magique, sauf que tout tourne dans le cloud, vos données passent par leurs serveurs et vous êtes du coup enfermés dans leur écosystème.

Hé bien Dyad fait la même chose, mais un peu différemment puisque tout tourne en local sur votre machine. En plus c’est open-source et c’est gratuit.

Dyad, c’est donc un builder d’applications web piloté par IA. Vous lui expliquez ce que vous voulez, il génère le code directement chez vous sur votre machine et le truc cool, c’est qu’il vous laisse choisir votre modèle IA.

ChatGPT d’OpenAI, Gemini 2.5 Pro de Google, Claude Sonnet 4.5 d’Anthropic, prenez ce que vous voulez, vous mettez vos propres clés API et ça roule. Et si vous tenez vraiment à une vie privée totale, vous pouvez même utiliser Ollama pour faire tourner des modèles en local sans jamais que ça se connecte à internet.

Le projet est dispo sur GitHub , c’est codé en TypeScript, ça s’installe sur Mac et Windows, et y’a aucune inscription requise. Bref, vous téléchargez, vous lancez, et ça marche.

Dyad s’intègre avec Supabase pour la partie backendce qui permet d’avoir une bonne authentification, une base de données, des fonctions serveurr…etc. Tout y est, du coup vous pouvez créer des vraies apps full-stack, et pas juste des interfaces statiques comme on peut le faire avec mon petit LocalSite . Vous partez d’une idée, vous discutez avec l’IA, et vous sortez une application complète qui tourne sur votre machine en full vibe coding !

Il y a bien sûr des plans payants mais la version gratuite fait déjà le job pour du développement solo. Le créateur de Dyad s’appelle Will Chen et a même monté une communauté Reddit r/dyadbuilders où chacun montre un peu ce qu’il a fait. Ça peut vous donner des idées des capacités de cet outil.

Bref, si vous voulez jouer avec un vrai app builder IA sans dépendre du cloud et sans vendre votre âme à une plateforme propriétaire, Dyad fera très bien le job ! Vous pouvez même ensuite ouvrir les fichiers générés dans un VS Code ou Cursor si vous voulez mettre les mains dans le cambouis.

NormCap - Un OCR gratuit pour capturer directement le texte

Par : Korben
16 juin 2025 à 07:30

Vous aussi vous avez déjà passé 10 minutes à retaper ligne par ligne un bout de code trouvé dans un screenshot de Stack Overflow ?

Félicitations, vous faites partie du club des masochistes cyber-digiteaux ! Heureusement, je vous ai trouvé le remède miracle : NormCap, un petit outil qui capture directement le texte au lieu de faire des images inutiles.

Au lieu de prendre une capture d’écran classique qui vous donnera une image à stocker quelque part, NormCap utilise l’OCR (reconnaissance optique de caractères) pour extraire directement le texte. Vous sélectionnez une zone de votre écran, et hop, le texte se retrouve dans votre presse-papiers, prêt à être collé où vous voulez.

Meta vous espionne même en mode incognito !

Par : Korben
10 juin 2025 à 21:11

Vous pensiez être invisible en mode incognito avec votre VPN ?

Et bien Meta vient de nous prouver que vous étiez aussi discret qu’un rhinocéros dans un magasin de porcelaine. En effet, leur dernière trouvaille technique transforme votre smartphone en mouchard et cette fois, ça pourrait leur coûter la bagatelle de 32 milliards d’euros d’amende.

L’affaire a éclaté en juin 2025 quand une équipe de cinq chercheurs a révélé au grand jour le “localhost tracking” de Meta. Tim Vlummens, Narseo Vallina-Rodriguez, Nipuna Weerasekara, Gunes Acar et Aniketh Girish ont découvert que Facebook et Instagram avaient trouvé le moyen de contourner toutes les protections d’Android pour vous identifier, même quand vous faites tout pour rester anonyme. VPN activé, mode incognito, cookies supprimés à chaque session… Meta s’en fichait complètement.

Qwen3 - Un équivalent de o3-mini capable de tourner sur votre PC

Par : Korben
29 avril 2025 à 15:56

Je suis content d’avoir investi dans un Mac Studio pour faire tourner des modèles IA un peu plus balèzes du coup, je surveille un peu ce qui sort en ce moment comme modèles, notamment pour coder, et voilà que la famille de modèles Qwen3 vient d’être officiellement lancée, et franchement, ça a l’air plutôt pas mal ! Surtout si vous aimez jouer avec du LLM sans passer par les API payantes de géants de la tech comme OpenAI.

❌
❌