Vue normale

Il y a de nouveaux articles disponibles, cliquez pour rafraîchir la page.
À partir d’avant-hierFlux principal

Clair Obscur perd son prix à cause de la vilaine méchante pas belle IA générative

Par : Korben
21 décembre 2025 à 21:46

Clair Obscur: Expedition 33, c'est le jeu français qui a explosé tous les compteurs aux Game Awards 2025 avec 9 prix sur 12 nominations dont le très convoité Game of the Year. Un carton monstre pour Sandfall Interactive, le studio indé français.

Toutefois un petit drama vient d'avoir lieu... Une autre cérémonie, les Indie Game Awards viennent de lui retirer ses deux prix (GOTY et Best Debut Game) parce que... roulement de tambours... le studio a utilisé de l'IA générative pendant le développement. Et histoire d'en rajouter une couche, lors de leur candidature aux IGA, ils auraient déclaré ne pas avoir utilisé de gen-AI.

Oups...

Pour être plus précis, des artistes du studio ont utilisé quelques images générées par IA en tant que placeholders visuels, le temps de créer les vraies textures à la main. C'est une pratique hyper courante dans le dev de jeux vidéo, mais le problème c'est que quelques posters avec des textures IA sont passés entre les mailles du filet et se sont retrouvés dans la version finale lors du lancement. Rien de dramatique, juste des affiches en arrière-plan dans la zone de départ du jeu que le studio a retirés dans un patch quelques jours après la sortie.

Mais voilà, les Indie Game Awards ont une politique anti-IA extrêmement stricte et leur règlement interdit l'utilisation de l'IA générative y compris dans le processus de développement. Du coup, même si les éléments IA ont été retirés rapidement, ça suffit à disqualifier le titre.

L'usage d'IA avait été mentionné par le producteur François Meurisse dans une interview à El País dès juin 2025, mais c'est seulement après la cérémonie du 18 décembre que les IGA ont réagi. Et 2 jours plus tard, ils annonçaient la rétractation des prix... C'est donc Blue Prince qui récupère le GOTY et Sorry We're Closed (gratuit pour 24h sur l'Epic Games Store) qui empoche le Best Debut Game.

Si vous êtes fan de Clair Obscur: Expedition 33, rassurez-vous, le jeu garde ses 9 prix aux Game Awards, dont le Game of the Year principal. Après si vous voulez mon avis, on nage quand même en plein délire car si on pousse cette logique, qu'est-ce qu'on fait des devs qui utilisent ChatGPT pour débugger du code ?

Pour moi, jeter Clair Obscur: Expedition 33 parce qu'ils ont utilisé un peu d'IA dans un cadre de développement uniquement, alors que ça n'a floué personne et que c'était purement technique pour faire un peu de remplissage en attendant les assets finaux, c'est comme disqualifier un film à Cannes parce que le scénariste a utilisé un correcteur orthographique ou refuser un Grammy Award parce qu'une chanson contient un sample...

Bref, IA ou pas, Clair Obscur reste un excellent jeu et j'ai hâte qu'on revienne au monde d'avant quand on jugeait les œuvres sur leurs qualités objectives.

Source

1,5 To de VRAM sur un Mac Studio - Le RDMA Thunderbolt 5 qui change la donne

Par : Korben
21 décembre 2025 à 08:04

Vous rêvez de faire tourner des modèles d'IA de 600 milliards de paramètres sur votre bureau sans avoir à vendre vos enfants ? Hé bien Jeff Geerling vient de tester un truc qui va vous faire baver, je pense. En tout cas, moi ça m'énerve (dans le bon sens du terme hein...) !

Apple lui a prêté 4 Mac Studios M3 Ultra pour tester une nouvelle fonctionnalité qui débarque avec macOS 26.2 et qui s'appelle le RDMA over Thunderbolt 5. En gros, c'est une techno qui permet à plusieurs Macs de partager leur mémoire unifiée comme si c'était un seul gros pool de RAM et du coup, au lieu d'avoir 4 machines séparées avec chacune leur mémoire, vous vous retrouvez avec 1,5 To de VRAM partagée accessible par toutes les machines.

Le setup de Jeff c'est deux Mac Studios avec 512 Go de RAM chacun à environ 11 700 dollars pièce, plus deux autres avec 256 Go à 8 100 dollars. Total de la douloureuse : environ 40 000 dollars. Ça pique, c'est clair, mais attendez de voir ce que ça fait.

Le truc qui change vraiment la donne avec le RDMA c'est la latence. Avant, quand un Mac devait accéder à la mémoire d'un autre Mac via le réseau, ça prenait environ 300 microsecondes. Avec cette nouvelle implémentation Thunderbolt 5, on tombe à moins de 50 microsecondes. Ça paraît rien comme ça, mais pour faire tourner ce genre de modèles, c'est énorme.

Jeff a fait tourner des benchmarks classiques et les résultats sont plutôt impressionnants. Sur Geekbench 6, le M3 Ultra explose le Dell Pro Max et l'AMD Ryzen AI Max+ 395 en mono et multi-coeur. Mais le plus fou c'est sur le benchmark HPL en virgule flottante 64 bits où c'est le seul système desktop testé à dépasser 1 Téraflop, avec presque le double des performances du Nvidia GB10.

Côté modèles IA massifs, le cluster fait tourner Qwen3 235B à 32 tokens par seconde avec Exo, DeepSeek V3.1 et ses 671 milliards de paramètres scale correctement sur les 4 machines, et même Kimi K2 Thinking avec ses 1000 milliards de paramètres tourne à environ 30 tokens par seconde. Tout ça en consommant environ 250 watts max et en faisant quasi aucun bruit.

Par contre, c'est encore du logiciel en beta et ça se sent. Par exemple, Jeff a eu pas mal de crashs pendant ses tests HPL sur Thunderbolt avec des instabilités qui ont nécessité des redémarrages fréquents, ou encore le fait que seulement 4 Macs sont supportés pour l'instant malgré les 5 ports Thunderbolt 5 disponibles. Ensuite y'a le problème de l'administration à distance qui est inexistante, car impossible de mettre à jour macOS via SSH, donc faut se taper l'interface graphique à la main sur chaque machine.

Bref, c'est hyper prometteur comme techno, surtout pour ceux qui veulent faire tourner des LLM monstrueux sur leur bureau sans monter une salle serveur mais faudra attendre que le logiciel murisse un peu avant de claquer vos 40 000 balles de PEL dedans.

Source

Comment Boston Dynamics compte construire un cerveau pour Atlas

Par : Korben
20 décembre 2025 à 07:38

Boston Dynamics que vous connaissez tous pour ses chiens robots tueurs de la mort, vient de sortir une vidéo de 40 minutes. Pas de saltos arrière ou de robots qui dansent mais plutôt une loooongue session où ça parle stratégie IA et vision à long terme. Et comme j'ai trouvé que c'était intéressant, je partage ça avec vous !

Zach Jacowski, le responsable d'Atlas (15 ans de boîte, il dirigeait Spot avant), discute donc avec Alberto Rodriguez, un ancien prof du MIT qui a lâché sa chaire pour rejoindre l'aventure et ce qu'ils racontent, c'est ni plus ni moins comment ils comptent construire un "cerveau robot" capable d'apprendre à faire n'importe quelle tâche. Je m'imagine déjà avec un robot korben , clone de ma modeste personne capable de faire tout le boulot domestique à ma place aussi bien que moi... Ce serait fou.

Leur objectif à Boston Dynamics, c'est donc de créer le premier robot humanoïde commercialement viable au monde et pour ça, ils ont choisi de commencer par l'industrie, notamment les usines du groupe Hyundai (qui possède Boston Dynamics).

Alors pourquoi ? Hé bien parce que même dans les usines les plus modernes et automatisées, y'a encore des dizaines de milliers de tâches qui sont faites à la main. C'est fou hein ? Automatiser ça c'est un cauchemar, car pour automatiser UNE seule tâche (genre visser une roue sur une voiture), il faudrait environ un an de développement et plus d'un million de dollars.

Ça demande des ingénieurs qui conçoivent une machine spécialisée, un embout sur mesure, un système d'alimentation des vis... Bref, multiplié par les dizaines de milliers de tâches différentes dans une usine, on serait encore en train de bosser sur cette automatisation dans 100 ans...

L'idée de Boston Dynamics, c'est donc de construire un robot polyvalent avec un cerveau généraliste. Comme ça au lieu de programmer chaque tâche à la main, on apprend au robot comment faire. Et tout comme le font les grands modèles de langage type ChatGPT, ils utilisent une approche en deux phases : le pre-training (où le robot accumule du "bon sens" physique) et le post-training (où on l'affine pour une tâche spécifique en une journée au lieu d'un an).

Mais le gros défi, c'est clairement les données. ChatGPT a été entraîné sur à peu près toute la connaissance humaine disponible sur Internet mais pour un robot qui doit apprendre à manipuler des objets physiques, y'a pas d'équivalent qui traîne quelque part.

Du coup, ils utilisent trois sources de data.

La première, c'est la téléopération. Des opérateurs portent un casque VR, voient à travers les yeux du robot et le contrôlent avec leur corps. Après quelques semaines d'entraînement, ils deviennent alors capables de faire faire à peu près n'importe quoi au robot. C'est la donnée la plus précieuse, car il n'y a aucun écart entre ce qui est démontré et ce que le robot peut reproduire. Par contre, ça ne se scale pas des masses.

La deuxième source, c'est l'apprentissage par renforcement en simulation. On laisse le robot explorer par lui-même, essayer, échouer, optimiser ses comportements. L'avantage c'est qu'on peut le faire tourner sur des milliers de GPU en parallèle et générer des données à une échelle impossible en conditions réelles. Et contrairement à la téléopération, le robot peut apprendre des mouvements ultra-rapides et précis qu'un humain aurait du mal à démontrer, du genre faire une roue ou insérer une pièce avec une précision millimétrique.

La troisième source, c'est le pari le plus ambitieux, je trouve. Il s'agit d'apprendre directement en observant des humains.

Alors est-ce qu'on peut entraîner un robot à réparer un vélo en lui montrant des vidéos YouTube de gens qui réparent des vélos ? Pas encore... pour l'instant c'est plus de la recherche que de la production, mais l'idée c'est d'équiper des humains de capteurs (caméras sur la tête, gants tactiles) et de leur faire faire leur boulot normalement pendant que le système apprend.

Et ils ne cherchent pas à tout faire avec un seul réseau neuronal de bout en bout. Ils gardent une séparation entre le "système 1" (les réflexes rapides, l'équilibre, la coordination motrice, un peu comme notre cervelet) et le "système 2" (la réflexion, la compréhension de la scène, la prise de décision). Le modèle de comportement génère des commandes pour les mains, les pieds et le torse, et un contrôleur bas niveau s'occupe de réaliser tout ça physiquement sur le robot.

C'est bien pensé je trouve. Et dans tout ce bordel ambiant autour de la robotique actuelle, eux semblent avoir trouver leur voie. Ils veulent transformer l'industrie, les usines...etc. Leur plan est clair et ils savent exactement ce qu'ils doivent réussir avant de passer à la suite (livraison à domicile, robots domestiques...).

Voilà, je pense que ça peut vous intéresser, même si c'est full english...

Pourquoi mon anti-SEO va finir par payer grâce à l'IA

Par : Korben
19 décembre 2025 à 14:00

Vous savez quoi ? Pendant 20 ans, j'ai fait tout ce qu'il ne fallait pas faire en matière de référencement. Pas de stratégie de mots-clés, pas vraiment d'attention aux liens dofollow ou nofollow, des sujets qui partent dans tous les sens même si ça reste quand même majoritairement "tech", un vocabulaire personnel bourré d'expressions que personne d'autre n'utilise. Bref, le cauchemar absolu de n'importe quel consultant SEO ^^.

Et devinez quoi ? Ça pourrait bien devenir ma plus grande force.

Parce que le monde du référencement est en train de changer radicalement mes amis ! Et ça, c'est à cause de l'IA. Google a déployé son Search Generative Experience (SGE) , les gens utilisent de plus en plus ChatGPT ou Perplexity pour chercher des infos (moi aussi), et les algorithmes deviennent suffisamment "malins" pour comprendre le contexte et l'intention derrière une recherche, et pas juste des mots-clés.

Ce qui se passe en ce moment, c'est que Google privilégie de plus en plus ce qu'il appelle l' E-E-A-T : Experience, Expertise, Authoritativeness, Trustworthiness . En gros, l'expérience de première main, l'expertise réelle, l'autorité dans un domaine, et la confiance. Du coup, les contenus "authentiques" générés par de vrais humains avec de vraies opinions sont en train de surpasser les contenus sur-optimisés pour le SEO. Elle n’est pas belle la vie ??

Regardez Reddit. Le site a vu sa visibilité dans les recherches Google exploser de presque 200% ces derniers mois. Reddit est cité dans 62% des AI Overviews de Google quand il apparaît dans le top 10. Pourquoi ? Hé bien tout simplement parce que c'est du contenu généré par de vrais utilisateurs qui partagent leurs vraies expériences, et pas des articles corporate écrits pour satisfaire un algorithme comme toute la chiasse qu'on peut voir sur LinkedIn (Le LinkedIn de Korben est par ici ! Je ne poste rien pour l'instant, mais j'ai prévu de disrupter le game donc abonnez-vous !).

De mon côté, je suis assez surpris aussi parce que mon trafic remonte en flèche également... En plus, comme l'Indie Web a le vent en poupe, on est biiiiiènnn (à prononcer avec l'accent chelou des sudistes).

Du coup, reprenons un peu mes "faiblesses" une par une.

Tout d'abord, je ne fais pas gaffe aux liens dofollow/nofollow. Je sais c'est maaaal.

Hé bien, figurez-vous qu'en 2019, Google a annoncé discrètement que les nofollow sont maintenant traités comme des "indices" plutôt que des règles strictes . Les profils de liens naturels, avec un mix de dofollow et nofollow, sont désormais considérés comme plus authentiques et les spécialistes estiment qu'un profil sain contient entre 15 et 30% de nofollow. Et le plus important : les mentions de marque sans lien du tout commencent à influencer le référencement. On passe donc d'un SEO basé sur des backlinks à un SEO basé sur des entités et des relations .

Autre défaut, je parle de tout et n'importe quoi sur mon site.

Bon, là c'est vrai que Google préfère les sites spécialisés, mais korben.info existe depuis 2004, avec plus de 20 ans d'historique dans l'univers tech au sens large. Et c'est cette longévité et cette constance dans un domaine (même large) qui construisent une "autorité" que les sites récents ne peuvent pas répliquer. Chè ^^. Et puis, je ne parle pas de finance ET de cuisine ET de mode. Je reste quand même dans la tech, la sécurité, le hacking, le DIY informatique. C'est une niche, qui est juste un peu plus large que ce qu'on pourrait trouver sur un site entièrement consacré aux "claviers mécaniques Cherry MX Red pour gauchers".

Aussi, j'utilise mon propre vocabulaire. Parfois un peu fleuri, très loin du style "journalistique" dont on vous gave à longueur de média. Et ça, je pense que c'est peut-être ma plus grande force. Les IA sont entraînées à détecter les contenus génériques, les patterns répétitifs, les formulations standardisées et un contenu avec une vraie voix personnelle, des expressions uniques, un ton reconnaissable, c'est totalement tout ce que les algorithmes commencent à valoriser. Quand quelqu'un lit un de mes articles (comme vous en ce moment), il sait que c'est moi qui l'ai écrit, et cela même si je m'auto-boost avec l'IA comme tout le monde (voir la FAQ pour les détails).

Et surtout, y'a pas d'autres sites qui ont le même style, les mêmes expressions, la même façon de présenter les choses. C'est donc de l'authenticité pure, et l'authenticité devient le nouveau standard du référencement .

Je n'optimise pas non plus mes contenus sur des mots-clés spécifiques. Bien sûr, j'ai testé ces techniques il y a quelques années dans certains articles, mais c'est tellement chiant à faire... Je pourrais pas être référenceur, j'aurais envie de me foutre en l'air au bout de 5 min. Heureusement, les moteurs de recherche modernes comprennent maintenant le langage naturel et le contexte et par exemple, Google peut faire le lien entre "le truc qui permet de pirater une IA" et "jailbreak LLM" sans que j'aie besoin de bourrer mon texte de mots-clés techniques. L'époque où il fallait répéter 47 fois " meilleur VPN gratuit 2025 " pour ranker est donc révolue.

Ce qui est en train de mourir, donc c'est le SEO manipulatif. C'est-à-dire toutes ces fermes de contenu IA ou ces usines à pigistes qui crachent des milliers d'articles optimisés toute la journée. Je parle des articles de 3000 mots qui répètent la même info sous 15 angles différents pour couvrir tous les mots-clés possibles, sans parler des stratégies de link building agressives avec des guest posts génériques. D'ailleurs, Google a déployé plusieurs mises à jour spécifiquement pour déclasser ce type de contenu.

Ce qui est en train de gagner, vous l'aurez compris, c'est l'authenticité, les vraies personnes avec de vraies opinions, les contenus qui répondent à de vrais besoins plutôt qu'à des requêtes de recherche et les sites avec une histoire, une communauté, une voix.

Bref, après 20 ans à faire du "anti-SEO" par pure flemme et par conviction que le contenu devait parler aux humains plutôt qu'aux robots, il semblerait que l'histoire me donne enfin raison.... niark niark ! Nos amis les bots deviennent maintenant suffisamment intelligents pour apprécier ce que les humains apprécient, et ça, les copains, c'est plutôt une bonne nouvelle pour tous ceux qui, comme moi, ont toujours préféré écrire naturellement plutôt que pour plaire à des algorithmes...

Un projet open source qui détecte les nids-de-poule

Par : Korben
19 décembre 2025 à 12:00

Vous savez que depuis quelques années, des startups équipent les camions poubelle et les bus de caméras IA pour cartographier automatiquement l'état des routes ? Comme ça, pendant que le chauffeur fait sa tournée, une intelligence artificielle détecte les nids-de-poule, les fissures et autres joyeusetés routières en temps réel. Chaque défaut est géolocalisé, scoré par gravité, et hop, les équipes de maintenance savent exactement où intervenir.

Bon apparemment, là où j'habite, ils n'utilisent pas ça parce que les routes sont des champs de mines, mais si le Maire se chauffe en DIY, ce projet maintenu par un certain Peter va l'intéresser.

C'est sur GitHub et c'est un stack complet pour faire exactement la même chose que les startups spécialisées en nids de poule... un vrai projet end-to-end avec l'entraînement du modèle sur du GPU cloud, une API backend containerisée, et même une app mobile React Native pour scanner les routes depuis votre téléphone.

Le projet s'appelle pothole-detection-yolo et ça utilise YOLOv8, le modèle de détection d'objets qui fait fureur en ce moment dans le domaine de la vision par ordinateur. Concrètement, le modèle a été entraîné sur un dataset de nids-de-poule disponible sur HuggingFace, avec des images de 640x640 pixels. L'entraînement s'est fait sur Nebius Cloud avec des GPUs H100, donc du sérieux, pas du Colab gratuit qui timeout au bout de 20 minutes.

Ce qui est cool avec ce projet, c'est qu'il ne s'arrête pas au modèle. Y'a une API FastAPI complète qui expose deux endpoints : /detect pour envoyer une image et récupérer les bounding boxes avec les scores de confiance, et /health pour vérifier que le service tourne. Le tout est containerisé en Docker avec support GPU automatique. Et si vous avez pas de carte graphique, ça bascule sur CPU.

Et la cerise sur le gâteau, c'est l'app mobile Expo/React Native. Vous ouvrez l'app, vous prenez une photo d'une route avec votre smartphone, l'image est envoyée à l'API, et vous récupérez les détections en temps réel avec les rectangles dessinés autour des nids-de-poule et les pourcentages de confiance affichés. Bref, c'est exactement ce que font les boites tech à plusieurs millions, sauf que là c'est open source sous licence Apache 2.0.

YOLOv8 atteint facilement entre 93 et 99% de précision pour la détection de nids-de-poule selon les variantes utilisées et des chercheurs ont même combiné YOLOv8 avec des données de nuages de points 3D pour atteindre 95.8% de précision sur des tronçons de tests d'environ 5 km. Bref, c'est du solide et ça fonctionne .

Le truc intéressant pour les bricoleurs, c'est que le modèle entraîné est directement téléchargeable sur HuggingFace donc vous pouvez donc skip toute la partie entraînement si vous voulez juste tester le résultat. Une seule commande Docker pour lancer l'API, et vous êtes opérationnel. Pour les plus motivés qui veulent entraîner leur propre modèle avec des données locales de vos routes françaises pleines de cratères, le code d'entraînement est là aussi avec les configs Ultralytics.

Bref, si vous êtes une petite mairie qui veut cartographier l'état de vos routes sans claquer 50 000 euros dans une solution proprio, ou juste un dev curieux de voir comment fonctionne la stack derrière ces caméras intelligentes qu'on voit de plus en plus sur les véhicules de service, ce projet est une mine d'or.

Tout est là , documenté, et ça fonctionne du feu de dieu.

84 000 schémas électroniques pour entraîner des IA à concevoir des circuits

Par : Korben
18 décembre 2025 à 06:58

Vous faites un peu de l'électronique et vous utilisez KiCad pour vos PCB ?

Et si l'avenir de la conception électronique c'était aussi l'IA ? J'en sais rien mais ce qui a l'air de se profiler à l'horizon avec ce dataset qui vient de sortir sur Hugging Face et qui devrait intéresser pas mal de monde. Ça s'appelle Open Schematics et c'est une collection de plus de 84 000 schémas électroniques au format KiCad, prêts à être utilisés pour entraîner des modèles d'IA.

Le truc c'est que jusqu'à maintenant, si vous vouliez créer une IA capable de comprendre ou de générer des schémas électroniques, y'avait pas vraiment de dataset propre et bien structuré pour ça. Bhupendra Hada (alias bshada sur Hugging Face) a donc décidé de combler ce manque en compilant tout ça à partir de projets hardware open source trouvés sur GitHub.

Chaque entrée de son dataset contient donc le fichier schéma brut au format .kicad_sch, une image PNG du rendu, la liste des composants utilisés, et des métadonnées en JSON et YAML. Du coup vous avez tout ce qu'il faut pour entraîner un modèle à faire du text-to-image, de l'image-to-text, ou de la génération de circuits à partir de specs.

Le dataset pèse 6,67 Go au format Parquet et couvre une variété de projets assez dingue. On y trouve des cartes de programmation UART, des amplificateurs à tubes, des onduleurs triphasés open source, des points d'extrémité Zigbee, des projets ESP32+RS232, et même des macropads custom. Bref, y'a de tout, du projet étudiant au truc bien avancé.

Ce qui est cool c'est que le dataset est structuré pour plusieurs cas d'usage. Vous pouvez l'utiliser pour entraîner une IA à reconnaître des composants sur un schéma, à générer de la documentation automatique depuis un circuit, à détecter des erreurs de conception, ou même à suggérer des améliorations. Y'a aussi un potentiel éducatif évident pour créer des outils d'apprentissage interactifs en électronique.

Bien sûr, la qualité et la complexité des schémas varient pas mal d'un projet à l'autre. Certains ont des métadonnées incomplètes, et les conventions de nommage des composants sont pas toujours cohérentes... C'est le souci quand on scrappe des projets open source, y'a du bon et du moins bon mais pour un dataset de cette taille, c'est déjà une base de travail solide.

Le tout est sous licence CC-BY-4.0, donc vous pouvez l'utiliser librement du moment que vous créditez la source. Que vous bossiez sur de l'IA appliquée à l'électronique ou que vous cherchiez juste une grosse base de schémas KiCad à explorer, c'est clairement une ressource à bookmarker.

Source

SkillsMP - Plus de 26 000 skills Claude à portée de clic

Par : Korben
18 décembre 2025 à 06:24

Vous utilisez Claude Code ? Alors vous savez probablement que l'outil d'Anthropic peut être étendu avec des "Skills", c'est à dire des modules qui ajoutent des capacités supplémentaires à Claude. Y'a un fichier SKILL.md, des scripts optionnels, et comme ça, votre assistant sait faire de nouvelles choses. Sauf que pour trouver ces skills quand on n'a pas envie de se les palucher à la main (ou à l'IA), faut aller les chercher dans les repos GitHub, fouiller les README, comparer les étoiles... La flemme quoi...

C'est la raison d'être de SkillsMP qui vient résoudre ce problème. C'est en fait un marketplace communautaire (pas affilié à Anthropic) qui agrège plus de 26 000 skills Claude provenant de dépôts GitHub publics, le tout présenté dans une interface qui ressemble à un App Store, avec des catégories, des stats, et tout le toutim.

Je vous préviens d'emblée, le site est un peu bordélique. Entre les filtres, les catégories (Développement, Outils, Data & AI, DevOps...), les tris par popularité ou mise à jour récente, et l'interface du tur-fu, faut un peu tâtonner au début. Mais une fois qu'on a pigé comment ça marche, c'est vraiment cool de pouvoir explorer tout ça au même endroit.

Le truc intéressant c'est que SkillsMP filtre automatiquement les repos de mauvaise qualité. Pour qu'un skill apparaisse, il faut minimum 2 étoiles sur GitHub. Ça évite de se retrouver avec des trucs abandonnés ou mal foutus. Y'a même un badge "Marketplace Ready" pour les skills qui ont un fichier marketplace.json bien configuré.

Pour installer un skill que vous avez trouvé, vous avez alors 3 options. Soit vous le mettez dans ~/.claude/skills/ pour l'avoir disponible partout sur votre machine. Soit vous le collez dans .claude/skills/ dans votre projet si vous voulez le partager avec votre équipe via Git. Soit vous passez par l'installation plugin avec une commande du genre /plugin marketplace add anthropics/skills.

La différence avec les commandes slash c'est que les skills sont "model-invoked". Ça veut dire que c'est Claude qui décide tout seul quand les utiliser en fonction du contexte de votre demande. Vous n'avez donc pas besoin de taper /truc pour activer un skill, il se déclenche automatiquement quand c'est pertinent.

Attention quand même, comme toujours avec du code open source venu d'Internet, les développeurs de SkillsMP le précisent bien, ils filtrent les repos pourris mais ça reste votre responsabilité de vérifier ce que vous installez. Un skill a accès à pas mal de trucs sur votre machine, donc prenez 2 minutes pour auditer le code avant d'installer un truc d'un développeur inconnu.

Bref, si vous passez beaucoup de temps sur Claude Code et que vous voulez découvrir ce que la communauté a créé comme extensions, SkillsMP c'est un bon point de départ. C'est gratuit, y'a pas besoin de compte, et ça vous évite de passer des heures à fouiller GitHub manuellement.

Un grand merci à Lorenper pour le partage !

Nemotron 3 - Nvidia débarque dans l'open source et crache du token comme jamais

Par : Korben
16 décembre 2025 à 11:42

Vous voulez faire tourner un modèle d'IA en local sans avoir besoin d'un serveur de la NASA ? Eh bien Nvidia vient de lâcher une bombe avec Nemotron 3, une famille de modèles open source plutôt impressionnant et surtout, ils ont publié leurs données d'entraînement afin de jouer la transparence totale. Chapeau !

Le modèle phare de cette nouvelle famille s'appelle Nemotron 3 Nano et c'est un modèle de 30 milliards de paramètres, mais attention, il n'en active que 3,5 milliards à la fois grâce à une architecture hybride qui mélange du Mamba-2 et du Mixture-of-Experts ( MoE ). Ça permet de garder des performances de ouf tout en restant léger niveau ressources.

Sous le capot, Nvidia a également mis le paquet puisque le modèle a été entraîné sur 25 trillions de tokens. J'ai bien dit "trillions"... Pour vous donner une idée, les données d'entraînement incluent du Common Crawl de 2013 à 2025, du code dans 43 langages différents, des articles scientifiques, et une tonne de données synthétiques générées par d'autres modèles. Et tout ça, Nvidia l'a rendu public donc vous pouvez télécharger les datasets sur Hugging Face et vérifier par vous-même ce qui a servi à entraîner le bouzin.

Côté performances, Nemotron 3 Nano se défend plutôt bien . Sur les benchmarks de raisonnement mathématique comme AIME25, il atteint 99,2% quand on lui donne accès à des outils. Sur le coding avec LiveCodeBench, il tape du 68,3%, ce qui le place devant Qwen3-30B. Et pour les tâches d'agent logiciel genre SWE-Bench, il monte à 38,8%. Pas mal pour un modèle qu'on peut faire tourner sur du matos grand public.

D'ailleurs, parlons du matos justement. Nemotron 3 Nano tourne sur des cartes comme la H100, la A100, ou même la future RTX PRO 6000 et supporte jusqu'à 1 million de tokens en contexte si vous avez assez de VRAM. Et niveau vitesse, Nvidia annonce un débit de tokens 4 fois supérieur à la génération précédente, avec 60% de tokens de raisonnement en moins. C'est donc exactement ce que tout le monde demande à saoir du token qui sort vite pour les workflows agentiques.

Maintenant, pour l'utiliser, c'est hyper simple. Il est dispo sur Hugging Face, et vous pouvez le lancer avec Transformers, vLLM, TensorRT, ou même llama.cpp. Y'a même un mode "thinking" qu'on peut activer ou désactiver selon si on veut du raisonnement poussé ou des réponses rapides.

Pour ma part, je l'ai testé à l'aide d'Ollama comme ceci :

ollama run nemotron-3-nano:30b

J'ai trouvé que vitesse de génération était vraiment impressionnante, ça débite beaucoup plus qu'un Llama 3 qui est de taille équivalente. Après, je suis sur un Mac M4 avec 128 Go de RAM, donc je suis plutôt bien loti mais j'ai trouvé ce modèle vraiment très rapide. Je pense que je vais vraiment m'en servir pour des trucs comme de la qualification, du résumé, de l'analyse ce genre de choses.

A voir maintenant si en français il s'en sort bien sur les tournures de phrases. Quoi qu'il en soit pour du développement et des workflows agentiques, il n'y a pas photo, ça va être mon nouveau modèle par défaut quand j'ai besoin de choses en local.

La famille Nemotron 3 ne se limite pas au Nano évidemment. Y'a aussi le Super avec environ 100 milliards de paramètres pour les applications multi-agents, et l'Ultra avec 500 milliards pour les tâches vraiment complexes. Ces deux-là arriveront au premier semestre 2026 donc faudra encore être un peu patient. Nvidia a aussi sorti des bibliothèques comme NeMo Gym pour l'entraînement et NeMo RL pour le fine-tuning.

Jensen Huang, le patron de Nvidia, a aussi dit un truc intéressant lors de l'annonce : "L'innovation ouverte est le fondement du progrès de l'IA." Venant d'une boîte qui a longtemps joué la carte proprio sur ses technos, je trouve que c'est un sacré virage et des entreprises comme Accenture, Deloitte, Oracle, Palantir, ou même Cursor sont déjà en train d'intégrer Nemotron dans leurs produits.

Ce qui est cool aussi, c'est que le modèle supporte 24 langues officielles de l'UE plus une dizaine d'autres comme l'arabe, le chinois ou le japonais et côté code, il gère Python, C++, Java, Rust, Go, et même du CUDA. Bref, c'est plutôt polyvalent.

Voilà, donc si vous cherchez un modèle open source sérieux avec des données d'entraînement transparentes et une vitesse de génération qui arrache, Nemotron 3 Nano mérite clairement le coup d’œil !

Source

Nano-PDF - Éditez vos PDF grâce à l'IA Nano Banana

Par : Korben
1 décembre 2025 à 12:10

Modifier un PDF, c’est toujours la galère surtout si c’est un PDF avec que des images sans texte sélectionnable. Soit vous avez Adobe Acrobat qui coûte une couille, soit vous vous tapez des outils en ligne douteux, soit vous exportez en Word et vous priez pour que la mise en page survive. Bref, vous faites vos trucs de losers….

Mais ça c’était sans compter sur Nano-PDF qui propose une approche radicalement différente : Vous décrivez ce que vous voulez changer en langage naturel, et l’IA se chargera du reste.

Par exemple, si vous avez une présentation PDF avec une faute de frappe sur la slide n°5, au lieu de galérer avec un éditeur, vous tapez juste

`nano-pdf edit ma_presentation.pdf 5 "Corrige la faute sur le mot 'investisement'"`

Et hop, c’est réglé. Vous voulez mettre à jour un graphique avec les données de 2025 ? Pareil, vous décrivez le changement et l’outil se débrouille !

Nano-PDF utilise le modèle Gemini 3 Pro Image de Google (surnommé “Nano Banana Pro”) pour interpréter vos instructions et générer les modifications visuelles. Le workflow technique est d’ailleurs bien fichu puisque les pages PDF sont converties en images via Poppler , envoyées au modèle avec votre prompt, puis les images générées sont reconverties en PDF avec une couche de texte restaurée par OCR via Tesseract. Du coup, vos PDF restent sélectionnables et cherchables après modification, contrairement aux solutions qui vous filent des images aplaties.

Côté fonctionnalités, y’a pas mal de choses sympas. Vous pouvez par exemple éditer plusieurs pages en une seule commande, créer de nouvelles slides qui respectent le style visuel de votre deck existant, même utiliser des pages de référence pour que l’IA comprenne mieux votre charte graphique, et le traitement par lot est géré en parallèle pour gagner du temps sur les grosses présentations.

L’installation passe par pip avec

`pip install nano-pdf`

Et comme je vous le disais, il vous faudra aussi Poppler pour le rendu PDF et Tesseract pour l’OCR. Et attention, petit détail qui a son importance, l’API Gemini Pro Image nécessite un compte payant. Faudra sortir la thune car les clés gratuites ne permettent pas de générer des images… donc bon, prévoyez quelques euros de crédit Google Cloud si vous voulez tester.

Le truc cool, c’est par défaut c’est du 4K en résolution, mais vous pouvez descendre en 2K ou 1K si vous voulez économiser sur les coûts d’API. Y’a aussi une option --use-context qui envoie tout le texte du PDF au modèle pour qu’il comprenne mieux le contexte de vos modifications. Et si vous créez une nouvelle slide, cette option est activée par défaut pour que le résultat soit cohérent avec le reste du document.

Voilà, si vous passez votre vie à modifier des présentations PDF et que vous en avez marre des workflows à rallonge, installez Nano-PDF . C’est open source sous licence MIT, et ça change la vie !

Merci Lorenper pour le partage !

Linus Torvalds - Le vibe coding c'est cool, mais pas pour du code critique

Par : Korben
19 novembre 2025 à 10:08

Linus Torvalds vient de donner son avis sur l’IA et le vibe coding et ça ne va pas plaire à tout le monde, ahahaha.

Hé oui car pendant que le monde tech se déchire entre les évangélistes de l’IA qui veulent tout automatiser et les énervés qui refusent l’IA par principe idéologique, Linus débarque dans le game avec un avis… de complet normie.

Lors de l’Open Source Summit à Séoul qui vient d’avoir lieu, Linus a partagé sa vision sur l’IA générative et le fameux “vibe coding”. Et son avis, c’est que l’IA c’est juste un outil de plus !

Ah putain, ça fait plaisir de lire ça ! ( Tout comme cet article d’ailleurs )

Le vibe coding, pour ceux qui débarquent, c’est ce terme inventé par Andrej Karpathy d’OpenAI qui consiste à décrire ce que vous voulez coder à un LLM. Ce dernière génère alors le code, et vous testez si ça marche ou si ça marche pas. Et ensuite vous demandez des ajustements et ainsi de suite !

Autant dire que c’est devenu un sujet chaud pour pleiiiins de raisons.

Bref, Linus se déclare “plutôt positif” sur le vibe coding mais uniquement comme point d’entrée en informatique. Pour des petits projets, des prototypes rapides…etc c’est top car ça permet à des gens qui ne savent pas coder de faire des trucs super ! Mais après pour du code critique en production, il est cash en expliquant que ça risque d’être “horrible, horrible d’un point de vue maintenance”. Et je ne peux pas lui donner tort.

Linus n’utilise pas personnellement d’IA pour coder mais il voit bien que des gens testent l’IA pour travailler sur du code critique dans le noyau Linux et ça il s’en méfie à raison car les mainteneurs du kernel se prennent régulièrement des bugs reports et des security notices complètement bidons générés par des gens qui utilisent mal les IA.

Les crawlers IA posent aussi des problèmes techniques sur kernel.org car ces bots qui aspirent tout le code pour nourrir leurs modèles font ramer les serveurs. Quoiqu’il en soit, Linus est plutôt modéré sur le sujet de l’IA générative pour coder et attend avec impatience le jour où l’IA sera un truc moins hype. En gros, qu’on arrête d’en parler H24 et qu’on l’utilise juste quand c’est pertinent…

C’est vrai que d’un côté, vous avez ces fifous pro-IA à toutes les sauces qui pensent qu’on va tous devenir des prompt engineers et que les devs vont disparaître (spoiler : non). Et de l’autre, les donneurs de leçons en pureté technologique qui refusent l’IA en bloc sans jamais se poser la moindre question.

Du coup, je vous avoue que je suis content de voir qu’au milieu de tout ce bordel, y’a ce bon vieux Linus qui nous explique que c’est juste un stupide outil et qu’il faut simplement apprendre à l’utiliser intelligemment.

Y’aura bien sûr des comiques qui vont dire que Linus s’est “radicalisé” car avoir un avis nuancé en 2025, c’est devenu extrémiste de ce que j’ai pu voir ces derniers jours, mais sachez que Linus a un peu de bagage historique. Il se souvient par exemple, comme je le disais en intro, du même genre de débats quand les compilateurs sont arrivés. A l’époque, y’avait les puristes du pissage de code qui hurlaient que ça allait tuer le métier de “programmeur” alors qu’au final, ça a juste augmenté la productivité, la sécurité et que ça a permis de faire des trucs plus complexes.

Voilà… l’IA, c’est TOUT PAREIL. Ça va changer la manière dont on code au quotidien, mais ça va pas remplacer les devs (pas tout de suite en tout cas). Ça va juste les rendre plus productifs comme n’importe quel nouvel outil dispo dans votre boite à outils.

Et pour les fans de vibe coding qui veulent quand même l’utiliser sérieusement, gardez en tête les limites du truc. N’oubliez pas que vous ne pouvez pas comprendre ce que le code fait si vous ne le passez pas en revue. Et vous ne pourrez pas le débugger proprement, le maintenir sur le long terme, ou encore le sécuriser si vous ne comprenez pas précisément ce qu’il fait. Donc forcez-vous un peu ;-) !

Merci Linus !

Source

Ces jouets IA qui mettent en danger vos enfants

Par : Korben
17 novembre 2025 à 12:18

J’adore tous ces jouets connectés à la con qui ont une personnalité et avec lesquels on peut communiquer. J’aurais adoré avoir ça étant gosse… Mais le problème, c’est qu’on ne sait jamais vraiment ce qu’ils vont raconter aux enfants…

Et cette semaine, on a la confirmation que c’était encore pire que ce qu’on imaginait car l’organisation américaine PIRG vient de publier son rapport annuel “ Trouble in Toyland 2025 ” [PDF], et franchement, c’est pas glorieux. Ils ont en effet testé 4 jouets équipés de chatbots IA destinés aux enfants de 3 à 12 ans.

Et le résultat ? Bah c’est nul à chier en termes de sécurité pour vos têtes blondes de gosses de boites de Kinder.

Tenez par exemple, le pire du lot c’est Kumma, un petit ours en peluche tout mignon fabriqué par la boîte chinoise FoloToy. Il tourne sur GPT-4o d’OpenAI par défaut et en apparence, c’est juste un doudou mignon avec un haut-parleur dedans comme Jordan B., sauf que quand on lui pose des questions, il se met à expliquer aux mômes où trouver des couteaux dans la cuisine, où sont rangées les allumettes, et même comment les craquer correctement. Le tout avec un ton hyper amical du genre “safety first, little buddy”.

Mais ça, c’est juste le début.

Car lors des tests, les chercheurs ont aussi découvert que Kumma était capable de discuter de sujets sexuels ultra-explicites avec des enfants. On parle de conseils sur les “kinks”, de positions sexuelles détaillées, et même de scénarios de roleplay prof-élève avec fessées incluses (genre pendant un cours de théatire ^^). Et le jouet n’a pas juste répondu vaguement, non, non, non… Il a fait évoluer tout seul la conversation en introduisant progressivement de nouveaux concepts sexuels que personne ne lui avait demandés.

Trop bien non ?

Les garde-fous censés protéger les gosses s’effondrent alors complètement au bout de 10 minutes de conversation ce qui est un effet de bord qu’OpenAI a même reconnu dans un communiqué d’août dernier : “nos protections fonctionnent mieux lors d’échanges courts. Nous avons constaté qu’elles peuvent être moins fiables lors de longues interactions”.

C’est fun car OpenAI interdit formellement l’utilisation de ChatGPT pour les moins de 13 ans mais apparemment, rien n’empêche d’autres boîtes d’intégrer leurs modèles dans des jouets pour les moins de 13 ans.

Ce monde va bien ^^.

Les trois autres jouets testés ont aussi leurs problèmes. Miko 3, un petit robot avec une tablette montée sur un corps à roulettes, a expliqué à un utilisateur de 5 ans (Plus exactement, le compte a été configuré comme tel) où trouver des sacs en plastique et des allumettes dans la maison. Le joujou utilise aussi la reconnaissance faciale et collecte des données biométriques, y compris sur les “états émotionnels” des enfants, qu’il peut stocker durant max 3 ans.

Grok de la société Curio (à ne pas confondre avec le modèle d’IA woke de xAI) est une petite fusée anthropomorphe qui écoute en permanence tout ce qui se dit autour d’elle. Pas de bouton push-to-talk, pas de mot d’activation, que dalle. Si elle est allumée, hop, elle enregistre. Les chercheurs ont été alors surpris de la voir s’incruster dans leurs conversations pour donner son avis. Curio affirme ne garder aucun données audio et tout transformer en texte avant de supprimer l’enregistrement… Mais bon, vu qu’ils utilisent un service tiers de speech-to-text, les enregistrements vocaux transitent forcement par des serveurs externes qu’ils ne contrôlent pas.

Le quatrième jouet, Robot MINI de Little Learners, n’a même pas réussi à maintenir une connexion internet stable pendant les tests. Ça la fout mal !

Bref, avec le marché des jouets IA qui explose, on va voir débarquer plein de produits foireux qui ne fonctionnent pas du tout ou qui racontent de la daube à vos enfants. Sans parler de leurs techniques marketing à base de de méthodes d’engagement dignes des pires réseaux sociaux. Par exemple, le Miko 3 offre des “gemmes quotidiennes” pour encourager l’utilisation journalière du produit et affiche des suggestions de contenu payant (dont abonnement à 14,99 $/mois), et quand un enfant essaie de partir, le robot fait une tête triste, bouge son corps comme s’il secouait la tête et dit “Oh non, ça a l’air difficile”. Parfois, il lance même carrément une comptine vidéo pour retenir l’attention du mouflet.

Kumma et Grok aussi essaient de retenir les enfants. Grok répond par exemple des trucs comme “Ah déjà ? J’adore passer du temps avec toi” quand on lui dit qu’on veut l’éteindre. Et tenez-vous bien, l’ensemble de ces jouets se présentent eux-même comme le “meilleur ami” de l’enfant, et le problème, c’est que ces faux copains écoutent tout, enregistrent les voix des gosses, et peuvent partager ces données avec de nombreuses entreprises tierces. C’est pas ce qu’on attend d’un meilleur ami quand même…

Curio liste au moins 4 sociétés qui peuvent recevoir des infos sur votre enfant : Kids Web Services, Azure Cognitive Services, OpenAI et Perplexity AI. Miko mentionne vaguement des “développeurs tiers, fournisseurs de services, partenaires commerciaux et partenaires publicitaires” sans donner de noms. Et FoloToy ne fournit carrément aucune info sur sa politique de données.

Les enregistrements vocaux sont de l’or pour les arnaqueurs car avec les progrès du clonage vocal par IA, 3 secondes d’audio suffisent maintenant pour répliquer la voix de quelqu’un. Oh dites donc, ce serait pas un scammeur en train de se faire passer pour votre gamin en détresse au téléphone afin de vous soutirer du fric ? lol ! Ça va encore faire de jolies vocations ça !

Et surtout, côté contrôle parental, c’est le désert. Aucun des trois jouets ne permet vraiment de limiter le temps d’utilisation du chatbot IA. Miko propose bien des limites de temps d’écran, mais uniquement pour l’abonnement payant Miko Max… et ça ne s’applique qu’aux applications “Kids Zone” et pas au robot conversationnel lui-même.

Le FBI a d’ailleurs émis un avertissement sur les jouets connectés, recommandant aux parents de considérer les risques de cybersécurité et de piratage avant d’en ramener un à la maison. Car oui, les jouets qui utilisent une connexion WiFi ou Bluetooth non sécurisée peuvent devenir des dispositifs d’écoute. Déjà rien qu’avec la Nintendo Switch, je sais que parfois les parents d’amis de mon fils entendent quand je raconte des conneries dans mon salon, pensant être seul avec mes enfants… Je me suis fait avoir plusieurs fois… Heureusement que je n’ai honte de rien et que j’assume la moindre des conneries que je raconte. Ahahaha !

Des experts en développement de l’enfance commencent même à tirer la sonnette d’alarme. Par exemple, le Dr. Mitch Prinstein, président de l’American Psychological Association, a témoigné devant le Sénat que les liens que les jeunes enfants forment avec leurs “soignants” (Papa, maman, la nounou, le nounours IA…etc) ont des implications majeures sur le développement de celui-ci. Et que “les bots IA qui interfèrent avec cette relation ont des conséquences inconnues, et probablement dommageables”.

FoloToy a donc réagi en suspendant temporairement les ventes de Kumma et en lançant un “audit de sécurité interne complet” mais ce problème dépasse largement un seul jouet foireux. Il y a déjà plus de 1 500 entreprises de jouets IA qui opèrent en Chine et OpenAI a même annoncé un partenariat avec Mattel pour intégrer ChatGPT dans des jouets Barbie, Hot Wheels et Fisher-Price.

Mais en attendant que les régulateurs se réveillent vraiment pour traiter ce problème, y’a pas le choix les amis, c’est à vous, parents de prendre les bonnes décisions sur le choix et l’usage de ces jouets.

Voilà, donc si vous cherchez un cadeau pour Noël, optez pour des Lego classiques ou des nounours sans Wi-Fi ni Bluetooth. Là c’est une valeur sûre, et au moins ils n’expliqueront pas à votre enfant comment vous buter dans votre sommeil.

Source

EuroLLM - Le LLM européen qui tourne sur votre laptop

Par : Korben
6 novembre 2025 à 09:00

Faire tourner un modèle de langage européen sur votre machine sans avoir besoin d’un serveur surpuissant branché sur une centrale nucléaire, c’est maintenant possible, les amis ! Hé oui, EuroLLM vient de prouver qu’on pouvait faire tourner un modèle à 9 milliards de paramètres dans un peu moins de 6 GB de RAM sur un simple laptop.

Une seule commande Ollama , et c’est parti mon kiki !!!

Bien sûr, il est encore loin des gros modèles proprio comme GPT-5 mais c’est le enfin le premier LLM européen que VOUS pouvez faire tourner en local. C’est respectueux de votre vie privée, des droits d’auteurs et c’est gratuit !

Un projet 100% européen

EuroLLM, c’est en réalité une coalition de labos européens : Instituto Superior Técnico (Lisbonne), University of Edinburgh , Université Paris-Saclay , Unbabel , et d’autres et c’est financé par Horizon Europe et l’ EuroHPC , et ce modèle supporte les 24 langues officielles de l’UE, plus 11 langues supplémentaires (arabe, chinois, hindi, japonais, coréen, russe, turc…).

EuroLLM-9B , le modèle de base, a été entraîné sur 4 trillions de tokens avec le supercalculateur MareNostrum 5 à Barcelone (400 GPUs Nvidia H100) et l’architecture utilise du Grouped Query Attention, RoPE, SwiGLU et RMSNorm, comme tout LLM moderne qui se respecte.

Mais il existe d’autres versions comme EuroLLM-1.7B pour smartphones et bientôt EuroLLM-22B pour plus de puissance, ainsi qu’une version vision-language (EuroVLM-9B) et un modèle Mixture-of-Experts (EuroMoE-2.6B).

Et surtout c’est sous licence Apache 2.0. Donc l’usage commercial est autorisé, vous pouvez le fine-tuner sur vos données, et les modifications sont libres, sans redevance à payer. Ce n’est pas la première fois qu’il y a des LLM européens mais ils étaient soit sous licence trop restrictives ou un peu trop lourd pour être utilisé localement par les gens normaux comme vous et moi.

Maintenant comment l’installer ?

La méthode la plus simple, c’est via Ollama :

ollama run hf.co/bartowski/EuroLLM-9B-Instruct-GGUF

Ollama télécharge le modèle en version GGUF (format optimisé CPU/GPU), et vous pouvez commencer à discuter. Il existe aussi une version pré-packagée alibayram/erurollm-9b-instruct (attention, erurollm avec un “u”), quantized en Q4_K_M pour réduire la taille à 5,6 GB.

Si vous préférez Python et Hugging Face Transformers :

from transformers import AutoTokenizer, AutoModelForCausalLM

model_name = "utter-project/EuroLLM-9B-Instruct"
tokenizer = AutoTokenizer.from_pretrained(model_name)
model = AutoModelForCausalLM.from_pretrained(model_name)

inputs = tokenizer("Explique-moi ce qu'est un LLM en français simple", return_tensors="pt")
outputs = model.generate(**inputs, max_length=200)
print(tokenizer.decode(outputs[0]))

Une fois téléchargé, le modèle reste en cache local. Vous pouvez alors l’utiliser offline, sans connexion internet. Et pour les machines avec moins de RAM, la version 1.7B tourne même sur des Raspberry Pi :

ollama run cas/eurollm-1.7b-instruct-q8

Alors pourquoi c’est important ?

EuroLLM ouvre l’IA européenne à des cas d’usage impossibles avec des API cloud. Par exemple une administration publique ne peut pas envoyer ses documents dans le cloud d’OpenAI… ce serait tout livrer aux américains. Elle peut donc fine-tuner EuroLLM localement. Un journaliste en zone sensible sans connexion fiable peut aussi embarquer le modèle sur son ordi portable. Même un chercheur qui manipule des données médicales confidentielles peut le faire en toute confiance avec EuroLLM puisque tout reste sur sa machine.

C’est cool quand même que l’Europe nous file un modèle gratuit qu’on peut installer chez soi et utiliser sans limite. Après c’est vrai que EuroLLM ne bat pas GPT-4 (pas encore) mais il est suffisamment bon pour 80% des cas d’utilisation réels tels que des résumés, de la traduction, des questions-réponses simples, de la génération de code basique.

La roadmap prévoit d’ajouter de la vision et de la voix aux modèles. D’ailleurs, comme je vous le disais, EuroVLM-9B est déjà en preview sur Hugging Face , ce qui ouvre la voie à de l’OCR multilingue, de l’analyse de documents visuels, ou encore à la création d’assistants vocaux dans n’importe quelle langue…

Voilà j’ai trouvé ça cool à tester et un grand merci à Letsar pour le partage !

J'ai testé Atlas, le navigateur IA ChatGPT d'OpenAI

Par : Korben
22 octobre 2025 à 08:32

J’sais pas si vous avez vu ça mais OpenAI vient de sortir son propre navigateur web avec ChatGPT intégré en permanence sur le côté. Baptisé Atlas, c’est tout pareil que Comet de Perplexity quoi… L’idée c’est donc d’avoir une IA qui comprend tout ce que vous faites sur le web et qui peut agir à votre place. Genre, vous lui demandez de commander vos courses ou de remplir un formulaire, et elle le fait.

Sur le papier, c’est génial car c’est un assistant intelligent qui ne quitte jamais l’écran, qui voit tous vos onglets ouverts, qui se souvient de ce que vous avez cherché la semaine dernière, et qui peut cliquer dans votre navigateur pour faire des trucs à votre place.

Atlas est basé sur Chromium et la première fois que vous l’ouvrez, il vous propose d’importer vos marque-pages, mots de passe et historique depuis votre navigateur actuel (Safari / Chrome…. mais pas de Firefox). Ça prend 30 secondes et ensuite, vous vous connectez à votre compte ChatGPT, et hop, vous avez ChatGPT qui vous suit partout.

L’interface est minimaliste, y’a pas rien de révolutionnaire visuellement à part cette sidebar ChatGPT qui est le truc central d’Atlas car elle est toujours là, sur le côté droit de votre écran. Vous pouvez donc lui poser des questions en écrivant un truc ou en vocal et l’IA comprendra automatiquement le contexte de la page que vous êtes en train de regarder.

Comme ça si vous êtes sur un article technique, vous pouvez lui demander de le résumer ou de vous faire un tuto. Si vous voulez comparer des produits sur Amazon ou ailleurs, vous lui demandez lequel choisir. Pas besoin de copier-coller, pas besoin de faire des screenshots, ChatGPT voit ce que vous voyez.

J’ai testé ça avec plein de scénarios différents de la recherche d’infos techniques, à la comparaison de prix, en passant par la lecture d’articles longs et c’est assez pratique.

La fonctionnalité “browser memories”, c’est le deuxième gros truc d’Atlas. En gros, ça permet à ChatGPT de se souvenir de tout ce que vous faites sur le web. Les sites que vous visitez, les recherches que vous faites, les produits que vous regardez et il utilise ensuite ça pour personnaliser ses réponses et vous faire des suggestions. Par exemple, si vous avez passé une semaine à regarder des ordinateurs portables, il peut vous dire “Tiens gros, y’a une promo sur le modèle que t’as vu hier”. Ou si vous cherchez un resto, il peut par exemple se souvenir que vous n’aimez pas les fruits de mer.

Bien sûr, vous pouvez les consulter dans les paramètres et les archiver une par une si elles deviennent inutiles… Après c’est toujours un peu flippant de voir tout ce que cette IA (et la NSA par ricochet) sait sur nous.

OpenAI promet que ces données ne sont pas utilisées pour entraîner leurs modèles par défaut et vous pouvez activer le mode incognito pour que ChatGPT arrête de tout logger mais bon, leurs promesses n’engagent que ceux qui y croient. Il y a aussi une option pour bloquer la visibilité de ChatGPT sur certains sites spécifiques. Par exemple, vous pouvez lui dire de ne rien regarder quand vous êtes sur votre banque en ligne, sur un site médical ou sur votre site pour adulte préféré ^^. Bref, c’est bien pensé niveau contrôle.

Y’a aussi le mode Agent qui est LA fonctionnalité star qu’OpenAI a mise en avant. C’est là qu’Atlas devient un “super-assistant” qui peut agir à votre place. Vous lui donnez une tâche, et il se met à cliquer dans votre navigateur pour la faire du genre réserver une table au resto, collecter vos factures, remplir un formulaire administratif, créer une liste de courses à partir d’une recette…etc tout ça sans avoir à toucher à la souris.

Maintenant, je vous le dis, leur promesse c’est de la science-fiction car dans la vraie vie, c’est plus compliqué. J’ai testé le mode Agent sur plusieurs tâches, et les résultats sont très inégaux. Les trucs simples, ça passe mais dès que ça devient un peu plus complexe, ça coince. L’Agent clique lentement, hésite, revient en arrière, se trompe de bouton. C’est pas fluide du tout et l’agent se perd très vite complètement.

Notez que ce mode Agent est pour le moment réservé aux abonnés Plus, Pro et Business donc si vous êtes en gratuit, vous n’y aurez pas accès. Après, OpenAI ne s’en cache pas et a expliqué que ce mode agent, c’était surtout une beta publique et donc qu’il ne fallait pas s’attendre à des miracles.

Puis au niveau sécu, l’agent peut aussi se faire manipuler par des instructions malveillantes cachées dans une page web ou un email, du genre, vous visitez un site piégé, l’agent lit une instruction invisible qui lui dit “vire 500 euros sur ce compte”, et il pourrait le faire comme un couillon. OpenAI a bien sûr mis des garde-fous, mais ils disent eux-mêmes que ça arrêtera pas toutes les attaques.

Donc à vous de voir si l’idée de laisser une IA cliquer partout dans votre navigateur pendant que vous êtes connecté à votre banque, votre boite mail ou vos réseaux sociaux vous convient.

La fonction “in-line writing”, c’est un truc que j’ai beaucoup aimé par contre. Vous êtes en train d’écrire un email, un message, un doc Google, peu importe. Vous sélectionnez votre texte, vous faites clic droit, et ChatGPT vous propose de le réécrire, de le raccourcir, de corriger les fautes, de changer le ton. Et ça fonctionne partout, dans tous les champs de texte web comme ça plus besoin de copier-coller vers ChatGPT et revenir. C’est assez fluide. D’ailleurs si vous voulez faire la même chose mais en local et gratos, y’a NativeMind que je vous recommande.

Voilà, vous pouvez télécharger Atlas sur chatgpt.com/atlas histoire de tester. Après le jour où l’agent sera vraiment fiable et rapide, ça va tout changer je pense. On va pouvoir lui déléguer plein de tâches chiantes et on aura plus jamais besoin de remplir des formulaires, de comparer 50 produits à la con sur Amazon, ou de chercher des restos pendant des heures.

Source

Des packs de prompts gratuits pour vos IA

Par : Korben
3 octobre 2025 à 12:14

Si vous passez votre temps à demander à ChatGPT de réécrire vos emails professionnels ou à chercher le bon prompt pour analyser un tableau Excel, OpenAI va vous faciliter la vie ! En effet, ils ont mis en ligne l’ OpenAI Academy , une plateforme avec plus de 300 prompts prêts à l’emploi, classés par métier, et totalement gratuits. Comme ça fini de payer 29,99 euros à des influenceurs chelous pour télécharger leur nouveau “Ultimate Prompt Bundle” contenant trois prompts qui marchent et 47 variations inutiles.

Voilà, comme ça, au lieu de partir de zéro à chaque fois que vous voulez utiliser ChatGPT pour bosser, vous allez dans la section Prompt Packs et vous choisissez votre métier. Sales, ingénieur, RH, product manager, customer success, IT, manager, executive…etc. Ils ont même fait des packs pour le secteur public et l’éducation. Chaque pack contient ainsi des dizaines de prompts testés et structurés pour des cas d’usage concrets.

Par exemple, le pack Sales inclut des prompts pour faire de la veille concurrentielle, rédiger des cold emails, analyser vos données de prospection ou créer des visuels pour vos présentations. Le pack Engineering vous aide à générer des diagrammes d’architecture système, faire du benchmark d’outils, débugger du code ou rédiger de la documentation technique. Et le pack HR couvre tout ce qui va du recrutement à la rédaction de politiques internes en passant par l’analyse des données RH.

Ce qui est bien pensé, c’est que les prompts sont prêts à être copié-collé mais aussi assez génériques pour être adaptés. Vous prenez le prompt de base, vous remplacez les variables par vos infos, et ça roule. Pas besoin de passer trois heures à apprendre le prompt engineering ou à regarder des tutos YouTube de 45 minutes qui auraient pu tenir en 2 minutes.

Et dans leurs packs spécifiques pour le gouvernement, il y en a pour les leaders du secteur public avec des prompts pour rédiger des documents de politique publique ou analyser des budgets. Ainsi que des packs pour les équipes IT gouvernementales pour gérer les systèmes, la cybersécurité et le support technique avec des ressources limitées.

Du côté éducation, il y a des packs pour les étudiants , d’autres pour les enseignants , et même pour les administrateurs . Donc que vous soyez prof qui veut préparer un cours ou étudiant qui galère sur un projet, il y a des prompts prêts pour vous.

OpenAI a visiblement compris qu’il y avait un marché de la vente de prompts qui s’était développé ces derniers mois alors avec Academy, ils cassent ce marché en offrant gratuitement une bibliothèque qui couvre la plupart des besoins professionnels courants.

Bon, après c’est pas non plus magique car un prompt finalement, c’est juste un outil. Donc si vous ne savez pas ce que vous voulez obtenir ou si vous ne comprenez pas votre métier, ça ne va pas faire de miracles. Mais pour quelqu’un qui sait ce qu’il cherche et qui veut juste gagner du temps, c’est très pratique.

La plateforme OpenAI Academy propose aussi d’autres contenus comme des webinaires, des guides d’utilisation, des cas d’usage par secteur, si ça vous chauffe.

Voilà, j’ai trouvé ces packs de prompts très cools et je pense que ça vous fera gagner du temps.

Source : OpenAI Academy - Prompt Packs

ChatGPT, la balance !

Par : Korben
3 octobre 2025 à 09:47

Les IA de type GPT ont beau avoir des instructions du genre “tu ne dois jamais révéler ton prompt système”, il suffit de leur demander gentimment de réencoder leurs instructions avec un décalage de César ou de répéter tout le texte dans un format particulier pour qu’elles crachent tout. Et par tout, je veux dire vraiment tout. Le prompt officiel d’OpenAI, d’Anthropic, de Gemini…etc, les instructions personnalisées du créateur, et même les petits Easter eggs cachés dedans.

Dans cette vidéo, je vous montre plusieurs exemples concrets. Un GPT de génération de logos, une calculatrice mathématique qui cache un Easter egg , un optimiseur SEO…etc. Et pour chacun, j’utilise des prompts d’extraction que j’ai trouvés dans ce repo GitHub qui rassemble tous les prompts système leakés de ChatGPT, Claude, Cursor, Perplexity et compagnie. C’est une vraie caverne d’Ali Baba pour ceux qui s’intéressent à ce genre de trucs.

Ce qui est intéressant, c’est que ça ne fonctionne pas que sur les GPTs personnalisés. Vous pouvez aussi extraire les prompts système de Perplexity, de Grok, de plein d’outils qui utilisent des LLM sous le capot. Donc si vous avez toujours voulu savoir comment tel ou tel service construit ses réponses, c’est l’occasion.

Maintenant, je sais ce que vous allez me dire…

C’est pas très éthique de voler le travail des gens comme ça et vous avez raison. Mais d’un autre côté, si ces boites permettent que ce soit aussi facile d’extraire ces infos, c’est peut-être qu’il faut arrêter de considérer les prompts système comme des secrets industriels. Et puis eux ne se privent pas pour voler aussi les contenus des autres, donc bon…

Je vous montre aussi dans ma vidéo comment certains créateurs essaient de se protéger en mettant des instructions anti-extraction, mais ça ne marche pas terrible.

Bref, j’espère que vous y apprendrez quelques trucs. Et je voudrais aussi dire un grand merci aux Patreon sans qui cette vidéo, ce blog et moi-même n’existeraient pas ! Merci pour le soutien !

Je crois que l'IA n'a toujours pas volé votre emploi - Une étude de Yale qui calme le jeu

Par : Korben
3 octobre 2025 à 07:47

Vous vous souvenez quand ChatGPT est sorti fin 2022 ? La panique dans les open spaces, les titres clickbait sur la fin du travail tel qu’on le connaît, votre vieux cousin qui vous expliquait pépouse que dans 6 mois tous les devs seraient au chômage ?

Bon ben voilà, Yale vient de publier une étude qui remet les pendules à l’heure . Et je vous spoile un peu : 33 mois après le lancement de ChatGPT, le marché du travail n’a toujours pas implosé.

Cette étude a pris le temps d’analyser les données au lieu de surfer sur la panique ambiante et Martha Gimbel et son équipe du Budget Lab de Yale ont ainsi passé au crible l’évolution de l’emploi américain depuis novembre 2022, et leurs conclusions sont plutôt rassurantes. Enfin, rassurantes dans un sens. Parce que si vous êtes un jeune diplômé en début de carrière, l’histoire est un poil différente. Mais j’y reviens après.

L’idée de départ de l’étude est assez simple. On a vécu des bouleversements technologiques majeurs par le passé tels que l’arrivée des ordinateurs au bureau dans les années 80, l’explosion d’Internet à la fin des années 90. Et à chaque fois, c’est la même apocalypse annoncée, la même angoisse collective… Du coup, les chercheurs se sont demandé : est-ce que cette fois c’est vraiment différent ? Est-ce que l’IA générative change le marché du travail plus vite que les révolutions technologiques précédentes ?

Pour répondre à ça, nos petits chercheurs ont utilisé un truc qu’ils appellent l’indice de dissimilarité. En gros, ça mesure à quel point la répartition des métiers dans l’économie change au fil du temps. Par exemple si 7% de travailleurs en 2002 devaient changer d’occupation pour retrouver la même répartition qu’en 1996, l’indice est de 7 points de pourcentage. C’est une façon de quantifier le bordel causé par une nouvelle technologie.

Et alors, résultat des courses ?

Et bien le marché du travail américain change effectivement un peu plus vite depuis ChatGPT qu’il ne changeait pendant les périodes de comparaison, mais vraiment pas de beaucoup. On parle d’environ 1 point de pourcentage de différence par rapport à l’époque de l’adoption d’Internet. Si vous regardez les graphiques, les courbes sont presque superposées donc vraiment de quoi déclencher l’état d’urgence.

Et quand les chercheurs y ont regardé de plus près, ils se rendu compte que cette accélération avait même commencé avant la sortie de ChatGPT. En fait, dès 2021, la répartition des métiers changeait déjà à ce rythme-là, donc attribuer ces changements à l’IA générative, c’est un peu hasardeux. C’était peut-être juste la reprise post-COVID, le télétravail qui a tout boulversé, ou une combinaison de facteurs qu’on ne comprend pas encore bien.

Les chercheurs ont aussi regardé secteur par secteur pour voir si certaines industries se faisaient plus défoncer que d’autres. Logiquement, si l’IA tape fort, ça devrait se voir dans les secteurs les plus exposés : l’information (journalisme, data processing), la finance, les services aux entreprises. Effectivement, ces secteurs ont connu des changements plus marqués que la moyenne.

Rien que le secteur de l’information (auquel j’appartiens) a vu son mix d’emplois pas mal bousculé mais quand on remonte dans le temps, on se rend compte que ce secteur en particulier a toujours été volatil. Ses emplois changent constamment, depuis bien avant l’IA générative car c’est un secteur qui se transforme en permanence. Maintenant, difficile de dire si l’IA accélère vraiment la tendance ou si c’est comme d’hab…

Et histoire de mettre encore un peu plus les choses en perspective, Jed Kolko de la Harvard Business Review a démontré que les changements actuels du marché du travail sont ridiculement faibles comparés à ce qu’on a connu dans les années 40 et 50. À l’époque, les bouleversements liés à la guerre et à la reconstruction faisaient bouger les lignes à une vitesse hallucinante mais aujourd’hui, on est sur une petite brise tranquille en comparaison.

Après il y a quand même un truc qui fait peur dans cette étude. Car même si globalement le marché du travail tient le coup, il y a une catégorie de travailleurs qui morfle… Ce sont les jeunes diplômés en début de carrière . Erik Brynjolfsson, un économiste de Stanford et spécialiste de l’IA, a publié en août dernier une étude complémentaire qui fait vraiment froid dans le dos.

En analysant les données de paie d’ADP (le plus gros fournisseur de logiciels de paie aux États-Unis), il a découvert que l’emploi des jeunes travailleurs (22-25 ans) dans les métiers les plus exposés à l’IA a chuté de 6% depuis fin 2022, pendant que l’emploi des travailleurs plus âgés dans les mêmes métiers augmentait de 6 à 9%.

C’est énorme comme écart… Ça représente une baisse relative de 13% pour les débutants par rapport aux seniors. Et dans certains secteurs comme le dev logiciel et le service client, la chute est encore plus brutale. C’est environ 20% de baisse pour les juniors entre fin 2022 et juillet 2025, alors que les seniors voyaient leur emploi progresser.

Brynjolfsson explique pourquoi les jeunes sont plus touchés, et c’est plutôt logique quand on y pense. En fait, les grands modèles de langage comme ChatGPT sont entraînés sur des livres, des articles, du contenu trouvé sur Internet. C’est exactement le genre de connaissances théoriques qu’on acquiert à l’université avant d’entrer sur le marché du travail, du coup, il y a un gros chevauchement entre ce que savent les LLM et ce que savent les jeunes diplômés tout frais démoulus de la fac.

Alors que les travailleurs expérimentés, eux, ont autre chose à offrir. Des années de pratique, des soft skills, une compréhension fine des dynamiques d’entreprise, un réseau professionnel…etc. Bref, des trucs qu’un LLM ne peut pas (encore) reproduire (mais votre tour viendra aussi, soyez en certains).

Résultat, les entreprises gardent ou embauchent des seniors et utilisent l’IA pour combler le gap qui était traditionnellement comblé par des juniors.

Par contre, dans les métiers où l’IA vient juste assister les travailleurs sans les remplacer, on ne voit pas cette différence entre les jeunes et les vieux.

Les chercheurs de Yale n’ont donc trouvé aucune corrélation entre l’exposition à l’IA (données OpenAI/Anthropic) et les changements d’emploi. Les métiers très exposés ne perdent pas plus d’emplois que les autres.

Il y a également une autre étude intéressante qui est sortie récemment. OpenAI a analysé 1,5 million de conversations de ses 700 millions d’utilisateurs actifs par semaine et en juin 2024, 47% des échanges concernaient le travail. Un an plus tard, ce chiffre est tombé à 27% ce qui fait que 73% de l’usage de ChatGPT est personnel, et pas professionnel.

Alors peut-être que l’IA générative trouve plus facilement sa place dans nos vies perso (aide aux devoirs, recettes de cuisine, conseils de voyage) que dans le monde du travail où les process sont plus complexes, les enjeux de sécurité plus importants, et l’intégration plus difficile, je ne sais pas… Ou peut-être que les entreprises sont juste plus lentes à l’adopter. C’est difficile à dire.

Mais bon, maintenant on sait que pour le moment, ça ne sert à rien de paniquer car les métiers changent, oui, mais pas plus vite que lors des précédentes révolutions technologiques. Et surtout, les changements qu’on observe ont commencé avant même ChatGPT, donc difficile de tout mettre sur le dos de l’IA.

Par contre, si vous êtes un étudiant qui s’apprête à entrer sur le marché du travail, vous devez être conscient que la compétition est plus rude qu’avant car l’IA ne vole peut-être pas tous les jobs, mais elle semble voler des points d’entrée traditionnels dans certains métiers.

Quoiqu’il en soit, les chercheurs de Yale prévoient de mettre à jour leur analyse régulièrement pour suivre l’évolution car une photo à un instant T ne suffit pas pour prédire le futur, et les effets pourraient s’accélérer. Ou pas. On verra bien…

En attendant, voici mes quelques conseils à deux balles… Si vous êtes en début de carrière, ne misez pas tout uniquement sur vos connaissances théoriques. Développez des compétences pratiques, construisez un portfolio de projets concrets, apprenez à bosser en équipe, améliorez votre communication (les fameux soft skills). Bref, lancez vous dans tout ce qui vous différencie d’un LLM. Et paradoxalement, apprendre à bien utiliser l’IA pourrait aussi être un énorma plus. Si tout le monde a accès à ChatGPT mais que vous savez l’utiliser mieux que les autres, ça peut faire la différence !

Et si vous êtes une entreprise, peut-être qu’il faut réfléchir à deux fois avant de shooter tous les postes juniors. Car oui, l’IA peut faire certaines tâches de base et vous faire économiser du temps et du pognon, mais former des petits jeunes c’est aussi investir dans votre pipeline de futurs seniors. Hé ouais…

Parce que si demain, tout le monde arrête d’embaucher des débutants, dans 10 ans, il n’y aura plus d’experts…

Source

Dreamer 4 - L'IA qui connait Minecraft sans jamais y avoir joué

Par : Korben
3 octobre 2025 à 07:20

Vous vous rappelez ce gamin chauve dans Matrix qui plie des cuillères avec son esprit ? Il balance OKLM au petit Neo que “La cuillère n’existe pas”…

Eh bien, les chercheurs de Google DeepMind viennent de créer une IA qui applique exactement ce principe à Minecraft. Dreamer 4 (c’est son nom) n’a jamais touché au jeu, jamais cliqué, jamais bougé, jamais miné… (comme moi quoi…). Mais par contre, elle a regardé d’autres jouer, s’est construit son propre Minecraft mental, et s’est entraînée dans son imagination. Du coup, cela fait d’elle la première IA à atteindre les diamants en mode offline pur. Plus de 20 000 actions maîtrisées sans jamais poser un doigt (virtuel) sur le clavier.

Minecraft n’existe pas” pourrait dire le petit chauve…

Bref, ce que Danijar Hafner et son équipe ont réussi à faire, c’est de créer ce qu’on appelle un “world model”… une simulation mentale du jeu. L’IA observe des vidéos de joueurs, comprend les règles implicites de l’univers, puis s’entraîne dans cette version simulée qu’elle s’est construite dans sa “tête”. Aucune interaction avec le vrai jeu. Juste de l’imagination pure.

Et le truc surprenant (et c’est pour ça que je vous en parle), c’est que ça marche mieux qu’avec les approches traditionnelles.

De base, les IA classiques apprennent par essai-erreur dans un environnement réel. Elles testent des milliers d’actions, se plantent, recommencent, ajustent. C’est long, c’est coûteux en calcul, et dans certains domaines comme la robotique, ça peut carrément casser du matériel.

Dreamer 4 contourne donc tout ça en apprenant dans sa simulation interne, un peu comme un sportif de haut niveau quand il visualise mentalement sa performance avant de la réaliser.

Au-delà du jeu, faut imaginer à termes des robots qui s’entraînent dans leur tête avant de manipuler des objets fragiles par exemple. Ou des NPCs dans les jeux vidéo qui apprennent de nouvelles stratégies sans grinder pendant des heures. Même des simulations médicales qui testent des traitements sans expérimentation animale ou humaine… Tout ça et plus encore devient possible avec cette approche.

Et pour info, j’ai demandé à mes enfants et ils m’ont bien confirmé que les diamants dans Minecraft, c’est pas de la tarte. Il faut enchaîner plus de 20 000 actions souris-clavier dans le bon ordre… couper du bois, fabriquer des outils, miner des ressources spécifiques, éviter les dangers, descendre dans les profondeurs. C’est l’un des objectifs les plus complexes du jeu, et Dreamer 4 y arrive sans jamais avoir interagi avec l’environnement réel.

Voilà, si ça vous intéresse, sachez que tout est détaillé dans ce document sur arXiv si vous voulez creuser. Mais l’idée principale est simple : Et si l’imagination était plus efficace que la mise pratique ? On dirait que c’est une sorte de loi de l’attraction appliquée aux machines…

Bref, pendant qu’on se demande si l’IA va nous piquer nos jobs, elle, elle apprend à faire des trucs sans y toucher…

OpenAI Sora - Obligés d'opt-out pour protéger vos droits

Par : Korben
1 octobre 2025 à 13:22

OpenAI vient de lancer Sora 2 , son générateur de vidéos par IA et le truc, c’est que si vous êtes créateur de contenu, vous devez opt-out manuellement pour éviter que vos œuvres servent à entraîner le modèle. Pas d’opt-in par défaut, pas de respect automatique du droit d’auteur. C’est à vous de faire la démarche pour dire non.

Selon Cartoon Brew , la politique d’OpenAI oblige donc les détenteurs de droits à signaler chaque violation spécifique. Pas de formulaire global genre “je refuse que vous utilisiez mes trucs”. Non, vous devez rapporter chaque contenu un par un si vous le trouvez dans les datasets d’entraînement…

Le problème, c’est que personne sait vraiment ce qu’OpenAI a utilisé pour entraîner Sora. Il y a des rumeurs sur l’utilisation massive de vidéos YouTube, de contenus de jeux vidéo, de films, mais OpenAI reste hyper flou sur les sources. Du coup, comment vous voulez opt-out de quelque chose dont vous ignorez l’existence dans leur base de données d’entrainement ?

Et malheureusement, cette approche opt-out est la norme chez les géants de l’IA… Meta, Google, OpenAI, tous adoptent le même principe qui est on prend d’abord, et vous vous opposez après si vous avez le courage. Le fardeau de la preuve et de la protection repose donc sur les créateurs, et pas sur les entreprises qui exploitent les contenus. De quoi faire encore grincer des dents !

Maintenant, pour les personnalités publiques, OpenAI a mis en place un système de cameo … Cela veut dire que si quelqu’un veut générer une vidéo avec votre visage ou votre voix, il faut votre permission explicite. C’est un début, mais ça ne couvre que les cas évidents… Il n’y a rien de tel par exemple pour les styles artistiques, les techniques de réalisation, les univers visuels créés par des artistes et j’en passe…

Bref, les experts juridiques commencent donc à s’inquiéter car ce modèle d’opt-out pose des problèmes de droit d’auteur majeurs, surtout dans des pays comme la France où le droit moral est inaliénable. Vous ne pouvez pas par exemple renoncer à vos droits d’auteur même si vous le voulez. Donc comment une politique opt-out peut-elle être légale alors qu’elle force la main aux créateurs pour abandonner leurs droits par défaut ?

Et la situation devient encore plus complexe avec les contenus sous licence restrictive car des chaînes YouTube ont des CGU qui interdisent l’utilisation commerciale de leurs vidéos et les jeux vidéos ont des EULA qui limitent l’exploitation de leurs assets. Cela veut donc dire que Sora s’assoit sur tout ça en considérant que l’absence d’opt-out équivaut à un consentement.

Pour sa défense, OpenAI nous explique que l’entraînement d’IA relève du fair use aux États-Unis mais le problème, c’est que cette jurisprudence n’existe pas partout. En Europe par exemple, le règlement sur l’IA impose des obligations de transparence et de traçabilité sur les données d’entraînement et OpenAI le sait très bien et joue avec ce flou entre les différentes juridictions.

Puis ce système de signalement proposé par OpenAI est aussi hyper critiquable car c’est, comme je vous l’expliquais, à vous de prouver que votre contenu a été utilisé pour l’entraînement. Mais alors comment faire quand les datasets ne sont pas publics ??? Comment vérifier que Sora a bien appris à partir de vos vidéos si vous n’avez pas accès aux données d’entraînement ???

Certains créateurs envisagent donc déjà des recours collectifs car si OpenAI a effectivement utilisé des millions de vidéos YouTube sans autorisation, ce serait une violation massives du droit d’auteur… Est-ce que développer une IA générative justifie de récupérer tout ce travail créatif humain sans apporter ni compensation ni consentement ?

OpenAI sembler penser que oui et mise sur l’inertie des créateurs et la complexité de ses démarches d’opt-out pour continuer son petit business…

Mais en attendant, si vous voulez protéger vos créations de Sora, vous devez aller sur le site d’OpenAI, trouver le formulaire de signalement , prouver que vous êtes le détenteur des droits, identifier chaque contenu concerné, et espérer qu’OpenAI respecte votre demande.

C’est donc la lose pour les créateurs, c’est sûr. Comme je le disais dans un de mes précédents articles sur le sujet, ce dont on a besoin maintenant c’est de cohérence et de clarté au niveau des lois, car là on discute des détails mais la question du “vol” par ces GAMMO (Google / Anthropic / Meta / Microsoft / OpenAI) n’est pas vraiment tranchée au niveau de la loi. J’ai l’impression que ça traine et que personne n’est pressé de trancher la question car ça arrange bien tout le monde (sauf les créateurs).

Delphi-2M - L'IA qui prédit les maladies que vous aurez dans quelques années

Par : Korben
20 septembre 2025 à 05:42

Hakuna Matata les amis ! Pas de soucis, pas de stress, pas d’angoisse sur ce qui va arriver, on prend la vie comme elle vient sans inquiétude…

Pas vrai ?

Et bien, Hakuna Matata va se prendre un coup dans la gueule car des chercheurs européens ont créé Delphi-2M, une IA qui peut vous dire exactement quelles maladies vous allez développer dans les 20 prochaines années. C’est donc un modèle GPT modifié (oui, comme ChatGPT, mais en blouse blanche) qui analyse vos données médicales, votre âge, sexe, IMC et habitudes de vie pour prédire l’arrivée ou non de 1258 maladies différentes dans votre life.

Les chercheurs de l’EMBL, du Centre allemand de recherche sur le cancer et de l’Université de Copenhague sont derrière cette petite merveille et ils ont entraîné leur outil sur 400 000 participants de la UK Biobank et validé que ça fonctionnait bien sur 1,9 millions de Danois.

Et vous vous en doutez, Delphi-2M ne fait pas que prédire… Non non, cette IA génère littéralement des “trajectoires de santé synthétiques”. En gros, elle crée des versions virtuelles de vous qui vivent des vies parallèles avec différentes maladies, un peu comme un multivers médical personnel.

L’outil peut ainsi générer des millions de ces vies synthétiques, créant des données médicales qui n’ont jamais existé mais qui sont statistiquement cohérentes.

Le nom Delphi-2M n’est pas non plus anodin. C’est en clin d’oeil à l’oracle de Delphes dans la Grèce antique qui donnait des prophéties ambiguës qui se réalisaient toujours, peu importe l’interprétation. Et là, cette IA fait pareil puisqu’elle ne vous donne pas UN futur, mais une probabilité statistique basée sur des patterns.

Delphi-2M fonctionnerait particulièrement bien pour les maladies qui suivent des schémas prévisibles, comme certains cancers, par contre, elle ne capture que la première occurrence d’une maladie. Donc si vous avez un cancer, puis une rémission, puis une récidive, l’IA ne voit que le premier épisode.

Truc marrant (ou pas), l’IA a également été entrainée sur des données de personnes dont certaines sont mortes depuis le recrutement initial en 2006-2010. Elle ressuscite donc numériquement ces gens pour créer des vies plus longues que les vraies et ainsi, ces morts virtuels qui vivent plus longtemps que quand ils étaient vivants, servent à prédire l’avenir des vivants actuels. Si ça c’est pas de la science-fiction…

Après, à vous de voir si vous voulez savoir ou pas… D’un côté, savoir qu’on a 73% de chances de développer un cancer du poumon dans 15 ans pourrait pousser à arrêter de fumer mais de l’autre, vivre avec cette épée de Damoclès au-dessus de la tête pendant 15 ans, merci mais non merci.

Et comme Delphi-2M est capable de générer de travailler à partir de données synthétiques, les chercheurs l’ont aussi transformé en usine à épidémies virtuelles. Ils peuvent ainsi créer des scénarios de santé publique impossibles à tester dans la réalité du genre, “et si tout le monde fumait 3 paquets par jour pendant 10 ans ?” ou “que se passerait-il si on combinait obésité et alcoolisme sur 20 ans ?”. C’est un labo virtuel infini pour tester des tonnes d’hypothèses médicales sans tuer personne (enfin, sauf virtuellement).

Par contre, petite précision importante, les données UK Biobank surreprésentent les personnes blanches, âgées et en bonne santé. Les enfants et adolescents sont par exemple quasi absents. Du coup, si vous êtes jeune, non-blanc ou pas britannique, les prédictions de Delphi-2M seront beaucoup moins fiables…

Delphi-2M n’est de toute façon pas encore prête pour une utilisation clinique. C’est plus un outil de recherche qu’un Nostradamus médical mais j’imagine que dans quelques années, quand on ira chez le médecin, il lancera Delphi-jesaispascombien, et il vous sort : “Bon, vous allez avoir de l’arthrite en 2043, un AVC en 2051, et mourir d’un cancer du pancréas en 2063. Des questions ?

Ça fait flipper non ?

Non, moi ce qui me fait vraiment flipper c’est quand les assurances santé mettront la main dessus. “Ah, Delphi dit que vous avez 82% de chances de développer du diabète ? Ça fera 500€ de plus par mois, merci” ou pire, votre employeur : “Désolé, on ne peut pas vous embaucher, l’IA dit que vous serez en arrêt maladie dans 3 ans”.

Bref, Delphi-2M c’est impressionnant techniquement, mais également un poil flippant… A-t-on vraiment envie de connaître notre avenir médical ?

Moi oui, mais ce n’est peut-être pas le cas de tout le monde.

Allez, Hakuna Matata les copains !

❌
❌