Vue lecture

Il y a de nouveaux articles disponibles, cliquez pour rafraîchir la page.

Des cafards cyborg pour inspecter les canalisations, bienvenue en 2026

Des chercheurs de Singapour ont mis au point des cafards cyborg capables de tirer un petit chariot équipé d'une caméra dans des canalisations pour y détecter des fuites. Oui, en 2026, on envoie des blattes faire le job.

Comment ça marche

Les cafards en question sont des blattes siffleuses de Madagascar, longues de 6 centimètres. L'équipe du professeur Hirotaka Sato, à l'université technologique de Nanyang à Singapour, leur fixe sur le dos un petit chariot en plastique qui contient un processeur, une caméra vidéo couleur orientée vers le haut, une LED et un module de communication pour transmettre les données en temps réel.

Des électrodes sont attachées aux antennes et à l'arrière de l'insecte, et envoient de faibles impulsions électriques qui simulent la sensation de heurter un obstacle. Ça suffit pour orienter le cafard dans la direction voulue, sans lui faire mal.

Déjà testés sur le terrain

Ce n'est pas juste un projet de labo. Dix cafards cyborg ont été déployés lors du tremblement de terre au Myanmar en 2025, équipés de caméras infrarouge et de capteurs pour localiser des survivants sous les décombres. 

L'université de Nanyang a aussi mis au point une chaîne de montage automatisée qui assemble un cafard cyborg en 68 secondes, ce qui laisse imaginer une production à plus grande échelle. Le dernier modèle consomme 25 % de tension en moins, ce qui allonge l'autonomie de la batterie embarquée.

Des canalisations aux zones sinistrées

Le projet actuel se concentre sur l'inspection de canalisations. Les cafards tirent leur chariot dans les conduites et un algorithme d'apprentissage automatique analyse les images captées par la caméra pour repérer de la corrosion ou des fuites.

Quand un défaut est détecté, un opérateur humain est alerté. Les tests ont lieu dans un environnement qui reproduit les tuyaux de la Marina Coastal Expressway, une autoroute souterraine de Singapour. Le professeur Sato estime qu'un déploiement opérationnel pourrait arriver d'ici trois à cinq ans.

On ne va pas se mentir, l'idée d'envoyer des cafards de 6 centimètres inspecter des tuyaux avec une caméra sur le dos a un côté assez improbable. Le fait que ça fonctionne déjà en conditions réelles, avec un déploiement au Myanmar, montre que le projet dépasse le stade du gadget. Et puis 68 secondes pour assembler un cafard cyborg, c'est quand même plus rapide qu'un robot classique, même si on aime bien les robots aussi.

Source : Techspot

Comma 4 + openpilot 0.11 - La conduite assistée open source passe un cap

Vous vous souvenez quand je vous parlais de Geohot et de sa voiture autonome en 2015 ? Le mec bidouillait une Acura avec des caméras à 13 balles et rêvait de vendre son kit à 1000 balles. Hé bien 10 ans plus tard, c'est fait ! Et si je vous reparle de ça aujourd'hui, c'est parce que sa société comma.ai sort la v0.11 d' openpilot ainsi qu'un nouveau boîtier qui tient dans la main, le Comma 4 !

Alors qu'est-ce qui change avec cette version 0.11 ?

En gros, c'est le premier système de conduite assistée dont le modèle est entièrement entraîné dans une simulation générée par un réseau neuronal.

Comma est donc sorti du simulateur classique avec des règles codées à la main pour passer officiellement sur World Model de 2 milliards de paramètres qui a avalé 2,5 millions de minutes de vidéo de conduite réelle filmées par les dashcams de leurs anciens boîtiers Comma 3 et 3X pour apprendre à simuler tout ce qu'il se passe sur la route.

Et c'est dans cette simulation apprise que le petit réseau neuronal qui pilote votre voiture s'entraîne. Concrètement, openpilot gère le maintien de voie et l'accélération/freinage sur l'autoroute, un peu comme un super régulateur adaptatif. Résultat avec cette v0.11 (qui succède à la v0.10 sortie il y a quelques mois ), ça converge mieux en vitesse, ça réagit mieux autour des voitures garées, et les utilisateurs qui l'ont testé préfèrent carrément ce mode Experimental au régulateur classique de leur voiture.

George Hotz, alias Geohot (le génie qui avait hacké l'iPhone à 17 ans puis la PS3), continue de faire les choses à sa manière et c'est pour ça que je l'adore ! Pas de levée de fonds à 10 milliards, pas de partenariat avec un constructeur auto. Non, juste sa dream team à San Diego qui conçoit, fabrique et assemble tout sur place et dernièrement, ils ont même ouvert leur propre datacenter avec 600 GPU et 4 pétaoctets de stockage... le tout pour environ 5 millions de dollars alors que la même infra en cloud leur aurait coûté 5 fois plus cher.

Donc bravo George pour les économies ^^ !

Côté hardware, le Comma 4 est une petite merveille d'ingénierie. Il est cinq fois plus petit que le Comma 3X, avec la même puissance de calcul (Snapdragon 845 MAX), un écran OLED, triple caméra 360 degrés et un système de refroidissement custom qui ne bride jamais le processeur... le tout sans faire un bruit.

Vous le collez sur votre pare-brise, hop, 5 minutes d'install, pas de temps de séchage (le 3X demandait 48 heures de séchage !), pas besoin de Wi-Fi au démarrage et c'est parti mon kiki. Et c'est compatible avec plus de 300 véhicules , dont Toyota, Hyundai, Honda, Ford et même des Lexus ou des Kia. Cela coûte 999 dollars, ou 699 si vous renvoyez votre ancien appareil, peu importe son état.

Et pour ceux qui se demandent comment ça se compare aux gros... Hé bien pendant que Mercedes met en pause son Drive Pilot de niveau 3 parce que ça coûte trop cher à développer, et que Tesla promet le niveau 5 depuis une décennie sans jamais le livrer, comma.ai sort un truc open source qui marche sur beaucoup de bagnoles lambda (pas les françaises, désolé ^^).

Donc pas besoin de claquer 35 000 à 45 000 euros dans une Tesla pour avoir de l'assistance à la conduite potable. Vous gardez votre Toyota ou votre Honda, vous branchez le Comma 4 sur le bus CAN (le réseau interne de votre voiture) et vous avez un truc qui envoie du bois ! Attention par contre, c'est du niveau 2 : donc vous devez garder les mains sur le volant et les yeux sur la route !! Car le problème c'est qu'en France, la légalité de ce genre de boîtier reste floue, donc renseignez-vous bien avant de foncer. Et sauf si votre bagnole est dans la liste de compatibilité, ça ne marchera pas forcément et là faudra suer un peu dans le code et le reverse pour le portage !

La v0.11 apporte aussi un détail technique qui a son importance. La consommation en veille du Comma 4 est passée de 225 milliwatts à 52 milliwatts, soit une réduction de 77%. Cela veut dire qu'avant ça vidait la batterie de votre bagnole en quelques semaines si vous le laissiez branché sans démarrer la voiture. Mais maintenant c'est plutôt en mois donc on peut le laisser tout le temps actif, ça passe. Pour réussir cette prouesse, ils ont désactivé les périphériques inutiles sur le microcontrôleur STM32, réduit le voltage scaling de VOS1 à VOS3, et mis le CPU en mode stop... du bel embarqué bien optimisé comme on aime !

Ce que je trouve dingue, c'est que c'est open source et qu'il n'y a encore eu aucun constructeur en Europe qui n'a eu la présence d'esprit d'intégrer ça dans ses bagnoles alors que les Chinois ne font que ça depuis des mois.

Perso, j'ai pas encore craqué pour le Comma 4. À vrai dire j'attends qu'il y ait une petite promo parce que 999 dollars ça pique un peu, mais clairement c'est sur ma liste. Mais en tout cas, je ne peux que saluer le chemin parcouru depuis ce prototype de 2015 conçu dans un garage. C'est quand même dingue ce que fait cette boîte avec une fraction des moyens de Tesla ou de Waymo.

Bref, si la conduite assistée open source vous branche, c'est le moment de s'y intéresser.

Fast SAM 3D Body - Quand l'IA scanne votre corps en 3D en 65ms

Vous prenez une photo de quelqu’un avec votre téléphone et magie magie, en une fraction de seconde, vous obtenez un modèle 3D complet de son corps. Ses bras, ses jambes, ses mains, ses pieds... tout y est, modélisé en 3D comme si vous aviez un vrai studio de motion capture à Hollywood.

Et ben c’est exactement ce que fait SAM 3D Body , un modèle d’IA développé par Meta.

En gros, vous lui filez une image de vous et l’IA reconstruit votre corps en volume, avec le squelette, les articulations et la surface de la peau. Jusqu’ici, ce genre de techno existait déjà mais c’était hyper lent, genre plusieurs secondes par image. Donc pas top si vous vouliez que ça suive, par exemple, vos mouvements en direct.

Et c’est là qu’une équipe de chercheurs incroyable (USC, NVIDIA et Meta Reality Labs) a eu la bonne idée d’optimiser tout ça. Leur version accélérée, baptisée Fast SAM 3D Body , fait exactement le même boulot mais quasiment 11 fois plus vite. Du coup, il ne faut plus que 65 millisecondes pour reconstruire un corps entier en 3D sur une RTX 5090. C’est à peu près le temps d’un clic de souris ! Autrement dit, on peut ENFIN faire du vrai temps réel !

Au lieu de faire tourner un algorithme qui optimise la pose du corps de manière itérative (ce qui prend du temps), ils ont tout simplement remplacé tout ça par un réseau de neurones qui donne directement le résultat en 1 passe. Et cette astuce seule rend la conversion entre formats de modèle 3D plus de 10 000 fois plus rapide ! C'est ouf !

Mais alors concrètement, à quoi ça sert tout ça ?

Hé bien d'abord à la robotique si chère à mon cœur car imaginez un robot humanoïde comme le chinois Unitree G1 équipé d’une simple caméra. Vous faites un geste devant lui, et il le reproduit instantanément avec ses bras et ses jambes.

Robot chinois en dépression à cause d'un dropshipping mal exécuté

Dans la vidéo partagée par l'équipe, on voit que le robot manipule des objets et se déplace en copiant les mouvements d’un humain filmé par une caméra, sans aucun capteur sur le corps.

Mais au delà de la robotique, c’est aussi une petite révolution pour tous les créatifs et les bidouilleurs car aujourd’hui, faire de la motion capture, ça coûte une blinde en matériel (combinaison à marqueurs, caméras infrarouges, studio dédié...et j'en passe).

Alors que là, avec une webcam et un bon GPU, vous pouvoir facilement capter des mouvements 3D exploitables pour de l’animation, du jeu vidéo indie ou du prototypage. Par contre, attention, ça ne remplacera pas un vrai studio pro pour de la production ciné, faut pas trop rêver non plus. Enfin, pour le moment !

Le code est dispo sur GitHub , le paper sur arXiv , et les modèles pré-entraînés de SAM 3D Body sur Hugging Face . D’ailleurs, si vous voulez voir ce que donnent les robots qui font la lessive avec ce genre de techno, c’est par là.

Bref, y’a plus qu’à tester !

Source

Un drone imprimé en 3D qui file à 108 km/h grâce à un ESP32

Un YouTubeur bricoleur a fabriqué un micro-drone de 136 grammes capable de filer à 108 km/h, le tout pour environ 155 dollars de composants et une imprimante 3D. Le petit engin baptisé ESP-Blast tient dans la main, utilise un microcontrôleur ESP32 à quelques dollars et un châssis en plastique PETG. Le créateur compte partager tous les fichiers en open source pour que chacun puisse le reproduire.

Un drone qui tient dans la main

Le créateur, connu sous le nom de Max Imagination sur YouTube, s'est inspiré de deux équipes qui se disputent le record du drone RC le plus rapide au monde, avec des vitesses qui dépassent les 660 km/h. Son objectif à lui était plus modeste : construire un drone de poche performant avec des composants accessibles à tous.

Le résultat, c'est l'ESP-Blast, un quadcoptère en forme de balle qui décolle à la verticale avant de basculer en vol horizontal. Le châssis est imprimé en PETG sur une Elegoo Neptune 4 Plus et ne pèse que 40 grammes, nez et queue compris.

155 dollars de composants

Côté motorisation, on retrouve quatre moteurs brushless 1104 avec des hélices tripales de 2,5 pouces, pilotés par des variateurs de 8 ampères. Le circuit imprimé a été conçu par Max lui-même dans le logiciel Flux, pour moins de 8 dollars. Il embarque un ESP32 avec accéléromètre, gyroscope, magnétomètre, baromètre et GPS. Le logiciel de vol, c'est du Betaflight en version 10.10.

Une caméra FPV motorisée à l'avant bascule automatiquement selon le mode de vol et transmet en 5,8 GHz la vitesse, la tension batterie et le nombre de satellites. La batterie LiPo 3S de 450 mAh offre environ 5 minutes de vol, ou 2 minutes à fond et 8 en mode tranquille. La portée Wi-Fi de l'ESP32 plafonne à environ 200 mètres. Le budget total tourne autour de 155 dollars, et on peut même descendre à 110 dollars en retirant quelques capteurs.

Un projet open source

Max prévoit de partager les fichiers 3D et les tutoriels pour que d'autres puissent reproduire ou améliorer le drone. Le projet a demandé pas mal d'assemblage, de tests, de crashs et de réparations avant d'atteindre les 108 km/h en vol.

Il annonce déjà de futures versions pour pousser les performances encore plus loin, et ce n'est visiblement pas son premier essai puisqu'il avait déjà conçu l'ESP-Fly, un micro-drone encore plus petit contrôlable depuis un smartphone.

Pour 155 dollars et un peu de patience, on obtient un drone qui va plus vite que pas mal de modèles du commerce, et qui pèse à peine plus qu'un smartphone. Le fait que tout soit open source et imprimable en 3D rend le projet encore plus intéressant pour les bidouilleurs.

Avec quelques limites quand même, 200 mètres de portée en Wi-Fi et 5 minutes d'autonomie, ça limite un peu l'usage à des vols de démonstration. Mais pour un projet à base d'ESP32 à 3 dollars la puce, les 108 km/h sont impressionnants.

Sources : Techspot , TechEBlog

Open DroneLog - Vos logs de drone restent chez vous

Si vous pilotez un drone DJI, vos logs de vol finissent probablement sur Airdata ou un service cloud du même genre. En gros ce sont des trucs qui aspirent vos trajectoires GPS, vos altitudes en mètres, vos tensions de batterie en millivolts... et qui stockent tout ça sur des serveurs quelque part dans le cloud. Ouais, bof.

Eh bien Open DroneLog , c'est exactement l'inverse à savoir un carnet de vol open source qui garde tout en local, dans une base DuckDB (une base de données embarquée ultra-légère) sur votre machine.

Avec cet outil, vous importez vos fichiers .txt DJI (tous les modèles : Mini, Mavic, Air, Phantom...), les CSV de l'app Litchi, ou même les exports Airdata, et hop, le logiciel mouline tout ça pour vous afficher vos vols sur une carte 3D interactive avec le replay de la trajectoire. Vous pouvez alors accélérer jusqu'à x16, voir la télémétrie en temps réel (altitude, vitesse, signal RC, tensions des cellules de batterie) et même visualiser les mouvements des joysticks.

Pas mal donc pour comprendre pourquoi votre Mavic a décidé de faire un plongeon kamikaze ce jour-là !

Visualisation 3D d'une trajectoire de vol dans Open DroneLog

Un truc bien pensé dans l'appli, c'est l'auto-tagging car le logiciel détecte automatiquement les vols de nuit, les passages à haute vitesse, les situations de batterie froide... et colle des étiquettes sur chaque vol sans que vous ayez à lever le petit doigt. Pour ceux qui se demandent à quoi ça sert de tenir un journal de vol, disons que le jour où l'aviation civile vous pose des questions sur vos habitudes de pilotage, avoir un historique propre de tous vos vols avec coordonnées et télémétrie, ça peut clairement vous sauver la mise (surtout si vous volez près de zones sensibles).

Côté déploiement, vous avez le choix : app desktop (Windows, macOS, Linux), image Docker pour l'auto-héberger, ou la webapp pour tester sans rien installer. Le Docker est clairement le meilleur choix parce que vous pouvez monter un dossier de logs et configurer une synchro automatique via cron. Genre, votre drone se pose, vous branchez la carte SD sur le NAS, copiez les fichiers .txt dans le dossier monté, et l'import se fait tout seul toutes les 8 heures. Ça tourne même sur un Raspberry Pi !

D'ailleurs, ça me rappelle l'époque lointaine où on construisait son propre drone dans le garage.

Les graphiques de télémétrie : altitude, vitesse, batterie, tout y passet'as anal

Le géocodage inversé (qui transforme vos coordonnées GPS en noms de lieux) se fait hors-ligne donc c'est top pour la vie privée et d'ailleurs, si le sujet vous parle, le projet OwnTracks applique la même philosophie à la géolocalisation perso.

Le logiciel gère aussi les profils multiples (pratique si vous avez plusieurs pilotes ou flottes), le suivi de la santé des batteries avec historique des cycles, la maintenance avec seuils configurables, et l'export dans à peu près tous les formats imaginables : CSV, JSON, GPX, KML. Y'a même un générateur de "FlyCards" pour partager vos stats de vol sur les réseaux en format 1080x1080 ! Et le tout est traduit en 11 langues, dont le français.

Le projet est sous licence AGPLv3, et pour l'instant c'est DJI-only (pas de Parrot ni Autel en natif). Bref, si vous cherchez un carnet de vol drone qui ne balance pas vos coordonnées GPS dans le cloud, c'est tout trouvé !

Waymo - Ses voitures autonomes pilotées depuis les Philippines

Les voitures Waymo, celles qui se baladent toutes seules à San Francisco, Phoenix ou Los Angeles... ne seraient pas si autonomes que ça en fait. Hé oui, quand elles sont paumées, ce sont des opérateurs aux Philippines qui leur disent quoi faire.

C'est le chef de la sécurité de Waymo lui-même, Mauricio Peña, qui a lâché le morceau lors d'une audience au Congrès américain le 4 février dernier. Du coup on apprend que ces fameux robotaxis, quand ils bloquent sur une situation (un carrefour bizarre, un chantier, une route pas cartographiée...), envoient une demande d'aide à des opérateurs humains qui pour certains sont basés aux États-Unis et d'autres aux Philippines.

Peña a bien insisté : ces opérateurs "fournissent des indications" mais "ne conduisent pas le véhicule à distance". En gros, c'est de la téléassistance, plutôt que du téléguidage et le robotaxi reste "toujours en charge" de la conduite.

Sauf que le sénateur Ed Markey, lui, voit pas ça du même œil. Selon lui, avoir des gens à l'étranger qui influencent le comportement de milliers de véhicules sur les routes américaines, c'est un sacré problème de (cyber) sécurité. Il parle carrément de "prise de contrôle par des acteurs hostiles" qui pourraient obtenir un accès quasi-total à ces bagnoles.

Hé oui, tout peut arriver dans la vie, Ed !

D'ailleurs y'a eu un accident avec l'un de ces taxis sans conducteur qui a percuté un gamin près d'une école primaire à Santa Monica, il n'y a pas longtemps. Alors est ce que c'était la faute de l'IA qui conduisait ou un opérateur humain à l'autre bout du monde qui s'est assis sur son clavier ? Allez savoir...

Et la filiale d'Alphabet n'est pas la seule dans ce cas car Tesla aussi s'appuie sur des opérateurs à distance pour superviser ses véhicules autonomes.

Perso, ce qui me dérange c'est pas qu'il y ait des humains dans la boucle. En fait c'est normal, la techno n'est pas encore au point. Mais le piège, il est au niveau du marketing. On nous vend de l'"autonome", du "sans conducteur", de la voiture du futur pilotée par l'IA ... alors qu'en fait y'a un call center aux Philippines qui veille au grain.

Et le plus marrant dans tout ça, c'est que les opérateurs doivent avoir un permis de conduire et sont contrôlés sur les infractions routières qu'ils auraient commis de leur côté à titre perso. Il faut des gens irréprochables avec le permis... pour aider une bagnole qui est censée ne pas en avoir besoin (de permis). J'adore ^^.

Voilà, comme je l'expliquais dans mon article sur la conduite autonome , y'a encore BEAUCOUP de chemin à faire avant d'avoir de vrais véhicules sans chauffeur. Et finalement, même les meilleurs comme Waymo "trichent" un peu.

Source

Helix 02 - Le robot qui vide votre lave-vaisselle pour de vrai

Vous vous souvenez peut-être de Figure 01 qui nous avait tous bluffés l'année dernière en se faisant couler un petit café (qui a dit "dans sa couche ??) ?

Hé bien, la startup Figure AI ne chôme pas (contrairement à nous le vendredi matin) puisqu'elle vient de dévoiler son Helix 02, la nouvelle version de son cerveau numérique.

Et là, accrochez-vous bien parce qu'on passe un cap ! En effet, ce robot est désormais capable de vider un lave-vaisselle de manière totalement autonome.

Alors je sais ce que vous vous dites : "Super, un truc à 150 000 balles pour faire ce que mon ado refuse de faire gratuitement". Sauf que la prouesse technique derrière est assez dingue. Jusqu'à présent, les robots humanoïdes, notamment ceux de Boston Dynamics (le fameux Atlas), fonctionnaient beaucoup sur de la "théorie du contrôle". En gros, des maths complexes pour garder l'équilibre, et du code impératif pour dire "lève le bras de 30 degrés". C'est hyper précis, mais c'est lourd à coder et ça manque de souplesse.

Là, Figure a tout misé sur une approche pixels-to-action de type "End-to-End". C'est ce qu'ils appellent le System 0.

En gros, ils ont viré un peu moins de 110 000 lignes de code C++ (le langage bien verbeux qu'on adore détester) pour les remplacer par un modèle d'IA unifié. Le robot "regarde" avec ses caméras et le réseau de neurones décide directement des mouvements. Et c'est comme ça que d'un coup, le robot gère tout : l'équilibre, la manipulation des objets glissants, et même la correction de ses propres erreurs en temps réel.

C'est un peu comme si votre Roomba avait soudainement appris à faire du parkour tout en tenant un plateau de verres en cristal.

Bon, vous vous en doutez, le marketing ne nous dévoile pas tout car il y a un petit piège derrière cette innovation. En fait cette approche "tout IA" a aussi des limites car si le modèle hallucine un mouvement, le robot peut très bien décider de lancer votre assiette en porcelaine de Limoges à travers la pièce. C'est donc pour ça qu'ils gardent quand même des garde-fous (System 1 et System 2) pour la planification à long terme. Mais c'est pas encore demain que je laisserai ce machin seul avec mon chat, sauf si je veux le transformer en frisbee ^^.

D'ailleurs, si vous suivez un peu l'actu des robots humanoïdes , vous savez que la concurrence est rude notamment avec l' Optimus de Tesla . Mais perso, je trouve que Figure a carrément une longueur d'avance sur la fluidité "humaine", là où Optimus fait encore un peu "mec bourré qui essaie de marcher droit". J'adorerai avoir un kit de dev pour jouer avec ce truc, mais vu le prix, je vais plutôt me rabattre sur Raspberry Pi... on fait avec ce qu'on a !

Et pour nous les bidouilleurs dans tout ça ?

Hé bien si vous n'avez pas 150 000 $ sous le matelas, sachez qu'il existe des projets open-source comme le ToddlerBot (un petit robot à environ 250$ imprimable en 3D) qui permettent de s'initier à la robotique bipède sans vendre un rein. C'est moins classe que Helix, mais au moins, si ça tombe, ça casse juste du PLA. Un coup de colle et c'est reparti !

Bref, on n'est pas encore au stade où il viendra vous border le soir, mais pour ce qui est des corvées ménagères, ça sent bon la fin de l'esclavage humain (pour le remplacer par celui des machines, mais chut, faut pas leur dire).

Amusez-vous bien !

Source

Comment Boston Dynamics compte construire un cerveau pour Atlas

Boston Dynamics que vous connaissez tous pour ses chiens robots tueurs de la mort, vient de sortir une vidéo de 40 minutes. Pas de saltos arrière ou de robots qui dansent mais plutôt une loooongue session où ça parle stratégie IA et vision à long terme. Et comme j'ai trouvé que c'était intéressant, je partage ça avec vous !

Zach Jacowski, le responsable d'Atlas (15 ans de boîte, il dirigeait Spot avant), discute donc avec Alberto Rodriguez, un ancien prof du MIT qui a lâché sa chaire pour rejoindre l'aventure et ce qu'ils racontent, c'est ni plus ni moins comment ils comptent construire un "cerveau robot" capable d'apprendre à faire n'importe quelle tâche. Je m'imagine déjà avec un robot korben , clone de ma modeste personne capable de faire tout le boulot domestique à ma place aussi bien que moi... Ce serait fou.

Leur objectif à Boston Dynamics, c'est donc de créer le premier robot humanoïde commercialement viable au monde et pour ça, ils ont choisi de commencer par l'industrie, notamment les usines du groupe Hyundai (qui possède Boston Dynamics).

Alors pourquoi ? Hé bien parce que même dans les usines les plus modernes et automatisées, y'a encore des dizaines de milliers de tâches qui sont faites à la main. C'est fou hein ? Automatiser ça c'est un cauchemar, car pour automatiser UNE seule tâche (genre visser une roue sur une voiture), il faudrait environ un an de développement et plus d'un million de dollars.

Ça demande des ingénieurs qui conçoivent une machine spécialisée, un embout sur mesure, un système d'alimentation des vis... Bref, multiplié par les dizaines de milliers de tâches différentes dans une usine, on serait encore en train de bosser sur cette automatisation dans 100 ans...

L'idée de Boston Dynamics, c'est donc de construire un robot polyvalent avec un cerveau généraliste. Comme ça au lieu de programmer chaque tâche à la main, on apprend au robot comment faire. Et tout comme le font les grands modèles de langage type ChatGPT, ils utilisent une approche en deux phases : le pre-training (où le robot accumule du "bon sens" physique) et le post-training (où on l'affine pour une tâche spécifique en une journée au lieu d'un an).

Mais le gros défi, c'est clairement les données. ChatGPT a été entraîné sur à peu près toute la connaissance humaine disponible sur Internet mais pour un robot qui doit apprendre à manipuler des objets physiques, y'a pas d'équivalent qui traîne quelque part.

Du coup, ils utilisent trois sources de data.

La première, c'est la téléopération. Des opérateurs portent un casque VR, voient à travers les yeux du robot et le contrôlent avec leur corps. Après quelques semaines d'entraînement, ils deviennent alors capables de faire faire à peu près n'importe quoi au robot. C'est la donnée la plus précieuse, car il n'y a aucun écart entre ce qui est démontré et ce que le robot peut reproduire. Par contre, ça ne se scale pas des masses.

La deuxième source, c'est l'apprentissage par renforcement en simulation. On laisse le robot explorer par lui-même, essayer, échouer, optimiser ses comportements. L'avantage c'est qu'on peut le faire tourner sur des milliers de GPU en parallèle et générer des données à une échelle impossible en conditions réelles. Et contrairement à la téléopération, le robot peut apprendre des mouvements ultra-rapides et précis qu'un humain aurait du mal à démontrer, du genre faire une roue ou insérer une pièce avec une précision millimétrique.

La troisième source, c'est le pari le plus ambitieux, je trouve. Il s'agit d'apprendre directement en observant des humains.

Alors est-ce qu'on peut entraîner un robot à réparer un vélo en lui montrant des vidéos YouTube de gens qui réparent des vélos ? Pas encore... pour l'instant c'est plus de la recherche que de la production, mais l'idée c'est d'équiper des humains de capteurs (caméras sur la tête, gants tactiles) et de leur faire faire leur boulot normalement pendant que le système apprend.

Et ils ne cherchent pas à tout faire avec un seul réseau neuronal de bout en bout. Ils gardent une séparation entre le "système 1" (les réflexes rapides, l'équilibre, la coordination motrice, un peu comme notre cervelet) et le "système 2" (la réflexion, la compréhension de la scène, la prise de décision). Le modèle de comportement génère des commandes pour les mains, les pieds et le torse, et un contrôleur bas niveau s'occupe de réaliser tout ça physiquement sur le robot.

C'est bien pensé je trouve. Et dans tout ce bordel ambiant autour de la robotique actuelle, eux semblent avoir trouver leur voie. Ils veulent transformer l'industrie, les usines...etc. Leur plan est clair et ils savent exactement ce qu'ils doivent réussir avant de passer à la suite (livraison à domicile, robots domestiques...).

Voilà, je pense que ça peut vous intéresser, même si c'est full english...

This $7,000 Robot Shapeshifts Into 3 Different Machines

Imagine a robot that can transform like a high-tech LEGO set, swapping out legs for arms or wheels depending on what the day throws at it. That’s exactly what LimX Dynamics has cooked up with their latest creation, the Tron 2, and honestly, it’s making me rethink everything I thought I knew about what robots can do.

The Tron 2 isn’t your typical one-trick-pony robot. This thing is basically the Swiss Army knife of the robotics world. Chinese startup LimX Dynamics just unveiled this modular marvel that can morph between three completely different configurations: a dual-armed humanoid torso, a wheeled-leg explorer, or a bipedal walker that can actually climb stairs without making you nervous. And get this, you can switch between these forms with just a screwdriver. No fancy tools, no complicated procedures. Just some strategic unscrewing and you’ve got a whole new robot.

Designer: LimX Dynamics

The company’s demo video starts with something delightfully surreal: just a pair of robotic legs casually strolling along, completely headless and armless. Then, like watching a transformer come to life in real time, those same leg components get repurposed into arms, complete with a head and torso. Suddenly, you’ve got a full humanoid lifting heavy water bottles and showing off its surprisingly impressive strength.

What makes the Tron 2 particularly fascinating is its intelligence layer. This isn’t just a mechanical chameleon. It’s powered by advanced AI and built on what’s called a vision-language-action platform, which essentially means it can see, understand commands, and actually do something useful with that information. The robot comes with a fully open software development kit that plays nice with both ROS1 and ROS2, making it a dream for researchers and developers who want to experiment without fighting proprietary systems.

Performance-wise, the specs are genuinely impressive. Each of its dual arms features seven degrees of freedom with a reach of 70 centimeters and can handle up to 10 kilograms of payload together. The wheeled configuration offers about four hours of runtime and can haul around 30 kilograms of cargo, while the bipedal mode excels at navigating tricky terrain like staircases that would leave most wheeled robots stuck at the bottom. The demo footage shows Tron 2 doing things that feel almost show-offy: playing table tennis, performing cartwheels, rolling around smoothly on wheels, and conquering staircases with the confidence of someone who’s done it a thousand times. It’s the kind of versatility that makes you wonder why we’ve been so committed to single-purpose robots for so long.

And here’s where things get really interesting. LimX is positioning the Tron 2 as ideal for future Mars missions. Think about it: on Mars, you can’t exactly call a repair truck when something breaks or send a specialized robot for every different task. You need something adaptable, something that can switch roles as mission needs evolve. The modular design means you could potentially swap out damaged components or reconfigure for different tasks without needing an entirely new robot shipped from Earth.

For research labs, the Tron 2 offers something that’s been surprisingly rare: a flexible test bed that can support multiple types of projects without requiring a whole fleet of different robots. Whether you’re studying manipulation, locomotion, or AI integration, you can configure the same platform to suit your specific needs. Perhaps most surprisingly, this technological marvel starts at just 49,800 Chinese yuan, which translates to around $7,000 USD. For context, that’s dramatically cheaper than many specialized robots that can only do a fraction of what the Tron 2 offers. Pre-orders are already open, though LimX hasn’t fully disclosed all the pricing details or specified exactly who their target customers are.

The Tron 2 represents something bigger than just another cool robot demo. It’s pointing toward a future where adaptability matters more than specialization, where one well-designed platform can handle whatever challenges come its way. Whether it ends up exploring Mars or revolutionizing warehouse operations here on Earth, this shape-shifting bot is definitely one to watch.

The post This $7,000 Robot Shapeshifts Into 3 Different Machines first appeared on Yanko Design.

L'Allemagne transforme des cafards en espions cyborgs

Vous pensiez que les cafards servaient juste à vous faire flipper quand vous allumez la lumière de la cuisine de votre Airbnb à 3h du mat (Oui c'est une histoire vraie que j'ai vécue) ?

Hé bien une startup allemande a décidé de leur donner une seconde vie un peu plus... stratégique. SWARM Biotactics , fondée en 2024 et basée à Kassel, développe des cafards de Madagascar équipés de mini sacs à dos bourrés d'électronique pour des missions de reconnaissance militaire.

Le concept c'est assez dingue quand on y pense car ces cafards siffleurs de Madagascar (les gros qui font du bruit, vous voyez le genre...) sont équipés de petits sacs à dos de 15 grammes contenant des caméras, des microphones, un radar Doppler et des modules de communication sécurisés. L'objectif c'est de descendre à 10 grammes pour optimiser leur mobilité, mais ces bestioles peuvent déjà transporter une charge utile significative.

Y'avait exactement ça dans le film Le Cinquième Élément, j'sais pas si vous vous souvenez.

Et le truc encore plus fou c'est leur système de contrôle. Des électrodes sont fixées sur les antennes du cafard pour stimuler sa navigation naturelle. En gros, quand on active l'électrode gauche, le cafard pense qu'il y a un obstacle de ce côté et tourne à droite. C'est Dora l’exploratrice version télécommandée, le bordel.

Alors pourquoi des cafards plutôt que des drones classiques ou des petits vieux trépanés ? Hé bien parce que ces petites bêtes sont quasi indestructibles. Elles résistent à la chaleur, aux produits chimiques, aux radiations, et peuvent se faufiler dans des endroits où aucun robot ne pourrait passer. Que ce soit des décombres après un tremblement de terre, des zones contaminées, des bâtiments effondrés... Tout comme BHL, le cafard s'en fout, il passe.

Et la startup ne compte pas s'arrêter au contrôle individuel. Elle développe des algorithmes pour coordonner des essaims entiers de cafards cyborgs de manière autonome. Ça représente des dizaines, voire de centaines d'insectes opérant ensemble, du coup ça ressemble de plus en plus à un épisode de Black Mirror, mais c'est bien réel.

SWARM travaille déjà avec la Bundeswehr, l'armée allemande, pour tester ses cafards sur le terrain. Et c'est vrai que contexte géopolitique aide pas mal car avec la guerre en Ukraine, l'Allemagne repense sérieusement sa défense et s'intéresse à ce genre de technologies alternatives. En juin, la startup a levé 10 millions d'euros en seed, portant son financement total à 13 millions d'euros.

Pour l'instant, SWARM se concentre donc sur la défense et la reconnaissance donc pas question de transformer les cafards en kamikazes avec des explosifs, même si Wilhelm reconnaît que les applications pourraient évoluer "légalement" à l'avenir. Et au-delà du militaire, il voit aussi un potentiel pour les opérations de sauvetage, comme envoyer des cafards dans des bâtiments effondrés pour localiser des survivants.

Voilà, les premiers déploiements opérationnels à grande échelle sont prévus pour dans 18 à 24 mois alors d'ici là, si vous croisez un cafard avec un truc bizarre sur le dos, c'est peut-être pas une bonne idée de l'écraser...

Source

Des robots plus petits qu'un grain de sel qui nagent, pensent et agissent tout seuls

J'ai toujours été fasciné par les nanobots dans les films de science-fiction... Ces petites bestioles microscopiques qu'on injecte dans le corps pour réparer des trucs ou tuer des méchants et qui encore jusqu'à aujourd'hui paraissait impossible...

Eh bien on n'en est plus très loin, les amis, car des chercheurs de l'Université de Pennsylvanie et du Michigan viennent de créer les plus petits robots autonomes et programmables jamais conçus. Et quand je dis petits, je vous parle de machines qui font moins d'un demi-millimètre, donc plus petits qu'un grain de sel. C'est à peine visibles à l’œil nu alors bon courage pour les retrouver si vous en perdez un sur votre bureau.

D'après ce que je comprends, c'est que c'est le premier micro-robot capable de sentir, de penser et d'agir. Bah oui, parce que jusqu'à aujourd'hui, les robots de cette taille avaient besoin d'être contrôlés de l'extérieur, avec des champs magnétiques ou des joysticks. Mais là, ces petits gars sont complètement autonomes.

Alors comment est-ce qu'ils bougent sans moteur ni hélice ? Hé bien au lieu de pousser l'eau directement, les robots génèrent un champ électrique qui déplace les ions dans le liquide. Ces ions poussent ensuite les molécules d'eau, et hop, ça avance. Y'a aucune pièce mobile ce qui veut dire que ces robots peuvent nager pendant des mois sans s'user.

Côté "cerveau", c'est l'équipe de David Blaauw au Michigan qui s'en est chargée. Son labo détient le record du plus petit ordinateur au monde, donc forcément, ça aide. Le processeur embarqué consomme seulement 75 nanowatts ce qui est 100 000 fois moins qu'une montre connectée. Pour réussir cette prouesse, les chercheurs ont dû repenser toute l'architecture de programmation pour faire rentrer des instructions complexes dans cet espace très réduit.

Et leur énergie, ils la tirent de la lumière grâce à des cellules solaires qui recouvrent leur surface et récupèrent l'énergie lumineuse. Et le plus cool, c'est que les impulsions de lumière servent aussi à programmer chaque robot individuellement grâce à des identifiants uniques.

Ces petites machines embarquent aussi des capteurs de température capables de détecter des variations d'un tiers de degré Celsius et pour communiquer entre eux, les robots se tortillent, un peu comme la danse des abeilles. En faisant cela, ils peuvent se coordonner en groupe et effectuer des mouvements complexes tous ensemble.

Et le plus dingue dans tout ça c'est leur coût de fabrication. Ça coûte un centime par robot ! Donc c'est top pour de la production en masse car avec cette avancée, vont suivre de nombreuses applications médicales concrètes... Imaginez des robots qu'on injecte dans votre petit corps de victime pour aller délivrer un médicament pile au bon endroit. Ou analyser l'état de vos cellules sans avoir à vous ouvrir le bide. Voire reconnecter des nerfs sectionnés ? On peut tout imagine avec ce nouveau genre de médecine de précision...

Bienvenue dans l'ère des machines microscopiques autonomes mes amis ! Et à un centime pièce la bestiole, j'imagine qu'ils ne vont pas se gêner pour en fabriquer des milliards !

Source

❌