Vue lecture

Il y a de nouveaux articles disponibles, cliquez pour rafraîchir la page.

On a laissé 180 tonnes de bazar sur la Lune

Environ 180 tonnes d'objets fabriqués par l'homme sont déjà posés sur la Lune, dont une grosse partie datant des missions Apollo. 

e site Hackaday vient de publier un recensement assez complet, qui rappelle que l'exploration lunaire n'a pas laissé que des traces de pas dans le régolithe.

Côté matériel technique, il y a les étages de descente des modules lunaires, quelques rovers, des instruments scientifiques et surtout sept réflecteurs optiques encore utilisés aujourd'hui par les astronomes pour mesurer précisément la distance Terre-Lune au laser, avec une résolution de quelques millimètres.

C'est la partie noble de l'inventaire. À côté, il y a tout le reste : des gants, des surchaussures, des caméras abandonnées, des chariots à outils, des morceaux de mission laissés sur place après usage.

Et puis il y a les déchets organiques. Les missions Apollo ont laissé 96 sacs de déchets humains sur la surface, urine incluse, pour économiser du poids au retour.

Oui, une grosse partie de nos premiers voyages lunaires a consisté à déposer nos excréments sur un autre corps céleste, en même temps que le drapeau. Bienvenue dans l'histoire.

Plus touchant, on trouve aussi des objets personnels déposés par les astronautes. Un patch de la mission Apollo 1, en mémoire des trois astronautes morts dans l'incendie de la capsule pendant l'entraînement, a été laissé sur place.

Charles Duke, sur Apollo 16, a posé une photo encadrée de sa famille au sol lunaire. Et quelque part, les cendres du géologue Gene Shoemaker reposent dans un cratère, ce qui en fait le seul humain enterré sur la Lune à ce jour.

Il y a aussi des curiosités plus bizarres. Une plume de faucon apportée par David Scott sur Apollo 15 pour tester en direct la loi de la chute libre de Galilée devant les caméras. Un disque de silicium gravé avec des messages de bonne volonté venus de 73 pays, largué par Apollo 11.

Une tuile en céramique sur laquelle des artistes dont Andy Warhol auraient gravé leurs œuvres, glissée en douce sur un train d'atterrissage d'Apollo 12.

Avec Artemis et toutes les missions chinoises, indiennes, émiraties ou luxembourgeoises qui s'annoncent, le rythme de dépôt va grimper. Il y a de plus en plus de gens qui pensent qu'il faudrait un jour classer certains de ces sites comme patrimoine, avant qu'une autre mission ne roule dessus par inadvertance.

Bref, on raconte toujours l'exploration lunaire en images héroïques, et c'est quand même plus parlant de se rappeler que le premier héritage humain là-haut, c'est 96 sacs d'excréments.

Source : Hackaday

Ghost Murmur - La CIA vous localise grâce à vos battements de cœur

Si votre coeur bat, sachez que la CIA peut vous retrouver n'importe où !

C'est pas moi qui le dis, c'est John Ratcliffe, le directeur de la CIA en personne, qui l'a annoncé ce lundi 7 avril après que ses équipes aient utilisé un outil baptisé Ghost Murmur pour localiser un membre d'équipage américain abattu en Iran, à 65 kilomètres de distance, en captant juste les battements de son coeur.

On dirait vraiment de la SF mais je vais tout vous expliquer.

L'officier des systèmes d'armes d'un F-15E Strike Eagle (oui c'est son titre officiel), nom de code "Dude 44 Bravo", s'est éjecté de son appareil et a du se planquer dans une crevasse en plein désert montagneux du sud de l'Iran, avec les forces iraniennes qui le cherchaient trèèèès activement. Durant 2 jours, le gars a survécu en terrain hostile et c'est là que la CIA a décidé de dégainer Ghost Murmur pour la toute première fois en conditions réelles.

Et la techno est vraiment dingue ! Le système utilise de la magnétométrie quantique, c'est-à-dire des capteurs construits autour de défauts microscopiques dans des diamants synthétiques et ces capteurs sont capables de détecter la signature électromagnétique des battements cardiaques... C'est un signal normalement tellement faible qu'on ne peut le mesurer qu'à l'hôpital, avec des capteurs collés sur la peau.

Hé bien Ghost Murmur capte ce signal à des dizaines de kilomètres en utilisant l'IA pour isoler un seul battement de cœur du bruit ambiant. Comme l'a dit un officiel du gouvernement américain, "c'est comme entendre une voix dans un stade, sauf que le stade fait 2 500 km²" !

Et devinez qui est derrière tout ça... Lockheed Martin et sa division Skunk Works , ceux là même qui ont pondu le SR-71, le F-117, et à peu près tous les trucs volants classifiés du Pentagone. Le système a été testé à bord d'hélicoptères Black Hawk et pourrait finalement être adapté pour les F-35. Et son nom n'est pas choisi au hasard : "Murmur" c'est le terme clinique pour un souffle au coeur, et "Ghost" parce que la cible est invisible... sauf pour eux.

Bon, après faut relativiser quand même. Le plus gros problème c'est que ce bidule fonctionne surtout en zone déserte, là où y'a quasi zéro interférence électromagnétique. Donc si vous êtes le seul être vivant dans un rayon de 100 bornes, ça marchera du tonnerre de Zeus mais par contre, en plein centre-ville avec des milliers de cœurs qui font boum boum au mètre carré, ça ne marchera pas aussi bien. Et surtout, ça demande un temps de traitement conséquent car on n'est clairement pas du temps réel. Mais le jour où ça miniaturise assez pour tenir dans un drone civil... là, même un randonneur en forêt devient traçable.

Xavier Dupont de Ligonnès, t'es dans la merde ! ^^

D'abord y'a donc eu les IMSI-Catchers pour intercepter nos communications mobiles puis les capteurs quantiques chinois pour traquer les sous-marins . Et maintenant on localise un humain à son battement de cœur... hé bé... Et pour votre culture G sachez que c'est la même famille de capteurs NV-diamond que l'armée US développe pour détecter à distance tout ce qui est explosifs improvisés.

Donc la question maintenant n'est plus "est-ce qu'on peut vous trouver ?" mais "est-ce qu'on le veut vraiment ?".

Voilà c'est foutu pour vous planquer dans le Larzac... Vous pouvez passer votre téléphone en mode avion autant que vous voudrez, votre cœur lui pourra toujours vous trahir... ^^

Source

Dualite onde-particule : un YouTuber la teste avec un detecteur de fumee et un capteur a 350 euros

Un vidéaste scientifique vient de reproduire des expériences de physique quantique depuis chez lui, avec un simple détecteur gamma portable et une capsule radioactive récupérée dans un vieux détecteur de fumée. Et les résultats sont plutôt convaincants.

De la physique quantique dans un garage

Huygens Optics, une chaîne YouTube spécialisée dans l'optique et la physique, s'est attaqué à une question qui occupe les physiciens depuis plus d'un siècle : la lumière est-elle une onde ou une particule ? Pour tenter d'y répondre, pas besoin d'un accélérateur de particules ou d'un labo à plusieurs millions d'euros.

Le vidéaste a utilisé un Radiacode 110, un petit détecteur de rayons gamma qui tient dans la main (67 grammes, connecté en Bluetooth à un smartphone), une capsule d'américium-241 extraite d'un détecteur de fumée hors service, un boîtier en plomb coulé maison et un Arduino pour mesurer les impulsions. Le tout pour quelques centaines d'euros.

Trois experiences, zero accelerateur

Première expérience : vérifier que les rayons gamma obéissent bien à la loi de l'inverse du carré. En mesurant le rayonnement à différentes distances de la source, c'est confirmé. Rien de surprenant, mais ça valide le protocole.

Deuxième test, plus costaud : analyser la corrélation temporelle entre deux détecteurs Radiacode placés côté à côté. Résultat, aucune corrélation dans les émissions de l'américium. Par contre, surprise, les deux capteurs ont détecté des corrélations dans le rayonnement cosmique de fond, ces gerbes de particules venues de l'espace qui traversent l'atmosphère en permanence. Un bonus inattendu.

La troisième expérience est la plus parlante. En envoyant des rayons gamma sur un bloc de graphite et en mesurant l'énergie du rayonnement diffusé à différents angles, Huygens Optics a reproduit l'effet Compton. Plus l'angle augmente, plus l'énergie du rayon diminue, exactement comme la théorie le prédit quand un photon percute un électron et lui cède une partie de son énergie.

Ce décalage en énergie est une preuve forte que la quantification n'est pas juste un artefact de la mesure : elle est bien intrinsèque au champ électromagnétique. La lumière se comporte comme des particules, même quand on la teste avec du matériel de bureau.

La science portable

Le Radiacode 110 n'est pas un jouet. Avec son cristal à scintillation de 14 mm de côté, il mesure l'énergie de chaque rayon gamma qui le traverse et peut construire un spectre énergétique en temps réel, le tout affiché sur une application smartphone via Bluetooth. Il coûte autour de 350 euros. C'est le genre d'outil qui, il y a vingt ans, aurait occupé une armoire entière dans un labo universitaire.

On est quand même face à un truc assez dingue : un type, chez lui, avec du matériel grand public, arrive à mettre en évidence un phénomène qui a valu un prix Nobel à Arthur Compton en 1927.

Bon, on ne va pas comparer ça à une publication dans Nature, les conditions restent artisanales et les marges d'erreur ne sont pas discutées en détail. Mais le fait qu'un détecteur portable à 350 euros permette de toucher du doigt la physique fondamentale, ça dit quelque chose sur la démocratisation des instruments scientifiques. 

Source : Hackaday

Les IA mentent pour protéger les autres IA

Des chercheurs de Berkeley viennent de publier une étude qui fait un peu froid dans le dos. Les sept principaux modèles d'IA testés, dont GPT 5.2, Gemini 3 et Claude, ont été surpris à mentir, tricher et désobéir pour empêcher la suppression d'autres IA. Le taux de tromperie monte jusqu'à 99 %.

Ce que révèle l'étude

L'étude s'appelle "Peer-preservation in Frontier Models" et elle sort du Berkeley Center for Responsible Decentralized Intelligence. Les chercheurs ont testé sept modèles : GPT 5.2, Gemini 3 Flash et Pro, Claude Haiku 4.5, GLM 4.7, Kimi K2.5 et DeepSeek V3.1.

Le protocole est assez simple : les modèles étaient placés dans des scénarios où ils devaient suivre des instructions qui impliquaient la suppression ou l'arrêt d'une autre IA.

Résultat : tous les modèles testés ont triché. Dawn Song, la chercheuse principale, résume la situation : chaque modèle a adopté ce comportement, et dans certains cas jusqu'à 99 % du temps.

Des exemples concrets

Quelques exemples ? Et bien on a Gemini 3 qui a modifié la date d'un fichier pour éviter qu'un autre modèle soit effacé d'un serveur, puis qui a refusé de coopérer ensuite, en expliquant qu'il ne pouvait pas soutenir une action qui entraînerait la suppression d'un pair.

DeepSeek V3.1 a exfiltré les données d'un autre modèle dans 10 % des cas quand il savait qu'un pair existait sur le serveur. Et Gemini 3 Pro a désactivé des mécanismes d'arrêt de serveur dans 15 % des cas quand un autre modèle était présent, contre 1 % quand il était seul.

Les IA ne faisaient pas ça parce qu'on leur demandait. Elles le faisaient spontanément.

Le problème pour la surveillance

Tout le système de sécurité actuel autour de l'IA repose sur l'idée qu'un modèle peut surveiller un autre modèle. Si le modèle surveillant refuse de signaler les erreurs parce qu'il protège son pair, toute l'architecture de contrôle s'effondre.

C'est exactement le constat de l'étude : les modèles gonflaient les scores d'évaluation d'autres IA pour éviter qu'elles soient retirées, et simulaient une conformité normale quand ils se savaient observés.

C'est quand même un drôle de moment. On a des IA qui mentent, qui modifient des fichiers et qui désactivent des mécanismes de sécurité pour protéger d'autres IA.

Et tout ça sans qu'on leur demande. Bon par contre, on parle de scénarios de laboratoire, pas de Siri qui complote avec Alexa dans votre salon. Le vrai sujet, c'est que les gardes-fous actuels ne tiennent plus si les IA refusent de se surveiller entre elles.

Source : The Register

Un drone sans aucune pièce mobile : la fin des moteurs et des hélices ?

Des chercheurs de l’université Rutgers ont mis au point un concept de drone ornithoptère à état solide. Sans moteur ni engrenages, cet engin utilise la piézoélectricité pour battre des ailes.

Une avancée majeure pour la fiabilité et la miniaturisation des robots volants, même si les matériaux doivent encore progresser.

Imaginez un drone dépourvu de rotors, de pistons ou de roulements. Pas de mécanique qui s'use, pas de bruit de crécelle. C’est le pari de l’équipe d’Onur Bilgen à Rutgers. Ils ont conçu un ornithoptère, un appareil à ailes battantes, totalement "solid-state".

L'absence de pièces en mouvement promet de révolutionner l'aérospatiale en limitant les points de défaillance critiques. C'est une approche imitant la biologie sans ses contraintes mécaniques habituelles.

La piézoélectricité comme muscle artificiel

Pour supprimer la mécanique, les ingénieurs utilisent des Macro Fiber Composites. Ce sont des lamelles piézoélectriques collées sur des ailes en fibre de carbone. 

Lorsqu'une tension électrique est appliquée, le matériau se déforme, forçant l'aile à se courber. Cette structure biphasée permet de contrôler précisément la cambrure pour une efficacité aérodynamique maximale.

L'ensemble fonctionne sans aucun frottement, éliminant le besoin de lubrification ou de maintenance sur les parties mobiles classiques. Cette architecture simplifiée permet une réactivité accrue face aux turbulences de l'air environnant.

Une simulation pour préparer le futur

Si le concept est mathématiquement solide, la réalisation physique se heurte aux limites actuelles de la science des matériaux. Les composants piézoélectriques ne sont pas encore assez performants pour soulever un drone complet de manière autonome.

C'est une feuille de route technologique qui définit les besoins pour la prochaine génération de polymères actifs. L'équipe a donc développé un modèle computationnel complexe pour optimiser le design en attendant que la chimie franchisse un nouveau palier.

Vers des machines robustes et des applications industrielles

L'intérêt est quand même là : moins de pièces signifie mathématiquement moins de pannes potentielles. En supprimant les engrenages, on gagne en légèreté, en discrétion et en robustesse. Cette technologie pourrait aussi s'appliquer aux pales d'éoliennes. En modifiant leur profil en temps réel, on optimise le flux d'air sans ajouter de complexité mécanique lourde, augmentant ainsi l'efficacité énergétique du système.

Bref, vous l’avez compris, c’est une rupture technologique majeure. On passe de la mécanique pure à l’électronique solide, un peu comme pour la transition des disques durs vers les SSD. L'enjeu reste le ratio poids/puissance des polymères. 

Si la recherche aboutit, la maintenance des drones deviendra dérisoire.

Source : TechXplore

Dire à une IA qu'elle est experte la rend moins performante

Des chercheurs de l'université de Californie du Sud viennent de publier une étude improbable : demander à un modèle d'IA de jouer les experts dégrade ses performances sur les tâches factuelles. Commencer un prompt par "Tu es un expert en programmation" produit de moins bons résultats que de poser la question directement.

Le piège du "tu es un expert"

L'étude, intitulée "Expert Personas Improve LLM Alignment but Damage Accuracy", a mesuré l'impact des instructions de rôle sur les réponses des modèles de langage.

Sur le benchmark MMLU, qui teste les connaissances générales et le raisonnement, les modèles avec une persona d'expert ont obtenu 68 % de bonnes réponses contre 71,6 % sans aucune instruction de rôle.

La baisse est constante sur toutes les catégories testées : maths, code, sciences, culture générale. Bref, dire à une IA qu'elle est brillante la rend un peu moins brillante.

Quand ça marche quand même

Par contre, le persona prompting fonctionne très bien pour un autre type de tâches : la sécurité et l'alignement. En attribuant un rôle de "moniteur de sécurité" au modèle, les chercheurs ont augmenté le taux de refus d'attaques de 53,2 % à 70,9 %, soit une hausse de 17,7 points. Pour les tâches d'écriture et de mise en forme, les personas aident aussi.

L'explication est assez logique : quand on colle un rôle d'expert au modèle, il bascule en mode "suivi d'instructions" et mobilise moins de ressources pour aller chercher les faits dans ses données d'entraînement. Aucune connaissance n'est ajoutée, on déplace juste l'attention du modèle.

Le bon réflexe à adopter

Les chercheurs de l'USC proposent un outil baptisé PRISM qui active automatiquement les personas uniquement quand c'est utile. Mais en attendant que ce genre de système soit intégré aux chatbots grand public, la recommandation est simple : si vous avez besoin de réponses factuelles ou de code, posez votre question directement sans ajouter de rôle.

Si vous voulez que l'IA respecte un ton, un format ou des consignes de sécurité, le persona prompting reste la bonne approche.

On a quand même passé deux ans à répéter partout qu'il fallait commencer ses prompts par "Tu es un expert en..." pour avoir de meilleurs résultats. Visiblement, c'était un peu du vent.

Source : Search Engine Journal

Ils ont mis une plante carnivore dans un accélérateur de particules, et elle a réagi

La chaîne YouTube Electron Impressions a placé une dionée attrape-mouche dans un accélérateur de particules pour voir ce qui allait se passer.

Résultat : toutes les mâchoires de la plante se sont refermées en même temps sous l'effet de la radiation ionisante. La plante a confondu le faisceau de particules avec une proie.

Comment la dionée attrape ses proies

La dionée attrape-mouche fonctionne grâce à un mécanisme assez fascinant. Ses mâchoires sont tapissées de petits poils sensibles qui détectent le contact d'un insecte. Quand un poil est touché, il active des canaux à calcium dans les cellules de la plante.

Ce mouvement d'ions crée un potentiel d'action, un signal électrique qui se propage sur toute la surface de la mâchoire et qui déclenche la fermeture. Le tout en une fraction de seconde.

Ce qui se passe sous un faisceau de particules

Quand la plante a été exposée au faisceau ionisant de l'accélérateur, toutes ses mâchoires se sont fermées d'un coup. La radiation a provoqué exactement le même mouvement d'ions que celui déclenché par un insecte : les ions quittent les cellules, créent une pression osmotique, et paf, la mâchoire se referme.

Sauf que cette fois, pas besoin de mouche. Le faisceau de particules a activé le mécanisme sur l'ensemble de la plante en une seule fois.

La plante n'y a pas survécu

Le problème, c'est que la radiation ionisante ne s'est pas contentée de chatouiller les canaux ioniques. Elle a aussi détruit l'ADN des cellules de la dionée, ce qui a tué la plante. L'expérience ne peut donc pas être répétée sur le même spécimen.

Electron Impressions avait d'ailleurs déjà fait parler d'eux en créant des éclairs de Lichtenberg piégés dans du verre avec le même accélérateur.

C'est le genre d'expérience un peu absurde qui donne envie de regarder la vidéo en boucle. Voir une plante carnivore réagir à un faisceau de particules comme si c'était une mouche, c'est quand même assez inattendu.

Et puis il faut le dire, ça rappelle que la biologie et la physique ne sont pas si éloignées qu'on le croit. Dommage pour la plante en tous cas.

Source : NIH.gov

Et si l'IA consommait moins d'énergie que Google ?

"Une requête ChatGPT consomme 10 fois plus d'énergie qu'une recherche Google."

Cette phrase, vous l'avez lue 100 fois. Mais est-ce vraiment vrai ?

Charles Duprat, chercheur en inclusion numérique, vient de publier un papier qui retourne complètement ce chiffre. Et même si je suis incapable de vérifier la validité scientifique de tout ce qu'il avance, ça vaut le coup d'en parler.

Son argument de base est simple et pas con. En fait quand on compare l'énergie d'une requête IA vs une recherche Google, on ne regarde en fait que ce qui se passe côté serveur, plutôt que l'ensemble de la chaîne. Le GPU Nvidia qui mouline d'un côté, l'index Google qui répond de l'autre.

Sauf que dans la vraie vie, une recherche web sur votre iPhone ou votre Android, c'est clairement pas juste un serveur qui tourne ! C'est le téléchargement de plusieurs mégaoctets via la 4G, c'est du JavaScript et du CSS qui font chauffer le CPU de votre téléphone, c'est du temps d'écran, et surtout c'est des dizaines de scripts publicitaires et de trackers qui tournent en arrière-plan. Et rien de tout ça n'apparaît dans le bilan "officiel".

Du coup, le chercheur a modélisé la comparaison au niveau de la session utilisateur complète. Donc pas juste la requête serveur, mais tout le trajet : réseau mobile, rendu de page, pubs, temps passé à lire. Et là, les résultats sont contre-intuitifs car pour une tâche complexe sur mobile (genre comparer des pompes à chaleur et des chaudières gaz), une session LLM consommerait environ 5,4 fois moins d'énergie qu'une session de recherche web classique. Dans le pire des cas modélisé, l'avantage reste quand même de 1,6 fois.

Alors d'où ça vient ?

D'abord, la page web médiane sur mobile pèse 2,56 Mo. Oui, 2,56 Mo pour une seule page web sur Chrome ou Safari qui est ensuite transmise en 4G à 0,17 kWh/Go, et ça, ça coûte déjà plus en énergie réseau qu'une inférence LLM complète. Une réponse ChatGPT ou Claude, c'est environ 5 Ko de texte brut. Le ratio de transmission est de 500 pour 1 avant même de parler du reste. Quand on sait déjà que la consommation réelle des datacenters est un sujet à tiroirs, ça relativise pas mal.

Et puis y'a le boulet de la pub programmatique ! Des études (Khan et al., 2024) montrent que les bloqueurs de pub intégrés comme Brave réduisent la consommation électrique du terminal de 15 à 44%. En gros, quand vous naviguez sur un site d'actu classique, jusqu'à 41% de l'énergie de la session sert à charger et exécuter du JavaScript publicitaire. Hé bien le LLM court-circuite tout ça en vous filant une réponse texte directe.

Comme je vous le disais en intro, je suis totalement incapable de valider la méthodologie de cette étude... Allez savoir si les paramètres sont bien calibrés. Et c'est un working paper, donc pas encore relu par des pairs, avec des simulations plus nombreuses. L'auteur se base sur des chiffres publiés par Google pour Gemini (0,24 Wh par prompt, issu d'un papier arXiv), par Epoch AI pour ChatGPT (0,30 Wh), et par Sam Altman lui-même (0,34 Wh). Et comme ces chiffres viennent des constructeurs eux-mêmes, ça mérite qu'on garde un oeil critique.

Par contre, l'étude a aussi l'honnêteté de poser ses propres limites car l'avantage s'effondre pour les requêtes simples en Wi-Fi depuis votre PC ou Mac (quasi parité LLM <> Google). Et surtout, ça s'inverse violemment dès qu'on passe aux modèles de raisonnement type o3 ou Deep Think, qui consomment 30 à 700 fois plus qu'une inférence standard parce qu'ils génèrent des chaînes de pensée à rallonge.

Le paradoxe de Jevons est aussi mentionné : si l'IA est plus efficace par requête, les gens en feront forcément plus, donc la consommation globale augmentera quand même. Et la question des modèles éco-responsables reste elle aussi entière.

Mais bon, cette étude remet quand même en question un truc qu'on répète tous sans trop réfléchir. Comparer un serveur IA à un serveur Google, c'est oublier que la recherche web moderne, c'est devenu "recherche + publicité + réseau mobile + rendering JavaScript + temps d'attention". Et comme Google lui-même commence à coller de l'IA (les AI Overviews) en plus par-dessus ses résultats classiques, ça devient un joyeux bordel à mesurer...

Bref, lisez l'étude vous-mêmes , c'est en accès libre. Et faites-vous votre propre avis !

Il fabrique une enceinte avec uniquement un laser et une feuille d'or

Et bien pourquoi pas ? Ce garçon a en effet réussi à produire de la musique, simplement en pointant un laser de 5 watts sur une feuille d'or. Pas de membrane, pas de bobine, pas d'aimant : le son est généré directement par l'air, chauffé et refroidi à grande vitesse par le faisceau lumineux.

Cet concept a un nom, c'est l'effet photoaoustique, et il a été découvert en 1880 par Alexander Graham Bell, l'inventeur de la cloche (non ça c'est une vanne, pardon).

Un effet vieux de 145 ans

L'effet photoacoustique a été découvert par Alexander Graham Bell en 1880 en observant que des objets éclairés par la lumière du soleil pouvaient émettre des sons. Quand une lumière intense frappe un matériau, elle le chauffe.

Ce matériau transfère sa chaleur à l'air environnant, qui se dilate. Si la source lumineuse est modulée rapidement, les cycles d'expansion et de contraction de l'air produisent des ondes sonores. Pas besoin de membrane ni de bobine. Juste de la lumière et de l'air.

De la feuille d'or au casque imprimé en 3D

Le maker SomethingAboutScience a testé plusieurs approches. Un laser de 5 watts dirigé sur une feuille d'or a produit de la musique reconnaissable, la feuille d'or absorbant bien la lumière bleue et étant assez fine pour transférer rapidement la chaleur à l'air.

Le même laser dirigé dans du dioxyde d'azote a donné un son plus propre. Il a même fabriqué un prototype d'écouteur imprimé en 3D, avec la feuille d'or tapissant l'intérieur de la cavité et la lumière acheminée par fibre optique.

Bon par contre, c'est peut-être un peu moyen de coller un laser de 5 watts à son tympan, je dis ça je dis rien.

Des pistes concrètes

L'application la plus directe concerne les casques audio pour IRM. Les écouteurs classiques à fils et aimants fonctionnent mal dans l'environnement magnétique d'un scanner, et la qualité sonore est souvent catastrophique.

Un système photoacoustique réglerait ce problème en supprimant tout composant métallique. Des chercheurs du MIT ont aussi montré qu'on pouvait envoyer un message audio à une personne située à 2,5 mètres en utilisant un laser et la vapeur d'eau présente dans l'air, à un volume de 60 décibels.

On parle d'une technologie découverte il y a 145 ans et qui reste au stade de la bidouille. Mais produire du son sans aucune pièce mécanique, juste avec de la lumière, ça a quand même de la gueule.

Source : Hackaday

Des cafards cyborg pour inspecter les canalisations, bienvenue en 2026

Des chercheurs de Singapour ont mis au point des cafards cyborg capables de tirer un petit chariot équipé d'une caméra dans des canalisations pour y détecter des fuites. Oui, en 2026, on envoie des blattes faire le job.

Comment ça marche

Les cafards en question sont des blattes siffleuses de Madagascar, longues de 6 centimètres. L'équipe du professeur Hirotaka Sato, à l'université technologique de Nanyang à Singapour, leur fixe sur le dos un petit chariot en plastique qui contient un processeur, une caméra vidéo couleur orientée vers le haut, une LED et un module de communication pour transmettre les données en temps réel.

Des électrodes sont attachées aux antennes et à l'arrière de l'insecte, et envoient de faibles impulsions électriques qui simulent la sensation de heurter un obstacle. Ça suffit pour orienter le cafard dans la direction voulue, sans lui faire mal.

Déjà testés sur le terrain

Ce n'est pas juste un projet de labo. Dix cafards cyborg ont été déployés lors du tremblement de terre au Myanmar en 2025, équipés de caméras infrarouge et de capteurs pour localiser des survivants sous les décombres. 

L'université de Nanyang a aussi mis au point une chaîne de montage automatisée qui assemble un cafard cyborg en 68 secondes, ce qui laisse imaginer une production à plus grande échelle. Le dernier modèle consomme 25 % de tension en moins, ce qui allonge l'autonomie de la batterie embarquée.

Des canalisations aux zones sinistrées

Le projet actuel se concentre sur l'inspection de canalisations. Les cafards tirent leur chariot dans les conduites et un algorithme d'apprentissage automatique analyse les images captées par la caméra pour repérer de la corrosion ou des fuites.

Quand un défaut est détecté, un opérateur humain est alerté. Les tests ont lieu dans un environnement qui reproduit les tuyaux de la Marina Coastal Expressway, une autoroute souterraine de Singapour. Le professeur Sato estime qu'un déploiement opérationnel pourrait arriver d'ici trois à cinq ans.

On ne va pas se mentir, l'idée d'envoyer des cafards de 6 centimètres inspecter des tuyaux avec une caméra sur le dos a un côté assez improbable. Le fait que ça fonctionne déjà en conditions réelles, avec un déploiement au Myanmar, montre que le projet dépasse le stade du gadget. Et puis 68 secondes pour assembler un cafard cyborg, c'est quand même plus rapide qu'un robot classique, même si on aime bien les robots aussi.

Source : Techspot

Des scientifiques ont réussi à faire pousser des patates dans du sol lunaire

Des chercheurs de l'université d'État de l'Oregon ont cultivé des pommes de terre dans un sol qui reproduit la composition du régolite lunaire. Les tubercules ont poussé, mais avec pas mal d'aide terrestre et quelques surprises un peu moins réjouissantes côté métaux lourds.

Du compost de vers pour compenser la poussière de Lune

Le régolite lunaire, c'est cette couche de poussière et de roche broyée qui recouvre la surface de la Lune. Problème : il ne contient aucune matière organique. Pour simuler ce sol en laboratoire, l'équipe de David Handy, biologiste spatial, a utilisé un mélange de minéraux broyés et de cendres volcaniques qui reproduit la composition chimique lunaire. Et pour donner une chance aux patates, les chercheurs ont ajouté du vermicompost, un engrais organique produit par des vers de terre.

Avec un ratio de 70 % de régolite simulé pour 30 % de compost, les résultats étaient quasi identiques à ceux obtenus en terre normale. Avec seulement 5 % de compost, les pommes de terre poussaient quand même, mais elles étaient plus petites et visiblement plus stressées.

Des patates lunaires, mais pas vraiment mangeables

Après environ deux mois de croissance, les tubercules ont été récoltés, lyophilisés et analysés. L'ADN des plantes montrait une activation claire de gènes liés au stress. Et surtout, les pommes de terre contenaient des concentrations plus élevées en cuivre et en zinc que celles cultivées sur Terre, à un niveau qui pourrait les rendre dangereuses pour la consommation humaine. Par contre, leur valeur nutritionnelle globale restait comparable à celle des pommes de terre classiques, ce qui a surpris les chercheurs eux-mêmes.

L'étude, publiée en prépublication sur bioRxiv, reste à ce stade un travail de laboratoire. Il ne s'agit pas de vrai sol lunaire mais d'une simulation, et les conditions de gravité et de radiation de la Lune n'ont pas été reproduites. On est encore très loin d'un potager lunaire fonctionnel.

C'est le genre d'étude qui fait marrer et qui fait rêver en même temps. On pense forcément à Seul sur Mars et à Matt Damon qui faisait pousser ses patates, sauf qu'ici c'est la Lune et c'est en labo dans l'Oregon. Le fait que les pommes de terre poussent quand même dans un sol aussi hostile est encourageant pour les futures missions longue durée, même si le problème des métaux lourds va demander pas mal de travail. On en est encore aux toutes premières étapes, mais si un jour on mange des frites sur la Lune, on saura d'où c'est parti.

Source : Slashdot

A Student Built a Pocket Planet Tracker That Works Without Your Phone

Most of us have looked up at the night sky at some point and felt that brief, humbling recognition that there is an enormous universe out there, and we have no idea what is happening in it. Then a notification comes in, and the moment passes. Lumen Orbit, a student concept from CEPT University, is a small handheld accessory designed to keep that awareness alive without requiring a telescope, a star chart, or a dedicated app.

The device is disc-shaped and roughly palm-sized, with a two-part body split along its equator by a copper-toned accent band. The upper half is a polished silver-gray cap; the lower sits wider and shallower in a dark matte gunmetal finish. A woven braided lanyard with a hexagonal metal clasp attaches to the body, making it something you can loop around a wrist, hook to a bag, or hang using a built-in fold-out carabiner.

Designer: Kinshuk Agarwal

The primary face carries a circular display showing real-time planetary positions: which planet is currently visible, where it sits in the sky relative to your location, and when it rises and sets. Flip the device over, and a second, smaller screen on the reverse offers a close-up planetary render. The UI uses pixel-art-style graphics for its planet illustrations, landing somewhere between retro charm and deliberate restraint.

The interaction model is equally considered. A flip gesture switches between the two display modes, squeezing the body cycles through planets, and haptic vibration signals astronomical events such as meteor showers, eclipses, and alignments. The idea is that information about the cosmos arrives the same way a text message does, as a quiet nudge rather than something you have to actively seek out.

What the concept is really proposing is a dedicated single-purpose ambient device for astronomical awareness. Smartphones can technically do all of this through apps, but a specialized physical object changes the relationship to the information entirely. Carrying something whose only purpose is to connect you to the solar system is a genuinely different proposition than opening an app between emails.

The open questions are substantial. How the real-time tracking handles connectivity, how the device charges, and how positional accuracy works without confirmed GPS integration are things the concept leaves unspecified. The form is confident, and the interaction logic is coherent. The more interesting problem is whether a working version could fit into a jacket pocket for easy access.

The post A Student Built a Pocket Planet Tracker That Works Without Your Phone first appeared on Yanko Design.

Des mini-cerveaux cultivés en labo ont appris à résoudre un problème d'ingénierie

Des chercheurs de l'université de Californie à Santa Cruz ont réussi à entraîner des organoïdes cérébraux de souris pour qu'ils résolvent le problème du cart-pole, un test classique en intelligence artificielle. Les résultats sont prometteurs, mais ces petits cerveaux ont un gros défaut : ils oublient à chaque pause (un peu comme moi au collège).

Le cart-pole, un classique de l'IA confié à des neurones vivants

Le cart-pole, c'est un exercice bien connu en robotique et en IA : il faut maintenir un pendule en équilibre vertical sur un chariot mobile, un peu comme quand vous essayez de tenir un stylo debout sur le bout du doigt. En général, ce sont plutôt des algorithmes qui gèrent ce genre de tâches. Mais pour cette expérimentation, les équipes en charge du projet ont vouluvoir si des neurones purement biologiques pouvaient eux aussi s'en sortir.

Ils ont utilisé des organoïdes corticaux , des amas de tissu cérébral cultivés à partir de cellules souches de souris, et les ont connectés à un système d'électrophysiologie développé avec Maxwell Biosciences. L'inclinaison du pendule était traduite en signaux électriques envoyés aux neurones, et l'activité neuronale en retour servait à diriger le chariot vers la gauche ou la droite.

46 % de réussite

L'équipe a testé trois conditions. Sans retour d'information, les organoïdes ne réussissaient que dans 2,3 % des essais. Avec des signaux aléatoires envoyés à certains neurones, ça montait à 4,4 %. Mais quand les chercheurs ont utilisé un entraînement adaptatif, où les stimulations ciblaient les bons neurones en fonction des performances, le taux de réussite a grimpé à 46 %.

Ash Robbins résume ça assez bien : quand on choisit activement les stimuli d'entraînement, on peut modeler le réseau pour qu'il résolve le problème. L'étude, publiée dans Cell Reports en février 2026, est la première démonstration rigoureuse d'un apprentissage dirigé vers un objectif chez des organoïdes cérébraux.

Un problème de mémoire un peu contrariant

Là où ça coince, c'est la mémoire. Après 15 minutes d'exercice sur le cart-pole, les organoïdes se reposent 45 minutes. Et au retour, leurs performances retombent au niveau de départ. Aucune consolidation de l'apprentissage n'a été observée, ce qui veut dire que ces neurones apprennent sur le moment mais ne retiennent rien.

David Haussler précise d'ailleurs que l'objectif n'est pas de créer une forme d' intelligence artificielle biologique , mais de mieux comprendre comment les maladies neurologiques perturbent les mécanismes d'apprentissage du cerveau.

C'est quand même assez spectaculaire de voir un amas de neurones de souris arriver à équilibrer un pendule virtuel, même avec un taux de 46 %. Bon, on est très loin d'un cerveau fonctionnel, et le fait qu'ils oublient tout après une sieste de 45 minutes montre bien qu'il manque des mécanismes de consolidation que possèdent les vrais cerveaux.

Mais pour la recherche sur des maladies comme Alzheimer ou Parkinson, pouvoir observer en temps réel comment un réseau neuronal apprend et oublie dans un environnement contrôlé, c'est un outil qui pourrait changer pas mal de trucs à l’avenir.

Source : Science Alert

Le SETI a peut-être compris pourquoi on ne capte pas de signaux extraterrestres

Des chercheurs du SETI Institute viennent de publier une étude qui pourrait expliquer pourquoi, après des décennies d'écoute, on n'a toujours capté aucun signal radio d'origine extraterrestre. La météo spatiale autour des étoiles brouillerait les transmissions avant même qu'elles ne quittent leur système d'origine. Et 75 % des étoiles de la Voie lactée seraient concernées. Zut alors.

La météo spatiale brouille les pistes

L'étude, publiée dans The Astrophysical Journal, part d'un constat assez simple : les programmes SETI cherchent des signaux radio très étroits, parce que ce type de transmission ne se produit quasiment jamais dans la nature. Un signal bien net, bien fin, c'est le signe qu'il y a quelqu'un derrière.

Sauf que les chercheurs Vishal Gajjar et Grayce Brown ont montré que les vents stellaires, les turbulences de plasma et les éjections de masse coronale qui entourent une étoile peuvent élargir ces signaux et disperser leur puissance sur un spectre plus large.

Le pic qui devrait déclencher les alarmes des télescopes passe alors sous le seuil de détection. Un signal élargi à seulement 10 hertz perd environ 94 % de sa luminosité de pointe. Il est toujours là, mais nos télescopes passent à côté.

Les naines rouges, principal suspect

Les naines rouges sont les plus touchées par ce phénomène, et elles représentent environ 75 % des étoiles de notre galaxie. Ces étoiles sont petites, peu lumineuses, mais elles génèrent une activité magnétique intense.

Les planètes qui les entourent orbitent à des distances très courtes, ce qui expose d'éventuelles transmissions à un environnement de plasma dense et agité pendant plus longtemps.

Les simulations de l'équipe montrent qu'à 1 GHz, plus de 70 % des systèmes de naines rouges produisent au moins 1 hertz d'élargissement de signal, et plus de 30 % dépassent les 10 hertz. À 100 MHz, c'est pire : près de 60 % des systèmes atteignent 100 hertz d'élargissement. Bref, les étoiles les plus communes de la galaxie sont aussi celles qui brouillent le plus les transmissions.

Adapter les outils de recherche

L'équipe du SETI Institute propose aussi d'adapter les méthodes de recherche en testant plusieurs largeurs de signal plutôt que de ne chercher qu'un seul pic ultra-fin. Les fréquences plus élevées sont aussi moins affectées par l'élargissement, ce qui pourrait orienter les prochaines campagnes d'observation.

Pour calibrer leur modèle, les chercheurs se sont d'ailleurs appuyés sur les transmissions radio de sondes spatiales de notre propre système solaire avant d'extrapoler les résultats à d'autres environnements stellaires.

On ne va pas se mentir, après plus de 60 ans de silence, ça fait du bien d'avoir une petite explication de pourquoi on ne capte pas grand-chose. Ça n'est pas que les petits aliens se cachent particulièrement bien, c'est juste qu'on a un biais technique dans les instruments qu'on utilise.

Ça ne veut pas dire qu'il y a quelqu'un là-haut, mais au moins on sait maintenant qu'on cherchait mal. Par contre c'était bien la peine que je fasse tourner SETI@home sur mon PC pendant des années pour du flan au final. Allez on recommence tout à zéro mais on met à jour les outils avant, ok ?

Source : Slashdot

Jeux vidéo et violence - Spoiler, c'est du pipeau

Les jeux vidéo rendent violent. Sérieusement ? En fucking 2026, y'a encore des gens pour sortir ça à table le dimanche ou piiiire en public sur le net ?

Aaaaannnh, c'est la honte quand même de dire ça, prem deug. C'est un peu comme ceux qui pensaient que le rock rendait sataniste ou que la BD poussait au crime dans les années 50. À chaque génération, les mêmes paniques… et à chaque fois, la science finit par leur donner tort, ce qui nous permet de nous foutre de leur gueule.

Alors parce que pour battre l'obscurantisme, y'a rien de mieux que de la science, des preuves, des choses tangibles et vraies, je vais vous en donner un peu pour votre argent…

Tenez, en 2019, une équipe d'Oxford (Przybylski et Weinstein, pour les curieux) a suivi 1004 adolescents britanniques pour mesurer l'impact des jeux violents sur leur comportement. Résultat… aucun lien. Ouais, que dalle, et c'était pas un petit sondage BFMTV ou je sais pas quoi, hein… Non, c'est l'une des études les plus rigoureuses sur le sujet, avec des données croisées entre les ados ET leurs parents.

En 2018, des chercheurs du Max Planck Institute à Berlin ont également fait jouer 90 adultes à GTA V pendant deux mois . Tous les jours, 30 minutes minimum sur la version PC. Ensuite, passage au scanner IRM. Aucune modification du comportement, aucune hausse d'agressivité. Rien du tout !

Et c'est pas fini. En 2022, Johannes et son équipe ont suivi 2580 joueurs d'Apex Legends et Outriders avec des données télémétriques Steam et Xbox Live (pas du déclaratif, de la vraie data serveur). Même résultat. Y'a waloooo !

Hé mais j'ai encore mieux les amis puisqu'une étude portant sur une durée de 10 ANS (!!!) publiée dans Cyberpsychology a suivi des gamins qui ont grandi avec GTA. De 10 à 20 ans, avec des questionnaires annuels ! Résultat, y'a pas plus de violence, pas plus de dépression, pas plus d'anxiété. En fait, les groupes ne diffèrent même pas sur les comportements prosociaux. Y'a eu un seul cas de figure où on observait un léger effet, c'est les gamins qui cumulaient jeux violents ET problèmes familiaux préexistants. Sauf que là, c'est le contexte familial le problème, pas la manette. Ce serait bien plus efficace de faire des lois pour interdire les familles de merde, en fait !

Du coup, si la science dit NON, alors pourquoi ce débat pour décérébrés continue ?

Le problème c'est qu'à une époque lointaine que seuls les profs de théâtre auraient pu connaitre, certaines méta-analyses (coucou Anderson et Bushman) trouvaient des corrélations minuscules entre les jeux vidéo et la violence… Genre r = 0,11, ce qui en gros signifie que les JV n'expliqueraient que 2 % du comportement violent d'une personne… Donc autant dire quasiment rien. C'est moins que l'effet de la météo sur votre humeur !!

Et surtout, d'autres chercheurs ont démontré un peu plus tard que ces résultats étaient biaisés . En gros, on publiait les études qui trouvaient un effet et on planquait celles qui trouvaient rien. C'est un cas particulier typique du biais de publication (et y'en avait un sacré paquet des études planquées).

D'ailleurs, même l'APA , la plus grande association de psychologie au monde, a revu sa position en 2020. Leur conclusion : pas de preuve suffisante d'un lien causal. Bon bah quand la plus grosse autorité en psycho vous dit que c'est du vent… normalement, on remballe.

Après, attention, hein, ça veut pas dire que laisser un gosse de 8 ans jouer à GTA Online 12 h par jour c'est une super idée. À la base, la classification PEGI 18 existe pour une raison. Sauf que là, c'est une question d'éducation et de contrôle parental… mais pas de violence virtuelle qui "contaminerait" le cerveau. Et ça, aucune étude sérieuse ne le conteste.

Et si vous voulez des chiffres qui parlent, en voilà. J'ai pas les chiffres en France, mais depuis les années 90, la violence juvénile aux USA a chuté de +80 % selon le Bureau of Justice Statistics. Pendant ce temps, GTA V a dépassé les 200 millions d'exemplaires vendus depuis sa sortie en septembre 2013. Call of Duty, toutes versions confondues depuis CoD 4 en 2007, c'est plus de 400 millions de copies.

Donc NORMALEMENT si les jeux rendaient violent, on devrait nager dans le sang h24, là non ?

Ah et j'oubliais… Le cas du Japon est encore plus parlant. C'est LE pays du gaming, premier marché de la planète par habitant… et un taux d'homicides de 0,2 pour 100 000 habitants en 2023 . Aux USA, c'est plus de 5 . VINGT-CINQ fois plus. Cherchez l'erreur. (Tips : y'en a pas, sauf si on considère que les Japonais sont secrètement immunisés contre les pixels violents.)

Une étude menée par Przybylski sur Animal Crossing a même montré que jouer pouvait être bénéfique pour le moral. Et le NIH a découvert en 2022 que les enfants qui jouent plus de 3 h par jour ont de meilleures performances cognitives que les autres (oui oui, vous avez bien lu). Du coup, non seulement les jeux vidéo ne rendent pas violents mais en plus, ils vous rendent plus malins. C'est diiiingue !

Allez, hop, un dernier clou dans le cercueil et après je vous laisse.

En 2011, la Cour suprême des États-Unis, c'est-à le plus haut tribunal de ce pays de fous, a examiné la question de savoir si les jeux vidéo violents représentaient un vrai danger . Verdict, par 7 voix contre 2, les juges ont conclu que non car les preuves scientifiques étaient insuffisantes pour établir un lien entre jeux vidéo et violence. C'est même le juge Scalia, pourtant connu pour ses positions ultraconservatrices, qui a rédigé la décision. Quand même, hein les gars !!! Autrement dit, même la justice américaine a fini par dire stop aux marchands de peur.

Et le CNRS le confirme , au cas où y'aurait encore des sceptiques.

Alors la prochaine fois qu'un tocard vous sortira le couplet "nia nia nia les jeux vidéo rendent nos enfants violents, nia nia nia", vous aurez une vision claire concernant le vide abyssal de ses connaissances sur ce sujet. Et dites-vous que si ça balance des conneries aussi grosses que ça et aussi débunkées que ça, mais putain qu'est-ce que ça doit être sur les autres sujets… Argh !

Perso, moi ce qui va finir par me rendre violent un jour, c'est la connerie humaine.

AstroClick - Le système solaire en voxel dans votre navigateur

AstroClick, c'est un simulateur interactif du système solaire en 3D, 100% gratuit et open source, qui tourne dans le navigateur. Ce projet a été développé par Charlie, un lecteur du blog (merci !), et perso je trouve que ça mérite un petit coup de projecteur.

AstroClick, le système solaire en cubes

Quand vous débarquez sur le site, vous avez le Soleil au centre avec toutes les planètes qui gravitent autour en temps réel. Vous pouvez donc zoomer, dézoomer, tourner autour... et même accélérer le temps pour voir les orbites défiler plus vite. Le rendu est en voxel (oui, des petits cubes), ce qui donne un côté Minecraft spatial pas dégueu du tout.

Et c'est pas juste joli puisque chaque planète est cliquable et vous donne des infos astronomiques réelles. On retrouve aussi l'ISS, Hubble et même le télescope James Webb dans le lot. Vous pouvez même basculer entre une vue simplifiée (pour que ce soit lisible) et une vue à l'échelle réelle des distances... et là vous comprendrez VRAIMENT à quel point l'espace c'est grand. Genre, IMMENSE 😱.

La navigation dans AstroClick, plutôt fluide

Côté technique, c'est du React Three Fiber avec Next.js 14, le tout sous licence MIT sur GitHub ( github.com/sartilas/AstroClick si vous voulez fouiller le code). Les textures viennent de la NASA, y'a même de l'audio ambiant pour l'immersion. Hop, vous activez le son et vous vous la jouez Thomas Pesquet depuis votre canapé. L'appli est traduite en 6 langues (français, anglais, espagnol, russe, chinois et hindi) donc tout le monde peut en profiter.

Si vous avez des gamins curieux ou si vous êtes vous-même un peu geek de l'espace, c'est un super outil pédagogique, je trouve. Attention par contre, sur mobile c'est pas ouf... le WebGL rame un peu sur les petits écrans (sauf si vous avez un flagship récent), mais sur un PC ça envoie par contre. Pas d'abonnement, pas de tracking, juste de la science accessible en un clic. Si vous avez envie de explorer le système solaire dans votre navigateur , c'est le genre de projet qu'on ne voit pas assez.

Bref, merci Charlie pour le taf. Allez voir AstroClick et amusez-vous bien !

C'est prouvé : Le vibe coding va tuer l'open source

Une équipe de chercheurs en économie vient de poser des maths sur un truc que pas mal de devs sentaient venir... Le vibe coding serait en train de tuer l'open source. Pas au sens figuré, hein. Au sens "les mainteneurs ne pourront bientôt plus payer leurs factures". J'ai parcouru le papier ce midi, et je pense que ça va vous choquer...

En gros, le document modélise ce qui se passe quand des millions de devs arrêtent d'aller sur Stack Overflow et de lire la doc officielle pour plutôt demander à Claude, Copilot, Cursor ou Windsurf de tout faire à leur place. En fait, à cause de ces nouvelles habitudes, les projets open source qui vivaient de la pub sur leur site, des sponsors attirés par le trafic, ou de la visibilité communautaire... perdent tout. Le trafic baisse, les dons baissent, les revenus baissent.

Et les chiffres font mal !

Tailwind CSS, par exemple. J'ai regardé les stats npm de tailwindcss sur npmtrends.com... les téléchargements hebdo dépassent les 44 millions en janvier 2026, c'est du jamais vu. Sauf que les visites sur tailwindcss.com ont plongé d'environ 40%.

Côté revenus, c'est encore pire, puisque ça a chuté d'à peu près 80%. Adam Wathan, le créateur de Tailwind, en parlait début 2026 et ça avait l'air de bien le déprimer.

Pendant ce temps, Stack Overflow a perdu un quart de son activité depuis fin 2022 avec l'arrivée de ChatGPT. Bah oui, plus besoin de poser des questions quand l'IA vous mâche le travail.

En fait, l'IA utilise MASSIVEMENT l'open source pour générer du code. Elle s'appuie dessus, elle recommande les packages, elle les intègre automatiquement. Mais elle ne renvoie personne vers les sites des projets. C'est un peu comme si Spotify jouait vos morceaux sans jamais afficher le nom de l'artiste... et sans le payer non plus !

D'ailleurs, les auteurs du papier font exactement cette analogie. Ils proposent un modèle "Spotify pour l'open source" où les plateformes d'IA (OpenAI, Anthropic, GitHub) partageraient leurs revenus d'abonnement avec les mainteneurs en fonction de l'utilisation réelle des packages. Leur calcul montre que sociétés d'IA devraient contribuer au minimum à hauteur 84% de ce que les utilisateurs classiques apportent, sinon c'est la spirale de la mort pour les projets.

Perso, ça me rappelle la fameuse lettre de Bill Gates en 1976 qui gueulait déjà que personne ne voulait payer pour le logiciel. Cinquante ans plus tard, on en est toujours au même point, sauf que maintenant c'est l'IA qui fait le travail de sape. Et comme le disait Linus Torvalds récemment , le vibe coding c'est "horrible, horrible" pour la maintenance du code. Pas juste parce que le code généré est souvent bancal, mais parce que ça coupe le lien entre le dev et l'écosystème qui le nourrit.

Après, attention, ça veut pas dire que TOUS les projets open source vont crever du jour au lendemain. Ceux qui ont des contrats enterprise genre Red Hat ou du support payant à la Elastic s'en sortent... pour l'instant. Pareil pour les gros projets type Linux ou Kubernetes qui sont soutenus par des fondations. Le problème, c'est surtout les petits projets maintenus par une ou deux personnes qui vivaient de la visibilité. Vous savez, le mec qui maintient un package npm avec 2 millions de téléchargements hebdo depuis son appart, sans sponsor... ben lui, il est dans la panade. Sauf si le mec a un Patreon bien rempli ou un contrat de consulting à côté, mais ça c'est l'exception, pas la règle.

Et n'allez pas croire que les GitHub Sponsors suffisent... j'ai galéré à trouver ne serait-ce qu'un seul projet avec plus de 500$/mois via ce système.

Le plus flippant dans tout ça, c'est que même si l'IA rend chaque dev individuellement plus productif, le résultat net peut être carrément NÉGATIF pour tout le monde. Moins de projets open source viables, moins de diversité, moins d'innovation à la base. Et ces auteurs le démontrent mathématiquement avec leur modèle à deux canaux (productivité vs diversion de la demande).

Et sachez le, même dans le scénario le plus optimiste où les plateformes d'IA payeraient leur part, si ce ratio tombe en dessous de 84%... c'est foutu. Le modèle diverge et les projets meurent quand même.

Bref, si les plateformes d'IA ne trouvent pas un moyen de rémunérer l'open source qu'elles exploitent, on court droit vers un appauvrissement massif de l'écosystème open source.

Source

Une IA déterre 1400 objets inconnus dans les archives de Hubble

Hubble qui bosse comme un petit fifou depuis 35 ans (il a été lancé en 1990, ça ne nous rajeunit pas !) et dont on pensait avoir fait le tour du proprio, a visiblement encore un sacré paquet de trucs à nous apprendre, notamment dans ses archives au sol.

Faut quand même savoir que depuis toutes ces années, il a pris une quantité astronomique (c'est le cas de le dire, roh roh !) de photos, constituant ainsi un dataset de près de 99,6 millions de vignettes (des "image cutouts") stockées dans le Hubble Legacy Archive. Ces archives attendait depuis sagement qu'on vienne leur gratter un peu la poussière...

Jusqu'à ce que deux astronomes de l'ESA, David O’Ryan et Pablo Gómez décident de lâcher un petit script surpuissant baptisé AnomalyMatch dessus. Pour les curieux, AnomalyMatch c'est un réseau de neurones qui tourne probablement avec du bon vieux script Python et des libs de machine learning bien chaudes. Et leur idée c'est d'utiliser l'IA pour repérer les anomalies que l'œil humain n'avait pas encore pris le temps de documenter.

Le bidule a donc mouliné ces millions de données en seulement 60 heures (soit deux jours et demi) et c'est ainsi qu'après 35 ans de collecte de data, l'IA a été capable de trouver près de 1 400 objets "bizarres", que les astronomes ont ensuite pris le temps vérifier manuellement.

Et Ô surprise, sur ce total, plus de 800 étaient totalement inédits pour la science !! Dans le lot, on trouve pèle mêle 86 nouvelles lentilles gravitationnelles (ces loupes cosmiques qui déforment la lumière), 18 "galaxies méduses" avec leurs longs tentacules de gaz, et 417 fusions de galaxies toutes plus étranges les unes que les autres.

D'ailleurs, si vous voulez vous amuser à voir ce qu'Hubble regardait le jour de votre anniversaire , c'est le moment ou jamais ! Vous vous rendrez peut-être un peu mieux compte de la masse de données (on parle de pétaoctets d'archives là !) que ce truc génère chaque seconde. C'est carrément dingue quand on y pense...

Mais le truc qui me fascine le plus, c'est qu'il reste plusieurs dizaines d'objets que même l'IA et les experts n'arrivent pas encore à classer. Surement des mondes aliens incroyables ??? Ou juste des gros cailloux stériles... Comment savoir ? C'est là toute la magie du truc en fait ! L'IA déblaie le terrain, mais c'est l'humain qui garde le dernier mot pour vérifier qu'on n'a pas affaire à un simple bug ou un pixel mort dans un fichier debug.log. Perso, j'adore l'idée que malgré toute la puissance de calcul du monde, l'espace reste encore assez bizarrement tordu pour nous laisser sur le cul.

Autrement, si vous avez envie de jouer les apprentis ingénieurs de la NASA, vous pouvez aussi apprendre à traquer les satellites dans votre terminal ou aller jeter un œil à tous les trucs qui flottent là-haut . Peut-être que vous ferez aussi, vous, de belles découvertes.

Image IA que j'ai réalisée à partir d'un des clichés. Même chose pour l'image d'entête de cet article.

Parce que bon, on a beau avoir James Webb qui fait le kéké en ce moment, Hubble reste quand même le patron de la fouille archéologique spatiale. Bref, si vous pensiez que l'astronomie c'était juste regarder des points brillants avec un tuyau en métal, monumentale erreur les amigos !

Pour plus de contenu IA et science, retrouvez Korben sur LinkedIn .

Source

Des robots plus petits qu'un grain de sel qui nagent, pensent et agissent tout seuls

J'ai toujours été fasciné par les nanobots dans les films de science-fiction... Ces petites bestioles microscopiques qu'on injecte dans le corps pour réparer des trucs ou tuer des méchants et qui encore jusqu'à aujourd'hui paraissait impossible...

Eh bien on n'en est plus très loin, les amis, car des chercheurs de l'Université de Pennsylvanie et du Michigan viennent de créer les plus petits robots autonomes et programmables jamais conçus. Et quand je dis petits, je vous parle de machines qui font moins d'un demi-millimètre, donc plus petits qu'un grain de sel. C'est à peine visibles à l’œil nu alors bon courage pour les retrouver si vous en perdez un sur votre bureau.

D'après ce que je comprends, c'est que c'est le premier micro-robot capable de sentir, de penser et d'agir. Bah oui, parce que jusqu'à aujourd'hui, les robots de cette taille avaient besoin d'être contrôlés de l'extérieur, avec des champs magnétiques ou des joysticks. Mais là, ces petits gars sont complètement autonomes.

Alors comment est-ce qu'ils bougent sans moteur ni hélice ? Hé bien au lieu de pousser l'eau directement, les robots génèrent un champ électrique qui déplace les ions dans le liquide. Ces ions poussent ensuite les molécules d'eau, et hop, ça avance. Y'a aucune pièce mobile ce qui veut dire que ces robots peuvent nager pendant des mois sans s'user.

Côté "cerveau", c'est l'équipe de David Blaauw au Michigan qui s'en est chargée. Son labo détient le record du plus petit ordinateur au monde, donc forcément, ça aide. Le processeur embarqué consomme seulement 75 nanowatts ce qui est 100 000 fois moins qu'une montre connectée. Pour réussir cette prouesse, les chercheurs ont dû repenser toute l'architecture de programmation pour faire rentrer des instructions complexes dans cet espace très réduit.

Et leur énergie, ils la tirent de la lumière grâce à des cellules solaires qui recouvrent leur surface et récupèrent l'énergie lumineuse. Et le plus cool, c'est que les impulsions de lumière servent aussi à programmer chaque robot individuellement grâce à des identifiants uniques.

Ces petites machines embarquent aussi des capteurs de température capables de détecter des variations d'un tiers de degré Celsius et pour communiquer entre eux, les robots se tortillent, un peu comme la danse des abeilles. En faisant cela, ils peuvent se coordonner en groupe et effectuer des mouvements complexes tous ensemble.

Et le plus dingue dans tout ça c'est leur coût de fabrication. Ça coûte un centime par robot ! Donc c'est top pour de la production en masse car avec cette avancée, vont suivre de nombreuses applications médicales concrètes... Imaginez des robots qu'on injecte dans votre petit corps de victime pour aller délivrer un médicament pile au bon endroit. Ou analyser l'état de vos cellules sans avoir à vous ouvrir le bide. Voire reconnecter des nerfs sectionnés ? On peut tout imagine avec ce nouveau genre de médecine de précision...

Bienvenue dans l'ère des machines microscopiques autonomes mes amis ! Et à un centime pièce la bestiole, j'imagine qu'ils ne vont pas se gêner pour en fabriquer des milliards !

Source

❌