Vue lecture

Il y a de nouveaux articles disponibles, cliquez pour rafraîchir la page.

Lotus, le nouveau wiper qui efface les systèmes des entreprises d'énergie vénézuéliennes

Un logiciel malveillant destiné à effacer définitivement les données de postes informatiques vient de faire surface dans le secteur énergétique vénézuélien.

La bête a été baptisée "Lotus" par les chercheurs de Kaspersky qui l'ont analysé en premier, il a été mise en route en décembre 2025 depuis un ordinateur vénézuélien, et sa cible principale semble être PDVSA, la compagnie pétrolière d'État.

Côté technique, Lotus ne fait pas dans la dentelle. Deux scripts batch préparatoires, OhSyncNow.bat et notesreg.bat, désactivent toutes les défenses, coupent les comptes utilisateurs et ferment les interfaces réseau, histoire de bien tout bloquer.

Ensuite, le binaire principal passe en mode destruction avec diskpart, robocopy et fsutil pour manipuler le système de fichiers, puis descend au niveau IOCTL pour écraser directement des secteurs physiques du disque. Les points de restauration sont supprimés, le journal USN est effacé. Aucune récupération possible.

LKaspersky ne pointe personne, et aucun élément technique ne désigne un État ou un groupe criminel en particulier. Le timing est quand même troublant : fin 2025 et début 2026, le Venezuela a traversé une crise politique majeure avec la capture de l'ancien président Nicolás Maduro le 3 janvier, et les tensions toujours fortes autour des infrastructures énergétiques. Coïncidence ou coordination, on ne saura probablement pas avant longtemps.

En pratique, un wiper qui cible PDVSA, ça rappelle immédiatement les attaques contre les infrastructures critiques qu'on a vues en Ukraine avec Stryker ou contre des clusters Kubernetes avec la variante TeamPCP.

L'objectif n'est pas le chantage ni le vol, c'est la destruction pure. Les opérateurs ne cherchent pas à exfiltrer quelque chose, ils veulent rendre l'infrastructure inutilisable le plus vite possible, pour déstabiliser ou punir.

Un réseau d'alimentation électrique ou de distribution de carburant paralysé quelques jours, ça a des conséquences directes sur la vie quotidienne et sur la stabilité politique d'un régime.

Ce qui inquiète, c'est aussi la qualité du code. Lotus n'est pas un script amateur collé à la va-vite : il enchaîne plusieurs étapes de sabotage méthodique, de la désactivation des défenses à la destruction bas niveau du disque.

Pour un pays qui n'a déjà pas la réputation d'avoir la cybersécurité la plus pointue du continent, encaisser ce genre d'outil, ça fait mal. Et la probabilité que d'autres échantillons du même auteur circulent déjà ailleurs est loin d'être nulle.

Bref, un wiper bien fichu sur une compagnie pétrolière d'État dans un pays en crise, c'est rarement l'œuvre d'un adolescent dans son garage. Affaire à suivre donc.

Source : Bleeping Computer

Quand l'IA apprend à simuler l'univers sur un simple laptop

Alors là, accrochez-vous à votre clavier parce que je vais vous parler d’un truc qui défrise. Si je vous disais qu’il est possible de simuler l’univers entier, sa structure à grande échelle, ses milliards de galaxies… sur votre MacBook Air ??

Pas besoin de réserver du temps sur un supercalculateur, pas besoin de faire la queue pendant des semaines pour obtenir vos résultats. Hé bien c’est ce que permet de faire Effort.jl, et c’est de la bombe pour astrophysiciens !

Mais avant que je vous retourne le cerveau encore une fois, voici un peu de contexte. En mars 2025, le projet DESI a lâché une nouvelle incroyable : l’énergie noire, cette force mystérieuse qui fait accélérer l’expansion de l’univers, pourrait ne pas être constante mais évoluer dans le temps. C’est potentiellement le plus gros bouleversement en cosmologie depuis des décennies, sauf que pour prouver ça, il faut analyser des quantités astronomiques de données (j’assume ce jeu de mots), et c’est là que ça coince.

Le problème, c’est que modéliser la “cosmic web” (cette toile cosmique gigantesque où les galaxies forment des amas reliés par des filaments de matière) ça nécessite des calculs d’une complexité monstrueuse. On utilise pour ça la théorie des champs effectifs de la structure à grande échelle ( EFTofLSS pour les intimes), et une seule analyse peut prendre des jours entiers sur un supercalculateur. Multiplié par les milliers d’analyses nécessaires pour faire de la science solide, on arrive vite à des mois de calculs !!

C’est là qu’intervient Marco Bonici de l’Université de Waterloo et son équipe. Plutôt que de continuer à se battre avec des files d’attente interminables sur les supercalculateurs, ils ont eu une idée géniale : Apprendre à une IA comment la physique fonctionne, et la laisser faire les calculs à notre place.

Effort.jl, c’est donc un peu comme le DLSS de Nvidia mais pour l’univers. Vous savez le DLSS c’est cette techno qui utilise l’IA pour calculer des images haute définition sans faire suer votre GPU. Bon bah là, au lieu de cracher des graphismes de jeux vidéo, on crache… l’univers lui-même. Et le résultat est incroyable… C’est une accélération de x1000 fois par rapport aux méthodes traditionnelles de génération.

La beauté du truc, c’est que l’équipe n’a pas juste balancé des données dans un réseau de neurones en espérant que ça marche. Non, ils ont intégré dès le départ les lois physiques connues dans l’architecture même de leur IA. Comme l’explique Bonici dans une interview , c’est comme décrire l’eau dans un verre. Plutôt que de calculer le mouvement de chaque molécule (ce qui serait impossible), on encode les propriétés microscopiques importantes et on regarde leur effet au niveau macroscopique.

Le réseau de neurones d’Effort.jl est donc relativement simple. Il est constitué de 5 couches cachées de 64 neurones chacune, entraînées sur 60 000 combinaisons de paramètres cosmologiques. Ainsi grâce à l’intégration intelligente de la physique, il peut calculer en 15 microsecondes ce qui prenait des heures avant. Et niveau précision c’est identique, voire parfois meilleure que les modèles originaux.

En plus, tout est codé en Julia , un langage de programmation scientifique qui monte en flèche. L’équipe a même créé deux backends différents : SimpleChains.jl pour faire tourner ça sur CPU (ultra rapide) et Lux.jl pour exploiter les GPU si vous en avez. Et cerise sur le gâteau, tout est différentiable, ce qui veut dire que l’IA peut non seulement calculer les résultats, mais aussi comprendre comment ils changent quand on modifie légèrement les paramètres.

Pour valider leur bébé, l’équipe a donc fait tourner Effort.jl sur les vraies données du Baryon Oscillation Spectroscopic Survey (BOSS) et le résultat est ouf.. On obtient exactement les mêmes conclusions que les méthodes traditionnelles, mais en seulement quelques minutes sur un laptop au lieu de plusieurs jours sur un cluster. C’est testé, validé, et ça marche.

Au-delà de l’exploit technique, Effort.jl arrive à un moment important car avec les télescopes comme DESI et Euclid qui génèrent des téraoctets de données, et surtout cette découverte potentielle que l’énergie noire évolue, on a besoin d’outils capables de suivre le rythme. Bah oui, c’est fini le temps où les chercheurs passaient plus de temps à attendre le résultat de leurs calculs qu’à faire de la science.

Et en plus, Effort.jl est totalement open source et sur GitHub . N’importe qui peut donc télécharger le code, l’installer sur son laptop, et commencer à explorer l’univers depuis son canap'.

Alors oui, on pourrait dire que c’est “juste” une accélération de calculs, mais en réalité, c’est bien plus que ça. C’est la différence entre attendre des mois pour tester une hypothèse et pouvoir explorer des milliers de scénarios en temps réel. C’est la possibilité pour des équipes sans accès aux supercalculateurs de faire de la recherche de pointe. Et c’est, potentiellement, ce qui nous permettra de comprendre enfin ce qu’est cette foutue énergie noire qui compose 70% de l’univers…

Bref, l’IA quand elle est bien utilisée et combinée avec une vraie compréhension de la physique, ça décuple les capacités de la science et ça c’est beau !

Source

❌