Vue normale

Il y a de nouveaux articles disponibles, cliquez pour rafraîchir la page.
Aujourd’hui — 7 novembre 2025Flux principal

PROMPTFLUX - Le malware qui demande à Gemini comment échapper aux antivirus

Par : Korben
7 novembre 2025 à 09:15

Bon vous savez tous comment marche votre antivirus. Il détecte un malware, il le bloque, et tout revient à la normale.

Mais si je vous disais que maintenant, c’est parfaitement possible qu’une heure plus tard le même malware se repointe, sauf que c’est plus le même, parce que son code a changé. Car entre temps, il a demandé à Google Gemini de le réécrire…

Bien c’est pas de la science-fiction, hein, c’est ce que décrit un rapport du Google Threat Intelligence Group (GTIG) qui nous présente une nouvelle génération de malwares qui intègrent des LLM directement dans leur exécution.

Plus de génération statique du code, c’est le malware lui-même qui appelle une API LLM pendant qu’il tourne, demande des modifications, se réécrit, et repart faire sa besogne.

Les deux exemples les plus marquants s’appellent PROMPTFLUX et PROMPTSTEAL .

PROMPTFLUX, c’est un dropper en VBScript qui appelle l’API Gemini pour obfusquer son propre code. Il se réécrit dans la base de registre Windows pour persister au reboot, puis demande à Gemini de générer de nouvelles variantes d’obfuscation. Son module interne s’appelle “Thinking Robot” et il interroge Gemini régulièrement du genre “Comment contourner l’antivirus X ? Propose des variantes de mon code pour éviter la signature Y.

Gemini lui répond, le malware applique le conseil, se modifie, et se relance.

Comme les antivirus détectent les malwares par signatures ou comportements connus, si le malware change toutes les heures, les signatures deviennent immédiatement obsolètes. L’antivirus a alors toujours un coup de retard. Et PROMPTFLUX n’a même pas besoin d’un serveur C2 pour télécharger de nouvelles variantes puisqu’il génère ses propres variantes localement en demandant à Gemini.

GTIG estime que PROMPTFLUX est encore en développement et les échantillons analysés ne montrent pas de capacité réelle à compromettre un réseau. Mais ça reste une preuve de concept active… En gros, quelqu’un, quelque part teste cette approche.

PROMPTSTEAL, lui par contre, est déjà opérationnel. GTIG l’attribue à APT28 (FROZENLAKE), un groupe lié au renseignement militaire russe (GRU). Le CERT-UA l’a documenté sous le nom LAMEHUG en juillet dernier et c’est la première observation d’un malware qui interroge un LLM en opération réelle.

PROMPTSTEAL de son côté est écrit en Python. Il utilise l’API Hugging Face pour accéder au modèle Qwen2.5-Coder-32B-Instruct . Le malware envoie des prompts encodés en Base64, genre “récupère les infos système” ou “trouve les documents sensibles” et le LLM génère des commandes Windows d’une ligne qui sont ensuite exécutées localement par le malware. Ensuite ce dernier collecte les données et les exfiltre tranquillement.

L’astuce donc, c’est que le malware ne contient plus de commandes en dur. Il les génère à la volée selon le contexte comme ça, si l’environnement change, il demande de nouvelles commandes adaptées. Plus de pattern fixe à détecter et chaque exécution est différente.

GTIG mentionne aussi d’autres exemples tels que FRUITSHELL, un reverse shell PowerShell public qui contient des prompts pour contourner les protections LLM ou encore PROMPTLOCK, un concept de ransomware en Go qui utilise un LLM pour générer des scripts Lua de chiffrement.

Il y a aussi QUIETVAULT, un voleur de tokens JavaScript qui cible GitHub et NPM, puis exfiltre les résultats via des repos publics.

Tous ces malwares partagent la même idée : intégrer un LLM dans la chaîne d’exécution. Génération, obfuscation, commandes dynamiques, recherche de secrets… Le LLM devient un composant actif du malware !

Le rapport décrit aussi comment les attaquants contournent les protections des LLM à base d’ingénierie sociale dans les prompts. L’attaquant se fait passer le plus souvent pour un étudiant en sécurité, un participant à un CTF, ou encore un chercheur parfaitement légitime. Le LLM, configuré pour aider, répond alors à toutes les demandes.

Dans un cas documenté par GTIG, une tentative a mal tourné pour les attaquants. On le sait car dans les logs de leurs échanges avec le LLM, GTIG a trouvé des domaines C2 et des clés de chiffrement en clair. Les attaquants avaient oublié de nettoyer leurs tests et c’est grâce à ça que GTIG a récupéré l’accès à leur infrastructure puis l’a neutralisée.

Le rapport liste aussi les groupes étatiques actifs comme UNC1069 (MASAN) , lié à la Corée du Nord, qui utilise les LLM pour générer des deepfakes et voler des cryptoactifs. Ou encore UNC4899 (PUKCHONG) , aussi nord-coréen, qui emploie les modèles pour développer des exploits et planifier des attaques sur les supply chains.

De son côté, APT41 , un groupe étatique chinois, s’en sert pour obfusquer du code. Et le groupe iranien APT42 , a même tenté de construire un agent SQL qui traduirait des requêtes en langage naturel vers des commandes d’extraction de données sensibles. GTIG les a bloqué en coupant les comptes qu’ils utilisaient.

Et sur le marché noire, ce genre d’outils et de services multi-fonctions ont le vent en poupe. Génération de campagne de phishing, création de deepfakes, génération automatique de malwares, abonnements avec accès API…etc.

Leur modèle commercial copie celui des services légitimes avec une version gratuite basique pour gouter et un abonnement payant pour les fonctions avancées, avec des communautés Discord pour le support. Ça permet d’abaisser la barrière d’entrée pour les attaquants les moins expérimentés.

Côté défense maintenant, les recommandations sont assez classiques. Pensez à surveiller l’activité anormale des clés API qui pourraient être volées. Détectez les appels inhabituels à des services LLM externes depuis les processus. Contrôlez l’intégrité des exécutables et protégez tout ce qui est “secrets” sur les hôtes.

N’oubliez pas non plus de ne jamais, ô grand jamais, exécuter aveuglément des commandes générées par un modèle IA (je vous l’ai assez répété).

Voilà, tous ces exemples actuels sont expérimentaux mais le signal est donné et il est plutôt limpide : l’IA est en train de rendre les malwares plus virulents en leur permettant de s’adapter !

Source

MocoLlamma - Ollama gérable depuis iPhone, iPad et Vision Pro

Par : Korben
7 novembre 2025 à 09:00

Vous avez installé Ollama sur votre Mac et vous êtes le plus joyeux de tous les mammifères car vous faites tourner Llama 3.x en local comme un chef. Et puis un soir, posé dans votre canapé avec votre iPad de bourgeois capitaliste, vous vous dites que ce serait bien de pull un nouveau modèle. Et là, vous réalisez qu’il va falloir sortir le MacBook, ouvrir un terminal, taper ollama pull mistral, attendre et attendre… Grosse flemme non ?

Hé oui, Ollama reste un outil en ligne de commande. C’est génial pour les devs, mais galère pour le reste et vous avez beau avoir de la puissance de calcul dans votre poche avec un iPhone ou un iPad, c’est impossible de gérer vos modèles sans SSH et sans Terminal.

Heureusement, MocoLlamma vient combler ce fossé. C’est une app de gestion Ollama pour macOS, iOS, iPadOS, et même visionOS si vous avez ce truc. C’est donc une vraie app native avec interface graphique, développée en Swift et SwiftUI dans laquelle ous ajoutez vos serveurs Ollama, et où vous gérez vos modèles, et vous testez vos LLM via un chat basique.

L’app s’organise autour de trois onglets. Le premier, Server, vous permet d’ajouter et de switcher entre plusieurs serveurs Ollama. Vous pouvez ainsi renommer chaque serveur, gérer les connexions, bref, tout ce qu’il faut pour jongler entre votre Mac local, votre serveur, ou votre instance cloud si vous en utilisez une.

Le second onglet, Model, affiche tous les modèles disponibles sur le serveur sélectionné. Vous voyez ainsi les infos de chaque modèle, vous pouvez les trier par taille, les ajouter ou les supprimer. Comme ça, plus besoin de taper ollama list pour savoir ce qui tourne. Tout est là, visuellement, avec la possibilité de gérer vos modèles d’un tapotage bien senti.

Le troisième onglet, Chat, permet de tester rapidement un modèle. C’est volontairement basique et l’idée n’est pas de remplacer ChatGPT ou Open WebUI, mais juste de vérifier qu’un modèle répond correctement. Genre, vous venez de pull Qwen 3, et vous voulez voir s’il fonctionne avant de l’intégrer dans votre workflow. Hop, quelques questions rapides dans le chat, et vous savez.

Il existe bien sûr des tonnes d’alternatives de GUI pour Ollama comme Open WebUI , LM Studio , Jan , GPT4All … Mais aucune ne supporte nativement visionOS ou les iPad / iPhone. Alors que MocoLlamma, si.

C’est actuellement la seule app qui vous permet de gérer vos LLM locaux depuis ces appareils Apple… C’est assez niche c’est vrai mais ça peut rendre service.

Le nom “MocoLlamma” est ce qu’on appelle un mot valise de “Model”, “Control”, “Ollama”, et “Manage”. C’est moche de ouf, c’est pas super à retenir, mais au moins ça décrit exactement ce que fait l’app.

Y’a la version gratuite qui est disponible sur GitHub, mais uniquement pour macOS (c’est sous license MIT) et la version payante, à 1,99 dollars sur l’App Store, supporte macOS, iOS, iPadOS, et visionOS. La différence principale pour l’app macOS c’est surtout les mises à jour automatiques. Vous payez 2 balles pour le confort.

Et là, un point crucial, sachez que MocoLlamma ne collecte AUCUNE donnée utilisateur. Bref, cette appli vient combler le trou qui se trouve entre “j’ai installé Ollama” et “je peux gérer mes modèles depuis mon iPhone”. Si vous avez ce besoin, c’est donc à considérer.

Merci à Lorenper pour la découverte.

Votre cerveau compresse les images 40 fois mieux qu'un algo

Par : Korben
7 novembre 2025 à 08:50

Vous avez, j’imagine, probablement des dizaines de milliers de photos sur votre disque dur. Ça représente peut-être quelques centaines de Go, peut-être 1 To si vous êtes à l’aise en espace de stockage. C’est beaucoup ?

Pas tant que ça si on pense un peu à votre cerveau. Lui, il stocke depuis toujours des décennies de souvenirs dans environ 1,5 kg de matière organique qui consomme moins qu’une ampoule LED.

Comment est-ce qu’il fait ?

Hé bien, une équipe du Weizmann Institute of Science vient peut-être de le découvrir et au passage, changer la compression d’images telle qu’on la connaît.

Le projet s’appelle Brain-IT , et leur idée c’est de reconstruire des images à partir des signaux fMRI (imagerie par résonance magnétique fonctionnelle) de votre cerveau. En gros, ils scannent votre activité cérébrale pendant que vous regardez une image, et ils arrivent à reconstruire ce que vous avez vu. Le papier scientifique est dispo sur arXiv si vous parlez leur langue.

Évidemment, ce genre de recherche, c’est pas nouveau mais Brain-IT est plutôt un franc succès car le process permet d’obtenir les mêmes résultats que les méthodes précédentes avec seulement 1 heure de données fMRI, contre 40 heures pour les autres approches.

En gros, ça représente 97,5% de données en moins pour obtenir le même résultat. Trop fort non ?

En fait, si Brain-IT peut faire ça, c’est parce que les scientifiques ont découvert comment votre cerveau compresse les images de manière hyper efficace. Et d’ailleurs, ce truc pourrait bien inspirer de nouveaux algorithmes de compression pour nos ordis.

Brain-IT utilise en fait ce qu’ils appellent un “Brain Interaction Transformer” (BIT). C’est un système qui identifie des “clusters fonctionnels” de voxels cérébraux. Un voxel, c’est l’équivalent d’un pixel mais en 3D, et chaque voxel représente environ 1 million de cellules dans votre cerveau.

Le truc génial, c’est que ces clusters fonctionnels sont partagés entre différentes personnes, comme si nous avions tous la même bibliothèque de “primitives visuelles” câblée dans nos têtes. Ce sont des schémas de base que notre cerveau utilise pour reconstruire n’importe quelle image.

Brain-IT reconstruit donc les images en deux passes. D’abord les structures de bas niveau (les formes, les contours), puis les détails sémantiques de haut niveau (c’est un chat, c’est un arbre, c’est votre tante Huguette). C’est un peu comme le JPEG progressif que l’on voyait s’afficher lentement avec nos modem 56K, mais en infiniment plus smart.

Du coup, si on comprend comment le cerveau compresse les images, on pourrait créer de nouveaux formats vidéo ultra-légers. Imaginez un Netflix ou un Youtube qui streame en “brain-codec” à 1/40e de la bande passante actuelle. Ça changerait pas mal de choses… Et c’est pareil pour l’IA générative car actuellement, on entraîne des modèles avec des millions d’images durant des jours alors que notre cerveau, lui, apprend à reconnaître un visage en quelques expositions.

Et grâce à ses modèles de diffusion, Brain-IT est même capable de reconstruire visuellement ce que voit le cerveau ! Par contre, Brain-IT n’a pour le moment été testé que sur des images “vues” et pas des choses imaginées…

Mais les scientifiques n’écartent pas l’idée que ce soit possible donc ce n’est qu’une question de temps avant qu’on puisse capturer en image ses rêves par exemple.

Voilà, j’ai trouvé ça cool parce que ça montre que notre cerveau est probablement le meilleur système de compression d’images jamais créé et qu’on commence à peine à comprendre comment il fonctionne.

Merci Dame Nature !

Voilà, si vous voulez creuser, le code et les détails techniques sont sur la page du projet Brain-IT , et le paper complet est dispo sur arXiv .

Source

EuroLLM - Le LLM européen qui tourne sur votre laptop

Par : Korben
6 novembre 2025 à 09:00

Faire tourner un modèle de langage européen sur votre machine sans avoir besoin d’un serveur surpuissant branché sur une centrale nucléaire, c’est maintenant possible, les amis ! Hé oui, EuroLLM vient de prouver qu’on pouvait faire tourner un modèle à 9 milliards de paramètres dans un peu moins de 6 GB de RAM sur un simple laptop.

Une seule commande Ollama , et c’est parti mon kiki !!!

Bien sûr, il est encore loin des gros modèles proprio comme GPT-5 mais c’est le enfin le premier LLM européen que VOUS pouvez faire tourner en local. C’est respectueux de votre vie privée, des droits d’auteurs et c’est gratuit !

Un projet 100% européen

EuroLLM, c’est en réalité une coalition de labos européens : Instituto Superior Técnico (Lisbonne), University of Edinburgh , Université Paris-Saclay , Unbabel , et d’autres et c’est financé par Horizon Europe et l’ EuroHPC , et ce modèle supporte les 24 langues officielles de l’UE, plus 11 langues supplémentaires (arabe, chinois, hindi, japonais, coréen, russe, turc…).

EuroLLM-9B , le modèle de base, a été entraîné sur 4 trillions de tokens avec le supercalculateur MareNostrum 5 à Barcelone (400 GPUs Nvidia H100) et l’architecture utilise du Grouped Query Attention, RoPE, SwiGLU et RMSNorm, comme tout LLM moderne qui se respecte.

Mais il existe d’autres versions comme EuroLLM-1.7B pour smartphones et bientôt EuroLLM-22B pour plus de puissance, ainsi qu’une version vision-language (EuroVLM-9B) et un modèle Mixture-of-Experts (EuroMoE-2.6B).

Et surtout c’est sous licence Apache 2.0. Donc l’usage commercial est autorisé, vous pouvez le fine-tuner sur vos données, et les modifications sont libres, sans redevance à payer. Ce n’est pas la première fois qu’il y a des LLM européens mais ils étaient soit sous licence trop restrictives ou un peu trop lourd pour être utilisé localement par les gens normaux comme vous et moi.

Maintenant comment l’installer ?

La méthode la plus simple, c’est via Ollama :

ollama run hf.co/bartowski/EuroLLM-9B-Instruct-GGUF

Ollama télécharge le modèle en version GGUF (format optimisé CPU/GPU), et vous pouvez commencer à discuter. Il existe aussi une version pré-packagée alibayram/erurollm-9b-instruct (attention, erurollm avec un “u”), quantized en Q4_K_M pour réduire la taille à 5,6 GB.

Si vous préférez Python et Hugging Face Transformers :

from transformers import AutoTokenizer, AutoModelForCausalLM

model_name = "utter-project/EuroLLM-9B-Instruct"
tokenizer = AutoTokenizer.from_pretrained(model_name)
model = AutoModelForCausalLM.from_pretrained(model_name)

inputs = tokenizer("Explique-moi ce qu'est un LLM en français simple", return_tensors="pt")
outputs = model.generate(**inputs, max_length=200)
print(tokenizer.decode(outputs[0]))

Une fois téléchargé, le modèle reste en cache local. Vous pouvez alors l’utiliser offline, sans connexion internet. Et pour les machines avec moins de RAM, la version 1.7B tourne même sur des Raspberry Pi :

ollama run cas/eurollm-1.7b-instruct-q8

Alors pourquoi c’est important ?

EuroLLM ouvre l’IA européenne à des cas d’usage impossibles avec des API cloud. Par exemple une administration publique ne peut pas envoyer ses documents dans le cloud d’OpenAI… ce serait tout livrer aux américains. Elle peut donc fine-tuner EuroLLM localement. Un journaliste en zone sensible sans connexion fiable peut aussi embarquer le modèle sur son ordi portable. Même un chercheur qui manipule des données médicales confidentielles peut le faire en toute confiance avec EuroLLM puisque tout reste sur sa machine.

C’est cool quand même que l’Europe nous file un modèle gratuit qu’on peut installer chez soi et utiliser sans limite. Après c’est vrai que EuroLLM ne bat pas GPT-4 (pas encore) mais il est suffisamment bon pour 80% des cas d’utilisation réels tels que des résumés, de la traduction, des questions-réponses simples, de la génération de code basique.

La roadmap prévoit d’ajouter de la vision et de la voix aux modèles. D’ailleurs, comme je vous le disais, EuroVLM-9B est déjà en preview sur Hugging Face , ce qui ouvre la voie à de l’OCR multilingue, de l’analyse de documents visuels, ou encore à la création d’assistants vocaux dans n’importe quelle langue…

Voilà j’ai trouvé ça cool à tester et un grand merci à Letsar pour le partage !

Mobile Fortify - L'app qui décide si vous êtes un citoyen ou un étranger

Par : Korben
5 novembre 2025 à 14:48

Sale temps en ce moment pour les citoyens américains… Vous avez votre certificat de naissance dans la poche, vous êtes un vrai américain pur et dur. Mais un agent ICE sort son smartphone, scanne votre visage en moins de 2 secondes, et une app officielle lui dit que vous êtes un étranger et que vous n’avez rien à faire là.

C’est faux évidemment, mais devinez qui a raison ?

Hé bien c’est pas vous !

Mobile Fortify , c’est donc l’app que l’ICE (police de l’immigration) et la Border Patrol américaine (l’équivalent de la police aux frontières) ont déployée sur leurs smartphones l’année dernière. Une app de reconnaissance faciale qui tape dans une banque de 200 millions d’images et des dizaines de bases de données gouvernementales : FBI, State Department, DMV, passeports, visas, fichiers criminels, tout y passe et en temps réel s’il vous plaît.

L’app s’appuie principalement sur une fonction baptisée “Super Query”. En gros, un agent de police pointe son téléphone vers votre visage, l’app le scanne, et hop il obtient votre nom complet, votre date de naissance, votre nationalité, votre statut d’immigration, votre casier judiciaire, et tous vos numéros d’identification uniques. Tout ça en quelques secondes et sans votre consentement.

C’est moche. Et même si vous avez vos papiers ou un certificat de naissance, on a appris via le démocrate Bennie Thompson, élu à la Chambre des représentants, que les agents peuvent ignorer tout ça volontairement. Un pauvre algo stupide prime sur un document d’état civil officiel. C’est dingue non ?

D’ailleurs, plusieurs vidéos ont commencé à circuler dès octobre dernier. Par exemple à Chicago, des agents de la Border Patrol arrêtent deux ados à vélo . L’un d’eux n’a pas sa pièce d’identité alors l’agent demande à son collègue : “Can you do facial ?” et le collègue sort son smartphone, scanne le visage du gamin (mineur), sans aucune autorisation parentale évidemment.

Autre vidéo, toujours à Chicago, un automobiliste refuse de montrer sa carte d’identité . C’est son droit constitutionnel le plus pur, mais l’agent pointe quand même son téléphone vers lui. Le type proteste : “I’m an American citizen, so leave me alone.” Réponse de l’agent : “Alright, we just got to verify that.” Et il lui scanne la tronche.

Le document interne du DHS (U.S. Department of Homeland Security) est très clair : “ICE does not provide the opportunity for individuals to decline or consent to the collection and use of biometric data/photograph collection.” Traduction : on scanne d’abord, on demande jamais. Et votre visage, qu’il soit scanné par erreur ou pas, restera stocké 15 ans dans les bases de données fédérales.

Jeramie Scott, de l’ Electronic Privacy Information Center , appelle ça une “dérive dystopique pure”. Quatre sénateurs américains, dont Edward Markey, ont également envoyé une lettre à l’ICE en septembre dernier pour exiger l’arrêt immédiat de l’utilisation de Mobile Fortify. Ils y réclament la divulgation complète de la base juridique de l’app, de sa précision, et des contrôles en place.

Mais bien sûr, silence radio de la part de l’ICE.

Bon, rien de nouveau dans la reconnaissance faciale en soi. Ce qui est nouveau vraiment ici, c’est la portabilité de cette techno, l’agrégation instantanée de dizaines de bases de données, et surtout le déploiement sur le terrain sans cadre légal clair. Et surtout c’est l’inversion totale de la preuve où un algorithme devient plus fiable qu’un document officiel.

Et si je vous en parle, c’est parce que ce genre de dérives ne reste jamais confiné aux États-Unis. En Europe, en France, nos gouvernements lorgnent déjà sur ces technologies. Il y a des garde-fous, certes, mais la pression sécuritaire est constante et ces outils se normalisent petit à petit. À l’heure où certains fous rêvent de faire de la France le pays le plus répressif d’Europe, ce glissement vers la techno-police devient franchement flippant.

Bref, le problème n’est ni technique, ni culturel, ni géographique. Il est politique. Et nous devons rester vigilants pour que ce cauchemar dystopique ne débarque pas jusqu’ici. Parce qu’une fois qu’on laissera ces algorithmes décider de quelle est notre identité, on sera foutu.

Source

L'apocalypse arrive et ça va bien se passer

Par : Korben
3 novembre 2025 à 11:33

En général, quand on parle de fin du monde, c’est soit du blabla philosophique autour d’une bière, soit c’est Bruce Willis qui sauve l’humanité avec une perceuse. Mais cette fois, on va aller un peu plus loin que ça… Car une équipe de chercheurs a trouvé le moyen d’observer pour de vrai comment les gens se comportent quand ils savent que tout va disparaître.

Pour cela, ils ont utilisé le MMORPG ArcheAge. C’est moins spectaculaire qu’un astéroïde géant ou qu’une guerre thermonucléaire, mais les données sont meilleures !

Ah Reum Kang de l’Université de Buffalo et ses collègues ont pour cela analysé 270 millions d’enregistrements de comportements durant la 4ème bêta fermée du jeu ArcheAge en 2011 et 2012. Le principe c’est qu’à la fin de la bêta fermée, tous les personnages sont supprimés, toute progression est perdue, tous les objets virtuels disparaissent… Vous avez passé 11 semaines à construire votre empire virtuel, à farmer vos légendaires, à monter votre guilde au top… Et pouf, tout disparait et y’a pas de Ctrl+Z possible. Désolé.

Pour les 81 000 joueurs testeurs, c’était comme vivre dans un monde avec une date d’expiration connue à l’avance. Et contrairement aux études philosophiques classiques basées sur des sondages et des suppositions, là on avait des données brutes, précises, et massives sur ce que les gens font vraiment.

Les chercheurs se sont appuyés sur ce qu’ils appellent le mapping principle. L’idée c’est que les joueurs agissent en ligne comme dans la vraie vie. Bon, c’est vrai que perdre son avatar n’est pas exactement comme perdre sa vie (quoique, allez expliquer ça à un joueur qui vient de perdre son level 50 avec full stuff épique, ok les boomers ? ^^). Mais quand vous avez investi 300 heures à bâtir votre royaume virtuel, la claque psychologique reste bien réelle. C’est un peu comme effacer votre disque dur sans backup, mais avec plus de dragons et de sortilèges.

Et les résultats sont plutôt encourageant pour notre prochaine fin du monde. En effet, y’a pas eu de chaos généralisé. On aurait pu croire que tout le monde allait se transformer en psychopathe, tuer son voisin, piller les maisons virtuelles et foutre le feu à tout ce qui bouge. Mais non. La plupart des joueurs n’ont pas vraiment changé leur comportement… Même en sachant que demain tout disparaissait, ils ont continué à jouer normalement.

C’est presque décevant, non ?

Alors vous allez me dire “Moi je suis pas comme ça, si mon serveur WoW ferme demain je vais tout péter ! J’suis un déglingo, un fou dans ma tête !!”. Mouais. Les stats sont contre vous les amis. Vous allez probablement juste continuer à farmer vos objets rares et à spammer le chat de guilde comme d’habitude.

Par contre c’est vrai, quelques marginaux ont bien pété les plombs. Les chercheurs ont détecté une hausse du PK (player killing, c’est quand vous tuez un autre joueur de votre propre camp, ce qui est considéré comme un meurtre dans le jeu…) mais ça a concerné seulement 334 joueurs sur 81 000. Donc pas vraiment American nightmare…

Ceux qui on abandonné le navire en cours de route, genre 3 semaines avant l’apocalypse, sont ceux qui sont devenus les plus toxiques pour la communauté. Ceux qui sont restés jusqu’au bout par contre, ont gardé une forme de loyauté envers la communauté, même quand ils savent que tout va disparaître. C’est assez révélateur sur l’attachement social.

Par exemple, en analysant les chats du jeu, les chercheurs ont mesuré ce qu’ils appellent le valence score. C’est un indicateur de positivité dans le langage et devinez quoi ? Hé bien au lieu de devenir déprimants ou agressifs, les échanges dans les canaux sociaux sont devenus légèrement plus joyeux à l’approche de la fin. Les joueurs ont augmenté leurs interactions… plus de messages échangés, plus de groupes formés pour des quêtes. Un peu comme si, face à l’apocalypse, les gens se rapprochaient au lieu de s’éloigner.

Mais alors, est-ce qu’on continue à se battre pour s’améliorer quand on sait que demain tout s’efface ?

Martin Luther aurait dit “Même si je savais que le monde disparaît demain, je planterais quand même mon pommier”. Et bien les joueurs d’ArcheAge, eux, n’ont pas planté de pommiers et encore moins mangé de la compote… Non, l’étude montre en réalité une grosse baisse des activités de progression. Il y a eu moins de quêtes complétées, moins de montées de niveau, moins de changements de compétences. Les joueurs ont carrément abandonné tout ce qui concerne l’amélioration de leur personnage.

Bah oui pourquoi s’emmerder à farmer de l’XP pendant 8 heures si demain votre magnifique niveau 50 redevient niveau 0 ?

Par contre, ils n’ont pas arrêté de jouer pour autant. Ils ont juste changé leurs priorités. Plus de construction de maisons (parce que bon, une maison virtuelle qui va être détruite dans 3 jours, autant la construire et en profiter maintenant), plus de crafting d’items, plus d’interactions sociales. Bref, des activités qui apportent une satisfaction immédiate plutôt qu’un bénéfice à long terme.

Alors posez-vous la question. Est ce que vous êtes plutôt team “je reste jusqu’au dernier screenshot avec ma guilde” ou de la team “je me barre 2 semaines avant insultant tout le monde” ?

Parce que statistiquement, si vous êtes du genre à ragequit, vous avez 78% de chances de devenir un serial killer virtuel avant de partir. Les scientifiques l’ont prouvé, bon courage pour votre karma de merde ^^.

Bon après, il faut quand même relativiser car ArcheAge n’est qu’un jeu vidéo, et pas la vraie vie. Les chercheurs le reconnaissent eux-mêmes, personne ne meurt pour de vrai à la fin de la bêta (heureusement quand même ^^) mais cette recherche a des implications concrètes.

Pour les développeurs de jeux, ça aide à comprendre quels comportements peuvent servir de signaux d’alerte pour détecter les joueurs qui vont quitter le jeu. Si quelqu’un commence à supprimer ses personnages et à PK à tour de bras, c’est probablement qu’il est sur le départ ! Pour les chercheurs en sciences sociales, c’est également une mine d’or. Avoir accès à 270 millions de décisions humaines dans un contexte de fin annoncée, avec des règles du jeu parfaitement contrôlées et connues, c’est le genre de dataset dont on ne peut que rêver dans les études traditionnelles.

Et pour nous, simples mortels ?

Et bien ça confirme quelque chose d’assez réconfortant. Face à la fin du monde, la plupart des gens ne deviennent pas des monstres. Ils se rapprochent des autres, renforcent leurs liens sociaux, et arrêtent juste de se projeter dans un futur qui n’existe plus.

Donc si demain on vous annonce que la vraie apocalypse arrive (pas celle du jeu vidéo hein, la vraie avec les robots tueurs de Trump, les zombies de Poutine ou l’astéroïde piloté par des aliens dont parlent les complotistes en ce moment), vous n’allez probablement pas piller le supermarché du coin mais plutôt appeler vos potes pour une dernière soirée pizza-bière.

Source

A Rectangular Bladeless Fan? This Design Breaks All the Rules

Par : Ida Torres
7 novembre 2025 à 01:30

You know how some designs just make you stop scrolling? That’s exactly what happened when I came across this bladeless fan by Foshan Perfect Industrial Design. It’s not your typical circular fan that we’ve all gotten used to seeing since Dyson popularized the concept. This one’s rocking a square base, and honestly, it’s kind of genius.

Let me explain why this caught my attention. We’ve been conditioned to think that fans, bladeless or not, should be round. It makes sense, right? Air flows in circular patterns, so circular fans seem like the natural choice. But here’s where this design gets interesting. The team behind this fan decided to challenge that assumption and built their concept around a square-based design language. And it’s not just about being different for the sake of standing out.

Designer: Foshan Perfect Industrial Design

The real innovation here is what they’re calling 5D air circulation. Now, I’ll admit that sounds like marketing speak at first, but stick with me. Traditional bladeless fans work by hiding a propeller in the base that sucks air in and pushes it through a ring-shaped opening. The expelled air creates what’s called negative pressure, which pulls even more surrounding air through the ring, multiplying the airflow by up to 15 times.

This square design takes that concept and apparently amplifies it with a focused air duct system. Instead of just sending air in one general direction like circular fans tend to do, this focused duct system accelerates and directs the airflow more precisely. Think of it like the difference between a garden hose with a regular nozzle versus one with a spray gun attachment. Same water source, but way more control and power.

What I find particularly clever about the square form factor is how it fits into modern living spaces. Most of our furniture, shelves, and room layouts are based on right angles and straight lines. A square-based fan just sits more naturally on a desk, side table, or shelf without that awkward “where do I put this round thing” moment we’ve all experienced. It’s one of those design decisions that seems obvious once you see it, but took real creative thinking to actually execute.

The bladeless fan category itself has come a long way since it first hit the market. These devices are safer than traditional fans because there are no exposed blades that curious kids or pets can stick their fingers into. They’re also typically quieter and more energy-efficient. But they’ve mostly followed the same aesthetic playbook, which is why seeing a square interpretation feels refreshing.

This design won recognition from the MUSE Design Awards, which celebrates innovative product design across categories. And it’s not hard to see why. It takes an established product category and reimagines it in a way that’s both functional and aesthetically interesting. The square form doesn’t just look different, it potentially offers better spatial efficiency and air direction control. I think what makes this design work is that it doesn’t sacrifice function for form. The square base isn’t just a stylistic choice; it’s integrated with the technical improvements like that focused air duct system. That’s the sweet spot in product design, where aesthetics and engineering work together rather than competing for attention.

For anyone who’s into tech, design, or just appreciating when everyday objects get thoughtfully reimagined, this fan is worth a second look. It’s a reminder that even in mature product categories, there’s still room for innovation when designers are willing to question the assumptions we’ve all been making. Sometimes the best ideas come from asking the simplest questions, like “does a fan really need to be round?” Whether this square bladeless fan becomes the new standard or remains a cool design experiment, it’s already succeeded in making us think differently about an appliance we barely notice. And that’s kind of the whole point of good design, isn’t it?

The post A Rectangular Bladeless Fan? This Design Breaks All the Rules first appeared on Yanko Design.

Apple Eyes $1B Deal with Google to Revamp Siri with Gemini AI

6 novembre 2025 à 18:02

The partnership could accelerate Siri’s evolution and redefine Apple’s approach to innovation, privacy, and control.

The post Apple Eyes $1B Deal with Google to Revamp Siri with Gemini AI appeared first on TechRepublic.

UK Government Commissions Skills Review for AI in Finance

6 novembre 2025 à 14:52

Firms and policymakers must act now to ensure the UK workforce “is equipped to lead the way in digitisation, innovation, and adoption.”

The post UK Government Commissions Skills Review for AI in Finance appeared first on TechRepublic.

Filmmaker Guillermo del Toro Prefers Death to Using Generative AI

6 novembre 2025 à 13:46

The Oscar-winning director discussed his new reimagining of “Frankenstein,” and technology — and issued a blunt rejection of AI tools: “I’d rather die.”

The post Filmmaker Guillermo del Toro Prefers Death to Using Generative AI appeared first on TechRepublic.

European Police Dismantle €600M Crypto Fraud Network

6 novembre 2025 à 11:34

European authorities have arrested nine suspects accused of laundering through fake crypto investment platforms.

The post European Police Dismantle €600M Crypto Fraud Network appeared first on TechRepublic.

Microsoft Teams Flaws Let Hackers Impersonate Executives

5 novembre 2025 à 19:08

Researchers found Microsoft Teams bugs letting attackers spoof executives, alter messages, and erode trust in workplace communication.

The post Microsoft Teams Flaws Let Hackers Impersonate Executives appeared first on TechRepublic.

❌
❌