Vue lecture

Il y a de nouveaux articles disponibles, cliquez pour rafraîchir la page.

Flipbook - Le web où chaque page est une image IA

Flipbook est un navigateur web génératif où aucune page n'existe avant que vous ne la demandiez. Pas de HTML, pas de boutons, pas de liens... A la place, vous tapez simplement un mot ou un sujet dans la barre de recherche (ou vous uploadez une image), et hop, ça vous pond une image en direct façon "infographie" qui explique ce sujet.

Ensuite, vous cliquez n'importe où sur cette image, et une nouvelle image apparaît qui creuse ce que vous venez de cliquer. En gros, faut imaginer Wikipedia mais avec aucun article pré-écrit puisque chaque page est dessinée par une IA pendant que vous patientez. C'est un genre d'Infinite Wiki en version 100% visuelle !

La page que Flipbook m'a sortie quand j'ai tapé mon nom. Tout ce que vous voyez est une seule image générée par le modèle, y compris le texte.

Perso, j'ai juste tapé mon pseudonyme ce matin pour tester et comme résultat, j'ai obtenu une page intitulée "Korben: The French Tech Influence", avec mon vrai nom Manuel Dorne, le lancement de korben.info noté en 2004, RemixJobs cité et même cette citation : "A cornerstone of the French-speaking web for over two decades" écrit en bas.

Ne vous inquiétez pas pour mes chevilles, c'est pas moi qui le dit mais l'IA qui a chopé ces infos très précises et pour la majorité exacte. Le système de Flipbook fait une vraie recherche web agentique, et pas juste de l'hallucination pure à partir de son modèle. Les créateurs l'expliquent d'ailleurs dans leur FAQ.

Ensuite, il suffit de cliquer sur des éléments de l'image pour qu'une nouvelle image soit générée avec d'autres informations plus précises selon ce sur quoi vous avez cliqué.

Mais le détail qui tue, c'est que TOUT le texte affiché à l'écran est rendu par le modèle d'image lui-même ! Aucune superposition HTML, aucun overlay texte. Les titres, les labels, les légendes, les flèches... tout est dessiné pixel par pixel au moment de la génération, comme si Photoshop crachait une infographie complète à chaque requête.

Le hic c'est que parfois ça bug (le modèle écrit un mot au mauvais endroit, ou fait une petite faute de frappe), mais c'est le choix assumé de l'équipe, qui ne souhaite aucune couche de rendu HTML classique. Sous le capot en fait, y'a LTX Studio (le modèle vidéo de Lightricks) qui anime les transitions en stream vidéo live, et Modal Labs pour l'infra GPU serverless qui encaisse la charge.

Après comme d'hab avec ce genre d'outils c'est que les hallucinations factuelles sont invisibles pour l'utilisateur, puisqu'il n'y a pas de source citée, ni de lien à cliquer pour vérifier.

Et Zain Shah, l'un des créateurs, l'admet lui-même dans son thread de lancement sur X, Flipbook est aujourd'hui limité aux explications visuelles. Donc pas forcément adapté pour du vrai mode interactif (coder, réserver un truc, stocker de la data). Il faudra donc attendre que les modèles d'image et de vidéo deviennent plus rapides, plus précis, et surtout capables de conserver leur état pour assurer une cohérence dans le contenu (texte et images).

Bref, ça vaut le coup de tester , tapez votre nom ou votre animal préféré et voyez ce qui en sort !

Source

Il charge TOUTES les extensions Firefox dans son navigateur

Vous vous souvenez du mème " Oh, tu aimes les extension Firefox ? Alors nomme les toutes ! " ?

Bah Jack s'est dit que plutôt que les nommer, autant toutes les installer. Oui, les 84 194 extensions d'un seul coup !

Sur le papier c'est pas si compliqué. Tu télécharges les .xpi depuis l'API publique Mozilla (aucune authentification requise), tu les colles dans le dossier extensions/ d'un profil Firefox, tu édites extensions.json pour tout activer. Sauf que l'API de recherche plafonne à 600 pages max, soit environ 30 000 résultats. Du coup Jack a du combiner plusieurs tris pour contourner la limite et chopper les 84 235 extensions existantes, soit 49,3 Go de données au total.

Première tentative dans une VM Windows Tiny11 : le pagefile bouffe malheureusement tout le disque, Firefox gèle, et c'est la fin. Du coup, essai suivant sur Mac avec 6 heures de téléchargement, soit 400 Go d'écritures disque... la fenêtre Firefox s'ouvre mais ne répond jamais ! Entre 4 000 et 6 000 extensions actives certes mais les sites web ne chargent plus (une des extensions bloque tout mais laquelle ??). Bref, plus grand-chose ne répond à part le about:addons.

6 mois plus tard, Jack retente alors l'opération avec une VM. 84 194 extensions chargées, en 1h43 auquel s'ajoute 39 minutes pour que Firefox réécrive le fichier extensions.json (qui pèse du 189 Mo), +24 minutes avant que le navigateur affiche quoi que ce soit, avec une consommation mémoire stabilisée vers 32 Go. La cause du ralentissement est chirurgicale... En fait Firefox sérialise extensions.json en entier à chaque écriture donc ça marche nickel pour 15 extensions mais pour 84 194, c'est pas le même délire.

Le plus intéressant après, c'est pas la démarche elle-même, c'est surtout ce que ça révèle sur le store de Mozilla. En effet, après analyse, 34,3 % des extensions n'ont aucun utilisateur quotidien. 19 % sont totalement abandonnées, sans user, sans review ni capture écran, et encore moins une icône. Y'a aussi des contributeurs un peu chelous comme un certain "Dr. B" qui a publié à lui seul 84 extensions, toutes générées avec Grok 3.

Et puis il y a aussi des extensions de phishing crypto avec des homoglyphes cyrilliques . L'extension malveillante "Іron Wаllеt" par exemple récupère ses URLs depuis un NocoDB trois secondes après installation. Le groupe Innover Online Group contrôle à lui seul plus de 700 000 utilisateurs via un paquet d'extensions de spam affilié sur Yahoo Search. Mozilla en a pour le moment désactivé 3 dans la foulée.

Autre moment drôle : Windows Defender a flaggé HackTools comme cheval de Troie alors que c'est légitime. Y'a aussi la plus grosse extension installée, dmitlichess, qui pèse 196 Mo car elle embarque 2 000 fichiers audio), et la plus petite fait 7 518 octets... sans contenir une seule ligne de code. Bref, y'a des pépites.

Et Jack a publié son dataset en CC0 sur Hugging Face sans oublier que son code est dispo donc si vous avez 50 Go à cramer et envie de faire joujou avec l' écosystème Firefox , servez-vous !

Bref, un Firefox lancé avec TOUTES les extensions du store Mozilla, ça fonctionne techniquement, mais c'est loin d'être utilisable. Mais après pour faire de l'analyse et des stats, je trouve ça marrant.

Source

Gemma Gem - Un agent IA dans Chrome, 100% local

Les extensions Chrome qui promettent de l'IA, ça pullule de ouf et à vrai dire, la plupart se contentent d'envoyer vos données sur un serveur distant. C'est naze ! Heureusement, l'extension Gemma Gem prend le problème à l'envers puisque son modèle tourne directement dans votre navigateur via WebGPU, sans clé API, sans cloud, et vos données ne sortent jamais de votre machine. C'est comme le kir, royal !

Comme c'est pas sur le Chrome Web Store, faudra la builder vous-même... Vous clonez le repo, vous lancez pnpm install puis pnpm build et vous chargez le dossier dans chrome://extensions en mode développeur et ensuite, elle téléchargera le modèle de Google (environ 500 Mo pour la version légère, genre le poids d'un gros jeu mobile), et pif paf pouf, ensuite vous aurez un agent IA qui vit sa best life dans votre Chrome.

Cliquez alors sur l'icône en bas à droite, une fenêtre de chat s'ouvre et vous pourrez interroger n'importe quelle page. Et si vous préférez un modèle plus costaud, l'E4B pèse 1,5 Go et permet d'obtenir des réponses plus fines.

Sauf que c'est pas juste un chatbot de plus. En effet, l'extension fait du tool calling en boucle à l'aide de 6 outils : read_page_content, click_element, type_text, scroll_page, take_screenshot et run_javascript. Elle peut ainsi lire une page, cliquer sur des boutons, remplir un formulaire et même balancer du JavaScript dans le contexte de la page.

Comme l'inférence WebGPU ne peut pas tourner dans un service worker Chrome (y'a pas d'accès au GPU, c'est une limitation connue depuis des années), le développeur a trouvé une parade : il utilise un offscreen document, c'est-à-dire une page HTML invisible que Chrome maintient en arrière-plan et qui, elle, a accès au GPU. Résultat, le modèle calcule dans cette page fantôme, le service worker joue le facteur entre les morceaux, et le content script affiche le chat. Je trouve ça bien pensé comme découpage !

Toute la boucle d'agent (le code qui décide quand appeler un outil et quand répondre) est isolée dans un dossier agent/ sans aucune dépendance Chrome. Cela veut dire que vous pouvez prendre ces 5 fichiers .ts (agent-loop.ts, prompt-builder.ts, tool-parser.ts, types.ts et index.ts), les coller dans un projet Node.js ou Deno, et hop, vous avez votre propre boucle agentique. Yaniv Kessler, le développeur a pensé le truc pour que ça serve ailleurs.

Les deux variantes (E2B et E4B) sont compressées en q4f16 avec 128K tokens de contexte en théorie, même si en pratique la fenêtre effective dépend de votre VRAM. Cela dit, c'est largement de quoi avaler une page web complète sans broncher ! Et le modèle reste en cache après le premier téléchargement, du coup au deuxième lancement, c'est quasi instantané. Par contre, si vous êtes sur un vieux Chromebook avec un Intel UHD intégré et 4 Go de RAM, ça risque de mouliner à fond. Et sur Firefox (qui est le meilleure navigateur du monde, comme je n'ai de cesse de vous le dire), le WebGPU est encore un peu expérimental, donc pour l'instant ce sera Chrome ou rien... Sniiif.

Si vous avez déjà testé des extensions comme Localsumm qui faisaient tourner Phi-3 en local pour résumer des pages, disons que Gemma Gem pousse le concept beaucoup plus loin avec ses capacités d'agent. Et si le sujet de l'IA locale dans le navigateur vous branche, jetez un oeil à Clippy qui fait tourner des LLM localement sur votre desktop.

Notez quand même que sur Hacker News, le projet a déclenché pas mal de débat. Certains pointent le risque du tool run_javascript qui donne au modèle les pleins pouvoirs sur le DOM (genre, supprimer des trucs ou poster un formulaire à votre place). C'est vrai que c'est important mais bon, c'est le même modèle de permissions que n'importe quel script web classique, sauf que là au moins vos données restent chez vous.

Bref, 500 Mo de modèle, pas de cloud, et votre navigateur qui devient plus autonome que votre fils de 22 ans. Pas mal non ?

Piratage : Google, Cloudflare et Cisco contraints de bloquer des sites pirates en France

La cour d'appel de Paris vient de confirmer que les fournisseurs de DNS alternatifs doivent bloquer l'accès aux sites de streaming et d'IPTV pirates. Google, Cloudflare et Cisco ont perdu leur appel face à Canal+.

Cinq appels rejetés d'un coup

La cour d'appel de Paris a tranché cinq affaires distinctes dans lesquelles Canal+ demandait à Google (Google Public DNS), Cloudflare (1.1.1.1) et Cisco (OpenDNS) de bloquer des centaines de noms de domaine liés à du streaming illégal. Les trois entreprises avaient fait appel des ordonnances rendues en première instance par le tribunal judiciaire de Paris.

C'est la première fois qu'une cour d'appel française valide ce type de blocage DNS en s'appuyant sur l'article L.333-10 du Code du sport, qui permet aux détenteurs de droits d'exiger le blocage de domaines en cas de piratage grave et répété.

Les arguments qui n'ont pas fonctionné

Cloudflare et Cisco avaient plaidé que leurs services avaient une fonction "neutre et passive", comparable à un annuaire qui traduit des noms de domaine en adresses IP. La cour a estimé que cette neutralité était tout simplement hors sujet : ce qui compte, c'est la capacité technique à bloquer un accès, pas la nature du service.

Google a tenté un autre angle en expliquant que le blocage DNS était inefficace puisqu'il suffit d'un VPN pour le contourner. La cour a balayé l'argument en rappelant que tout système de filtrage peut être contourné, et que ça ne le rend pas inutile pour autant.

Cisco avait aussi chiffré le coût de mise en place à 64 semaines-personne de travail. Pas suffisant non plus pour convaincre les juges.

Canal+ continue de pousser

Cette décision s'ajoute à celle obtenue contre les fournisseurs de VPN fin 2025, quand NordVPN, ExpressVPN et d'autres avaient eux aussi été contraints de bloquer des sites pirates en France.

Canal+ verrouille progressivement tous les moyens de contournement. Et la chaîne ne compte visiblement pas s'arrêter là : le blocage d'adresses IP serait déjà en test, avec un premier essai lors de Roland-Garros.

Les frais de mise en place sont à la charge de Google, Cloudflare et Cisco.

Canal+ est en train de poser des briques une par une. D'abord les FAI, puis les VPN, maintenant les DNS. On imagine bien que le blocage IP est la prochaine étape.

Côté efficacité, ça reste un jeu du chat et de la souris, mais la justice française envoie un signal clair : si un service technique peut aider à bloquer du piratage, il devra le faire. Et à ses frais, en plus.

Source : Torrent Freak

DOOM over DNS - 2000 records TXT pour buter des démons

« Can it run DOOM ? » Vous connaissez tous la question je pense. En effet, depuis 1993, le FPS d'id Software a tourné sur à peu près tout ce qui contient un processeur, des calculatrices aux écouteurs en passant par des tests de grossesse. Et là, Adam Rice vient de pousser le délire encore plus loin en stockant et en lançant le jeu entier... via des enregistrements DNS.

Oui, ce bon vieux protocole de plus de 40 ans, conçu à la base pour traduire des noms de domaine en adresses IP (RFC 1035, tout ça). En fait, la magie tient dans le fait que les enregistrements TXT n'ont aucune validation de contenu. Du coup, rien n'empêche d'y coller du texte arbitraire... genre un FPS complet converti en texte via base64. En gros, le DNS devient un stockage clé-valeur distribué mondialement et mis en cache un peu partout. Pas mal comme CDN du pauvre !

Le fichier WAD (les niveaux et assets du jeu, 4 Mo) passe à 1,7 Mo après compression, les DLLs du moteur de 4,4 Mo à 1,2 Mo, et le tout est découpé en 1 966 enregistrements TXT sur une seule zone CloudFlare Pro. Un record spécial contient également les métadonnées de réassemblage (nombre de chunks, hash de vérification).

Ensuite, côté joueur, un script PowerShell de 250 lignes résout les 2 000 requêtes, reconstruit le binaire en mémoire et hop, ça tourne. Les données du jeu ne touchent ainsi jamais le disque, puisque tout reste en mémoire. Le tout chargé en 10 à 20 secondes (PowerShell 7 requis) !

Le truc rigolo, c'est que l'auteur ne connaît pas le C#. C'est Claude (oui, encore cette fichue IA, ahaha) qui s'est tapé le portage en modifiant managed-doom, un port C# du moteur original, pour remplacer les lectures fichier par des flux mémoire et virer toutes les dépendances natives au profit d'appels Win32 directs. L'audio a été sacrifié pour réduire le nombre de records mais bon, on va pas chipoter. Après si vous voulez tester, sachez que ça ne fonctionne que sous Windows car ça repose sur PowerShell, donc pas de version Linux pour l'instant.

D'ailleurs, si le concept vous rappelle quelque chose, c'est normal. Planquer des données dans les enregistrements TXT, c'est en fait une technique bien connue en sécu. J'en parlais déjà avec DNSteal pour exfiltrer des fichiers via DNS , ou avec ces malwares carrément stockés dans les records DNS . Adam Rice le dit lui-même, son projet est parti de l'exploration de techniques d'implants (staging de shellcode via TXT records) sauf qu'au lieu de planquer un trojan, il y a planqué ce FPS de +33 ans. C'est quand même plus sympa !

À vrai dire, avant d'en arriver là, il a d'abord fait un proof of concept avec une image de canard (va savoir pourquoi). Encoder la photo en base64, découper en chunks, uploader via l'API CloudFlare, reconstruire de l'autre côté avec un hash identique et ça a marché du premier coup. Par contre pour la vidéo, oubliez, un MP4 de 1 Go ferait 670 000 enregistrements.

Voilà et tout ça pour 20 dollars par mois (le prix de la zone CloudFlare Pro). Donc si DOOM sur des écouteurs vous avait déjà fait sourire, attendez qu'un taré le fasse tourner avec que des paquets ICMP. Bah quoi ??

Bref, le code est dispo sur GitHub et le DNS a clairement pas fini de nous surprendre.

Source

Le Geek Code - L'ancêtre des bios Instagram (en ASCII)

Imaginez un monde où votre identité entière tient sur trois lignes de caractères ASCII. Pas de selfie de votre gros nez, pas de bio Instagram mielleuse... mais juste des lettres ASCII, avec des plus et des moins.

Bienvenue en 1993 !!

Le Geek Code, c'est un système d'encodage inventé par Robert A. Hayden, étudiant à Mankato State University dans le Minnesota, qui permettait aux geeks de se décrire entre eux de manière codifiée. Vous colliez ce bloc de symboles dans votre signature Usenet ou email et n'importe quel initié pouvait vous cerner en 10 secondes. La devise du projet ? "More geek, less bullshit". Difficile de faire plus limpide.

En gros, ça fonctionnait comme ça : Le code commençait par la lettre G suivie de votre spécialité : GCS pour "Geek of Computer Science", GMU pour la musique, GED pour l'éducation, GAT si vous étiez bon en tout... y'avait 28 vocations au total. Ensuite venaient des catégories (apparence, compétences informatiques, opinions politiques, rapport à Star Trek) graduées de +++ à ---. Et hop, en une poignée de caractères, votre personnalité complète tenait dans un bloc qui ressemblait à ça :

-----BEGIN GEEK CODE BLOCK-----
Version: 3.1
GED/J d-- s:++>: a-- C++(++++) ULU++ P+ L++ E---- W+(-) N+++ o+ K+++ w--- O- M+ V-- PS++>$ PE++>$ Y++ PGP++ t- 5+++ X++ R+++>$ tv+ b+ DI+++ D+++ G+++++ e++ h r-- y++**
-----END GEEK CODE BLOCK-----

C'est le bloc de Hayden lui-même. On y apprend qu'il était geek de l'éducation (GED), adepte du t-shirt à message (d--), ultra-compétent en informatique (C++++) mais ne voulait rien savoir d'Emacs (E----). Plus loin, K+++ veut dire fan absolu de Star Trek, 5+++ = accro à Babylon 5, et t- = pas très branché X-Files. Un CV entier en 3 lignes compréhensible uniquement par les initiés... ;)

D'ailleurs, le format reprenait volontairement l'esthétique de PGP, le logiciel de chiffrement, du coup votre identité de geek ressemblait à un message top secret... sauf que tout le monde pouvait le déchiffrer avec les bonnes connaissances.

Le système avait des subtilités assez malines aussi. Le symbole @ signifiait que votre opinion fluctuait, les parenthèses indiquaient une fourchette, le > marquait une aspiration, et le $ voulait dire que vous étiez payé pour ça. Bref, des variables permettant de capturer toute la complexité d'un être humain, qui se retrouvait simplement dans un fichier .sig sur un serveur Usenet. Toute une époque !

Et l'origine du truc est carrément dingue. Hayden s'était en fait inspiré du Natural Bears Classification System, un encodage similaire utilisé par la communauté bear gay, lui-même dérivé de la classification stellaire de Yerkes. Des étoiles aux ours en passant par les nerds... y'a de la poésie là-dedans.

Le code des geeks a connu son heure de gloire entre 1993 et 1996. Un supplément du Washington Post en a même parlé dès 1995, des traductions en japonais et en russe ont circulé, et la version 3.12 de mars 1996 est depuis restée la dernière officielle.

Hayden a promis une mise à jour sur geekcode.com pour le nouveau millénaire. Mais ouais, on attend toujours. Sauf que l'Internet de 1996, comme il l'a lui-même écrit, c'était encore "un paradis vierge de geeks et d'intellos", avant l'arrivée massive du grand public, des bots et des politiciens qui légiféraient sur une techno qu'ils refusaient de comprendre.

Voici d'ailleurs ma bio Geek Code si vous voulez la décoder :

-----BEGIN GEEK CODE BLOCK-----
Version: 3.12
GIT d- a+ C+++ UB++ P- L++ M++ W+++ N+ PS++ PE Y++ PGP+ t+ X+++ R tv b+ DI+ D+ G e+ h---- r+++ y++++
------END GEEK CODE BLOCK------

Avec les artefacts numériques des débuts du web qui s'effacent petit à petit, entre les pages Geocities, les compteurs de visites et les MIDI qui jouaient en boucle, le Geek Code reste donc un vestige d'une époque où se revendiquer geek, c'était un acte de résistance et pas un mot-clé sur un profil LinkedIn.

Et je trouve ça dommage que ça se perde tout doucement... Le Geek Code mériterait bien un petit refresh en terme de paramètres pour le rendre actuel et des outils plus récents pour l'encoder / décoder.

Edit : Je viens de trouver une nouvelle version mais aucune idée de ce que ça vaut ...

Après, si ça vous tente de décoder le vôtre ou d'en générer un, il existe encore des encodeurs / décodeurs en ligne et, si vous êtes curieux de savoir à quoi ressemblaient les émissions qui ont forgé cette culture geek , y'a de quoi nourrir la nostalgie ici.

Amusez-vous bien et merci à Alex pour le partage !

AirSnitch - L'isolation client WiFi ne vous protège pas

Bon, vous connaissez la théorie du travailleur nomade... vous vous posez dans un café avec votre laptop, vous chopez du WiFi gratuit, et vous vous dites que l'isolation client du routeur vous protègera des autres branquignols connectés au même réseau.

Hé ben non ! Car des chercheurs viennent de démontrer que cette protection, c'était du vent... Oui oui, tous les routeurs qu'ils ont testés se sont fait contourner en 2 secondes.

Mais avant, pour ceux qui se demandent ce que c'est, l'isolation client c'est une option que les admins réseau activent sur les bornes WiFi pour empêcher les appareils connectés de communiquer entre eux. En gros, votre laptop ne peut pas voir celui du voisin. Enfin... ça c'est en théorie.

Parce qu'en fait, le truc c'est que cette fonctionnalité n'est même pas définie dans le standard WiFi (IEEE 802.11) ce qui oblige chaque fabricant à faire sa propre tambouille dans son coin, et du coup ça fuit de partout.

L'équipe derrière cette trouvaille, c'est des chercheurs de l'UC Riverside et de KU Leuven, dont Mathy Vanhoef, le même gars qui avait déjà mis le WPA2 à genoux avec KRACK en 2017. Pas un amateur, quoi. Et leur outil, baptisé AirSnitch, vient d'être présenté à la conférence NDSS 2026 .

Ils ont ainsi trouvé 3 méthodes différentes pour contourner la protection d'isolation. La première abuse de la clé de groupe (GTK), normalement réservée au broadcast, pour envoyer du trafic directement à un appareil ciblé. Le pire, c'est que macOS, iOS et Android acceptent ce trafic sans broncher (merci les gars !).

La seconde fait rebondir les paquets via la passerelle, et la troisième vole carrément l'adresse MAC de la victime sur un autre point d'accès pour intercepter son trafic.

Brrrrrr.... 11 routeurs testés, du Netgear R8000 au Cisco Catalyst 9130 en passant par TP-Link, ASUS, Ubiquiti et même OpenWrt 24.10. Et ils sont TOUS vulnérables, sans exception ! Et que vous soyez en WPA2 ou en WPA3, réseau perso ou entreprise, c'est pareil. Donc autant vous dire que ça pue !

Ils ont même réussi à effectuer un Man-in-the-Middle complet (interception de tout le trafic entre vous et Internet) en 2 secondes chrono. La "victime" qui regardait YouTube n'a même pas remarqué de lag et c'est comme ça qu'ils ont pu intercepter tout son trafic, ni vu ni connu.

Alors du coup, on fait quoi ? Hé bien si vous gérez un réseau, oubliez l'isolation client toute seule et passez aux VLANs avec un VLAN par client. Oui c'est lourdingue à mettre en place, mais c'est le prix à payer pour avoir une sécurité solide. Certains constructeurs bossent aussi sur des clés de groupe individuelles par client, ce qui règlerait le problème à la source.

Côté utilisateur, la solution est plus simple... VPN !! Attention, ça ne marche que si le VPN est activé AVANT de vous connecter au réseau, pas après. HTTPS vous protège déjà pour le contenu des sites, mais selon Google, 6 à 20% des pages ne sont toujours pas en HTTPS... et même quand elles le sont, l'attaquant voit quand même où vous surfez et peut tenter du DNS spoofing. Donc sur n'importe quel réseau WiFi public , partez du principe que quelqu'un peut voir votre trafic, parce que visiblement c'est le cas.

Le code source d' AirSnitch est dispo sur GitHub si vous voulez tester votre propre config mais notez que ça nécessitera une carte WiFi compatible avec le mode monitor comme les Alfa (lien affilié), donc pas celle de votre laptop de base.

Bref, la prochaine fois que le WiFi de l'hôtel vous demande d'accepter les CGU en échange d'un accès "sécurisé"... ben gardez votre VPN allumé, hein.

Source

Wikipedia vs archive.today - 700 000 liens en sursis

Un peu moins de 700 000 liens, c'est le nombre de références vers archive.today que Wikipedia envisage de supprimer d'un coup ! Et la raison est assez dingue... en fait le service d'archivage a planqué du code DDoS dans son CAPTCHA afin d'attaquer le blog d'un mec qui a eu le malheur de chercher l'identité du fondateur du site.

L'histoire est tordue vous allez voir...

En 2023, un blogueur du nom de Jani Patokallio publie un article sur son blog Gyrovague pour tenter d'identifier le créateur d'archive.today, un certain "Denis Petrov" (probablement un pseudo). Pas de quoi fouetter un chat, sauf que le principal intéressé n'a visiblement pas kiffé.

Du coup, un bout de JavaScript s'est retrouvé comme de par hasard dans la page CAPTCHA du service, exécutant une requête vers le blog de Patokallio toutes les 300 millisecondes. Chaque visiteur qui passait par le CAPTCHA devenait alors un soldat involontaire d'une attaque DDoS.

Et le bonhomme ne s'est pas arrêté là... il a ensuite menacé de créer un site porno avec le nom du blogueur. On est vraiment dans la réponse proportionnée, clairement.

Le souci, c'est que Wikipedia utilise archive.today de manière MASSIVE. Cela représente 695 000 liens répartis sur environ 400 000 pages. C'est le deuxième fournisseur d'archives de toute l'encyclopédie !

Du coup, les éditeurs se retrouvent face à un sacré dilemme. D'un côté, on a ceux qui veulent tout blacklister parce que "la sécurité de vos lecteurs, ça passe avant les citations". Et de l'autre, ceux qui rappellent que le service contient des archives qu'on ne trouve NULLE PART ailleurs, même pas sur la Wayback Machine .

Bon courage pour trouver un remplaçant les mecs !

Et petit détail qui n'en est pas un, au passage... En fait, archive.today sert aussi à contourner des paywalls. C'est pratique pour vérifier des sources, ou lire de supers articles sans payer mais techniquement c'est illégal.

Mais quand la source originale a disparu, on fait comment ? Et c'est là tout l'intérêt de ces services d'archivage.

Bon, les paywalls, on comprend tous pourquoi ça existe. Produire de l'info de qualité, ça coûte un bras. Sauf que c'est quand même un truc un peu naze. Vous bossez, vous produisez un contenu top, et au final y'a que 10 personnes qui payent pour le lire. Et ce sont les mêmes 10 personnes qui sont pigistes et qui vont reprendre votre info pour la diffuser gratuitement sur leur média ! On le voit avec Mediapart... des enquêtes énormes derrière un paywall, et toute la presse qui reprend leurs scoops sans payer. Je trouve ça vraiment dommage.

Moi, ce que j'aime dans le fait d'écrire sur le web, c'est que vous me lisiez. Et mettre du contenu derrière un paywall, ça voudrait dire que plein d'entre vous ne me liraient plus. C'est pour cela que même le contenu que je réserve en avant-première sur Patreon , au bout de quelques semaines, je le libère pour tout le monde.

Quand je vois The Verge par exemple qui en met dans tous les sens... ben j'y vais plus. J'ai pas envie de payer un abonnement de plus pour une valeur ajoutée pas folle. C'est un peu comme les bandeaux cookies, à savoir un effet de bord regrettable du web moderne. On doit faire avec parce que personne n'a trouvé mieux comme idée...

Bref, entre les DDoS vengeurs, les 700 000 liens en sursis et les paywalls qui pourrissent tout ... le web ouvert, c'est pas gagné les amis. Voilà voilà.

Source

DNS-collector - Pour comprendre enfin ce qui se passe sur votre réseau

Le DNS, c'est un peu la tuyauterie planquée d'Internet. Tout le monde l'utilise, mais personne ne regarde vraiment ce qui se passe dans les tuyaux... jusqu'à ce que ça pète ou qu'un petit con s'en serve pour exfiltrer des données. Et là, bon courage pour fouiller dans les logs en mode brutasse pour comprendre qui a fait quoi sur votre réseau.

En fait, pour ceux qui se demandent encore qu'est-ce que le DNS (Domain Name System), c'est simplement l'annuaire qui traduit les noms de domaine comme korben.info en adresses IP. Sans lui, on serait tous en train de mémoriser des suites de chiffres à la con.

Et il y a quelques jours, j'ai reçu un mail de Denis, un fidèle lecteur (qui traîne sur le blog depuis 2005, ça nous rajeunit pas !) qui m'a écrit pour me présenter son projet sur lequel il bosse depuis 5 ans : DNS-collector .

DNS-collector, c'est un outil écrit en Go qui sert de "chaînon manquant" entre vos serveurs DNS et votre pile de données. En gros, il capture le trafic DNS, le nettoie, l'enrichit et l'envoie là où vous en avez besoin. C'est l'outil parfait pour ceux qui ont la flemme de se palucher des fichiers PCAP de 4 Go à la main ou de debugger des flux DNStap illisibles.

Le point fort de DNS Collector, c'est sa flexibilité. Côté entrées, ça avale tout : du DNStap via socket Unix ou TCP (le protocole standard utilisé par BIND, Unbound ou PowerDNS), du sniffing réseau classique avec AF_PACKET ou même XDP pour la très haute performance. Attention quand même, pour XDP, apparemment le kernel Linux doit être récent (version 5.x minimum) et les drivers réseau doivent suivre, sinon ça va faire pshitt. Ensuite, par défaut, le bousin écoute pépouze sur le port UDP/6000 en attendant ses flux.

Mais là où ça devient vraiment balaise, c'est dans le traitement des données. DNS-collector embarque des "Transformers" (rien à voir avec Optimus Prime hein ^^) qui font tout le boulot ingrat à votre place dans le pipeline de traitement. Hop, ça normalise les noms de domaine en minuscules (le fameux qname-lowercase dans le fichier de config), ça ajoute la géolocalisation via GeoIP (genre MaxMind ou IP2Location), et on peut même détecter les trucs louches.

Il peut aussi détecter le tunneling DNS ou les domaines générés par algorithme (DGA) qui sont souvent les signes d'une infection sur une machine. Petit bémol cependant, pour la géolocalisation, pensez à télécharger vos bases GeoIP au préalable (fichiers .mmdb), sinon l'outil va vous faire une petite grimace au démarrage.

Vous pouvez aussi protéger la vie privée de vos utilisateurs en anonymisant les adresses IP via un hachage SHA1 ou du masquage. C'est propre, ça respecte le RGPD, et ça permet de garder des stats utiles (genre le top des ASN consultés) sans fliquer tout le monde. Les données sortent proprement en JSON ou en Protobuf, prêtes à être ingérées.

Une fois que vos données sont propres, vous les envoyez où vous voulez. J'ai choisi de vous citer ClickHouse ou InfluxDB car c'est parfait pour stocker des millions de requêtes sans mettre votre serveur à genoux, mais la liste est longue : Prometheus pour les métriques, ElasticSearch, Kafka, Redis, ou même Slack via des webhooks pour être alerté en temps réel quand un domaine louche pointe le bout de son nez.

Alors si ça vous chauffe, comment récupérer cet outil et le mettre en place ?

Hé bien c'est hyper fastoche comme d'hab puisque le projet est dispo en binaire ou via Docker. Ensuite, vous lancez la commande ./dnscollector -config config.yml, vous branchez vos sources, et roule ma poule. Taaadaaaa ! DNS-collector s'occupera du reste sans vous bouffer toute votre RAM (contrairement à certaines usines à gaz Java qui demandent un sacré paquet de mémoire vive ^^).

Voilà, perso, je trouve l'approche très saine. C'est léger, modulaire et ça répond à un vrai besoin pour les admins sys qui veulent enfin "voir" ce qui transite par leurs serveurs. Le bousin encaisse des milliers de requêtes par seconde sans broncher... enfin sauf si votre serveur est une patate de 2012, là je garantis rien.

Mortecouille, c'est quand même mieux d'avoir des logs lisibles avec un simple tail -f /var/log/syslog, non ? Et d'ailleurs, le projet est déjà adopté par pas mal d'acteurs de la sécu, donc vous pouvez y aller sereinement.

Merci Denis !

Emails jetables - Yopmail et les meilleures alternatives européennes

Vous devez tester un service en ligne et là, PAF 🥲 formulaire d'inscription 🥲 Ouiiiin !!!

Et bien sûr, même si vous pouvez remplir tous les champs avec un tas de conneries, forcement à un moment, ça vous demande votre email. Et là, impossible d'y échapper... Heureusement pour éviter ça, il existe des services d'emails jetables et je vous propose qu'ensemble qu'on fasse un petit point dessus parce que ça a beaucoup bougé ces dernières années..

Yopmail , c'est un peu le vétéran du domaine. J'suis certain que vous le connaissez par cœur car ce site tourne quand même depuis 2004 (22 ans au compteur ! Comme mon site en fait !) et le principe c'est que vous choisissez un nom au pif, genre " [email protected] ", et hop, vous avez une boîte mail temporaire. Pas d'inscription, pas de mot de passe, rien. Les messages restent 8 jours puis disparaissent et le truc cool c'est qu'ils ajoutent un nouveau domaine tous les jours pour éviter les blacklists, du coup y'a moins de chances que votre adresse jetable soit refusée.

Sauf que Yopmail a une limitation importante... En effet, n'importe qui peut accéder à votre boîte si il en devine le nom. J'ai testé avec "[email protected]" et effectivement, on tombe sur les mails de dizaines d'autres personnes qui ont eu la même idée... pas ouf pour du confidentiel. Côté envoi de mails, c'est un peu plus nuancé : vous ne pouvez pas initier une conversation vers l'extérieur, mais vous pouvez répondre à un mail reçu d'une adresse externe, à condition que le message n'ait pas été identifié comme spam et que l'expéditeur soit authentifiable (merci Fred, le créateur de Yopmail, pour la précision !).

Pour ceux qui veulent du "privacy first" radical, y'a aussi MephistoMail qui ne garde aucun log. Attention par contre, l'inbox peut disparaître à tout moment sans prévenir. J'ai failli me faire avoir la première fois, j'ai fermé l'onglet avant de récupérer mon lien de confirmation et pouf, game over. Pensez donc à copier ce dont vous avez besoin AVANT de fermer.

Dans la catégorie "je veux juste une inbox vite fait", j'ai aussi croisé pas mal de services qui font le job pour récupérer un lien de confirmation ou un code OTP en 10 secondes chrono. TrashMail.de par exemple, c'est du mail jetable basique mais efficace. Byom.de est marrant également parce que c'est un peu en mode "catch-all" où vous inventez n'importe quelle adresse, vous la balancez au site qui vous demande un email, puis seulement ensuite vous allez lire ce qui est arrivé. Et si vous trouvez que le "10 minutes mail" c'est trop court, Muellmail.com joue justement la carte "10 min, c'est pas assez" sans vous prendre la tête.

Ah, et pour les devs / QA qui aiment automatiser des tests de signup (oui, je vous vois 😄), y'a aussi mail.tm qui propose des boîtes temporaires avec mot de passe, plus une API, et des services comme Temp-Mail qui ont carrément une API officielle pour tester des workflows email en boucle. Pratique quand vous devez valider "inscription -> email -> clic -> compte OK" sans y passer votre vie.

Et puis y'a une autre catégorie qui m'intéresse de plus en plus : les gestionnaires d'alias. J'ai d'abord hésité entre SimpleLogin et addy.io, mais j'ai fini par choisir Addy.io (anciennement AnonAddy) parce que c'est open source sous licence AGPL-3.0 et que vous pouvez l'héberger vous-même si vous êtes parano. Le principe c'est qu'au lieu d'avoir un mail jetable, vous créez des alias illimités qui redirigent vers votre vraie boîte. Si un alias se fait spammer, vous le désactivez en un clic sans toucher au reste. Y'a une version gratuite et des abonnements entre 1 et 3$/mois (Lite à 1$/mois, Pro à 3$/mois). Par contre attention, si vous self-hostez, faut quand même gérer un serveur mail et ça c'est pas une mince affaire...

Et du coup, si vous voulez le même délire qu'addy.io mais avec une autre approche, SimpleLogin est une très bonne option aussi puisque c'est open source, auto-hébergeable, et le gros plus c'est que vous pouvez répondre / envoyer depuis vos alias (Et ça c'est trop bien quand faut valider un truc ou parler à un support sans exposer votre vraie adresse). Bref, c'est le genre d'outil qui passe mieux que les domaines jetables quand un site commence à sortir la sulfateuse anti-temp-mail.

Et si vous êtes déjà chez un fournisseur mail orienté privacy, y'a des alternatives "pas jetables mais ultra pratiques". Je pense à Tuta par exemple permet d'avoir des alias (et même du catch-all sur domaine perso selon les offres). Migadu aussi est très cool dans le genre "j'ai mon domaine, je veux créer plein d'adresses/alias sans payer par boîte", et ils annoncent être une boite suisse avec des datacenters en France. C'est pas du "mail jetable", mais pour garder le contrôle sur le long terme, c'est une approche qui se défend.

Et pour les plus motivés (ou les plus masochistes 😅), y'a la voie du "je self-host tout" avec des stacks comme mailcow , Mailu ou docker-mailserver . Mais je vous le dis cash patate, monter son propre serveur mail, c'est la porte ouverte aux joies de SPF/DKIM/DMARC, de la réputation d'IP, des mails qui finissent en spam "parce que lol", et des heures à se demander pourquoi Outlook vous boude. Donc oui c'est souverain de votre village de ploucs, oui c'est stylé, oui c'est gratuit si votre temps vaut tripette, mais c'est pas un petit dimanche tranquille.

Côté souveraineté européenne, tout ce que je viens de vous présenter peut aider à limiter l'exposition aux joies du Cloud Act... mais attention, faut regarder au cas par cas où c'est hébergé et qui opère le service. Dans tous les cas, gardez en tête que certains sites comme Amazon ou PayPal bloquent carrément les domaines de mails jetables connus. Dans ce cas, les alias (surtout si vous avez votre propre domaine) passent généralement mieux parce que ça ressemble à une adresse "normale" qui redirige vers votre vraie boîte.

Bref, pour le quotidien Yopmail fera bien le taf (le gars sûr !), mais si vous voulez envoyer des mails, éviter les blacklistages (c'est comme ça qu'on dit ??), ou garder le contrôle sur vos alias à long terme, regardez du côté de TempMail, SimpleLogin ou addy.io.

Et si vous aimez bricoler et souffrir, vous savez ce qu'il vous reste à faire... 😈

CENI - La Chine vient de mettre en service l'héritier d'ARPANET

Vous vous souvenez d'ARPANET, ce réseau militaire américain des années 60-70 qui a donné naissance à Internet ? En 2006, les États-Unis ont remis le couvert avec GENI, un autre réseau de recherche afin de tester les technologies futures du web et qui a fonctionné durant plus d'une décennie avant de s'éteindre progressivement jusqu'en 2023.

Et aujourd'hui, devinez qui vient de prendre le relais ?

La Chine, évidemment !

Le pays vient en effet d'annoncer la mise en service officielle de CENI, pour China Environment for Network Innovation, qui est ni plus ni moins que la première infrastructure nationale chinoise dédiée à l'innovation dans les technologies réseau. Et les specs font un peu peur je dois dire...

Il s'agit d'un réseau qui relie 40 villes chinoises via plus de 55 000 km de fibre optique et qui a nécessité plus de 10 ans de construction. Le truc est capable de supporter 128 réseaux hétérogènes simultanément et de mener 4 096 tests de services en parallèle... Niveau chiffres, c'est assez costaud.

Pour vous donner une idée de ce que ça peut faire, ils ont effectué un test de transfert avec le radiotélescope FAST dans la province du Guizhou. Résultat, 72 téraoctets de données transférées vers la province du Hubei en à peine 1,6 heure sur une distance d'environ 1 000 km. Un calcul rapide nous donne un débit proche des 100 Gbit/s soutenu sur la durée... Sur une connexion fibre grand public à 1 Gbit/s, ce même transfert aurait pris environ une semaine.

Mais le plus impressionnant, c'est la stabilité du bouzin. D'après Liu Yunjie, le chef scientifique du labo Zijin Mountain, CENI affiche zéro perte de paquets lors des tests avec une gigue de latence inférieure à 20 microsecondes, même à pleine charge, sur un backbone de 13 000 km traversant 13 provinces et gérant 10 000 services déterministes. Ce sont des performances qu'on ne voit pas tous les jours...

Et côté applications, c'est le feu ! Huawei et Baidu sont déjà sur le coup pour tester leurs technos respectives, notamment pour des modèles d'IA avec 100 milliards de paramètres, dont chaque itération ne prend que 16 secondes grâce aux débits de CENI pour synchroniser les GPU. Y'a aussi le support des technologies 5G-A et 6G qui est prévu, ainsi que des applications pour l'industrie, l'énergie, la santé et l'éducation.

Et leur prochaine étape, ça va être de connecter 100 universités et entreprises leaders au réseau.

L'objectif avoué de CENI, c'est donc de développer des innovations "5 à 10 ans en avance sur l'industrie" et de, je cite, "prendre l'initiative dans la compétition internationale en matière de cyberespace". Bref, c'est aussi une question de souveraineté technologique et de positionnement géopolitique.

Screenshot

La Chine reprend donc explicitement le flambeau des projets de recherche réseau américains désormais abandonnés. ARPANET a ouvert la voie dans les années 70, GENI a pris le relais jusqu'en 2023, et maintenant c'est CENI qui devient le laboratoire mondial pour les architectures réseau du futur.

Et avec ses 221 brevets déposés, 139 droits d'auteur logiciels et 206 normes internationales et nationales, le projet a déjà une belle base de propriété intellectuelle...

Donc on verra bien ce qui en sortira dans les années à venir...

Source

MephistoMail - L'email jetable qui ne garde aucune trace de vous

Vous voulez tester un service, télécharger un truc, ou vous inscrire sur un site que vous n'utiliserez probablement qu'une fois et là, une fois encore, on vous demande votre email. Alors vous pétez un câble, vous retournez votre bureau en hurlant, vous jetez votre tasse de café sur le visage de votre collègue, et vous essayez de vous suicidez en mettant frénétiquement votre langue dans la multiprise. Ne rigolez pas, ça arrive tous les jours !

Heureusement, voici une solution qui va vous permettre de contourner le problème. Ça s'appelle MephistoMail , et c'est un service d'email jetable, anonyme, et qui ne garde aucun log de vos activités. Vous allez sur le site, vous copiez l'adresse temporaire qui vous est attribuée, vous l'utilisez pour vous inscrire quelque part, et hop, les mails de confirmation arrivent dans votre inbox temporaire. Une fois que c'est fait, vous fermez l'onglet et tout disparaît.

Vous allez me dire, le concept n'est pas nouveau, y'a des dizaines de services de temp mail qui existent depuis des années. Mais MephistoMail se distingue par son approche "privacy first" assez radicale. Pas de tracking, pas de logs, pas de collecte de données et surtout l'inbox est vraiment volatile et peut être supprimée à tout moment par le système.

Du coup, y'a quelques limitations à connaître avant de vous lancer. Ce service est prévu principalement pour recevoir des emails, pas pour en envoyer. Certains sites ont également commencé à bloquer les domaines de temp mail connus, donc ça marchera pas partout. Et surtout, ne l'utilisez jamais pour des trucs sensibles comme votre banque ou des services critiques. Si vous perdez l'accès à l'inbox avant d'avoir récupéré votre lien de confirmation, c'est game over.

L'utilisation est par contre hyper simple et surtout y'a pas de compte à créer, pas de mot de passe à retenir, bref pas d'emmerdes.

Voilà, si vous en avez marre de donner votre vraie adresse mail à n'importe qui et de vous retrouver noyé sous les newsletters non désirées, MephistoMail fera bien le taf. Et en plus c'est gratuit !

Mon test des routeurs TP-Link Deco BE68

-- Article en partenariat avec TP-Link --

Vous vous souvenez de mon test du Deco BE65-5G avec son modem 5G intégré ? Hé bien, TP-Link m'a envoyé un autre joujou à tester, et cette fois c'est le pack de trois Deco BE68 , aussi connu sous le nom BE14000. Et je vais être honnête avec vous, ce truc a résolu un problème que je traînais depuis des mois à savoir une petite zone morte dans ma salle à manger où le Wi-Fi ramait comme un escargot asthmatique.

Pour ceux qui découvrent la gamme Deco, c'est le système mesh de TP-Link qui permet de couvrir toute une baraque avec un seul réseau Wi-Fi. Vous posez plusieurs bornes dans la maison, elles communiquent entre elles, et vous avez du réseau partout sans avoir à jongler entre différents SSID. Le BE68, c'est donc la version Wi-Fi 7 tri-bande qui promet jusqu'à 14 Gbps de débit combiné. C'est complètement délirant sur le papier, et évidemment personne n'atteindra jamais ça dans la vraie vie, mais ça donne une idée de la puissance du bouzin.

Côté specs, on a 8 647 Mbps sur la bande 6 GHz, 4 324 Mbps sur le 5 GHz, et 688 Mbps sur le 2.4 GHz. Chaque borne est équipée d'un port 10 Gbps (oui, 10 Gbps sur chaque noeud, pas juste sur le principal), d'un port 2.5 Gbps, d'un port Gigabit et d'un USB 3.0. 10 Gbps sur chaque satellite, c'est d'ailleurs l'un des gros avantages de ce modèle.

L'installation, comme d'hab avec les Deco, c'est d'une simplicité enfantine. On lance l'app sur le smartphone, on scanne le QR code, on attend que ça se configure, et c'est fini. J'ai posé une borne dans mon local technique (branchée sur ma box fibre), une dans le salon, et une dans la salle à manger, le tout en moins de 15 minutes, sans avoir à toucher une ligne de configuration. Pour les bidouilleurs qui veulent accéder aux réglages via un navigateur web, par contre, c'est toujours mort puisque tout passe par l'app mobile, ce qui peut frustrer les barbus que nous sommes ❤️.

Mais parlons de ce qui m'intéressait vraiment avec ces routeurs, à savoir ma fameuse salle à manger maudite. C'est une pièce avec des murs épais, coincée entre deux autres pièces, et jusqu'ici aucun de mes routeurs n'arrivait à y envoyer un signal correct.

Avec le pack de trois BE68, le problème a disparu puisque j'ai maintenant du 400-500 Mbps stable dans cette pièce, sans déconnexion. La différence, c'est le Wi-Fi 7 et son MLO (Multi-Link Operation) qui permet à chaque appareil de se connecter simultanément sur plusieurs bandes.

D'ailleurs, le backhaul combiné filaire + sans fil, c'est vraiment le game changer de ce modèle puisque grâce à la techno maison de TP-Link, les Deco BE68 peuvent utiliser à la fois le câble Ethernet et le Wi-Fi pour communiquer entre eux simultanément. Du coup, même si vous ne câblez qu'une partie de vos satellites, le système optimise automatiquement les flux.

Le pack de trois couvre dans les 700-750 m² et peut gérer jusqu'à 200 appareils simultanément. Chez moi, avec la cinquantaine de bidules connectés (ampoules, caméras, smartphones, ordis, consoles, aspirateur robot, et j'en passe), ça ne bronche pas et le système AI-Driven Mesh gère intelligemment les transitions quand on se balade dans la maison. Comme ça, j'ai pas les micro-coupures quand je passe d'une pièce à l'autre avec mon ordi portable.

Et côté tarif, on est sur du 800-900 euros pour le pack de 3. C'est pas donné, c'est clair mais quand on compare aux autres systèmes mesh Wi-Fi 7 du marché, c'est plutôt compétitif. Et avec du 10 Gbps sur chaque nœud, vous êtes tranquille pour les dix prochaines années niveau évolutivité réseau.

Les fonctions de sécurité HomeShield sont bien sûr toujours là : antivirus intégré, contrôle parental, QoS pour prioriser le gaming ou le streaming, support VPN client (OpenVPN, WireGuard), et la possibilité de créer un réseau IoT séparé en WPA3. Du classique TP-Link, bien foutu et suffisant pour 90% des usages sans avoir à payer l'abonnement Pro.

Bref, après 2 semaines d'utilisation, je suis conquis puisque ces Deco BE68 font exactement ce qu'on leur demande . C'est à dire couvrir toute la baraque en Wi-Fi 7 sans se prendre la tête. Alors si comme moi, vous avez des zones mortes chez vous ou que votre système mesh actuel commence à montrer ses limites avec tous vos appareils connectés, c'est clairement un excellent choix. Par contre, si vous cherchez un modem 5G intégré comme sur le BE65-5G, c'est pas le bon modèle.

En tout cas, j'ai enfin du Wi-Fi qui marche bien dans ma salle à manger, et ça, ça n'a pas de prix (enfin si, environ 800 balles, mais vous m'avez compris) !

La véritable histoire des noms de domaine

Vous vous êtes déjà demandé comment on est passé de six extensions de domaine en 1985 à plusieurs milliers aujourd’hui ? Ou qui a enregistré le tout premier .com de l’histoire ? Hé bien vous allez pouvoir découvrir tout ça grâce au site dotcom.press qui a compilé 40 ans d’histoire des noms de domaine dans une chronologie interactive plutôt bien foutue.

Si comme moi, vous aimez vous plonger dans l’Histoire d’Internet, allez jeter un œil !

L’idée du projet, c’est donc de raconter l’évolution technique et humaine du web à travers le prisme des noms de domaine. Car derrière chaque .com, .org ou .net, il y a une histoire faite de batailles juridiques, de décisions politiques, d’arnaques monumentales, et parfois d’anecdotes complètement WTF.

La page couvre la période allant de 1983 à 2026, avec des événements clés présentés chronologiquement. Vous découvrirez par exemple que les 5 premières extensions (.com, .org, .edu, .gov, .mil) ont été définies en octobre 1984 dans la RFC 920, mais n’ont été mises en ligne qu’en 1985 accompagné de .net ajouté sur le tard. Ou encore que Network Solutions a eu le monopole complet de l’enregistrement des domaines jusqu’en 1999, quand l’ICANN a fini par leur imposer de la concurrence.

Le site explique aussi les enjeux autour des noms de domaine. Par exemple pourquoi Verisign détient toujours le monopole du .com et du .net en 2025, avec plus de 170 millions de domaines enregistrés et 1,5 milliard de dollars de revenus annuels. Ou comment le prix de gros d’un domaine est passé de 100 dollars dans les années 90 à 9 dollars en 1999, puis 6 dollars en 2000.

Il y a aussi des trucs plus exotiques comme l’histoire du .yu yougoslave volé pendant les guerres des Balkans ou comment voice.com a été acheté pour 30 millions de dollars en 2019, et n’affiche aujourd’hui qu’un texte moche et une adresse email.

Bref c’est une super timeline avec des images d’époque, des citations d’experts comme Tim Berners-Lee (évidemment), et des liens vers des tas de ressources complémentaires si vous voulez creuser un sujet.

Voilà, je me suis dit que si vous enseignez l’informatique, ou si vous bossez dans le web, ça devrait vous plaire.

Bonne lecture !

La fin du monde est proche !

Peut-être que vous le connaissez déjà, mais si ce n’est pas le cas, sachez qu’il existe un site qui tracke méticuleusement toutes les apocalypses ratées ! Et actuellement et le compteur affiche fièrement 201 échecs et 0 succès. Ouf, tant mieux ! Ce site c’est le Doomsday Scoreboard de March1 Studios, et c’est un peu le panneau “X jours sans accident” des usines, mais inversé puisqu’ici on célèbre le fait que les prophètes se plantent avec la régularité d’un métronome cassé.

La dernière en date c’est l’apocalypse du 23 septembre 2025. Joshua Mhlakela, un pasteur sud-africain, avait posté des vidéos expliquant que le “Rapture” (le retour de Jésus) allait se produire ce jour-là. Les vidéos sont devenues virales sur TikTok sous le hashtag #RaptureTok, parce que bien sûr, même l’apocalypse a besoin d’influenceurs maintenant et y’a même des gens qui ont quitté leur job pour se préparer ou fait des tutos à la con du genre “5 conseils pour survivre au Rapture”.

Autant vous dire que le réveil normal du 24 septembre a dû être chelou et plein de mauvaise foi.

Mais le vrai champion toutes catégories de ces apocalypses, c’est Harold Camping. Lui il a fait 12 prédictions ratées. C’est plus que le nombre de Fast and Furious ^^ et sa prédiction la plus célèbre, sortie en mai 2011, il l’a financée avec des millions de dollars en publicité : 5000 panneaux d’affichage, 20 camping-cars sillonnant les États-Unis. Il avait calculé que c’était exactement 7000 ans après le déluge biblique, donc forcément, ça devait matcher.

Puis le 22 mai, après sa prédiction ratée, il s’est déclaré complètement débousolé ! Imaginez, vous claquez des millions pour annoncer la fin du monde, et le lendemain vous devez sortir les poubelles. Du coup pour sauver la face, il a dit “Ah non en fait c’était spirituel, la vraie c’est en octobre”. Je vous rassure, ça a foiré aussi en octobre et toutes les fois d’après.

William Miller, lui aussi c’est un autre roi du pivot stratégique. En 1843, il prédit la fin du monde devant 100 000 personnes mais bien sûr, ça a foiré “Pardon les gars, j’ai refait les calculs, c’est octobre 1844”. Et le 22 octobre 1844, toujours rien. Le résultat de ce double échec s’appelle même la Grande Déception , et honnêtement, le nom est bien trouvé. Mais Miller ne s’est pas découragé : il a juste dit que ça s’était passé au paradis, donc vous n’avez rien vu. C’est d’ailleurs de là qu’est née l’Église Adventiste.

Niveau récupération de fail, chapeau ! On dirait ces gens bizarres sur les réseaux sociaux qui repoussent chaque mois depuis 2020, leur prédiction de tous ces millions de morts provoqués à cause d’un vaccin Covid qui devait normalement joncher nos rues. Ahahaha qu’est ce qu’on se marre ^^.

Les Témoins de Jéhovah ont aussi leur propre série de ratés : 1914, 1915, 1918, 1920, 1925, 1941, 1975, 1994. La prédiction de 1925 était d’ailleurs annoncée comme plus certaine que celle de 1914 selon les Écritures. Résultat ? Entre 1925 et 1928, ils ont perdu 80% de leurs membres, déçus. La réponse officielle a été que ça avait aidé à séparer les fidèles des autres. Ça c’est du marketing de crise de champions !

En 2012 (vous vous souvenez de cette apocalypse là ?), un sondage dans 20 pays montrait que 14% des gens pensaient que le monde finirait de leur vivant. Aux États-Unis, c’était même plus de 20%. Et en 2022, 39% des Américains croyaient vivre la fin des temps. Autrement dit, 4 personnes sur 10 parient sur un cheval qui a perdu ses 201 dernières courses. Les paris sportifs sont moins risqués…

Le calendrier Maya de 2012, c’était peut-être d’ailleurs la plus grosse en termes de couverture médiatique. La fin du Grand Cycle du calendrier Maya a été interprétée comme la fin du monde avec des films catastrophe, des documentaires alarmistes, des ventes de bunkers qui explosent…etc. Puis le jour J, le 22 décembre 2012, réveil normal, café normal, métro normal. Hé oui, les Mayas n’avaient jamais dit que c’était la fin, juste que leur calendrier recommençait un nouveau cycle. Mais bon, ça fait moins de clics.

On a un peu le même truc en ce moment avec la comète 3I/ATLAS. Je vois dans Google News des tas de médias merdiques nous expliquer une fois que c’est un vaisseau alien qui ralenti pour venir nous achever, et une autre fois que le machin nous arrive droit dessus pour nous atomiser…

Et dire qu’il suffit d’aller lire 2/3 articles sérieux sur le sujet pour capter qu’on ne risque rien. Le machin va juste passer, on va lui faire coucou et on ne le reverra jamais… Breeeef, la connerie et la peur n’a pas de limites malheureusement.

Et le site Doomsday Scoreboard ne se contente pas uniquement d’archiver les échecs. Il liste aussi les apocalypses en attente. En ce moment y’a 8 prédictions pour 2025-2026. Donc 8 nouvelles chances de voir le compteur passer à 209 apocalypses ratées. Ce que j’aime bien avec ce site en tout cas, c’est qu’il transforme des annonces plutôt déprimantes en performance artistique.

Le compteur qui tourne, le total des échecs qui s’incrémente, les liens vers les sources Wikipedia pour chaque prédiction…etc. C’est à la fois un joli devoir de mémoire et une bonne blague ! En tout cas, pour le moment, c’est le seul domaine où l’humanité affiche un taux de fiabilité de 100% !

Voilà… Maintenant, rendez-vous dans 249 jours pour savoir si l’apocalypse aura lieue ou si vous devrez quand même aller bosser le lendemain.

Merci à Lilian pour le lien !

❌