Vue lecture

Il y a de nouveaux articles disponibles, cliquez pour rafraîchir la page.

Votre cerveau compresse les images 40 fois mieux qu'un algo

Vous avez, j’imagine, probablement des dizaines de milliers de photos sur votre disque dur. Ça représente peut-être quelques centaines de Go, peut-être 1 To si vous êtes à l’aise en espace de stockage. C’est beaucoup ?

Pas tant que ça si on pense un peu à votre cerveau. Lui, il stocke depuis toujours des décennies de souvenirs dans environ 1,5 kg de matière organique qui consomme moins qu’une ampoule LED.

Comment est-ce qu’il fait ?

Hé bien, une équipe du Weizmann Institute of Science vient peut-être de le découvrir et au passage, changer la compression d’images telle qu’on la connaît.

Le projet s’appelle Brain-IT , et leur idée c’est de reconstruire des images à partir des signaux fMRI (imagerie par résonance magnétique fonctionnelle) de votre cerveau. En gros, ils scannent votre activité cérébrale pendant que vous regardez une image, et ils arrivent à reconstruire ce que vous avez vu. Le papier scientifique est dispo sur arXiv si vous parlez leur langue.

Évidemment, ce genre de recherche, c’est pas nouveau mais Brain-IT est plutôt un franc succès car le process permet d’obtenir les mêmes résultats que les méthodes précédentes avec seulement 1 heure de données fMRI, contre 40 heures pour les autres approches.

En gros, ça représente 97,5% de données en moins pour obtenir le même résultat. Trop fort non ?

En fait, si Brain-IT peut faire ça, c’est parce que les scientifiques ont découvert comment votre cerveau compresse les images de manière hyper efficace. Et d’ailleurs, ce truc pourrait bien inspirer de nouveaux algorithmes de compression pour nos ordis.

Brain-IT utilise en fait ce qu’ils appellent un “Brain Interaction Transformer” (BIT). C’est un système qui identifie des “clusters fonctionnels” de voxels cérébraux. Un voxel, c’est l’équivalent d’un pixel mais en 3D, et chaque voxel représente environ 1 million de cellules dans votre cerveau.

Le truc génial, c’est que ces clusters fonctionnels sont partagés entre différentes personnes, comme si nous avions tous la même bibliothèque de “primitives visuelles” câblée dans nos têtes. Ce sont des schémas de base que notre cerveau utilise pour reconstruire n’importe quelle image.

Brain-IT reconstruit donc les images en deux passes. D’abord les structures de bas niveau (les formes, les contours), puis les détails sémantiques de haut niveau (c’est un chat, c’est un arbre, c’est votre tante Huguette). C’est un peu comme le JPEG progressif que l’on voyait s’afficher lentement avec nos modem 56K, mais en infiniment plus smart.

Du coup, si on comprend comment le cerveau compresse les images, on pourrait créer de nouveaux formats vidéo ultra-légers. Imaginez un Netflix ou un Youtube qui streame en “brain-codec” à 1/40e de la bande passante actuelle. Ça changerait pas mal de choses… Et c’est pareil pour l’IA générative car actuellement, on entraîne des modèles avec des millions d’images durant des jours alors que notre cerveau, lui, apprend à reconnaître un visage en quelques expositions.

Et grâce à ses modèles de diffusion, Brain-IT est même capable de reconstruire visuellement ce que voit le cerveau ! Par contre, Brain-IT n’a pour le moment été testé que sur des images “vues” et pas des choses imaginées…

Mais les scientifiques n’écartent pas l’idée que ce soit possible donc ce n’est qu’une question de temps avant qu’on puisse capturer en image ses rêves par exemple.

Voilà, j’ai trouvé ça cool parce que ça montre que notre cerveau est probablement le meilleur système de compression d’images jamais créé et qu’on commence à peine à comprendre comment il fonctionne.

Merci Dame Nature !

Voilà, si vous voulez creuser, le code et les détails techniques sont sur la page du projet Brain-IT , et le paper complet est dispo sur arXiv .

Source

La véritable histoire des noms de domaine

Vous vous êtes déjà demandé comment on est passé de six extensions de domaine en 1985 à plusieurs milliers aujourd’hui ? Ou qui a enregistré le tout premier .com de l’histoire ? Hé bien vous allez pouvoir découvrir tout ça grâce au site dotcom.press qui a compilé 40 ans d’histoire des noms de domaine dans une chronologie interactive plutôt bien foutue.

Si comme moi, vous aimez vous plonger dans l’Histoire d’Internet, allez jeter un œil !

L’idée du projet, c’est donc de raconter l’évolution technique et humaine du web à travers le prisme des noms de domaine. Car derrière chaque .com, .org ou .net, il y a une histoire faite de batailles juridiques, de décisions politiques, d’arnaques monumentales, et parfois d’anecdotes complètement WTF.

La page couvre la période allant de 1983 à 2026, avec des événements clés présentés chronologiquement. Vous découvrirez par exemple que les 5 premières extensions (.com, .org, .edu, .gov, .mil) ont été définies en octobre 1984 dans la RFC 920, mais n’ont été mises en ligne qu’en 1985 accompagné de .net ajouté sur le tard. Ou encore que Network Solutions a eu le monopole complet de l’enregistrement des domaines jusqu’en 1999, quand l’ICANN a fini par leur imposer de la concurrence.

Le site explique aussi les enjeux autour des noms de domaine. Par exemple pourquoi Verisign détient toujours le monopole du .com et du .net en 2025, avec plus de 170 millions de domaines enregistrés et 1,5 milliard de dollars de revenus annuels. Ou comment le prix de gros d’un domaine est passé de 100 dollars dans les années 90 à 9 dollars en 1999, puis 6 dollars en 2000.

Il y a aussi des trucs plus exotiques comme l’histoire du .yu yougoslave volé pendant les guerres des Balkans ou comment voice.com a été acheté pour 30 millions de dollars en 2019, et n’affiche aujourd’hui qu’un texte moche et une adresse email.

Bref c’est une super timeline avec des images d’époque, des citations d’experts comme Tim Berners-Lee (évidemment), et des liens vers des tas de ressources complémentaires si vous voulez creuser un sujet.

Voilà, je me suis dit que si vous enseignez l’informatique, ou si vous bossez dans le web, ça devrait vous plaire.

Bonne lecture !

Mobile Fortify - L'app qui décide si vous êtes un citoyen ou un étranger

Sale temps en ce moment pour les citoyens américains… Vous avez votre certificat de naissance dans la poche, vous êtes un vrai américain pur et dur. Mais un agent ICE sort son smartphone, scanne votre visage en moins de 2 secondes, et une app officielle lui dit que vous êtes un étranger et que vous n’avez rien à faire là.

C’est faux évidemment, mais devinez qui a raison ?

Hé bien c’est pas vous !

Mobile Fortify , c’est donc l’app que l’ICE (police de l’immigration) et la Border Patrol américaine (l’équivalent de la police aux frontières) ont déployée sur leurs smartphones l’année dernière. Une app de reconnaissance faciale qui tape dans une banque de 200 millions d’images et des dizaines de bases de données gouvernementales : FBI, State Department, DMV, passeports, visas, fichiers criminels, tout y passe et en temps réel s’il vous plaît.

L’app s’appuie principalement sur une fonction baptisée “Super Query”. En gros, un agent de police pointe son téléphone vers votre visage, l’app le scanne, et hop il obtient votre nom complet, votre date de naissance, votre nationalité, votre statut d’immigration, votre casier judiciaire, et tous vos numéros d’identification uniques. Tout ça en quelques secondes et sans votre consentement.

C’est moche. Et même si vous avez vos papiers ou un certificat de naissance, on a appris via le démocrate Bennie Thompson, élu à la Chambre des représentants, que les agents peuvent ignorer tout ça volontairement. Un pauvre algo stupide prime sur un document d’état civil officiel. C’est dingue non ?

D’ailleurs, plusieurs vidéos ont commencé à circuler dès octobre dernier. Par exemple à Chicago, des agents de la Border Patrol arrêtent deux ados à vélo . L’un d’eux n’a pas sa pièce d’identité alors l’agent demande à son collègue : “Can you do facial ?” et le collègue sort son smartphone, scanne le visage du gamin (mineur), sans aucune autorisation parentale évidemment.

Autre vidéo, toujours à Chicago, un automobiliste refuse de montrer sa carte d’identité . C’est son droit constitutionnel le plus pur, mais l’agent pointe quand même son téléphone vers lui. Le type proteste : “I’m an American citizen, so leave me alone.” Réponse de l’agent : “Alright, we just got to verify that.” Et il lui scanne la tronche.

Le document interne du DHS (U.S. Department of Homeland Security) est très clair : “ICE does not provide the opportunity for individuals to decline or consent to the collection and use of biometric data/photograph collection.” Traduction : on scanne d’abord, on demande jamais. Et votre visage, qu’il soit scanné par erreur ou pas, restera stocké 15 ans dans les bases de données fédérales.

Jeramie Scott, de l’ Electronic Privacy Information Center , appelle ça une “dérive dystopique pure”. Quatre sénateurs américains, dont Edward Markey, ont également envoyé une lettre à l’ICE en septembre dernier pour exiger l’arrêt immédiat de l’utilisation de Mobile Fortify. Ils y réclament la divulgation complète de la base juridique de l’app, de sa précision, et des contrôles en place.

Mais bien sûr, silence radio de la part de l’ICE.

Bon, rien de nouveau dans la reconnaissance faciale en soi. Ce qui est nouveau vraiment ici, c’est la portabilité de cette techno, l’agrégation instantanée de dizaines de bases de données, et surtout le déploiement sur le terrain sans cadre légal clair. Et surtout c’est l’inversion totale de la preuve où un algorithme devient plus fiable qu’un document officiel.

Et si je vous en parle, c’est parce que ce genre de dérives ne reste jamais confiné aux États-Unis. En Europe, en France, nos gouvernements lorgnent déjà sur ces technologies. Il y a des garde-fous, certes, mais la pression sécuritaire est constante et ces outils se normalisent petit à petit. À l’heure où certains fous rêvent de faire de la France le pays le plus répressif d’Europe, ce glissement vers la techno-police devient franchement flippant.

Bref, le problème n’est ni technique, ni culturel, ni géographique. Il est politique. Et nous devons rester vigilants pour que ce cauchemar dystopique ne débarque pas jusqu’ici. Parce qu’une fois qu’on laissera ces algorithmes décider de quelle est notre identité, on sera foutu.

Source

L'apocalypse arrive et ça va bien se passer

En général, quand on parle de fin du monde, c’est soit du blabla philosophique autour d’une bière, soit c’est Bruce Willis qui sauve l’humanité avec une perceuse. Mais cette fois, on va aller un peu plus loin que ça… Car une équipe de chercheurs a trouvé le moyen d’observer pour de vrai comment les gens se comportent quand ils savent que tout va disparaître.

Pour cela, ils ont utilisé le MMORPG ArcheAge. C’est moins spectaculaire qu’un astéroïde géant ou qu’une guerre thermonucléaire, mais les données sont meilleures !

Ah Reum Kang de l’Université de Buffalo et ses collègues ont pour cela analysé 270 millions d’enregistrements de comportements durant la 4ème bêta fermée du jeu ArcheAge en 2011 et 2012. Le principe c’est qu’à la fin de la bêta fermée, tous les personnages sont supprimés, toute progression est perdue, tous les objets virtuels disparaissent… Vous avez passé 11 semaines à construire votre empire virtuel, à farmer vos légendaires, à monter votre guilde au top… Et pouf, tout disparait et y’a pas de Ctrl+Z possible. Désolé.

Pour les 81 000 joueurs testeurs, c’était comme vivre dans un monde avec une date d’expiration connue à l’avance. Et contrairement aux études philosophiques classiques basées sur des sondages et des suppositions, là on avait des données brutes, précises, et massives sur ce que les gens font vraiment.

Les chercheurs se sont appuyés sur ce qu’ils appellent le mapping principle. L’idée c’est que les joueurs agissent en ligne comme dans la vraie vie. Bon, c’est vrai que perdre son avatar n’est pas exactement comme perdre sa vie (quoique, allez expliquer ça à un joueur qui vient de perdre son level 50 avec full stuff épique, ok les boomers ? ^^). Mais quand vous avez investi 300 heures à bâtir votre royaume virtuel, la claque psychologique reste bien réelle. C’est un peu comme effacer votre disque dur sans backup, mais avec plus de dragons et de sortilèges.

Et les résultats sont plutôt encourageant pour notre prochaine fin du monde. En effet, y’a pas eu de chaos généralisé. On aurait pu croire que tout le monde allait se transformer en psychopathe, tuer son voisin, piller les maisons virtuelles et foutre le feu à tout ce qui bouge. Mais non. La plupart des joueurs n’ont pas vraiment changé leur comportement… Même en sachant que demain tout disparaissait, ils ont continué à jouer normalement.

C’est presque décevant, non ?

Alors vous allez me dire “Moi je suis pas comme ça, si mon serveur WoW ferme demain je vais tout péter ! J’suis un déglingo, un fou dans ma tête !!”. Mouais. Les stats sont contre vous les amis. Vous allez probablement juste continuer à farmer vos objets rares et à spammer le chat de guilde comme d’habitude.

Par contre c’est vrai, quelques marginaux ont bien pété les plombs. Les chercheurs ont détecté une hausse du PK (player killing, c’est quand vous tuez un autre joueur de votre propre camp, ce qui est considéré comme un meurtre dans le jeu…) mais ça a concerné seulement 334 joueurs sur 81 000. Donc pas vraiment American nightmare…

Ceux qui on abandonné le navire en cours de route, genre 3 semaines avant l’apocalypse, sont ceux qui sont devenus les plus toxiques pour la communauté. Ceux qui sont restés jusqu’au bout par contre, ont gardé une forme de loyauté envers la communauté, même quand ils savent que tout va disparaître. C’est assez révélateur sur l’attachement social.

Par exemple, en analysant les chats du jeu, les chercheurs ont mesuré ce qu’ils appellent le valence score. C’est un indicateur de positivité dans le langage et devinez quoi ? Hé bien au lieu de devenir déprimants ou agressifs, les échanges dans les canaux sociaux sont devenus légèrement plus joyeux à l’approche de la fin. Les joueurs ont augmenté leurs interactions… plus de messages échangés, plus de groupes formés pour des quêtes. Un peu comme si, face à l’apocalypse, les gens se rapprochaient au lieu de s’éloigner.

Mais alors, est-ce qu’on continue à se battre pour s’améliorer quand on sait que demain tout s’efface ?

Martin Luther aurait dit “Même si je savais que le monde disparaît demain, je planterais quand même mon pommier”. Et bien les joueurs d’ArcheAge, eux, n’ont pas planté de pommiers et encore moins mangé de la compote… Non, l’étude montre en réalité une grosse baisse des activités de progression. Il y a eu moins de quêtes complétées, moins de montées de niveau, moins de changements de compétences. Les joueurs ont carrément abandonné tout ce qui concerne l’amélioration de leur personnage.

Bah oui pourquoi s’emmerder à farmer de l’XP pendant 8 heures si demain votre magnifique niveau 50 redevient niveau 0 ?

Par contre, ils n’ont pas arrêté de jouer pour autant. Ils ont juste changé leurs priorités. Plus de construction de maisons (parce que bon, une maison virtuelle qui va être détruite dans 3 jours, autant la construire et en profiter maintenant), plus de crafting d’items, plus d’interactions sociales. Bref, des activités qui apportent une satisfaction immédiate plutôt qu’un bénéfice à long terme.

Alors posez-vous la question. Est ce que vous êtes plutôt team “je reste jusqu’au dernier screenshot avec ma guilde” ou de la team “je me barre 2 semaines avant insultant tout le monde” ?

Parce que statistiquement, si vous êtes du genre à ragequit, vous avez 78% de chances de devenir un serial killer virtuel avant de partir. Les scientifiques l’ont prouvé, bon courage pour votre karma de merde ^^.

Bon après, il faut quand même relativiser car ArcheAge n’est qu’un jeu vidéo, et pas la vraie vie. Les chercheurs le reconnaissent eux-mêmes, personne ne meurt pour de vrai à la fin de la bêta (heureusement quand même ^^) mais cette recherche a des implications concrètes.

Pour les développeurs de jeux, ça aide à comprendre quels comportements peuvent servir de signaux d’alerte pour détecter les joueurs qui vont quitter le jeu. Si quelqu’un commence à supprimer ses personnages et à PK à tour de bras, c’est probablement qu’il est sur le départ ! Pour les chercheurs en sciences sociales, c’est également une mine d’or. Avoir accès à 270 millions de décisions humaines dans un contexte de fin annoncée, avec des règles du jeu parfaitement contrôlées et connues, c’est le genre de dataset dont on ne peut que rêver dans les études traditionnelles.

Et pour nous, simples mortels ?

Et bien ça confirme quelque chose d’assez réconfortant. Face à la fin du monde, la plupart des gens ne deviennent pas des monstres. Ils se rapprochent des autres, renforcent leurs liens sociaux, et arrêtent juste de se projeter dans un futur qui n’existe plus.

Donc si demain on vous annonce que la vraie apocalypse arrive (pas celle du jeu vidéo hein, la vraie avec les robots tueurs de Trump, les zombies de Poutine ou l’astéroïde piloté par des aliens dont parlent les complotistes en ce moment), vous n’allez probablement pas piller le supermarché du coin mais plutôt appeler vos potes pour une dernière soirée pizza-bière.

Source

7 Best Versatile Seating Solutions That Transform How We Live & Sit

Modern living demands furniture that adapts, evolves, and serves multiple purposes within our increasingly flexible spaces. The traditional single-function chair no longer meets the needs of contemporary homes where rooms serve multiple roles throughout the day. Today’s most innovative seating solutions transcend basic functionality, offering dynamic designs that transform alongside our lifestyles.

These seven exceptional pieces represent the cutting edge of versatile seating design, each bringing unique solutions to modern living challenges. From reimagined classics to experimental concepts, these chairs prove that versatility and beauty can coexist in remarkable ways.

1. IKEA POÄNG Redesigned Chair: Social Connection Redefined

IKEA has fundamentally reimagined its most enduring furniture icon through a transformative redesign that prioritizes social interaction over solitary comfort. The POÄNG armchair received its most significant design evolution in nearly five decades when late designer Noboru Nakamura emerged from retirement to personally oversee this dramatic transformation. His final creative act involved removing the signature headrest entirely, creating a low-back version that encourages conversation rather than retreat.

The elimination of the headrest serves multiple purposes beyond pure aesthetics, fundamentally changing how people interact with both the chair and their surroundings. By lowering the overall profile and opening the back design, Nakamura created seating that transforms a personal sanctuary into an invitation for interaction. This modification reflects contemporary living patterns where multipurpose spaces demand furniture that adapts to various social contexts and encourages meaningful human connection.

What we like

• Promotes social interaction and conversation through open-back design.

• Maintains iconic comfort while adapting to modern living needs.

What we dislike

• Less head and neck support for extended relaxation sessions.

• May not suit those preferring private, enclosed seating experiences.

2. Color Roller Transparent Rolling Chairs: Dynamic Chromatic Design

Like De Stijl once deconstructed form and space into elemental purity, Color Roller reimagines that legacy through motion and transparency using primary colors red, yellow, and blue. This experimental furniture collection plays with relationships between geometry, light, and interaction, creating transparent forms that transcend boundaries and merge into endless new shades. The result transforms furniture into evolving chromatic sculpture that invites users to participate in environmental reconstruction.

Color Roller explores how color and form coexist as active agents in spatial design through three components, including a hexagonal chair, a rectangular table, and a triangular floor lamp. Made entirely from transparent acrylic panels intersecting in pairs, these forms create vivid and flexible compositions of color. Depending on light direction and intensity, the furniture transforms and casts overlapping shadows and gradients that turn interiors into interactive canvases.

What we like

• Creates dynamic color interactions that change throughout the day.

• Lightweight rolling design allows easy reconfiguration of spaces.

What we dislike

• Transparent acrylic may show fingerprints and require frequent cleaning.

• Limited cushioning options may affect long-term seating comfort.

3. Himalaya Pelvis Chair: Biomimicry Meets Elegant Function

Furniture often aspires to fit the body, but the Himalaya Pelvis Chair goes further by finding its silhouette directly in pelvic bone structure. This direct translation from biology to design yields a chair that feels organic, functional, and distinctly new, where comfort and concept are literally intertwined. Designers Mingyu Seo and Eojin Jeon created this rare piece that genuinely makes you reconsider relationships between our bodies and daily objects.

The chair’s entire premise builds on the pelvic bone’s natural ability to cradle and support, translating anatomical engineering directly into refined seating design. This approach sidesteps abstract biomimicry by presenting clear, almost educational links between form and inspiration through unapologetically direct reference. The execution transcends its medical source material through such refined craftsmanship that it becomes genuinely elegant rather than clinical.

What we like

• Anatomically-inspired design provides natural ergonomic support.

• Unique sculptural form serves as a conversation piece and functional seating.

What we dislike

• Bold design may not integrate easily with traditional decor styles.

• Limited availability as a concept piece may affect accessibility.

4. Frank Lloyd Wright Reconstructed Chairs: Architectural Seating Heritage

The reconstructed chairs illuminate Wright’s approach to furniture as architectural elements rather than standalone pieces, demonstrating his belief that furniture should emerge organically from the building’s overall design concept. Wright called this philosophy “integral ornamentation” and applied it consistently throughout his career, spanning five distinct periods from 1911 to 1959. The exhibition traces a dramatic evolution from Prairie School geometric vocabulary to later organic forms with flowing curves.

Highlights include first-ever fabrications of designs never built during Wright’s lifetime, such as cafe chairs originally envisioned for the Solomon R. Guggenheim Museum. These cafe chairs represent some of the exhibition’s most significant reconstructions, now realized through collaboration with Milwaukee metal-spinning firm. Early Prairie School pieces display right angles and linear elements complementing the horizontal prairie house emphasis, while later work reveals shifts toward organic forms.

What we like

• Historic design pedigree brings timeless architectural principles to modern spaces.

• Integral ornamentation philosophy ensures harmony with surrounding architecture.

What we dislike

• Limited production availability may result in higher costs.

• Period-specific styling may not suit all contemporary interior approaches.

5. LOOP Chair: Sculptural Minimalism in Motion

The LOOP Chair concept impresses with a bold, angular frame that feels both dynamic and airy while creating a continuous, flowing form that almost “loops” around the sitter. This unique vision transforms the chair from a functional object into a sculptural experience that serves as both structural support and artistic centerpiece. The proposed walnut wood veneer frame offers options for ash, oak, or black-stained finishes to complement various interior styles.

The chair’s geometry results from careful sketching and creative exploration, balancing soft curves for optimal comfort with sharp angles for modern, architectural aesthetic appeal. The flowing design creates visual lightness while maintaining structural integrity, making it suitable for both residential and commercial applications. This sculptural approach elevates everyday seating into an artistic statement that enhances rather than merely occupies space.

What we like

• Sculptural design serves a dual purpose as furniture and artistic centerpiece.

• Multiple wood finish options allow customization for different interior styles.

What we dislike

• Concept status may limit immediate availability for purchase.

• Angular design elements might not suit all body types comfortably.

6. Same Same Twin Chairs: Playful Minimalist Interaction

The Same Same twin chairs by A204 challenge traditional furniture limitations by functioning beautifully as standalone seating with built-in storage while unlocking playful possibilities when paired together. These minimalist wooden chairs transform from simple furniture into a creative toolkit that allows interaction, configuration, and use possibilities that adapt to changing needs. The design language speaks to Scandinavian minimalism with pale plywood construction and clean, geometric lines.

Each chair features a subtle sage green accent on the seat and storage surfaces, adding warmth without overwhelming natural wood grain characteristics. The under-seat storage space accommodates magazines, small objects, or standard Euro containers for organized solutions, making each chair genuinely useful beyond basic seating function. When paired together, the chairs create new possibilities for social interaction and spatial configuration.

What we like

• Built-in storage maximizes functionality in compact living spaces.

• Pairing capability creates flexible seating arrangements for various occasions.

What we dislike

• The twin chair concept requires purchasing multiple pieces for full functionality.

• Minimalist design may lack cushioning for extended sitting comfort.

7. Permanent Souls Chair Collection: Memory Made Tangible

The visual impact is immediate and haunting as light passes through netting in patterns that shift as you move around each piece. These chairs appear solid from a distance but reveal their permeable nature up close, allowing you to see through them, around them, and into spaces they create. They exist in strange territory between presence and absence, like memories made tangible that question the very nature of traditional furniture function.

This collection explores what happens when objects lose their original purpose but somehow endure, transforming nets that once held things together into something that questions functional boundaries. The chairs challenge conventional seating expectations by creating pieces that exist both physically and conceptually, offering a unique perspective on how furniture can embody abstract concepts while remaining functionally relevant.

What we like

• Unique conceptual approach creates a truly distinctive seating experience.

• Permeable design allows light to create dynamic shadow patterns in spaces.

What we dislike

• Unconventional materials may not provide traditional seating comfort expectations.

• Artistic concept may prioritize form over practical everyday functionality.

The Future of Adaptive Seating

These seven innovative seating solutions demonstrate how contemporary designers are reimagining the fundamental relationship between furniture and daily life. Each piece offers a unique approach to versatility, whether through social interaction, dynamic color, anatomical inspiration, architectural heritage, sculptural beauty, playful modularity, or conceptual exploration.

The best versatile seating solutions for modern living transcend traditional boundaries, offering functionality that adapts to our changing needs while adding aesthetic and emotional value to our spaces. These designs prove that chairs can be simultaneously practical tools, artistic statements, and catalysts for human connection, making them essential components of thoughtfully designed modern homes.

The post 7 Best Versatile Seating Solutions That Transform How We Live & Sit first appeared on Yanko Design.

OpenAI's staggering mental health crisis revealed — Millions use ChatGPT like a therapist, but that's about to change

OpenAI has provided some internal numbers related to users who seek help from GPT-5, and they're a lot bigger than I was expecting. The AI firm has laid out details as to how it's combating the issue.

BEIJING, CHINA - AUGUST 08: In this photo illustration, the logo of Open AI is displayed on a smartphone screen with a GPT-5 logo in the background on August 8, 2025 in Beijing, China. OpenAI on August 7 announced GPT-5, its latest and most advanced AI model. (Photo by VCG/VCG via Getty Images)

Rooter une caméra de sécurité avec un MP3

L’histoire du jour est signée Luke M, un hacker qui a découvert comment rooter une caméra avec… du son !

L’appareil en question est une caméra chinoise de la marque Yi qui utilise une fonctionnalité appelée “Sonic Pairing” pour faciliter la configuration WiFi. Comme ça, au lieu de galérer à taper votre mot de passe WiFi sur une interface minuscule avec vos gros doigts boudinés, vous jouez simplement un petit son depuis votre téléphone et c’est ce son qui contient votre clé WiFi encodés en modulation de fréquence. La caméra écoute, décode, et se connecte.

Magique, non ?

Sauf que cette fonctionnalité marquée en “beta” dans l’app Yi IoT contient deux bugs magnifiques : une stack overflow local et un global overflow. En gros, en fabriquant un fichier audio malveillant avec les bons patterns, Luke a pu injecter du code arbitraire dans la caméra, ce qui lui permet d’obtenir un shell root qui se lance via la commande telnetd avec les identifiants par défaut. Tout ça, sans accès physique… juste la lecture d’un wav ou d’un MP3.

Pour arriver à ses fins, Luke a utilisé Frida , un framework de hooking que j’adore, capable d’intercepter les fonctions natives de l’app. Cela lui a permis de remplacer les données légitimes attendues par l’app par son propre payload.

Le premier bug (stack overflow) n’étant pas suffisant seul, Luke a dû utiliser un autre bug ( un out-of-bounds read via DOOM ) pour leaker un pointeur et contourner l’ ASLR . Mais le second bug (global overflow) est bien plus intéressant puisqu’il lui permet directement de faire une injection de commande via system() lors du pairing, sans avoir besoin d’autre chose.

Voici la waveform utilisée par le second exploit

Et comme la chaîne que vous pouvez envoyer via le son peut faire jusqu’à 128 bytes c’est largement suffisant pour un telnetd ou n’importe quelle commande shell. Notez que pour que l’exploit marche, le bind_key doit commencer par ‘CN’, ce qui force un path exploitable et, en bonus fait causer la caméra en chinois ^^.

Après faut savoir que ce hack amusant ne fonctionne que si la caméra n’est pas encore connectée au cloud. Donc c’est pas très utile pour attaquer des caméras déjà déployées mais ça illustre bien le problème de tout cet IoT pas cher avec des tas de features “pratiques” comme ce “Sonic Pairing” qui finissent par être catastrophique dans la pratique.

Voilà… si vous voulez les détails techniques complets avec les waveforms et le code d’exploit, foncez lire ça sur Paged Out! #7 .

Deep Eye - Le scanner de vulns multi-IA

Ce serait cool si on pouvait réunir les Avengers des LLMs pour les faire bosser ensemble sur de la recherche de faille de sécurité ? OpenAI, Anthropic, X.AI et Meta ensemble contre les forces du mal, c’est maintenant possible avec Deep Eye , un super scanner de vulnérabilités qui transforme les quatre IA rivales en équipe de pentesteurs. Vous allez voir, c’est assez génial !

Deep Eye, c’est donc un outil Python open source qui scanne les sites web et les API pour trouver des vulnérabilités. SQL injection, XSS, command injection, SSRF, path traversal, authentication bypass, au total y’a plus de 45 méthodes d’attaque automatisées. Vous lui indiquez une URL, et il teste tout en switchant entre les services d’IA selon le contexte.

Dans le contexte d’un pentest légitime, Deep Eye a même trouvé comment parler aux IA pour qu’elles acceptent de pondre du code un peu sensible. Et ça tombe bien car chaque IA a ses forces et ses faiblesses. GPT-4 par exemple excelle sur les payloads créatifs et les contournements de filtres. Claude lui est plus méthodique, et capable de mieux analyser le contexte et de génèrer des attaques adaptées au framework détecté. LLAMA en local quand à lui est rapide et ne coûte rien en appels API. Et Grok ? Bah il a le mérite d’être dispo même s’il est loin d’être le meilleur.

Deep Eye en tout cas est capable des les utiliser toutes selon la situation. Pour l’installer, ça se passe en 3 commandes :

Vous installez ça comme ceci :

git clone https://github.com/zakirkun/deep-eye.git
cd deep-eye

Puis sous Windows :

cd scripts
./install.ps1

Ou sous macOS / Linux :

chmod +x scripts/install.sh
cd scripts
./install.sh

Ensuite, vous n’avez plus qu’à configurer vos clés API dans config/config.yaml puis à le lancer comme ceci avec Python :

python deep_eye.py -u https://example.com

Et c’est parti pour le scan ! Il commencera par de la reconnaissance passive, énumèrera les DNS, découvrira les sous-domaines, testera les fameuses 45 méthodes d’attaque, génèrera les payloads avec les IA, et vous sortira un rapport incroyable (ou pas) en PDF, HTML ou JSON.

Bien sûr, Deep Eye est conçu pour des tests de sécurité autorisés uniquement donc utilisez le uniquement sur vos propres systèmes, ou sur des systèmes pour lesquels vous avez une autorisation d’agir écrite car vous le savez, scanner un site sans permission, c’est illégal !!!

Bref, ça ne remplace pas encore de vrais pentesters mais ça peut permettre de faire un peu d’analyse en amont histoire de voir où on met les pieds.

Merci à lorenper pour la découverte 🙏

Votre iPhone pollue le Wi-Fi de tout le monde et ça c'est moche

Vous streamez une vidéo sur votre iPad, tout va bien, et puis ça lag. Pas beaucoup hein, juste une petite micro-saccade bien en rythme toutes les deux secondes. Ce n’est pas la faute de votre routeur et pourtant vous avez beau pinger votre réseau local, ça saute de 3 ms à 90 ms… Bienvenue dans le monde merveilleux d’AWDL, la technologie Apple qui transforme plus d’un milliard d’appareils en mini-pollueurs du spectre WiFi.

Christoff Visser, ingénieur au labo de recherche d’Internet Initiative Japan, a eu ce problème et en a parlé lors de sa dernière présentation à la conférence RIPE 91 . Il était en train de streamer un jeu avec Moonlight quand ça s’est mis à sauter à intervalles réguliers. Ça l’intrigue, alors il fait ce que ferait n’importe quel ingénieur réseau qui se respecte… Il sort Wireshark et commence à tout sniffer.

Et là, surprise… Son iPad saute entre les canaux WiFi.

Mais pas aléatoirement, hein… précieusement toutes les deux secondes. C’est alors qu’il comprend que le coupable est le protocole AWDL (Apple Wireless Direct Link). Vous voyez AirDrop, cette app magique qui vous permet d’envoyer des fichiers entre iPhone et Mac sans rien configurer ? Handoff, qui vous laisse continuer votre mail de l’iPhone sur le Mac ? Sidecar, pour utiliser votre iPad comme second écran ? Hé bien toute cette magie Apple repose sur ce protocole propriétaire non-documenté qui tourne en permanence sur vos appareils.

Voici comment ça marche… Pour que deux appareils Apple puissent se parler n’importe où dans le monde, ils doivent d’abord se trouver. Apple a donc défini ce qu’on pourrait appeler des canaux sociaux : le canal 6 pour le 2,4 GHz, les canaux 44 et 149 pour le 5 GHz. Ce sont si vous voulez, des points de rendez-vous. Vos appareils sautent alors régulièrement sur ces canaux pour vérifier si quelqu’un veut leur parler, puis reviennent sur le canal de votre réseau WiFi.

Sauf que si vous êtes un admin réseau malin, vous n’utilisez PAS ces canaux parce que tout le monde les utilise. Vous scannez le spectre, vous trouvez un canal vide, et vous configurez votre réseau là-dessus pour éviter les interférences. Logique, non ?

Bah non. Pas avec Apple.

Parce que vos appareils Apple, eux, ils s’en foutent. Ils vont QUAND MÊME sauter sur les canaux 6, 44 ou 149 pour checker si quelqu’un veut leur parler, puis revenir. Hop. Toutes les deux secondes. Que vous utilisiez AirDrop ou pas. Que vous ayez d’autres appareils Apple à proximité ou pas. En permanence !

C’est dingue non ? Du coup, on se retrouve avec ces micro-coupures et une latence qui explose. Visser a découvert que ce problème est remonté sur les forums utilisateurs depuis 2019 . Les gens se plaignent, mais personne ne comprend vraiment ce qui se passe parce qu’Apple ne documente pas AWDL et que ces paquets sont invisibles sur votre propre machine. Du coup, diagnostiquer ça est presque impossible.

Visser a donc contacté Apple via leur Feedback Assistant et il n’a obtenu aucune réponse. Même après sa conf à RIPE91, Apple a gardé le silence…

Bref, le “ça marche tout seul” d’Apple a un coût sauf que ce n’est pas Apple qui le paie. C’est nous, les admins réseaux et tous les autres appareils sur le réseau. Apple a optimisé l’expérience de SES utilisateurs en externalisant le problème sur l’infrastructure WiFi des autres.

Alors y’a t-il des solutions ?

Bah justement. Vous avez trois options mais je vous préviens, elles sont toutes pourries.

  • Option 1 : Désactiver AWDL avec sudo ifconfig awdl0 down. Cool, ça marche sauf que vous perdez AirDrop, Handoff, Sidecar, et toutes les fonctionnalités cools qui font qu’un iPhone est un iPhone. Autant acheter un Android à ce tarif…
  • Option 2 : Configurer votre réseau WiFi sur les canaux 6, 44 ou 149. Utiliser les mêmes canaux que tout le monde pour éviter que vos appareils Apple ne sautent est donc une bonne option, même si ces canaux sont souvent saturés. Et au Japon, le 149 est carrément interdit !
  • Option 3 : Vivre avec en totale acception de votre sort. Vous devez accepter que vos appareils Apple sont des gros dégueulasses qui vont polluer le WiFi, accepter ces micro-latences et accepter que votre admin réseau va vous poursuivre avec un couteau dans les couloirs de la boite quand il aura lu mon article.

Et comme ce n’est pas un problème de matériel, acheter un nouveau routeur WiFi 7 ne changera rien puisque le problème, c’est la communication directe entre VOS appareils. Apple pousse même le RFC 9330 (L4S) pour réduire les délais réseau, mais ça ne résoudra rien non plus parce qu’AWDL, c’est du peer-to-peer et ça bypass votre routeur.

Quelqu’un n’a même pas besoin d’être connecté à votre réseau pour foutre le bordel. Il peut juste passer à côté de vous dans un café, déverrouiller son iPhone, et boom, votre réseau va glitcher quelques secondes pendant que vos appareils négocieront avec le sien.

Visser a donc présenté tout ça en espérant que les admins réseau et les FAI soient enfin informés du souci et puisse répondre enfin aux utilisateurs qui rencontrent ce problème invisible. Donc, voilà, la prochaine fois que votre connexion WiFi merdera sans raison, regardez autour de vous et comptez les iPhones et autres appareil Apple car chacun d’eux est en train de jouer à saute-moutons entre les canaux de votre réseau.

Plus d’un milliard d’appareils qui font ça en permanence, partout dans le monde, c’est pas rien quand même…

Bref…

Source

❌