Vue normale

Il y a de nouveaux articles disponibles, cliquez pour rafraîchir la page.
Hier — 22 décembre 2025Flux principal

Anna's Archive vient de sauvegarder la totalité de Spotify

Par : Korben
21 décembre 2025 à 09:25

Vous connaissez Anna's Archive , cette bibliothèque pirate qui sauvegarde tous les livres et articles scientifiques de l'humanité ? Hé bien ils viennent de s'attaquer à un nouveau chantier : sauvegarder Spotify (en tout cas le plus possible), c'est à dire des millions de morceaux + de la métadonnées, soit ~300 téraoctets de données !!

Anna's Archive se focalise normalement sur le texte (livres, et documents de recherche) parce que c'est ce qui a la plus haute densité d'information mais leur mission, c'est de préserver le savoir et la culture de l'humanité, et ça inclut donc aussi la musique. Et comme ils ont trouvé un moyen de scraper Spotify à grande échelle, ils se sont dit "Hey pourquoi pas ? On est des oufs".

Et ça donne la plus grande base de données de métadonnées musicales jamais rendue publique, avec 186 millions d'ISRCs uniques (ces codes qui identifient chaque enregistrement). Pour vous donner un ordre de grandeur, MusicBrainz n'en a que 5 millions. Niveau fichiers audio, ils ont aussi archivé environ 86 millions de morceaux, ce qui représente 99,6% des écoutes sur la plateforme (même si ça ne fait "que" 37% du catalogue total). Donc si vous écoutez un morceau au hasard sur Spotify, y'a 99,6% de chances qu'il soit dans l'archive.

Pour trier tout ça, ils ont utilisé la métrique "popularité" de Spotify qui va de 0 à 100. Ainsi, pour les morceaux avec une popularité supérieure à 0, ils ont récupéré quasiment tout en qualité originale (OGG Vorbis 160kbit/s) et pour les morceaux à popularité 0 (soit ~70% du catalogue, des trucs que personne n'écoute), ils ont réencodé en OGG Opus 75kbit/s pour gagner de la place… mais ils ne sont pas allés au bout de la longue traîne (trop de stockage pour trop peu de gain, et pas mal de contenu “bof” à popularité 0). Pour 99% des gens ça sonne pareil, même si je sais que les audiophiles vont me tuer dans les commentaires ^^.

En regardant les stats qu'ils ont produit à partir de ce qui a été scrappé, les 3 morceaux les plus populaires (Die With A Smile de Lady Gaga et Bruno Mars, BIRDS OF A FEATHER de Billie Eilish, et DtMF de Bad Bunny) ont été streamés plus de fois que les 20 à 100 millions de morceaux les moins populaires combinés. Bon, ils précisent aussi que la popularité est très dépendante du moment, donc ce top est un peu arbitraire mais ça montre à quel point la longue traîne est looooongue sur les plateformes de streaming...

Après le problème avec la préservation musicale actuelle (ce qu'on retrouve sur les sites de Torrent par exemple), c'est qu'elle se concentre uniquement sur les artistes populaires et la qualité maximale (FLAC lossless). Du coup, y'a plein de musique obscure qui ne survit que si une seule personne décide de la partager. Et ces fichiers sont souvent mal seedés. Et c'est pour ça que je trouve l'approche d'Anna's Archive plutôt pas mal car elle consiste à archiver tout ce qui existe (ou presque), même en qualité "suffisante", plutôt que de se concentrer sur un sous-ensemble en qualité parfaite.

Et comme vous vous en doutez, tout est distribué via des torrents, avec les métadonnées déjà disponibles (moins de 200 Go compressés) et les fichiers audio qui arrivent progressivement par ordre de popularité. Note la base s'arrête à juillet 2025, donc tout ce qui est sorti après peut ne pas être là (même s'il y a quelques exceptions).

Bref, c'est la première archive de préservation musicale vraiment ouverte, que n'importe qui peut mirrorer s'il a assez de stockage et voilà comment grâce à l'aide de tout le monde, le patrimoine musical de l'humanité sera protégé pour toujours des catastrophes naturelles, des guerres, des coupes budgétaires et autres désastres... Par contre, pas sûr que ça la protège de la boulimie des IA génératives.

Merci à Lilian pour l'info !

Source

1,5 To de VRAM sur un Mac Studio - Le RDMA Thunderbolt 5 qui change la donne

Par : Korben
21 décembre 2025 à 08:04

Vous rêvez de faire tourner des modèles d'IA de 600 milliards de paramètres sur votre bureau sans avoir à vendre vos enfants ? Hé bien Jeff Geerling vient de tester un truc qui va vous faire baver, je pense. En tout cas, moi ça m'énerve (dans le bon sens du terme hein...) !

Apple lui a prêté 4 Mac Studios M3 Ultra pour tester une nouvelle fonctionnalité qui débarque avec macOS 26.2 et qui s'appelle le RDMA over Thunderbolt 5. En gros, c'est une techno qui permet à plusieurs Macs de partager leur mémoire unifiée comme si c'était un seul gros pool de RAM et du coup, au lieu d'avoir 4 machines séparées avec chacune leur mémoire, vous vous retrouvez avec 1,5 To de VRAM partagée accessible par toutes les machines.

Le setup de Jeff c'est deux Mac Studios avec 512 Go de RAM chacun à environ 11 700 dollars pièce, plus deux autres avec 256 Go à 8 100 dollars. Total de la douloureuse : environ 40 000 dollars. Ça pique, c'est clair, mais attendez de voir ce que ça fait.

Le truc qui change vraiment la donne avec le RDMA c'est la latence. Avant, quand un Mac devait accéder à la mémoire d'un autre Mac via le réseau, ça prenait environ 300 microsecondes. Avec cette nouvelle implémentation Thunderbolt 5, on tombe à moins de 50 microsecondes. Ça paraît rien comme ça, mais pour faire tourner ce genre de modèles, c'est énorme.

Jeff a fait tourner des benchmarks classiques et les résultats sont plutôt impressionnants. Sur Geekbench 6, le M3 Ultra explose le Dell Pro Max et l'AMD Ryzen AI Max+ 395 en mono et multi-coeur. Mais le plus fou c'est sur le benchmark HPL en virgule flottante 64 bits où c'est le seul système desktop testé à dépasser 1 Téraflop, avec presque le double des performances du Nvidia GB10.

Côté modèles IA massifs, le cluster fait tourner Qwen3 235B à 32 tokens par seconde avec Exo, DeepSeek V3.1 et ses 671 milliards de paramètres scale correctement sur les 4 machines, et même Kimi K2 Thinking avec ses 1000 milliards de paramètres tourne à environ 30 tokens par seconde. Tout ça en consommant environ 250 watts max et en faisant quasi aucun bruit.

Par contre, c'est encore du logiciel en beta et ça se sent. Par exemple, Jeff a eu pas mal de crashs pendant ses tests HPL sur Thunderbolt avec des instabilités qui ont nécessité des redémarrages fréquents, ou encore le fait que seulement 4 Macs sont supportés pour l'instant malgré les 5 ports Thunderbolt 5 disponibles. Ensuite y'a le problème de l'administration à distance qui est inexistante, car impossible de mettre à jour macOS via SSH, donc faut se taper l'interface graphique à la main sur chaque machine.

Bref, c'est hyper prometteur comme techno, surtout pour ceux qui veulent faire tourner des LLM monstrueux sur leur bureau sans monter une salle serveur mais faudra attendre que le logiciel murisse un peu avant de claquer vos 40 000 balles de PEL dedans.

Source

Comment Boston Dynamics compte construire un cerveau pour Atlas

Par : Korben
20 décembre 2025 à 07:38

Boston Dynamics que vous connaissez tous pour ses chiens robots tueurs de la mort, vient de sortir une vidéo de 40 minutes. Pas de saltos arrière ou de robots qui dansent mais plutôt une loooongue session où ça parle stratégie IA et vision à long terme. Et comme j'ai trouvé que c'était intéressant, je partage ça avec vous !

Zach Jacowski, le responsable d'Atlas (15 ans de boîte, il dirigeait Spot avant), discute donc avec Alberto Rodriguez, un ancien prof du MIT qui a lâché sa chaire pour rejoindre l'aventure et ce qu'ils racontent, c'est ni plus ni moins comment ils comptent construire un "cerveau robot" capable d'apprendre à faire n'importe quelle tâche. Je m'imagine déjà avec un robot korben , clone de ma modeste personne capable de faire tout le boulot domestique à ma place aussi bien que moi... Ce serait fou.

Leur objectif à Boston Dynamics, c'est donc de créer le premier robot humanoïde commercialement viable au monde et pour ça, ils ont choisi de commencer par l'industrie, notamment les usines du groupe Hyundai (qui possède Boston Dynamics).

Alors pourquoi ? Hé bien parce que même dans les usines les plus modernes et automatisées, y'a encore des dizaines de milliers de tâches qui sont faites à la main. C'est fou hein ? Automatiser ça c'est un cauchemar, car pour automatiser UNE seule tâche (genre visser une roue sur une voiture), il faudrait environ un an de développement et plus d'un million de dollars.

Ça demande des ingénieurs qui conçoivent une machine spécialisée, un embout sur mesure, un système d'alimentation des vis... Bref, multiplié par les dizaines de milliers de tâches différentes dans une usine, on serait encore en train de bosser sur cette automatisation dans 100 ans...

L'idée de Boston Dynamics, c'est donc de construire un robot polyvalent avec un cerveau généraliste. Comme ça au lieu de programmer chaque tâche à la main, on apprend au robot comment faire. Et tout comme le font les grands modèles de langage type ChatGPT, ils utilisent une approche en deux phases : le pre-training (où le robot accumule du "bon sens" physique) et le post-training (où on l'affine pour une tâche spécifique en une journée au lieu d'un an).

Mais le gros défi, c'est clairement les données. ChatGPT a été entraîné sur à peu près toute la connaissance humaine disponible sur Internet mais pour un robot qui doit apprendre à manipuler des objets physiques, y'a pas d'équivalent qui traîne quelque part.

Du coup, ils utilisent trois sources de data.

La première, c'est la téléopération. Des opérateurs portent un casque VR, voient à travers les yeux du robot et le contrôlent avec leur corps. Après quelques semaines d'entraînement, ils deviennent alors capables de faire faire à peu près n'importe quoi au robot. C'est la donnée la plus précieuse, car il n'y a aucun écart entre ce qui est démontré et ce que le robot peut reproduire. Par contre, ça ne se scale pas des masses.

La deuxième source, c'est l'apprentissage par renforcement en simulation. On laisse le robot explorer par lui-même, essayer, échouer, optimiser ses comportements. L'avantage c'est qu'on peut le faire tourner sur des milliers de GPU en parallèle et générer des données à une échelle impossible en conditions réelles. Et contrairement à la téléopération, le robot peut apprendre des mouvements ultra-rapides et précis qu'un humain aurait du mal à démontrer, du genre faire une roue ou insérer une pièce avec une précision millimétrique.

La troisième source, c'est le pari le plus ambitieux, je trouve. Il s'agit d'apprendre directement en observant des humains.

Alors est-ce qu'on peut entraîner un robot à réparer un vélo en lui montrant des vidéos YouTube de gens qui réparent des vélos ? Pas encore... pour l'instant c'est plus de la recherche que de la production, mais l'idée c'est d'équiper des humains de capteurs (caméras sur la tête, gants tactiles) et de leur faire faire leur boulot normalement pendant que le système apprend.

Et ils ne cherchent pas à tout faire avec un seul réseau neuronal de bout en bout. Ils gardent une séparation entre le "système 1" (les réflexes rapides, l'équilibre, la coordination motrice, un peu comme notre cervelet) et le "système 2" (la réflexion, la compréhension de la scène, la prise de décision). Le modèle de comportement génère des commandes pour les mains, les pieds et le torse, et un contrôleur bas niveau s'occupe de réaliser tout ça physiquement sur le robot.

C'est bien pensé je trouve. Et dans tout ce bordel ambiant autour de la robotique actuelle, eux semblent avoir trouver leur voie. Ils veulent transformer l'industrie, les usines...etc. Leur plan est clair et ils savent exactement ce qu'ils doivent réussir avant de passer à la suite (livraison à domicile, robots domestiques...).

Voilà, je pense que ça peut vous intéresser, même si c'est full english...

Pourquoi mon anti-SEO va finir par payer grâce à l'IA

Par : Korben
19 décembre 2025 à 14:00

Vous savez quoi ? Pendant 20 ans, j'ai fait tout ce qu'il ne fallait pas faire en matière de référencement. Pas de stratégie de mots-clés, pas vraiment d'attention aux liens dofollow ou nofollow, des sujets qui partent dans tous les sens même si ça reste quand même majoritairement "tech", un vocabulaire personnel bourré d'expressions que personne d'autre n'utilise. Bref, le cauchemar absolu de n'importe quel consultant SEO ^^.

Et devinez quoi ? Ça pourrait bien devenir ma plus grande force.

Parce que le monde du référencement est en train de changer radicalement mes amis ! Et ça, c'est à cause de l'IA. Google a déployé son Search Generative Experience (SGE) , les gens utilisent de plus en plus ChatGPT ou Perplexity pour chercher des infos (moi aussi), et les algorithmes deviennent suffisamment "malins" pour comprendre le contexte et l'intention derrière une recherche, et pas juste des mots-clés.

Ce qui se passe en ce moment, c'est que Google privilégie de plus en plus ce qu'il appelle l' E-E-A-T : Experience, Expertise, Authoritativeness, Trustworthiness . En gros, l'expérience de première main, l'expertise réelle, l'autorité dans un domaine, et la confiance. Du coup, les contenus "authentiques" générés par de vrais humains avec de vraies opinions sont en train de surpasser les contenus sur-optimisés pour le SEO. Elle n’est pas belle la vie ??

Regardez Reddit. Le site a vu sa visibilité dans les recherches Google exploser de presque 200% ces derniers mois. Reddit est cité dans 62% des AI Overviews de Google quand il apparaît dans le top 10. Pourquoi ? Hé bien tout simplement parce que c'est du contenu généré par de vrais utilisateurs qui partagent leurs vraies expériences, et pas des articles corporate écrits pour satisfaire un algorithme comme toute la chiasse qu'on peut voir sur LinkedIn (Le LinkedIn de Korben est par ici ! Je ne poste rien pour l'instant, mais j'ai prévu de disrupter le game donc abonnez-vous !).

De mon côté, je suis assez surpris aussi parce que mon trafic remonte en flèche également... En plus, comme l'Indie Web a le vent en poupe, on est biiiiiènnn (à prononcer avec l'accent chelou des sudistes).

Du coup, reprenons un peu mes "faiblesses" une par une.

Tout d'abord, je ne fais pas gaffe aux liens dofollow/nofollow. Je sais c'est maaaal.

Hé bien, figurez-vous qu'en 2019, Google a annoncé discrètement que les nofollow sont maintenant traités comme des "indices" plutôt que des règles strictes . Les profils de liens naturels, avec un mix de dofollow et nofollow, sont désormais considérés comme plus authentiques et les spécialistes estiment qu'un profil sain contient entre 15 et 30% de nofollow. Et le plus important : les mentions de marque sans lien du tout commencent à influencer le référencement. On passe donc d'un SEO basé sur des backlinks à un SEO basé sur des entités et des relations .

Autre défaut, je parle de tout et n'importe quoi sur mon site.

Bon, là c'est vrai que Google préfère les sites spécialisés, mais korben.info existe depuis 2004, avec plus de 20 ans d'historique dans l'univers tech au sens large. Et c'est cette longévité et cette constance dans un domaine (même large) qui construisent une "autorité" que les sites récents ne peuvent pas répliquer. Chè ^^. Et puis, je ne parle pas de finance ET de cuisine ET de mode. Je reste quand même dans la tech, la sécurité, le hacking, le DIY informatique. C'est une niche, qui est juste un peu plus large que ce qu'on pourrait trouver sur un site entièrement consacré aux "claviers mécaniques Cherry MX Red pour gauchers".

Aussi, j'utilise mon propre vocabulaire. Parfois un peu fleuri, très loin du style "journalistique" dont on vous gave à longueur de média. Et ça, je pense que c'est peut-être ma plus grande force. Les IA sont entraînées à détecter les contenus génériques, les patterns répétitifs, les formulations standardisées et un contenu avec une vraie voix personnelle, des expressions uniques, un ton reconnaissable, c'est totalement tout ce que les algorithmes commencent à valoriser. Quand quelqu'un lit un de mes articles (comme vous en ce moment), il sait que c'est moi qui l'ai écrit, et cela même si je m'auto-boost avec l'IA comme tout le monde (voir la FAQ pour les détails).

Et surtout, y'a pas d'autres sites qui ont le même style, les mêmes expressions, la même façon de présenter les choses. C'est donc de l'authenticité pure, et l'authenticité devient le nouveau standard du référencement .

Je n'optimise pas non plus mes contenus sur des mots-clés spécifiques. Bien sûr, j'ai testé ces techniques il y a quelques années dans certains articles, mais c'est tellement chiant à faire... Je pourrais pas être référenceur, j'aurais envie de me foutre en l'air au bout de 5 min. Heureusement, les moteurs de recherche modernes comprennent maintenant le langage naturel et le contexte et par exemple, Google peut faire le lien entre "le truc qui permet de pirater une IA" et "jailbreak LLM" sans que j'aie besoin de bourrer mon texte de mots-clés techniques. L'époque où il fallait répéter 47 fois " meilleur VPN gratuit 2025 " pour ranker est donc révolue.

Ce qui est en train de mourir, donc c'est le SEO manipulatif. C'est-à-dire toutes ces fermes de contenu IA ou ces usines à pigistes qui crachent des milliers d'articles optimisés toute la journée. Je parle des articles de 3000 mots qui répètent la même info sous 15 angles différents pour couvrir tous les mots-clés possibles, sans parler des stratégies de link building agressives avec des guest posts génériques. D'ailleurs, Google a déployé plusieurs mises à jour spécifiquement pour déclasser ce type de contenu.

Ce qui est en train de gagner, vous l'aurez compris, c'est l'authenticité, les vraies personnes avec de vraies opinions, les contenus qui répondent à de vrais besoins plutôt qu'à des requêtes de recherche et les sites avec une histoire, une communauté, une voix.

Bref, après 20 ans à faire du "anti-SEO" par pure flemme et par conviction que le contenu devait parler aux humains plutôt qu'aux robots, il semblerait que l'histoire me donne enfin raison.... niark niark ! Nos amis les bots deviennent maintenant suffisamment intelligents pour apprécier ce que les humains apprécient, et ça, les copains, c'est plutôt une bonne nouvelle pour tous ceux qui, comme moi, ont toujours préféré écrire naturellement plutôt que pour plaire à des algorithmes...

Un projet open source qui détecte les nids-de-poule

Par : Korben
19 décembre 2025 à 12:00

Vous savez que depuis quelques années, des startups équipent les camions poubelle et les bus de caméras IA pour cartographier automatiquement l'état des routes ? Comme ça, pendant que le chauffeur fait sa tournée, une intelligence artificielle détecte les nids-de-poule, les fissures et autres joyeusetés routières en temps réel. Chaque défaut est géolocalisé, scoré par gravité, et hop, les équipes de maintenance savent exactement où intervenir.

Bon apparemment, là où j'habite, ils n'utilisent pas ça parce que les routes sont des champs de mines, mais si le Maire se chauffe en DIY, ce projet maintenu par un certain Peter va l'intéresser.

C'est sur GitHub et c'est un stack complet pour faire exactement la même chose que les startups spécialisées en nids de poule... un vrai projet end-to-end avec l'entraînement du modèle sur du GPU cloud, une API backend containerisée, et même une app mobile React Native pour scanner les routes depuis votre téléphone.

Le projet s'appelle pothole-detection-yolo et ça utilise YOLOv8, le modèle de détection d'objets qui fait fureur en ce moment dans le domaine de la vision par ordinateur. Concrètement, le modèle a été entraîné sur un dataset de nids-de-poule disponible sur HuggingFace, avec des images de 640x640 pixels. L'entraînement s'est fait sur Nebius Cloud avec des GPUs H100, donc du sérieux, pas du Colab gratuit qui timeout au bout de 20 minutes.

Ce qui est cool avec ce projet, c'est qu'il ne s'arrête pas au modèle. Y'a une API FastAPI complète qui expose deux endpoints : /detect pour envoyer une image et récupérer les bounding boxes avec les scores de confiance, et /health pour vérifier que le service tourne. Le tout est containerisé en Docker avec support GPU automatique. Et si vous avez pas de carte graphique, ça bascule sur CPU.

Et la cerise sur le gâteau, c'est l'app mobile Expo/React Native. Vous ouvrez l'app, vous prenez une photo d'une route avec votre smartphone, l'image est envoyée à l'API, et vous récupérez les détections en temps réel avec les rectangles dessinés autour des nids-de-poule et les pourcentages de confiance affichés. Bref, c'est exactement ce que font les boites tech à plusieurs millions, sauf que là c'est open source sous licence Apache 2.0.

YOLOv8 atteint facilement entre 93 et 99% de précision pour la détection de nids-de-poule selon les variantes utilisées et des chercheurs ont même combiné YOLOv8 avec des données de nuages de points 3D pour atteindre 95.8% de précision sur des tronçons de tests d'environ 5 km. Bref, c'est du solide et ça fonctionne .

Le truc intéressant pour les bricoleurs, c'est que le modèle entraîné est directement téléchargeable sur HuggingFace donc vous pouvez donc skip toute la partie entraînement si vous voulez juste tester le résultat. Une seule commande Docker pour lancer l'API, et vous êtes opérationnel. Pour les plus motivés qui veulent entraîner leur propre modèle avec des données locales de vos routes françaises pleines de cratères, le code d'entraînement est là aussi avec les configs Ultralytics.

Bref, si vous êtes une petite mairie qui veut cartographier l'état de vos routes sans claquer 50 000 euros dans une solution proprio, ou juste un dev curieux de voir comment fonctionne la stack derrière ces caméras intelligentes qu'on voit de plus en plus sur les véhicules de service, ce projet est une mine d'or.

Tout est là , documenté, et ça fonctionne du feu de dieu.

Sam Altman is 0% excited about being CEO of a public company — but "OpenAI needs lots of capital and is going to cross all of the shareholder limits"

OpenAI CEO Sam Altman recently indicated that he isn't excited about becoming CEO of a public company amid reports suggesting that the company.

OpenAI CEO Sam Altman speaks at OpenAI DevDay, the company's annual conference for developers, in San Francisco, California, on October 6, 2025.

Firefox is becoming an AI‑powered browser, but Mozilla says every new feature will come with a full off switch for privacy‑minded users

Mozilla is pushing Firefox toward AI, but long-time users will still be able to disable every AI feature completely.

CHINA - 2023/11/03: In this photo illustration, the open-source web browser developed by Mozilla Foundation, Firefox logo seen displayed on a smartphone with an Artificial intelligence (AI) chip and symbol in the background. (Photo Illustration by Budrul Chukrut/SOPA Images/LightRocket via Getty Images)

POLL: Is anyone out there actually using Microsoft Copilot? 📊

Windows Central readers, I'm curious if you're actively using Microsoft Copilot. If so, what are you using it for? If not, why not? Are you using an alternative AI? Let us know.

In this photo illustration, 'Microsoft Copilot' logo is displayed on mobile phone screen in front of a screen displaying the inscription of 'Copilot' in Ankara, Turkiye on March 14, 2025.

5 Travel Essentials Every Last-Minute 2025 Traveler Regrets Forgetting

22 décembre 2025 à 13:15

There’s a particular kind of panic that sets in about thirty minutes before you need to leave for the airport. You’ve thrown clothes into a suitcase, triple-checked your passport, and convinced yourself that you’ve packed everything important. Then you arrive at your destination and realize you’ve brought three chargers for devices you don’t own but somehow forgot the one thing that would’ve made your entire trip better. Last-minute travel has a way of exposing what truly matters versus what we think we need.

The beauty of spontaneous trips lies in their unpolished edges, but that doesn’t mean you should suffer through bad coffee, tangled headphone cords, or eating with your hands because the airline meal came with a flimsy plastic fork that snapped on contact. The difference between a trip you remember fondly and one you spent complaining about comes down to a handful of well-chosen essentials that solve real problems. These five designs represent the kind of thoughtful gear that takes up minimal space but delivers maximum impact when you need it most.

1. Nikon 4x10D CF Pocket Binoculars

Binoculars feel like relics from another era, the kind of thing your grandfather kept in a leather case that smelled faintly of pipe tobacco. Nikon’s 4x10D CF pocket binoculars challenge that entire perception by shrinking the form factor down to something that actually fits in your pocket without creating an awkward bulge. These aren’t meant to compete with your smartphone’s digital zoom or replace professional birding equipment. They exist in a different category entirely, prioritizing the experience of optical viewing over pixel counts and processing power.

The genius lies in recognizing that people don’t carry traditional binoculars because they’re too bulky and conspicuous. Nikon solved that problem by creating something so discreet it almost disappears. The optical quality remains surprisingly sharp for such a compact device, delivering a viewing experience that feels immediate and artifact-free. Whether you’re trying to read a distant street sign in an unfamiliar city or want a closer look at architectural details without looking like a tourist with professional gear, these slip into your travel kit without demanding dedicated space or special protection.

What we like

• The form factor makes them genuinely pocketable, solving the primary reason people don’t carry binoculars.

• Optical viewing delivers a tactile, immediate experience that digital zoom can’t replicate.

• The updated colorways transform them from technical equipment into an accessory you want to carry.

• Multiple uses, from reading transit signs to appreciating distant landscapes without looking conspicuous.

What we dislike

• The 4x magnification is modest compared to traditional binoculars, limiting long-distance viewing.

• The compact size means smaller objective lenses, reducing light-gathering capability in low-light conditions.

2. StillFrame Headphones

Air travel has become an endurance test for your ears. Between engine noise, crying babies, and the passenger next to you who insists on watching action movies without headphones until a flight attendant intervenes, you need something that creates a barrier between you and chaos. StillFrame wireless headphones approach this problem with a design philosophy borrowed from a time when music felt like a deliberate choice rather than background noise. The aesthetic draws from compact disc geometry, creating a visual language that feels refreshingly analog in an aggressively digital world.

Weighing just 103 grams, these headphones occupy a middle ground between intrusive over-ear designs and in-ear buds that always seem to fall out at the worst possible moment. The 40mm drivers create a soundstage that gives music room to breathe, which matters when you’re spending hours in compressed airplane cabins where everything feels claustrophobic. The combination of active noise cancelling and transparency mode means you can shift between complete isolation and situational awareness without removing them. That flexibility proves essential when navigating unfamiliar airports or wanting to hear boarding announcements without sacrificing your peace during the actual flight.

Click Here to Buy Now: $245.00

What we like

• The 24-hour battery life eliminates anxiety about running out of power mid-journey.

• Magnetic fabric ear cushions swap easily, giving you color options that match different moods.

• Dual connectivity through Bluetooth 5.4 and USB-C cable offers wireless freedom or wired stability.

• The exposed circuit board aesthetic celebrates the technology rather than hiding it behind plastic shells.

What we dislike

• The on-ear design may cause discomfort during extremely long flights compared to over-ear alternatives.

• The fashion-forward aesthetic might not appeal to travelers who prefer more conventional headphone designs.

3. 0.25 oz Aero Spork

There’s something deeply frustrating about packing perfectly good food for a trip only to realize you have nothing reasonable to eat it with. Plastic cutlery snaps under minimal pressure, full-sized metal utensils add unnecessary weight, and trying to eat noodles with a standard spoon requires patience most travelers don’t have after a long day. The Aero Spork weighs less than a quarter of an ounce but manages to feel substantial enough to handle actual meals. That combination of minimal weight and genuine utility makes it the kind of item that earns permanent residence in your travel kit.

The ergonomic curve gives you a secure grip even when your hands are cold or wet, while the tapered design specifically addresses the noodle-eating problem that plagues travelers across Asia and increasingly everywhere else. The stackable design means you can carry multiple sporks without them taking up more space than a single standard utensil. This becomes relevant when you’re traveling with others or want a backup. The durability factor matters more than you’d expect; these survive being tossed into bags, stepped on accidentally, and subjected to the kind of casual abuse that destroys lesser travel utensils within weeks.

Click Here to Buy Now: $19.95

What we like

• The 7-gram weight makes it lighter than most travel accessories you’ll forget you’re carrying.

• Stackable design solves the multi-person dining situation without requiring a full cutlery set.

• The tapered shape genuinely improves noodle-eating, addressing a specific and common travel challenge.

• Metal construction means it lasts indefinitely, unlike disposable or plastic alternatives.

What we dislike

• The hybrid spoon-fork design means neither side works quite as well as a dedicated utensil.

• Cleaning can be tricky in the field without proper access to soap and water.

4. MokaMax Portable Coffee Maker

Hotel coffee represents a special category of disappointment. It tastes like regret mixed with lukewarm water, extracted from pods that somehow cost three dollars each. Even when you find a decent café, you’re either waiting in line behind seventeen people who each ordered customized drinks with five modifications, or you’re drinking something that went cold during your walk back to your hotel. MokaMax addresses this problem by building a legitimate pressure-brewing system into a form factor that looks like a standard travel mug. The ridged stainless steel body provides a secure grip while reinforcing the rugged, outdoor-ready aesthetic.

The design spent considerable effort getting those ridges right, balancing functional grip with comfortable handling and visual interest. The flexible rope attachment transforms it from just another mug into something that clips onto backpacks or hangs from hooks, integrating into your mobile gear rather than requiring dedicated carrying. The key advantage over simply buying coffee everywhere you go is consistency and timing. You control the strength, temperature, and exact moment you brew. That autonomy matters when you’re dealing with jet lag and need coffee at 4 AM when nothing is open, or when you’re hiking and want something better than instant crystals dissolved in lukewarm water.

What we like

• The pressure-brewing system delivers espresso-style coffee without electricity or complex equipment.

• Single-vessel design eliminates the need to carry separate brewing and drinking containers.

• Ridged stainless steel construction provides grip and durability for genuine outdoor use.

• The rope attachment integrates it into your travel gear ecosystem rather than requiring dedicated space.

What we dislike

• The brewing process takes longer than simply buying coffee if you’re in an area with good options.

• Cleaning requires more attention than a standard travel mug, especially after brewing dark roasts.

5. Craftmaster EDC Utility Knife

Most travelers don’t think they need a utility knife until they’re standing in a hotel room trying to open packaging with their keys, teeth, or increasingly desperate improvisation. The Craftmaster EDC utility knife occupies just 8mm of thickness and 12cm of length, making it slim enough to slip into pockets, bags, or organizer pouches without creating bulk. The metallic construction gives it heft that feels reassuring rather than burdensome, while the rotating knob deployment mechanism adds a tactile satisfaction that pure functionality doesn’t require but somehow makes the tool more enjoyable to use.

The magnetic back serves double duty by letting you dock the knife on any metal surface and providing a home for the companion metal scale. That scale includes both metric and imperial measurements, a raised edge for easy pickup, and a blade-breaker for maintaining the OLFA blade’s sharpness. The 15-degree curvature protects your fingers during cutting tasks, while the 45-degree inclination helps with opening boxes without damaging contents. These details transform a basic utility knife into something that solves multiple problems, from precise measuring for emergency clothing repairs to clean package opening without destroying whatever’s inside.

Click Here to Buy Now: $79.00

What we like

• The 8mm thickness makes it genuinely pocketable without the bulk of traditional utility knives.

• Magnetic docking turns any metal surface into convenient storage, preventing loss in hotel rooms.

• The included ruler with blade-breaker combines multiple functions without requiring separate tools.

• OLFA blades are replaceable and widely available, extending the knife’s useful life indefinitely.

What we dislike

• The minimalist metal design lacks texture that could improve grip in wet conditions.

• Airport security restrictions mean it needs to go in checked luggage, limiting accessibility during travel days.

Why These Five Items Matter for Last-Minute Travel

The connecting thread between these designs is that they solve specific problems while occupying minimal space and requiring almost no learning curve. You don’t need an instruction manual, a YouTube tutorial, or previous experience. They work immediately and continue working reliably. That reliability becomes essential when you’re already dealing with the stress of spontaneous travel, unfamiliar locations, and the general chaos that comes from not having time to plan properly.

The other advantage is that none of these items are single-use solutions. Pocket binoculars serve navigation, sightseeing, and practical reading purposes. Headphones deliver both entertainment and environmental control. A quality spork handles any meal situation. The portable coffee maker works everywhere from mountain peaks to hotel rooms. The utility knife solves dozens of cutting, measuring, and opening challenges. That versatility means carrying five items gives you solutions to dozens of potential problems, which is exactly the kind of efficiency last-minute travelers need most.

The post 5 Travel Essentials Every Last-Minute 2025 Traveler Regrets Forgetting first appeared on Yanko Design.

This $2,899 Desktop AI Computer With RTX 5090M Lets You Cancel Every AI Subscription Forever

Par : Sarang Sheth
22 décembre 2025 à 02:45

Look across the history of consumer tech and a pattern appears. Ownership gives way to services, and services become subscriptions. We went from stacks of DVDs to streaming movies online, from external drives for storing data and backups to cloud drives, from MP3s on a player to Spotify subscriptions, from one time software licenses to recurring plans. But when AI arrived, it skipped the ownership phase entirely. Intelligence came as a service, priced per month or per million tokens. No ownership, no privacy. Just a $20 a month fee.

A device like Olares One rearranges that relationship. It compresses a full AI stack into a desktop sized box that behaves less like a website and more like a personal studio. You install models the way you once installed apps. You shape its behavior over time, training it on your documents, your archives, your creative habits. The result is an assistant that feels less rented and more grown, with privacy, latency, and long term cost all tilting back toward the owner.

Designer: Olares

Click Here to Buy Now: $2,899 $3,999 (28% off) Hurry! Only 15/320 units left!

The pitch is straightforward. Take the guts of a $4,000 gaming laptop, strip out the screen and keyboard, put everything in a minimalist chassis that looks like Apple designed a chonky Mac mini, and tune it for sustained performance instead of portability. Dimensions are 320 x 197 x 55mm, weighs 2.15 kg without the PSU, and the whole package pulls 330 watts under full load. Inside sits an Intel Core Ultra 9 275HX with 24 cores running up to 5.4 GHz and 36 MB of cache, the same chip you would find in flagship creator laptops this year. The GPU is an NVIDIA GeForce RTX 5090 Mobile with 24 GB of GDDR7 VRAM, 1824 AI TOPS of tensor performance, and a 175W max TGP. Pair that with 96 GB of DDR5 RAM at 5600 MHz and a PCIe 4.0 NVMe SSD, and you have workstation level compute in a box smaller than most soundbars.

Olares OS runs on top of all that hardware, and it is open source, which means you can audit the code, fork it, or wipe it entirely if you want. Out of the box it behaves like a personal cloud with an app store containing over 200 applications ready to deploy with one click. Think Docker and Kubernetes, but without needing to touch a terminal unless you want to. The interface looks clean, almost suspiciously clean, like someone finally asked what would happen if you gave a NAS the polish of an iPhone. You get a unified account system so all your apps share a single login, configurable multi factor authentication, enterprise grade sandboxing for third party apps, and Tailscale integration that lets you access your Olares box securely from anywhere in the world. Your data stays on your hardware, full stop.

I have been tinkering with local LLMs for the past year, and the setup has always been the worst part. You spend hours wrestling with CUDA drivers, Python environments, and obscure GitHub repos just to get a model running, and then you realize you need a different frontend for image generation and another tool for managing multiple models and suddenly you have seven terminal windows open and nothing talks to each other. Olares solves that friction by bundling everything into a coherent ecosystem. Chat agents like Open WebUI and Lobe Chat, general agents like Suna and OWL, AI search with Perplexica and SearXNG, coding assistants like Void, design agents like Denpot, deep research tools like DeerFlow, task automation with n8n and Dify. Local LLMs include Ollama, vLLM, and SGIL. You also get observability tools like Grafana, Prometheus, and Langfuse so you can actually monitor what your models are doing. The philosophy is simple. String together workflows that feel as fluid as using a cloud service, except everything runs on metal you control.

Gaming on this thing is a legitimate use case, which feels almost incidental given the AI focus but makes total sense once you look at the hardware. That RTX 5090 Mobile with 24 GB of VRAM and 175 watts of power can handle AAA titles at high settings, and because the machine is designed as a desktop box, you can hook it up to any monitor or TV you want. Olares positions this as a way to turn your Steam library into a personal cloud gaming service. You install your games on the Olares One, then stream them to your phone, tablet, or laptop from anywhere. It is like running your own GeForce Now or Xbox Cloud Gaming, except you own the server and there are no monthly fees eating into your budget. The 2 TB of NVMe storage gives you room for a decent library, and if you need more, the system uses standard M.2 drives, so upgrades are straightforward.

Cooling is borrowed from high end laptops, with a 2.8mm vapor chamber and a 176 layer copper fin array handling heat dissipation across a massive 310,000 square millimeter surface. Two custom 54 blade fans keep everything moving, and the acoustic tuning is genuinely impressive. At idle, the system sits at 19 dB, which is whisper quiet. Under full GPU and CPU load, it climbs to 38.8 dB, quieter than most gaming desktops and even some laptops. Thermal control keeps things stable at 43.8 degrees Celsius under sustained loads, which means you can run inference on a 70B model or render a Blender scene without the fans turning into jet engines. I have used plenty of small form factor PCs that sound like they are preparing for liftoff the moment you ask them to do anything demanding, so this is a welcome change.

RAGFlow and AnythingLLM handle retrieval augmented generation, which lets you feed your own documents, notes, and files into your AI models so they can answer questions about your specific data. Wise and Files manage your media and documents, all searchable and indexed locally. There is a digital secret garden feature that keeps an AI powered local first reader for articles and research, with third party integration so you can pull in content from RSS feeds or save articles for later. The configuration hub lets you manage storage, backups, network settings, and app deployments without touching config files, and there is a full Kubernetes console if you want to go deep. The no CLI Kubernetes interface is a big deal for people who want the power of container orchestration but do not want to memorize kubectl commands. You get centralized control, performance monitoring at a glance, and the ability to spin up or tear down services in seconds.

Olares makes a blunt economic argument. If you are using Midjourney, Runway, ChatGPT Pro, and Manus for creative work, you are probably spending around $6,456 per year per user. For a five person team, that balloons to $32,280 annually. Olares One costs $2,899 for the hardware (early-bird pricing), which breaks down to about $22.20 per month per user over three years if you split it across a five person team. Your data stays private, stored locally on your own hardware instead of floating through someone else’s data center. You get a unified hub of over 200 apps with one click installs, so there are no fragmented tools or inconsistent experiences. Performance is fast and reliable, even when you are offline, because everything runs on device. You own the infrastructure, which means unconditional and sovereign control over your tools and data. The rented AI stack leaves you as a tenant with conditional and revocable access.

Ports include Thunderbolt 5, RJ45 Ethernet at 2.5 Gbps, USB A, and HDMI 2.1, plus Wi-Fi 7 and Bluetooth 5.4 for wireless connectivity. The industrial design leans heavily into the golden ratio aesthetic, with smooth curves and a matte aluminum finish that would not look out of place next to a high end monitor or a piece of studio equipment. It feels like someone took the guts of a $4,000 gaming laptop, stripped out the compromises of portability, and optimized everything for sustained performance and quietness. The result is a machine that can handle creative work, AI experimentation, gaming, and personal cloud duties without breaking a sweat or your eardrums.

Olares One is available now on Kickstarter, with units expected to ship early next year. The base configuration with the RTX 5090 Mobile, Intel Core Ultra 9 275HX, 96 GB RAM, and 2 TB SSD is priced at a discounted $2,899 for early-bird backers (MSRP $3,999). That still is a substantial upfront cost, but when you compare it to the ongoing expense of cloud AI subscriptions and the privacy compromises that come with them, the math starts to make sense. You pay once, and the machine is yours. No throttling, no price hikes, no terms of service updates that quietly change what the company can do with your data. If you have been looking for a way to bring AI home without sacrificing capability or convenience, this is probably the most polished attempt at that idea so far.

Click Here to Buy Now: $2,899 $3,999 (28% off) Hurry! Only 15/320 units left!

The post This $2,899 Desktop AI Computer With RTX 5090M Lets You Cancel Every AI Subscription Forever first appeared on Yanko Design.

OpenAI’s New AI Foundations Course Promises ‘Job-Ready’ Skills and Credential

Par : Liz Ticong
22 décembre 2025 à 13:56

AI firm debuts its first certification program with ChatGPT-based courses for workers and K-12 teachers, starting with AI Foundations pilots next.

The post OpenAI’s New AI Foundations Course Promises ‘Job-Ready’ Skills and Credential appeared first on TechRepublic.

AI Startup FINNY Raises $17M for Advisor Prospecting Push

22 décembre 2025 à 11:58

Since launching earlier this year, the firm has scaled to work with 400+ firms across RIAs, broker-dealers, and banks.

The post AI Startup FINNY Raises $17M for Advisor Prospecting Push appeared first on TechRepublic.

Instacart Hit With $60M FTC Settlement Over Hidden Fees

22 décembre 2025 à 09:45

The settlement exposes a web of deceptive practices that turned everyday grocery shopping and ecommerce into a hidden fee minefield.

The post Instacart Hit With $60M FTC Settlement Over Hidden Fees appeared first on TechRepublic.

How Smartphones Stole Christmas (And What Parents Can Do About It)

19 décembre 2025 à 19:38

Evidence in the UK suggests the biggest distraction from the Christmas togetherness won’t be toys, television, or even work emails, it will be smartphone.

The post How Smartphones Stole Christmas (And What Parents Can Do About It) appeared first on TechRepublic.

❌
❌