Vue normale

Il y a de nouveaux articles disponibles, cliquez pour rafraîchir la page.
Hier — 22 mars 2026Flux principal

Xiaomi Returns to Laptops After Four Years with a MacBook Air Rival That Outclasses It on Paper for $1,275

Par : Sarang Sheth
22 mars 2026 à 13:20

The laptop market has a predictable rhythm. Apple sets the benchmark, everyone else reacts. Since the M1 MacBook Air landed in late 2020 and redrew the definition of thin-and-light computing, the entire Windows ultrabook category has essentially been running in response to that one product. Some challengers land close, most fall short on one or two crucial dimensions, and the cycle repeats. What makes Xiaomi’s return to the laptop space interesting is that the company has been watching all of this from the sidelines for four years, and the Book Pro 14 it just launched in China reads less like a desperate catch-up attempt and more like a deliberate, calculated swing at a very specific gap in the Air’s armor.

Xiaomi has just made a discreet release in the laptop segment after a four-year break, returning with the Book Pro 14, a capable thin-and-light that positions itself as a direct answer to the MacBook Air. The headline spec is the display: a 14.6-inch OLED panel with touchscreen support, 3.1K resolution, a 120Hz refresh rate, and a peak brightness of 1,600 nits. Under the hood, Xiaomi equips the notebook with Intel’s Panther Lake platform, up to an Intel Core Ultra 7 358H, with 24GB RAM on the base configuration and 1TB of SSD storage. Pricing, when converted from Chinese yuan, puts the laptop at approximately $1,275, just over $100 more than a base M5 MacBook Air, and for that small premium you get a higher-resolution 120Hz OLED panel, more RAM, and a more robust port selection.

Designer: Xiaomi

You’re probably itching to ask about ports, because the MacBook Air famously doesn’t pack enough of them. The Book Pro 14 includes Thunderbolt 4, USB-C, USB-A, HDMI 2.1, and a 3.5mm audio jack, compared to the MacBook Air’s two Thunderbolt 4 ports and a headphone jack. That is a meaningful difference for anyone who has ever reached for a dongle mid-presentation or had to choose between charging and connecting to a display. Xiaomi’s decision to include a full-size HDMI port and a USB-A jack signals an awareness that real-world desk setups are messier than Apple’s minimalist port philosophy acknowledges. Whether that matters to you depends entirely on your workflow, but it is a deliberate product decision and one that reads as a direct response to a documented frustration with the Air.

The Book Pro 14 achieves a weight of 1.08 kg and a thickness of 14.95 mm through a chassis built from magnesium alloy with a carbon fiber lid. That actually makes it lighter than the M5 MacBook Air, which tips the scales around 1.24 kg, and the thickness is comparable. Keeping the specs cool is a three-channel cooling system incorporating a high-performance fan, a 10,000mm² vapor chamber, and graphene cooling components capable of sustaining 50W of continuous performance. That last figure matters more than it might initially seem. Apple’s fanless MacBook Air is a thermally constrained machine, and sustained workloads do cause it to throttle, a tradeoff that has been well-documented since the M1 era, and a system that can sustain 50W continuously without a corresponding weight penalty represents a genuine engineering achievement.

Xiaomi makes bold claims on the Book Pro 14’s battery life, overshooting even the latest M5 MacBook Air by nearly two hours. The 72Wh battery is rated for up to 19.8 hours of continuous use, with the 100W fast charging system capable of restoring 50% in approximately 26 minutes. The MacBook Air M5 posts similarly impressive endurance numbers in real-world use, so this will be a tightly contested dimension. The Intel Panther Lake architecture powering the Book Pro 14 is also the first Intel mobile platform in recent memory that genuinely changes the conversation around Windows laptop efficiency, borrowing a page from Apple’s playbook by targeting the sub-10W idle efficiency range that made the M-series Macs so compelling. Independent testing will be the real arbiter here, but the stated numbers are ambitious enough to take seriously.

The Book Pro 14 is currently only available in China, with no clear indication of a global release date, which severely limits its immediate relevance for the overwhelming majority of potential buyers. Xiaomi has a track record of launching products domestically and gradually expanding to other markets, and given the attention this machine has received in the first 24 hours of coverage, the commercial logic for a global rollout is hard to argue against. The question is timing. If Xiaomi moves quickly, the Book Pro 14 could arrive in Western markets before the M5 MacBook Air has fully consolidated its footprint. If the rollout stalls or gets diluted through regional variants with compromised specs, the window closes. The hardware is genuinely compelling, and the only outstanding question that actually matters is whether Xiaomi’s global distribution ambitions match what the engineering team has clearly delivered.

The post Xiaomi Returns to Laptops After Four Years with a MacBook Air Rival That Outclasses It on Paper for $1,275 first appeared on Yanko Design.

À partir d’avant-hierFlux principal

Snøhetta Built a Metro Station in Riyadh That Reflects the Entire City Back at You

20 mars 2026 à 23:30

There is a moment, the architects at Snøhetta will tell you, when you step off the train at Qasr AlHokm and look up, and the entire city of Riyadh looks back at you. That is not a metaphor. It is exactly what happens beneath the station’s sweeping, mirror-polished stainless steel canopy, where a 360-degree reflection of the surrounding cityscape floats above commuters like a living panorama. It is disorienting in the best possible way, and entirely intentional.

Completed in 2025, the Qasr AlHokm Metro Station is one of four primary hubs within Riyadh’s expansive new metro network, a system now carrying up to 3.6 million passengers daily since it entered full operation in January 2025. The station sits in the heart of the historic Al Qiri district, adjacent to an Eid prayer field and a mosque, and within walking distance of the old palace grounds, a location that demanded both architectural sensitivity and civic ambition.

Designer: Snøhetta

Snøhetta, working in collaboration with One Works and Cremonesi Workshop (Crew), first won the competition brief in 2012. The central concept remained remarkably consistent from that early vision: a transit station designed as an open urban plaza, where the threshold between city and subway is dissolved rather than defined. The bowl-shaped canopy, its underside ground to a flawless mirror finish, acts as what the team describes as an urban periscope. From above ground, the city is reflected downward into the station. From below, the underground world is projected back out. “Likewise, if you’re coming from the city, you look up into the canopy, and it mirrors everything that happens below,” explained Snøhetta partner Robert Greenwood.

Sloped terrazzo floors draw visitors naturally under the canopy and into the station’s layered interior. There, a truncated cone-shaped atrium wall, its surface perforated by triangular openings drawn from the regional Najdi architectural tradition, encloses one of the station’s most unexpected gestures: a lush underground garden. In a city defined by heat and aridity, this green pocket offers genuine respite. Indigenous tree planting, natural ventilation, and photovoltaic panels complete a sustainability framework that goes well beyond a token gesture.

The building has not gone unrecognized. In November 2025, the Prix Versailles, presented under the patronage of UNESCO and the International Chamber of Commerce, named Qasr AlHokm one of the seven most beautiful train stations in the world, placing it alongside some of global architecture’s most celebrated transit spaces. What Snøhetta has built here is more than a station. It is a civic room, a place where infrastructure earns the right to be called architecture.

The post Snøhetta Built a Metro Station in Riyadh That Reflects the Entire City Back at You first appeared on Yanko Design.

Microsoft’s Jeff Hollan on What Makes an AI Agent Enterprise-Ready

19 mars 2026 à 22:03

Microsoft’s Jeff Hollan discusses what separates true AI agents from chat interfaces and which agent strategies will succeed over the next 12 to 24 months.

The post Microsoft’s Jeff Hollan on What Makes an AI Agent Enterprise-Ready appeared first on TechRepublic.

Higgsfield - Le Netflix de l'IA où 4 personnes remplacent tout un studio

Par : Korben
21 mars 2026 à 08:00

100 millions de dollars, c'est ce que coûterait normalement la production d'un pilote de qualité ciné, d'après Higgsfield, une boite basée à San Francisco et fondée par Alex Mashrabov.

Et eux, ils l'ont fait en 4 jours avec une équipe de 4 personnes et quelques GPU. Bienvenue dans l'ère du streaming généré par IA !

La plateforme vient en effat de lancer ses Original Series , une sorte de Netflix où tout le catalogue est généré par IA. On y trouve 13 séries dispo (sci-fi, thriller, anime, comédie...) avec des titres comme Arena Zero, Spit & Glow ou encore Tails of Steel, plus 6 autres en préparation. Et tout ça, des dialogues aux effets visuels en passant par le doublage, est généré par intelligence artificielle (même si évidemment, y'a des humains derrière pour le scénario, le prompting et le montage).

Mais le truc fou je trouve, c'est le modèle communautaire. En fait, Higgsfield a organisé un concours qui a attiré plus de 8 700 créateurs venus de plus de 100 pays, comme ça plutôt que de produire en interne, ils laissent la communauté proposer des teasers. Les spectateurs votent alors pour ceux qu'ils préfèrent, et les gagnants se retrouvent à produire des séries complètes avec l'équipe.

Cela veut dire que n'importe qui avec une bonne idée et un bon sens du prompt peut devenir "réalisateur"... sans jamais toucher une caméra ni un plateau de tournage.

Côté boîte à outils, la plateforme ne fait pas les choses à moitié. Y'a le Cinema Studio 2.5 pour la génération vidéo , et la plateforme intègre des modèles tiers comme Kling 3.0 (vidéos de 15 secondes avec personnages cohérents), Sora 2 , Veo 3.1, et même du clonage vocal via ElevenLabs. Pour l'image, y'a Nano Banana Pro (oui, c'est le vrai nom) qui sort du 4K, et plus de 100 apps prêtes à l'emploi pour le face swap, les VFX ou la création de contenu commercial.

Par contre, tout ça repose sur des modèles tiers... donc le jour où OpenAI ou Google changent les conditions liées à leurs API, ça peut les secouer un peu.

Maintenant pour ceux qui se demandent si c'est gratuit, oui, y'a un tier free avec des crédits quotidiens via l'app mobile Diffuse. Sauf que les crédits partent trèèès vite, car générer une vidéo de 15 secondes en 4K, ça consomme pas mal de compute. Pour les gros volumes, faudra donc passer à la caisse.

Alors c'est pas encore 100% nickel mais j'ai été vraiment bluffé par cet épisode par exemple :

C'est vrai que le lipsync n'est pas toujours perfecto, que les mains font parfois n'importe quoi, et que la continuité entre les plans n'est pas toujours raccord.

Mais le concept est dingue quand même car là où il fallait un studio avec des centaines de techniciens, des caméras RED à 50 000 balles et des mois de post-production, y'a maintenant un pipeline automatisé qui prend un scénario et crache un épisode complet. Et le fait que les créateurs viennent du monde entier, sans formation ciné, ça change tout en terme de scénario et de diversité de contenus !

Donc, si vous voulez voir à quoi ressemble le cinéma actuel quand c'est l'IA qui tient la caméra, allez jeter un œil. C'est encore un peu brouillon mais ça progresse très vite (trop ?), je trouve...

Le Geek Code - L'ancêtre des bios Instagram (en ASCII)

Par : Korben
21 mars 2026 à 06:40

Imaginez un monde où votre identité entière tient sur trois lignes de caractères ASCII. Pas de selfie de votre gros nez, pas de bio Instagram mielleuse... mais juste des lettres ASCII, avec des plus et des moins.

Bienvenue en 1993 !!

Le Geek Code, c'est un système d'encodage inventé par Robert A. Hayden, étudiant à Mankato State University dans le Minnesota, qui permettait aux geeks de se décrire entre eux de manière codifiée. Vous colliez ce bloc de symboles dans votre signature Usenet ou email et n'importe quel initié pouvait vous cerner en 10 secondes. La devise du projet ? "More geek, less bullshit". Difficile de faire plus limpide.

En gros, ça fonctionnait comme ça : Le code commençait par la lettre G suivie de votre spécialité : GCS pour "Geek of Computer Science", GMU pour la musique, GED pour l'éducation, GAT si vous étiez bon en tout... y'avait 28 vocations au total. Ensuite venaient des catégories (apparence, compétences informatiques, opinions politiques, rapport à Star Trek) graduées de +++ à ---. Et hop, en une poignée de caractères, votre personnalité complète tenait dans un bloc qui ressemblait à ça :

-----BEGIN GEEK CODE BLOCK-----
Version: 3.1
GED/J d-- s:++>: a-- C++(++++) ULU++ P+ L++ E---- W+(-) N+++ o+ K+++ w--- O- M+ V-- PS++>$ PE++>$ Y++ PGP++ t- 5+++ X++ R+++>$ tv+ b+ DI+++ D+++ G+++++ e++ h r-- y++**
-----END GEEK CODE BLOCK-----

C'est le bloc de Hayden lui-même. On y apprend qu'il était geek de l'éducation (GED), adepte du t-shirt à message (d--), ultra-compétent en informatique (C++++) mais ne voulait rien savoir d'Emacs (E----). Plus loin, K+++ veut dire fan absolu de Star Trek, 5+++ = accro à Babylon 5, et t- = pas très branché X-Files. Un CV entier en 3 lignes compréhensible uniquement par les initiés... ;)

D'ailleurs, le format reprenait volontairement l'esthétique de PGP, le logiciel de chiffrement, du coup votre identité de geek ressemblait à un message top secret... sauf que tout le monde pouvait le déchiffrer avec les bonnes connaissances.

Le système avait des subtilités assez malines aussi. Le symbole @ signifiait que votre opinion fluctuait, les parenthèses indiquaient une fourchette, le > marquait une aspiration, et le $ voulait dire que vous étiez payé pour ça. Bref, des variables permettant de capturer toute la complexité d'un être humain, qui se retrouvait simplement dans un fichier .sig sur un serveur Usenet. Toute une époque !

Et l'origine du truc est carrément dingue. Hayden s'était en fait inspiré du Natural Bears Classification System, un encodage similaire utilisé par la communauté bear gay, lui-même dérivé de la classification stellaire de Yerkes. Des étoiles aux ours en passant par les nerds... y'a de la poésie là-dedans.

Le code des geeks a connu son heure de gloire entre 1993 et 1996. Un supplément du Washington Post en a même parlé dès 1995, des traductions en japonais et en russe ont circulé, et la version 3.12 de mars 1996 est depuis restée la dernière officielle.

Hayden a promis une mise à jour sur geekcode.com pour le nouveau millénaire. Mais ouais, on attend toujours. Sauf que l'Internet de 1996, comme il l'a lui-même écrit, c'était encore "un paradis vierge de geeks et d'intellos", avant l'arrivée massive du grand public, des bots et des politiciens qui légiféraient sur une techno qu'ils refusaient de comprendre.

Voici d'ailleurs ma bio Geek Code si vous voulez la décoder :

-----BEGIN GEEK CODE BLOCK-----
Version: 3.12
GIT d- a+ C+++ UB++ P- L++ M++ W+++ N+ PS++ PE Y++ PGP+ t+ X+++ R tv b+ DI+ D+ G e+ h---- r+++ y++++
------END GEEK CODE BLOCK------

Avec les artefacts numériques des débuts du web qui s'effacent petit à petit, entre les pages Geocities, les compteurs de visites et les MIDI qui jouaient en boucle, le Geek Code reste donc un vestige d'une époque où se revendiquer geek, c'était un acte de résistance et pas un mot-clé sur un profil LinkedIn.

Et je trouve ça dommage que ça se perde tout doucement... Le Geek Code mériterait bien un petit refresh en terme de paramètres pour le rendre actuel et des outils plus récents pour l'encoder / décoder.

Edit : Je viens de trouver une nouvelle version mais aucune idée de ce que ça vaut ...

Après, si ça vous tente de décoder le vôtre ou d'en générer un, il existe encore des encodeurs / décodeurs en ligne et, si vous êtes curieux de savoir à quoi ressemblaient les émissions qui ont forgé cette culture geek , y'a de quoi nourrir la nostalgie ici.

Amusez-vous bien et merci à Alex pour le partage !

Claude Octopus - Faites débattre 3 IA sur votre code

Par : Korben
20 mars 2026 à 11:33

Claude Octopus , c'est un plugin Claude Code qui fait bosser trois IA ensemble sur le même problème. Codex pour l'implémentation, Gemini pour la recherche, Claude pour la synthèse, le tout avec un seuil de qualité à 75% qui bloque ce qui n'est pas au niveau.

En gros, au lieu de faire confiance à un seul modèle GPT ou Gemini, vous en mettez trois en parallèle et le plugin ne valide que si les résultats des trois moteurs convergent suffisamment.

Ça s'installe en deux commandes :

claude plugin marketplace add https://github.com/nyldn/claude-octopus.git
claude plugin install octo@nyldn-plugins

Et ensuite, faites un /octo:setup dans votre terminal et c'est parti.

Le truc fonctionne avec Claude seulement sous macOS, Linux ou Windows dès le départ, donc pas besoin de configurer Codex ou Gemini pour démarrer. Il vous guidera pour ça ensuite.

Le plugin embarque 39 commandes, 32 personas spécialisées (par exemple un auditeur sécu qui pense en OWASP, un architecte backend pour les API REST, un designer UI/UX basé sur BM25...etc) et 50 skills. Tout ça s'active ensuite automatiquement selon votre prompt. Vous tapez "wesh audite mon API ma gueule" dans votre terminal zsh et c'est le bon expert qui débarque. Et si vous ne savez pas quelle commande taper, /octo:auto fait le tri pour vous. C'est très pratique.

Le workflow principal suit la méthode Double Diamond (discover, define, develop, deliver) avec des quality gates entre chaque phase. Du coup un bout de code bâclé ne peut pas avancer au stade suivant. Pour les plus flemmards, y'a même un "Dark Factory Mode" qui prend un fichier Markdown en entrée et vous sort du code testé avec un score de satisfaction. Comme ça, vous n'avez qu'à relire que le rapport final au lieu de valider chaque PR manuellement.

Sous le capot, l'orchestrateur écrit en Bash lance Codex CLI et Gemini CLI en parallèle pour la recherche, puis Claude Sonnet 4.6 synthétise les deux réponses. Forcément, trois modèles en parallèle c'est plus lent qu'un seul donc faut compter 30 à 60 secondes par requête. Déso pas déso ^^.

Et pour la revue de code, c'est carrément, pardonnez-moi l'expression, "adversarial" puisque ce sont 4 agents (Codex logique, Gemini sécu, Claude archi, Perplexity pour les CVE ) qui postent des commentaires inline sur vos PR GitHub et y'a ensuite un "reaction engine" qui auto-répond aux échecs CI et aux review comments.

Ce projet c'est quasi l'œuvre d'un seul développeur dévoué et sa vélocité de développement est dingue... Ça vibe code à donf quoi ^^.

C'est gratuit, open source, par contre, chaque provider facture ses tokens normalement, du coup en mode multi-IA vous consommez mécaniquement 3× plus qu'avec Claude tout seul. Après si vous avez déjà un abonnement ChatGPT Plus ou Google AI Pro, les providers passent par OAuth sans clé API supplémentaire, donc ça sera inclus dans votre forfait.

Pour ceux qui utilisent déjà des plugins Claude Code au quotidien ou qui font tourner leurs agents dans des sandbox isolées , c'est le genre d'outil qui mérite un détour.

Bref, trois cerveaux valent mieux qu'un... reste à voir si besoins valent tout ce bordel à configurer !

❌
❌