Vue lecture

Il y a de nouveaux articles disponibles, cliquez pour rafraîchir la page.

Storage might join RAM on your PC shortage wish list — NVIDIA's new AI supercomputers will suck up millions of TB of SSDs to operate

NVIDIA's new Rubin AI supercomputers have arrived, and they're likely going to need millions of TB of NAND to scale out. Priced into the market or not, SSDs are likely about to become the next big short in 2026.

Nvidia founder and CEO Jensen Huang speaks about the Vera Rubin AI platform during a question and answer session with reporters at the annual Consumer Electronics Show (CES) in Las Vegas, Nevada, on January 6, 2026.

Nemotron 3 - Nvidia débarque dans l'open source et crache du token comme jamais

Vous voulez faire tourner un modèle d'IA en local sans avoir besoin d'un serveur de la NASA ? Eh bien Nvidia vient de lâcher une bombe avec Nemotron 3, une famille de modèles open source plutôt impressionnant et surtout, ils ont publié leurs données d'entraînement afin de jouer la transparence totale. Chapeau !

Le modèle phare de cette nouvelle famille s'appelle Nemotron 3 Nano et c'est un modèle de 30 milliards de paramètres, mais attention, il n'en active que 3,5 milliards à la fois grâce à une architecture hybride qui mélange du Mamba-2 et du Mixture-of-Experts ( MoE ). Ça permet de garder des performances de ouf tout en restant léger niveau ressources.

Sous le capot, Nvidia a également mis le paquet puisque le modèle a été entraîné sur 25 trillions de tokens. J'ai bien dit "trillions"... Pour vous donner une idée, les données d'entraînement incluent du Common Crawl de 2013 à 2025, du code dans 43 langages différents, des articles scientifiques, et une tonne de données synthétiques générées par d'autres modèles. Et tout ça, Nvidia l'a rendu public donc vous pouvez télécharger les datasets sur Hugging Face et vérifier par vous-même ce qui a servi à entraîner le bouzin.

Côté performances, Nemotron 3 Nano se défend plutôt bien . Sur les benchmarks de raisonnement mathématique comme AIME25, il atteint 99,2% quand on lui donne accès à des outils. Sur le coding avec LiveCodeBench, il tape du 68,3%, ce qui le place devant Qwen3-30B. Et pour les tâches d'agent logiciel genre SWE-Bench, il monte à 38,8%. Pas mal pour un modèle qu'on peut faire tourner sur du matos grand public.

D'ailleurs, parlons du matos justement. Nemotron 3 Nano tourne sur des cartes comme la H100, la A100, ou même la future RTX PRO 6000 et supporte jusqu'à 1 million de tokens en contexte si vous avez assez de VRAM. Et niveau vitesse, Nvidia annonce un débit de tokens 4 fois supérieur à la génération précédente, avec 60% de tokens de raisonnement en moins. C'est donc exactement ce que tout le monde demande à saoir du token qui sort vite pour les workflows agentiques.

Maintenant, pour l'utiliser, c'est hyper simple. Il est dispo sur Hugging Face, et vous pouvez le lancer avec Transformers, vLLM, TensorRT, ou même llama.cpp. Y'a même un mode "thinking" qu'on peut activer ou désactiver selon si on veut du raisonnement poussé ou des réponses rapides.

Pour ma part, je l'ai testé à l'aide d'Ollama comme ceci :

ollama run nemotron-3-nano:30b

J'ai trouvé que vitesse de génération était vraiment impressionnante, ça débite beaucoup plus qu'un Llama 3 qui est de taille équivalente. Après, je suis sur un Mac M4 avec 128 Go de RAM, donc je suis plutôt bien loti mais j'ai trouvé ce modèle vraiment très rapide. Je pense que je vais vraiment m'en servir pour des trucs comme de la qualification, du résumé, de l'analyse ce genre de choses.

A voir maintenant si en français il s'en sort bien sur les tournures de phrases. Quoi qu'il en soit pour du développement et des workflows agentiques, il n'y a pas photo, ça va être mon nouveau modèle par défaut quand j'ai besoin de choses en local.

La famille Nemotron 3 ne se limite pas au Nano évidemment. Y'a aussi le Super avec environ 100 milliards de paramètres pour les applications multi-agents, et l'Ultra avec 500 milliards pour les tâches vraiment complexes. Ces deux-là arriveront au premier semestre 2026 donc faudra encore être un peu patient. Nvidia a aussi sorti des bibliothèques comme NeMo Gym pour l'entraînement et NeMo RL pour le fine-tuning.

Jensen Huang, le patron de Nvidia, a aussi dit un truc intéressant lors de l'annonce : "L'innovation ouverte est le fondement du progrès de l'IA." Venant d'une boîte qui a longtemps joué la carte proprio sur ses technos, je trouve que c'est un sacré virage et des entreprises comme Accenture, Deloitte, Oracle, Palantir, ou même Cursor sont déjà en train d'intégrer Nemotron dans leurs produits.

Ce qui est cool aussi, c'est que le modèle supporte 24 langues officielles de l'UE plus une dizaine d'autres comme l'arabe, le chinois ou le japonais et côté code, il gère Python, C++, Java, Rust, Go, et même du CUDA. Bref, c'est plutôt polyvalent.

Voilà, donc si vous cherchez un modèle open source sérieux avec des données d'entraînement transparentes et une vitesse de génération qui arrache, Nemotron 3 Nano mérite clairement le coup d’œil !

Source

“This isn’t Pets.com” — NVIDIA CEO says the AI boom is built on real demand

It's easy to draw comparisons between the dotcom bubble and crash and the current AI boom that's sucking up billions of dollars of investments. Is there a chance it could pop? Sure, but NVIDIA's CEO doesn't think so.

President and CEO of Nvidia Jensen Huang speaks on AI at the return of American manufacturing at the Hill and Valley Forum at the U.S. Capitol on April 30, 2025 in Washington, DC.

"NVIDIA violated the anti-monopoly law" — China's ongoing investigation digs up antitrust violations as trade tensions mount

China's State Administration for Market Regulation has released a statement that finds NVIDIA guilty of anti-trust practices.

SUQIAN, CHINA - JULY 31, 2025 - A illustration photo shows NVIDIA logo in a smartphone in Suqian, Jiangsu Province, China on July 31, 2025 (Photo credit should read CFOTO/Future Publishing via Getty Images)

NVIDIA and AMD will pay 15% for the right to sell to China in Trump's AI chip tax — "America cannot repeat 5G and lose telecommunication leadership"

Just a couple of weeks after the US government rescinded the ban on NVIDIA's H20 AI chip sales to China, it was announced that both NVIDIA and AMD will hand over 15% of their revenue from specific AI GPUs in order to receive export licenses.

U.S. President Donald Trump speaks in the Oval Office on August 14, 2025 in Washington, DC.

China’s Giving NVIDIA the Side-Eye — H20 AI GPUs Face Major Trust Issues As Beijing Authorities Urge Avoidance

Just when NVIDIA thought it was in the clear to resume sales of its H20 AI GPUs to China, a new report suggests that Beijing is putting pressure on its major firms to avoid the chips.

CHONGQING, CHINA - JULY 17: In this photo illustration, the logo of Nvidia Corporation (NASDAQ: NVDA) is displayed on a smartphone screen, with the reflection of the Chinese national flag from a computer screen visible on the device, placed on a red-lit keyboard, on July 17, 2025 in Chongqing, China. (Photo illustration by Cheng Xin/Getty Images)

“American National Security Principles Are Negotiable for the Right Fee” — Why NVIDIA and AMD Agreed to Pay the US Government 15% of China AI Chip Revenue

Just a couple of weeks after the US government rescinded the ban on NVIDIA's H20 AI chip sales to China, it was announced that both NVIDIA and AMD will hand over 15% of their revenue from specific AI GPUs in order to receive export licenses.

TAIPEI, TAIWAN - APRIL 16: The logo of NVIDIA, an American tech company which designs and supplies GPUs, APIs, and Artificial Intelligence (AI) software and hardware, in Taipei, Taiwan, on April 16, 2025. The United States President Donald Trump's administration has confirmed that tariffs on semiconductors and some other technology products will 'take place in the very near future'. With tariffs and export restrictions expected to be implemented by the American government, electronic products such as iPhone, smartphones, tablet, computer and other digital devices requiring advanced microchips, as well as such global supply chain are likely to be affected. (Photo by Daniel Ceng/Anadolu via Getty Images)

1 milliard de dollars de puces Nvidia "tombées du camion" se retrouvent en Chine

Bon, apparemment il suffit que des puces Nvidia soient “tombées du camion” pour qu’un milliard de dollars de GPU ultra puissants se retrouvent sur le marché noir chinois. Le Financial Times a enquêté et ce qu’ils ont découvert est assez dingue.

Alors que les États-Unis font tout pour empêcher la Chine d’accéder aux dernières technologies d’IA, des B200, H100 et H200 de Nvidia circulent tranquillement sur les réseaux sociaux chinois. Leur prix ? 50% au-dessus du tarif normal, mais visiblement ça ne freine personne. Les vendeurs proposent même des racks pré-assemblés avec 8 puces B200, prêts à brancher dans un datacenter. Genre tu commandes sur WeChat et hop, tu reçois ton rack de 150 kilos à 560 000 dollars.

D’après l’enquête du FT, rien qu’entre avril et juin 2025, c’est plus d’un milliard de dollars de matos qui aurait transité. Les puces passent par la Thaïlande, la Malaisie, et d’autres pays d’Asie du Sud-Est où les contrôles sont… disons plus souples. La Malaisie a d’ailleurs vu ses importations de GPU avancés exploser de 3400% début 2025. Coïncidence ? Je ne crois pas…

Le plus ironique dans l’histoire, c’est que ces restrictions viennent juste d’être assouplies pour les puces moins puissantes comme la H20. Mais bon, pourquoi se contenter d’une 2CV quand on peut avoir une Ferrari, même au marché noir ?

Une boîte chinoise basée à Shanghai, “Gate of the Era” (ça ne s’invente pas), créée en février juste avant que les restrictions ne tombent (le timing est parfait), aurait à elle seule écoulé pour 400 millions de dollars de systèmes B200. Ils vendent même des racks complets entre 3,9 et 3,95 millions de yuans pièce.

Un rack de B200

Et Nvidia, de son côté, fait la sourde oreille. Leur réponse officielle ? “Nous ne fournissons support et service qu’aux produits Nvidia autorisés”. Traduction : démerdez-vous avec vos GPU de contrebande. Mais bon, avec une valorisation de 4000 milliards de dollars, ils vont pas trop pleurer sur quelques puces qui s’égarent.

Ce qui est fascinant, c’est comment les Chinois ont industrialisé le contournement. Les vendeurs testent même les puces avant de les vendre pour garantir qu’elles fonctionnent. Service après-vente inclus apparemment. Un opérateur de datacenter chinois l’a dit cash au FT : “Les contrôles à l’export n’empêcheront pas les produits les plus avancés de Nvidia d’entrer en Chine. Ça ajoute juste de l’inefficacité et crée d’énormes profits pour les intermédiaires prêts à prendre des risques.

Pendant ce temps, DeepSeek et d’autres boîtes d’IA chinoises prétendent faire aussi bien que les modèles américains avec beaucoup moins de ressources, mais visiblement, ça ne les empêche pas de quand même vouloir mettre la main sur les derniers joujoux de Nvidia.

Jensen Huang, le CEO de Nvidia né à Taiwan, voit toujours la Chine comme une opportunité énorme. C’est d’ailleurs lui qui aurait négocié avec Trump pour assouplir certaines restrictions. Mais pour les B200 et H100, c’est toujours un niet officiel !

Le gouvernement américain essaie surtout pendant ce temps de boucher les trous. Le Department of Commerce envisage par exemple d’imposer des contrôles plus stricts sur des pays comme la Thaïlande dès septembre. Mais franchement, quand y’a autant d’argent en jeu, croyez-moi, les contrebandiers trouveront toujours un moyen.

Au final, cette histoire montre bien les limites d’une guerre commerciale technologique. C’est un peu comme la drogue… Tu peux interdire, restreindre, sanctionner, mais quand la demande est là et que les profits sont juteux, le marché trouve toujours un chemin où les seuls qui s’enrichissent vraiment, ce sont les intermédiaires qui prennent leur commission de 50% au passage.

Source

❌