Vue lecture

Il y a de nouveaux articles disponibles, cliquez pour rafraîchir la page.

EuroLLM - Le LLM européen qui tourne sur votre laptop

Faire tourner un modèle de langage européen sur votre machine sans avoir besoin d’un serveur surpuissant branché sur une centrale nucléaire, c’est maintenant possible, les amis ! Hé oui, EuroLLM vient de prouver qu’on pouvait faire tourner un modèle à 9 milliards de paramètres dans un peu moins de 6 GB de RAM sur un simple laptop.

Une seule commande Ollama , et c’est parti mon kiki !!!

Bien sûr, il est encore loin des gros modèles proprio comme GPT-5 mais c’est le enfin le premier LLM européen que VOUS pouvez faire tourner en local. C’est respectueux de votre vie privée, des droits d’auteurs et c’est gratuit !

Un projet 100% européen

EuroLLM, c’est en réalité une coalition de labos européens : Instituto Superior Técnico (Lisbonne), University of Edinburgh , Université Paris-Saclay , Unbabel , et d’autres et c’est financé par Horizon Europe et l’ EuroHPC , et ce modèle supporte les 24 langues officielles de l’UE, plus 11 langues supplémentaires (arabe, chinois, hindi, japonais, coréen, russe, turc…).

EuroLLM-9B , le modèle de base, a été entraîné sur 4 trillions de tokens avec le supercalculateur MareNostrum 5 à Barcelone (400 GPUs Nvidia H100) et l’architecture utilise du Grouped Query Attention, RoPE, SwiGLU et RMSNorm, comme tout LLM moderne qui se respecte.

Mais il existe d’autres versions comme EuroLLM-1.7B pour smartphones et bientôt EuroLLM-22B pour plus de puissance, ainsi qu’une version vision-language (EuroVLM-9B) et un modèle Mixture-of-Experts (EuroMoE-2.6B).

Et surtout c’est sous licence Apache 2.0. Donc l’usage commercial est autorisé, vous pouvez le fine-tuner sur vos données, et les modifications sont libres, sans redevance à payer. Ce n’est pas la première fois qu’il y a des LLM européens mais ils étaient soit sous licence trop restrictives ou un peu trop lourd pour être utilisé localement par les gens normaux comme vous et moi.

Maintenant comment l’installer ?

La méthode la plus simple, c’est via Ollama :

ollama run hf.co/bartowski/EuroLLM-9B-Instruct-GGUF

Ollama télécharge le modèle en version GGUF (format optimisé CPU/GPU), et vous pouvez commencer à discuter. Il existe aussi une version pré-packagée alibayram/erurollm-9b-instruct (attention, erurollm avec un “u”), quantized en Q4_K_M pour réduire la taille à 5,6 GB.

Si vous préférez Python et Hugging Face Transformers :

from transformers import AutoTokenizer, AutoModelForCausalLM

model_name = "utter-project/EuroLLM-9B-Instruct"
tokenizer = AutoTokenizer.from_pretrained(model_name)
model = AutoModelForCausalLM.from_pretrained(model_name)

inputs = tokenizer("Explique-moi ce qu'est un LLM en français simple", return_tensors="pt")
outputs = model.generate(**inputs, max_length=200)
print(tokenizer.decode(outputs[0]))

Une fois téléchargé, le modèle reste en cache local. Vous pouvez alors l’utiliser offline, sans connexion internet. Et pour les machines avec moins de RAM, la version 1.7B tourne même sur des Raspberry Pi :

ollama run cas/eurollm-1.7b-instruct-q8

Alors pourquoi c’est important ?

EuroLLM ouvre l’IA européenne à des cas d’usage impossibles avec des API cloud. Par exemple une administration publique ne peut pas envoyer ses documents dans le cloud d’OpenAI… ce serait tout livrer aux américains. Elle peut donc fine-tuner EuroLLM localement. Un journaliste en zone sensible sans connexion fiable peut aussi embarquer le modèle sur son ordi portable. Même un chercheur qui manipule des données médicales confidentielles peut le faire en toute confiance avec EuroLLM puisque tout reste sur sa machine.

C’est cool quand même que l’Europe nous file un modèle gratuit qu’on peut installer chez soi et utiliser sans limite. Après c’est vrai que EuroLLM ne bat pas GPT-4 (pas encore) mais il est suffisamment bon pour 80% des cas d’utilisation réels tels que des résumés, de la traduction, des questions-réponses simples, de la génération de code basique.

La roadmap prévoit d’ajouter de la vision et de la voix aux modèles. D’ailleurs, comme je vous le disais, EuroVLM-9B est déjà en preview sur Hugging Face , ce qui ouvre la voie à de l’OCR multilingue, de l’analyse de documents visuels, ou encore à la création d’assistants vocaux dans n’importe quelle langue…

Voilà j’ai trouvé ça cool à tester et un grand merci à Letsar pour le partage !

Hackez votre mémoire en modifiant votre visage

Utkarsh Gupta, chercheur à l’Anglia Ruskin University de Cambridge, vient de publier une étude dans Scientific Reports de Nature qui va vous faire halluciner. Pour retrouver vos souvenirs d’enfance, il suffit de hacker votre propre visage ! Hé oui, on peut littéralement débloquer sa mémoire avec un simple filtre photo de vous plus jeune.

Car votre cerveau garde vos souvenirs d’enfance derrière une porte verrouillée dont votre visage d’enfant est la clé !

Le principe est simple… vous prenez 50 adultes, vous leur montrez leur propre visage en live sur un écran, mais modifié par un filtre pour ressembler à leur tête de gamin. Ce genre de filtres bébé qui traînent sur Snapchat et Instagram…

Et là, résultat de malade : ceux qui ont vu leur visage d’enfant se sont souvenus de beaucoup plus de détails de leur enfance que ceux qui voyaient leur visage d’adulte. Vraiment beaucoup plus !

Cette technique s’appelle l’enfacement illusion. C’est une illusion cognitive où votre cerveau se fait avoir. Il pense que le visage qu’il voit sur l’écran, c’est le vôtre, comme si vous vous regardiez dans un miroir. D’habitude, l’enfacement illusion sert aux neuroscientifiques pour étudier la plasticité de la représentation de soi mais là, les chercheurs l’ont détournée pour créer une sorte de machine à remonter le temps low-tech.

Votre mémoire est comme un trousseau de clés où chaque visage que vous avez eu dans votre vie correspond à une clé différente. Avec votre tête d’adulte, vous n’avez accès qu’aux souvenirs récents, c’est à dire les titres qui passent en boucle sur votre playlist mentale. Mais avec votre visage d’enfant, vous accédez aux deep cuts, aux morceaux oubliés tout au fond de votre disque dur cérébral.

Une sorte de reverse engineering de la mémoire, si vous voulez.

L’enfacement illusion fonctionne grâce à une stimulation multisensorielle synchrone. Concrètement, vous voyez des touches tactiles sur le visage à l’écran en même temps que vous sentez ces touches sur votre propre visage. Votre cerveau fait alors la connexion et se dit : “Ok, ce visage là-bas, c’est moi”. C’est exactement le même mécanisme que l’illusion de la main en caoutchouc, vous savez, quand on arrive à vous faire croire qu’une fausse main posée sur une table est la vôtre.

Du coup, qui êtes-vous vraiment ? Votre tête actuelle ? Toutes vos tronches du passé ? Ou la somme de toutes ces versions ?

Si vous voulez tester ça vous même, trouvez un bon filtre et suivez ce tuto de Utkarsh :

Cette méthode pourrait beaucoup aider dans tout ce qui est travail thérapeutique ou pour aider les victimes de traumatismes à accéder à des souvenirs enfouis. Et si vous savez coder une application mobile, vous pouvez même devenir très riche en proposant la première app qui débloque vos souvenirs d’enfance ;-)))

Bon, il y a quand même un truc à garder en tête c’est que cette technique ouvre des portes, mais il faut faire attention à ce qui se cache derrière. La recherche a montré par exemple que des enfants exposés à de la réalité virtuelle pouvaient développer de faux souvenirs… Donc manipuler la perception corporelle pour accéder aux souvenirs, c’est très puissant, mais ça demande quand même un peu de précautions.

Je sais pas si vous allez essayer mais si ça marche, faites moi un mail, je suis vraiment curieux.

Source

Microsoft's CEO Satya Nadella says Bill Gates almost nuked Microsoft's partnership with OpenAI before it started — "You're going to burn this billion dollars"

Microsoft CEO Satya Nadella revealed that securing board approval for investing $1 billion in OpenAI was challenging. Bill Gates warned that it was like setting the money ablaze.

Bill Gates and Satya Nadella listen to Microsoft Copilot on a smartphone

Microsoft is reportedly being less than truthful about its OpenAI dealings — hiding a $4.7 billion loss under "other expenses"

Microsoft is trying to keep its dealings with OpenAI under wraps, seemingly burying a $4.7 billion loss by the ChatGPT maker in its latest annual report for the fiscal year ending June 30, 2025.

A Microsoft office in New York, US, on Tuesday, July 22, 2025.

OpenAI's staggering mental health crisis revealed — Millions use ChatGPT like a therapist, but that's about to change

OpenAI has provided some internal numbers related to users who seek help from GPT-5, and they're a lot bigger than I was expecting. The AI firm has laid out details as to how it's combating the issue.

BEIJING, CHINA - AUGUST 08: In this photo illustration, the logo of Open AI is displayed on a smartphone screen with a GPT-5 logo in the background on August 8, 2025 in Beijing, China. OpenAI on August 7 announced GPT-5, its latest and most advanced AI model. (Photo by VCG/VCG via Getty Images)

❌