Apple Opens iOS to Developers in Japan
The firm is introducing alternative app stores, payment systems, and browser options that could reshape mobile computing globally.
The post Apple Opens iOS to Developers in Japan appeared first on TechRepublic.
The firm is introducing alternative app stores, payment systems, and browser options that could reshape mobile computing globally.
The post Apple Opens iOS to Developers in Japan appeared first on TechRepublic.
APAC technology leaders may face new expectations in 2026. This article explores the emerging signals shaping AI governance, cloud strategy, resilience and data control.
The post 5 Signals That May Shape APAC Enterprise Technology in 2026 appeared first on TechRepublic.
Proximity to available power is now as crucial as closeness to a major metropolitan area in the siting of a new AI data center.
The post Power Is the New Gold Rush for AI Data Centers appeared first on TechRepublic.
The platform argues the ban violates Australia's implied freedom of political communication
The post Reddit Sues Australia Over Under-16 Social Media Ban appeared first on TechRepublic.
Location: Hainan. Mission: To scale next-gen satellite production and accelerate LEO deployment.
The post China Launches Super Factory for Next-Gen Satellites appeared first on TechRepublic.
The South Korean company was hit by a data breach that exposed the personal information of 33.7 million users.
The post E-Commerce Firm Coupang Faces Massive Fine After Data Breach appeared first on TechRepublic.
The impending ban is facing a constitutional challenge from two 15-year-olds, who are backed by the advocacy group, the Digital Freedom Project.
The post Australian Teens Seek Injunction to Block Nationwide Social Media Cut-Off appeared first on TechRepublic.
The incident occurred in September, and the Japanese firm has now released its full internal investigation results.
The post Asahi Confirms Cyberattack Exposed Data of 1.5M Customers appeared first on TechRepublic.
Faire tourner un modèle de langage européen sur votre machine sans avoir besoin d’un serveur surpuissant branché sur une centrale nucléaire, c’est maintenant possible, les amis ! Hé oui, EuroLLM vient de prouver qu’on pouvait faire tourner un modèle à 9 milliards de paramètres dans un peu moins de 6 GB de RAM sur un simple laptop.
Une seule commande Ollama , et c’est parti mon kiki !!!
Bien sûr, il est encore loin des gros modèles proprio comme GPT-5 mais c’est le enfin le premier LLM européen que VOUS pouvez faire tourner en local. C’est respectueux de votre vie privée, des droits d’auteurs et c’est gratuit !
EuroLLM, c’est en réalité une coalition de labos européens : Instituto Superior Técnico (Lisbonne), University of Edinburgh , Université Paris-Saclay , Unbabel , et d’autres et c’est financé par Horizon Europe et l’ EuroHPC , et ce modèle supporte les 24 langues officielles de l’UE, plus 11 langues supplémentaires (arabe, chinois, hindi, japonais, coréen, russe, turc…).
EuroLLM-9B , le modèle de base, a été entraîné sur 4 trillions de tokens avec le supercalculateur MareNostrum 5 à Barcelone (400 GPUs Nvidia H100) et l’architecture utilise du Grouped Query Attention, RoPE, SwiGLU et RMSNorm, comme tout LLM moderne qui se respecte.
Mais il existe d’autres versions comme EuroLLM-1.7B pour smartphones et bientôt EuroLLM-22B pour plus de puissance, ainsi qu’une version vision-language (EuroVLM-9B) et un modèle Mixture-of-Experts (EuroMoE-2.6B).
Et surtout c’est sous licence Apache 2.0. Donc l’usage commercial est autorisé, vous pouvez le fine-tuner sur vos données, et les modifications sont libres, sans redevance à payer. Ce n’est pas la première fois qu’il y a des LLM européens mais ils étaient soit sous licence trop restrictives ou un peu trop lourd pour être utilisé localement par les gens normaux comme vous et moi.
La méthode la plus simple, c’est via Ollama :
ollama run hf.co/bartowski/EuroLLM-9B-Instruct-GGUF
Ollama télécharge le modèle en version GGUF (format optimisé CPU/GPU), et vous pouvez commencer à discuter. Il existe aussi une version pré-packagée alibayram/erurollm-9b-instruct (attention,
erurollm
avec un “u”), quantized en Q4_K_M pour réduire la taille à 5,6 GB.
Si vous préférez Python et Hugging Face Transformers :
from transformers import AutoTokenizer, AutoModelForCausalLM
model_name = "utter-project/EuroLLM-9B-Instruct"
tokenizer = AutoTokenizer.from_pretrained(model_name)
model = AutoModelForCausalLM.from_pretrained(model_name)
inputs = tokenizer("Explique-moi ce qu'est un LLM en français simple", return_tensors="pt")
outputs = model.generate(**inputs, max_length=200)
print(tokenizer.decode(outputs[0]))
Une fois téléchargé, le modèle reste en cache local. Vous pouvez alors l’utiliser offline, sans connexion internet. Et pour les machines avec moins de RAM, la version 1.7B tourne même sur des Raspberry Pi :
ollama run cas/eurollm-1.7b-instruct-q8
EuroLLM ouvre l’IA européenne à des cas d’usage impossibles avec des API cloud. Par exemple une administration publique ne peut pas envoyer ses documents dans le cloud d’OpenAI… ce serait tout livrer aux américains. Elle peut donc fine-tuner EuroLLM localement. Un journaliste en zone sensible sans connexion fiable peut aussi embarquer le modèle sur son ordi portable. Même un chercheur qui manipule des données médicales confidentielles peut le faire en toute confiance avec EuroLLM puisque tout reste sur sa machine.
C’est cool quand même que l’Europe nous file un modèle gratuit qu’on peut installer chez soi et utiliser sans limite. Après c’est vrai que EuroLLM ne bat pas GPT-4 (pas encore) mais il est suffisamment bon pour 80% des cas d’utilisation réels tels que des résumés, de la traduction, des questions-réponses simples, de la génération de code basique.
La roadmap prévoit d’ajouter de la vision et de la voix aux modèles. D’ailleurs, comme je vous le disais, EuroVLM-9B est déjà en preview sur Hugging Face , ce qui ouvre la voie à de l’OCR multilingue, de l’analyse de documents visuels, ou encore à la création d’assistants vocaux dans n’importe quelle langue…
Voilà j’ai trouvé ça cool à tester et un grand merci à Letsar pour le partage !
![]()
UK copyright law blocks AI training, but Dr Andres Guadamuz says reform could give creatives both compensation opportunities and control.
The post UK Creatives Should Back AI Training at Home for Fair Compensation, Says Law Professor appeared first on TechRepublic.
The US Commerce Chief has also issued a warning about DeepSeek that reliance on those AI models is "dangerous and shortsighted."
The post DeepSeek AI Models Are Easier to Hack Than US Rivals, Warn Researchers appeared first on TechRepublic.
The wide-ranging deal includes DRAM, services, construction, and more customers for ChatGPT. The planned infrastructure could include floating data centers.
The post OpenAI Partners With Korea’s Samsung, SK Hynix on Stargate, Memory Chips, More appeared first on TechRepublic.
F-Droid says Google's developer registration rule could end its open-source app store and strand users. Google defends verification as a security step.
The post Open-Source Android Apps at Risk Under Google’s New Decree appeared first on TechRepublic.
Beijing seeks to encourage domestic replacements for the RTX Pro 6000D.
The post Huang ‘Disappointed’ as Chinese Government Restricts Use of Nvidia AI Chips appeared first on TechRepublic.
Bon, si vous tournez encore sur du Apache 2.4.49 en 2025, j’ai une mauvaise nouvelle : des hackers utilisent probablement votre serveur pour miner du Monero depuis 4 ans et vous ne le savez même pas.
L’histoire commence avec la CVE-2021-41773, une faille de type “path traversal” dans Apache HTTP Server qui permet aux attaquants de naviguer dans l’arborescence de votre serveur comme s’ils étaient chez eux. Cette vulnérabilité a évidemment été patchée en octobre 2021 avec la version 2.4.51 mais on est en juillet 2025, et visiblement, y’a encore du monde qui n’a pas eu le mémo.
Les cybercriminels derrière cette campagne déploient actuellement un cryptominer baptisé Linuxsys. Pour ce faire, ils scannent le net à la recherche de serveurs Apache vulnérables, exploitent la faille pour y déposer leur miner, et hop, votre serveur se met à bosser pour eux.
Le truc marrant (enfin, façon de parler), c’est que cette opération rapporte des cacahuètes car d’après les analyses, le wallet des hackers reçoit environ 0,024 XMR par jour, soit à peu près 8 dollars. C’est le SMIC du cryptomining illégal… Mais bon, quand vous avez 400 serveurs qui bossent pour vous H24, ça finit par faire un petit pécule.
Techniquement, la faille CVE-2021-41773 permet donc de contourner les protections mises en place par Apache pour empêcher l’accès aux fichiers sensibles. En gros, au lieu de taper “../../../etc/passwd” (ce que Apache bloque), les attaquants encodent le deuxième point en “.%2e” et bim, ça passe. C’est con mais ça marche.
Voici à quoi ressemble une attaque typique :
GET /cgi-bin/.%2e/.%2e/.%2e/.%2e/etc/passwd HTTP/1.1
Et si vous avez le module mod_cgi activé avec “Require all granted” dans votre config (ce qui est une très mauvaise idée), les attaquants peuvent carrément exécuter du code sur votre machine. Là, c’est la fête du slip.
Et les cybercriminels ne stockent pas leur malware sur leurs propres serveurs. Non, non, ils compromettent des sites WordPress légitimes et s’en servent comme dépôt. Du coup, quand votre serveur télécharge le cryptominer, il le fait depuis un site avec un certificat SSL valide qui a l’air tout ce qu’il y a de plus normal.
Le script d’installation est d’ailleurs assez basique. Il télécharge le binaire “linuxsys”, un fichier de config, et installe une tâche cron pour que le miner redémarre automatiquement après un reboot. Les commentaires dans le code sont en soundanais (une langue indonésienne), ce qui donne une petite idée de l’origine des attaquants. Et les mecs derrière Linuxsys ne se contentent pas d’exploiter CVE-2021-41773 car ils ont tout un arsenal de vulnérabilités dans leur besace :
En gros, si vous avez un truc pas à jour qui traîne sur Internet, y’a de bonnes chances que Linuxsys finisse par toquer à votre porte.
Alors, comment se protéger de cette merde ? C’est pas sorcier :
Le plus rageant dans cette histoire, c’est que cette campagne dure depuis 2021. Mêmes attaquants, même méthode, même malware. Ils ont juste à attendre que de nouveaux serveurs mal configurés apparaissent sur le net et voilà.
Et n’oubliez pas. Si vous gérez des serveurs, abonnez-vous aux alertes de sécurité d’Apache et des autres softs que vous utilisez. Ça prend 2 minutes et ça peut vous éviter de finir en sueur dans un article comme celui-ci.
Bref, ces méchants hackers n’ont pas besoin d’être des génies, ils ont juste besoin que vous soyez négligents… Alors allez vérifier vos versions d’Apache maintenant !
![]()
Je suis content d’avoir investi dans un Mac Studio pour faire tourner des modèles IA un peu plus balèzes du coup, je surveille un peu ce qui sort en ce moment comme modèles, notamment pour coder, et voilà que la famille de modèles Qwen3 vient d’être officiellement lancée, et franchement, ça a l’air plutôt pas mal ! Surtout si vous aimez jouer avec du LLM sans passer par les API payantes de géants de la tech comme OpenAI.
![]()