Vue normale

Il y a de nouveaux articles disponibles, cliquez pour rafraîchir la page.
Aujourd’hui — 1 décembre 2025Flux principal

Retro-eXo - Plus de 10 000 jeux DOS et Windows prets à jouer !

Par : Korben
1 décembre 2025 à 09:15

Si vous êtes du genre à avoir une petite larme à l’œil (snif) quand vous repensez aux jeux DOS, Windows 3.1 ou Windows 95 de votre jeunesse, l’ami Lorenper a trouvé un projet de préservation vidéoludique absolument incroyable.

Retro-eXo c’est LE projet d’une seule personne qui a constitué des collections massives de jeux rétro, tous préconfigurés et prêts à être jouer, couvrant pratiquement toutes les plateformes PC des années 80-90-2000.

Le projet a commencé en 2007 et la philosophie est simple : “Preservation through Playability” in english, donc autrement dit, ça sert à rien d’archiver des jeux si personne ne peut y jouer. Du coup, chaque collection est livrée avec les émulateurs préconfigurés, les métadonnées, les pochettes, les manuels et tout ce qu’il faut pour lancer n’importe quel titre en un clic.

Voici donc ce que propose le site :

eXoDOS v6 : La grosse collection DOS avec 7 666 jeux , tous les classiques de l’époque PC Booter et MS-DOS. Le torrent complet fait 638 Go, mais y’a aussi une version Lite de 5 Go qui télécharge les jeux à la demande. Et en bonus, un pack média de 220 Go avec des magazines, des bandes son et des guides de stratégie d’époque.

eXoWin3x v2 : 1 138 jeux Windows 3.x de l’époque où Windows était juste une interface graphique par dessus DOS. Ça tourne via DOSBox avec des VHD préconfigurés. La v3 est prévue pour 2025.

eXoWin9x Vol.1 : 662 jeux Windows 95/98 de la période 1994-1996 (j’en ai parlé dans un autre article). Le système de VHD différentiels permet de faire tenir tout ça dans 262 Go au lieu de plusieurs téraoctets. Les volumes suivants arrivent bientôt avec les années 1997-2000.

eXoScummVM : 671 jeux point-and-click compatibles ScummVM, avec plusieurs variations par plateforme. Le torrent fait 253 Go et inclut tous les classiques LucasArts, Sierra et compagnie.

eXoDREAMM v3 : 46 jeux utilisant le moteur DREAMM , un émulateur spécialisé pour les jeux LucasArts.

Retro Learning Pack : 667 titres éducatifs compilés depuis eXoDOS et eXoWin3x, pour ceux qui veulent faire découvrir Math Blaster ou Reader Rabbit à leurs gamins.

Chaque collection utilise LaunchBox comme frontend, avec des vidéos de preview de 30 secondes pour chaque jeu, des options de configuration unifiées (fullscreen, ratio d’aspect, shaders CRT…), et même du support multijoueur automatisé via IPX pour les jeux en réseau. Le tout est portable et ne modifie rien sur votre système hôte.

Si vous creusez un peu sur le site, vous découvrirez aussi des packs contenant toutes les créations de la démoscene de 1987 à 1998, des jeux et des logiciels pour la série des Apple II (+ GS), un pack spécialisé dans tout ce qui est titres de fictions interactives de 1974 jusqu’au milieu des années 80. C’est incroyable !

Le travail de préservation est impressionnant et l’équipe cherche encore les versions originales sur média physique plutôt que des rips de scene, et documente tout sur un wiki dédié . Y’a aussi un Discord actif et un GitHub pour signaler les bugs ou soumettre des jeux manquants.

Si vous voulez faire tourner tout ce petit monde sous Linux, sachez qu’il y a aussi un pack de patchs, afin de faire tourner les différents projets EXO sur votre OS préféré .

Voilà, si vous voulez vous monter une bibliothèque rétro complète sans passer des semaines à configurer des émulateurs, foncez sur Retro-eXo . C’est gratuit, c’est téléchargeable en torrent, et c’est probablement le projet de préservation PC gaming le plus ambitieux qui existe !

À partir d’avant-hierFlux principal

MocoLlamma - Ollama gérable depuis iPhone, iPad et Vision Pro

Par : Korben
7 novembre 2025 à 09:00

Vous avez installé Ollama sur votre Mac et vous êtes le plus joyeux de tous les mammifères car vous faites tourner Llama 3.x en local comme un chef. Et puis un soir, posé dans votre canapé avec votre iPad de bourgeois capitaliste, vous vous dites que ce serait bien de pull un nouveau modèle. Et là, vous réalisez qu’il va falloir sortir le MacBook, ouvrir un terminal, taper ollama pull mistral, attendre et attendre… Grosse flemme non ?

Hé oui, Ollama reste un outil en ligne de commande. C’est génial pour les devs, mais galère pour le reste et vous avez beau avoir de la puissance de calcul dans votre poche avec un iPhone ou un iPad, c’est impossible de gérer vos modèles sans SSH et sans Terminal.

Heureusement, MocoLlamma vient combler ce fossé. C’est une app de gestion Ollama pour macOS, iOS, iPadOS, et même visionOS si vous avez ce truc. C’est donc une vraie app native avec interface graphique, développée en Swift et SwiftUI dans laquelle ous ajoutez vos serveurs Ollama, et où vous gérez vos modèles, et vous testez vos LLM via un chat basique.

L’app s’organise autour de trois onglets. Le premier, Server, vous permet d’ajouter et de switcher entre plusieurs serveurs Ollama. Vous pouvez ainsi renommer chaque serveur, gérer les connexions, bref, tout ce qu’il faut pour jongler entre votre Mac local, votre serveur, ou votre instance cloud si vous en utilisez une.

Le second onglet, Model, affiche tous les modèles disponibles sur le serveur sélectionné. Vous voyez ainsi les infos de chaque modèle, vous pouvez les trier par taille, les ajouter ou les supprimer. Comme ça, plus besoin de taper ollama list pour savoir ce qui tourne. Tout est là, visuellement, avec la possibilité de gérer vos modèles d’un tapotage bien senti.

Le troisième onglet, Chat, permet de tester rapidement un modèle. C’est volontairement basique et l’idée n’est pas de remplacer ChatGPT ou Open WebUI, mais juste de vérifier qu’un modèle répond correctement. Genre, vous venez de pull Qwen 3, et vous voulez voir s’il fonctionne avant de l’intégrer dans votre workflow. Hop, quelques questions rapides dans le chat, et vous savez.

Il existe bien sûr des tonnes d’alternatives de GUI pour Ollama comme Open WebUI , LM Studio , Jan , GPT4All … Mais aucune ne supporte nativement visionOS ou les iPad / iPhone. Alors que MocoLlamma, si.

C’est actuellement la seule app qui vous permet de gérer vos LLM locaux depuis ces appareils Apple… C’est assez niche c’est vrai mais ça peut rendre service.

Le nom “MocoLlamma” est ce qu’on appelle un mot valise de “Model”, “Control”, “Ollama”, et “Manage”. C’est moche de ouf, c’est pas super à retenir, mais au moins ça décrit exactement ce que fait l’app.

Y’a la version gratuite qui est disponible sur GitHub, mais uniquement pour macOS (c’est sous license MIT) et la version payante, à 1,99 dollars sur l’App Store, supporte macOS, iOS, iPadOS, et visionOS. La différence principale pour l’app macOS c’est surtout les mises à jour automatiques. Vous payez 2 balles pour le confort.

Et là, un point crucial, sachez que MocoLlamma ne collecte AUCUNE donnée utilisateur. Bref, cette appli vient combler le trou qui se trouve entre “j’ai installé Ollama” et “je peux gérer mes modèles depuis mon iPhone”. Si vous avez ce besoin, c’est donc à considérer.

Merci à Lorenper pour la découverte.

Cloudflare bloque une attaque DDoS record de 7,3 Tb/s

Par : Korben
22 juin 2025 à 05:01

Vous pensez à l’avenir ? Moi tout le temps ! Je me dis qu’on n’est pas au bout de nos suprise… Peut-être qu’en 2030, notre grille-pain participera à une attaque de 50 Tb/s contre Netflix ou que notre frigo connecté sera en train de DDoS la NASA pendant qu’on est parti chercher du lait. On n’en sait rien, mais ce qui est sûr c’est que pendant que l’humanité sera en train de découvrir que les IA se battent vraiment en secret depuis des années à coups de pétaoctets, nous on sera toujours en train de galérer avec la 4G dans le métro.

❌
❌