Vue normale

Il y a de nouveaux articles disponibles, cliquez pour rafraîchir la page.
Hier — 6 mai 2024Flux principal

Ollama 0.133 – Enfin une gestion en parallèle des LLMs

Par : Korben
6 mai 2024 à 10:06

Vous avez vu la dernière version d’Ollama ? Cette version 0.133 a l’air plutôt pas mal. Bon, je sais, je sais, ça faisait un bail que je n’avais pas parlé des mises à jour de cet outil génial pour faire tourner des modèles d’IA en local, mais là, impossible de passer à côté !

Déjà, on a le droit à des fonctionnalités expérimentales de parallélisme (je sais pas si c’est comme ça qu’on dit en français…) qui vont vous permettre d’optimiser grave vos applis d’IA. Il y a donc 2 nouvelles variables d’environnement qui débarquent : OLLAMA_NUM_PARALLEL et OLLAMA_MAX_LOADED_MODELS. Avec ça, vous allez pouvoir gérer plusieurs modèles et requêtes en même temps, comme des pros ! 😎

Par exemple, si vous avez un modèle pour compléter votre code avec une IA de 6 milliards de paramètres comme Llama 3, et en même temps vous demandez à Phi 3 Mini et ses 3,8 milliards de paramètres comment architecturer votre projet et bien maintenant, c’est possible ! Comme ça, plus besoin d’attendre que l’un ait fini pour lancer l’autre puisque tout ça va se lancer en parallèle.

Alors bien sûr, c’est encore expérimental car il n’y a pas encore de priorité, et on est limité par la mémoire dispo sur notre machine. D’ailleurs, il vaut mieux avoir 16 Go de RAM et un CPU 4 cœurs pour que ça fonctionne correctement.

Il y a aussi plein de nouveaux modèles d’IA compatibles avec Ollama maintenant. Des gros calibres comme Llama 3, le meilleur modèle open-source à ce jour, mais aussi des plus légers et spécialisés comme Phi 3 Mini, Moondream pour la vision par ordinateur sur des appareils à la marge, ou encore Dolphin Llama 3 qui répond sans censure. Et le premier modèle Qwen (c’est chinois) de plus de 100 milliards de paramètres, Qwen 110B, est également de la partie. Ça en fait des compagnons pour nous assister dans nos projets !

Ensuite, imaginons que vous vouliez tester le parallélisme. Vous devez simplement lancer votre serveur Ollama avec les fameuses variables d’environnement.

Voici comment procéder :

Définir les variables sur Mac :

  • Utilisez launchctl pour définir chaque variable. Par exemple, pour permettre à Ollama de gérer trois requêtes simultanément, tapez dans le terminal :
    launchctl setenv OLLAMA_NUM_PARALLEL 3
  • Pour définir le nombre maximal de modèles chargés simultanément à deux, utilisez :
    launchctl setenv OLLAMA_MAX_LOADED_MODELS 2
  • Après avoir défini les variables, redémarrez l’application Ollama.

Configurer les variables sur Linux :

    • Éditez le service systemd d’Ollama avec systemctl edit ollama.service, ce qui ouvrira un éditeur de texte.
    • Ajoutez les lignes suivantes sous la section [Service] :
      [Service] Environment="OLLAMA_NUM_PARALLEL=3" Environment="OLLAMA_MAX_LOADED_MODELS=2"
    • Sauvegardez et quittez l’éditeur. Rechargez systemd et redémarrez Ollama avec :
      systemctl daemon-reload systemctl restart ollama

    Paramétrer les variables sur Windows :

      • Quittez l’application Ollama via la barre des tâches.
      • Accédez aux variables d’environnement système via le panneau de configuration et créez ou modifiez les variables pour votre compte utilisateur :
        • Pour OLLAMA_NUM_PARALLEL, ajoutez ou modifiez la variable à 3.
        • Pour OLLAMA_MAX_LOADED_MODELS, ajustez la variable à 2.
      • Appliquez les changements et redémarrez Ollama à partir d’une nouvelle fenêtre de terminal.

      Là, ça veut dire que vous pourrez envoyer 3 requêtes en parallèle sur le même modèle, et charger jusqu’à 2 modèles différents si votre RAM de 16 Go minimum le permet.

      Bon, et une fois que c’est lancé, vous pourrez envoyer des requêtes à tour de bras. Un coup à Llama 3 pour qu’il vous aide à générer un résumé de texte hyper optimisé, un autre à Phi 3 Mini pour résumer un article scientifique, tout ça pendant que Moondream analyse une image pour de la détection d’objets.

      Allez, je vous laisse tranquille, faut que j’aille optimiser mes scripts maintenant.

      Ollama 0.133 est dispo ici.

      Source

      À partir d’avant-hierFlux principal

      OpenELM – Apple sort ses modèles IA légers et open-source

      Par : Korben
      25 avril 2024 à 08:19

      Vous connaissez OpenELM ? Non, normal, ça vient de sortir. Et c’est une famille de modèles IA open-source made in Apple conçus pour tourner directement sur vos appareils, sans passer par le cloud. En gros, c’est de l’IA maison dans nos iPhone, iPad et Mac…etc.

      OpenELM combine plusieurs modèles de langage naturel (LLMs) utilisant des algorithmes évolutionnistes qui exploitent les principes techniques suivants :

      1. Layer-wise scaling strategy : Cette stratégie consiste à allouer les paramètres dans les couches d’un modèle transformeur pour améliorer l’exactitude. Les modèles sont pré-alourés avec un budget de paramètres de 270 millions, 450 millions, 1,1 milliard et 3 milliards.
      2. Pré-entraînement : Les modèles ont été pré-entraînés à l’aide d’une combinaison de datasets, incluant une sous-ensemble de Dolma v1.6, RefinedWeb, deduplicated PILE et une sous-ensemble de RedPajama. Ce dataset contient environ 1,8 trillion de tokens.
      3. Evolutionary algorithms : Les algorithmes évolutionnistes sont utilisés pour combiner les modèles LLM et améliorer l’exactitude. Cela permet d’exploiter les forces combinées des modèles pré-alourés et d’améliorer leur précision.

      Alors évidemment, Apple arrive un peu après la bataille dans l’IA, pendant que Microsoft et Google déboulent à fond la caisse. Mais bon, mieux vaut tard que jamais, et puis ils compensent avec du lourd, soit 8 modèles OpenELM au total, dont 4 pré-entraînés avec CoreNet et 4 fine-tunés. Et avec leur stratégie de scaling par couche ça optimise à fond l’allocation des paramètres.

      Allez, je traduits… En gros, ça veut dire qu’ils sont hyper efficaces et précis. Prenez le modèle à 1 milliard de paramètres et bien bah il explose un modèle équivalent comme OLMo de 2,36% en précision, avec 2 fois moins de tokens en pré-entraînement. Et ce qui est top, c’est qu’Apple balance tout : code, logs d’entraînement, configuration…etc et pas juste le modèle final. Et vu qu’ils utilisent des datasets publics, c’est top en matière de transparence et vérification des biais.

      En tout cas, une chose est sûre, avec OpenELM, Apple nous prouve qu’ils sont dans la course, et qu’ils comptent bien mettre le paquet sur l’IA

      Et Merci à Letsar pour l’info, c’est lui qui m’a mis la puce à l’oreille sur OpenELM. Tu gères !

      Source

      L’IA du MIT qui prédit les actions humaines

      Par : Korben
      24 avril 2024 à 18:00

      Imaginez un monde où les ordinateurs pourraient prédire ce que vous allez faire avant même que vous ne le fassiez. Ça peut sembler tout droit sorti d’un film de science-fiction du style de Minority Report, mais les chercheurs du célèbre MIT (Massachusetts Institute of Technology) sont en train de rendre ça possible ! En effet, ils ont mis au point un modèle d’IA (intelligence artificielle) qui est capable d’analyser les limitations d’un agent, qu’il soit humain ou artificiel, pour en déduire ses actions futures les plus probables.

      Dingue, non ?

      Mais comment ce modèle s’y prend-il pour jouer les madame Irma ? En fait, tout est une question de limites. Nan, je ne parle pas des limites de vitesse ou des dates de péremption, hein. Je parle des contraintes qui pèsent sur un agent peu importe sa nature, biologique ou numérique.

      Prenons un exemple concret : Vous êtes en train de jouer aux échecs contre un ordinateur. Vous avez vos propres contraintes : votre niveau de jeu, votre connaissance des ouvertures et des fins de partie, votre capacité à anticiper les coups de l’adversaire… Bref, tout un tas de facteurs qui limitent vos possibilités d’action. Eh bien, c’est exactement ce que le modèle d’IA du MIT analyse !

      En se basant sur ces fameuses limites, il est capable d’inférer les coups que vous avez le plus de chances de jouer. Pas besoin d’être Garry Kasparov pour comprendre à quel point c’est bluffant. Votre ordinateur sera bientôt meilleur que vous aux échecs… et dans plein d’autres domaines !

      Mais attention, le modèle du MIT ne prétend pas prédire l’avenir avec une précision de 100%. Il s’agit plutôt d’identifier des tendances et des schémas de comportement en fonction des limitations d’un agent. Ça reste néanmoins un outil très puissant pour anticiper les actions les plus probables.

      D’ailleurs, les applications de cette technologie vont bien au-delà des jeux de société. Je pense par exemple au voitures autonomes qui pourraient anticiper les mouvements des piétons et des autres véhicules, des assistants virtuels qui sauraient exactement ce que vous allez leur demander avant même que vous n’ouvriez la bouche, des robots industriels capables de s’adapter en temps réel aux changements de leur environnement… Les possibilités sont infinies !

      Bien sûr, tout cela soulève aussi son lot de questions éthiques. Est-ce qu’on a vraiment envie que les machines lisent dans nos pensées comme dans un livre ouvert ? Est-ce que ça ne risque pas de créer de sacrés problèmes de vie privée et de manipulation ? Imaginez que votre enceinte connectée décide de vous commander une pizza quatre fromages parce qu’elle a deviné que vous aviez un petit creux… Flippant, non ?

      Mais bon, on n’en est pas encore là. Pour l’instant, les chercheurs du MIT sont encore en train de plancher sur leur modèle pour le perfectionner et étendre ses capacités. Et croyez-moi, c’est loin d’être un long fleuve tranquille ! L’IA a beau faire des progrès de géant, prédire le comportement humain reste un sacré défi. On est tellement imprévisibles et irrationnels, nous autres mortels…

      En attendant de pouvoir déléguer toutes nos décisions à une machine, le modèle du MIT nous offre un aperçu de ce que pourrait être le futur de l’interaction homme-machine. Un futur où les ordinateurs nous comprendraient mieux que nous-mêmes, pour le meilleur et pour le pire. Perso, j’oscille entre fascination et inquiétude.

      Et vous ?

      Source

      Time for APAC Region to Build Its Own AI Foundation Models, Says CSIRO

      Par : Ben Abbott
      19 avril 2024 à 14:47
      Most AI foundation models are being developed in markets like the U.S. and China. Research from Australia asks whether other countries should be building sovereign AI models for citizens and businesses.

      Short Stack – la Nintendo Wii miniaturisée à l’extrême

      Par : Korben
      19 avril 2024 à 18:17

      Ça y est les amis, on a atteint le summum du bidouillage et de la miniaturisation avec le Short Stack, un mod complètement dingue de la Nintendo Wii qui arrive à faire tenir toute la puissance de la console dans un boîtier de la taille d’un paquet de cartes ! C’est juste ahurissant quand on y pense.

      Alors bien sûr, la Wii c’est pas la console la plus grosse à la base, mais quand même, passer de 157 x 60 x 197mm à un truc aussi compact, faut reconnaître que c’est quand même sacrément impressionnant. Et le plus fou dans tout ça, c’est que le moddeur n’a pas triché en passant par de l’émulation. Non non, le Short Stack embarque une vraie carte mère de Wii, juste super bien taillée et optimisée !

      James Smith, le génie derrière ce projet de titan, a réussi à faire rentrer dans son petit boîtier imprimé en 3D la carte mère réduite de la Wii, un tas de cartes électroniques custom empilées les unes sur les autres (d’où le nom du mod) pour gérer le Bluetooth, l’USB, les ports manettes GameCube, et même un dissipateur thermique sur mesure. Niveau intégration, on est donc sur du très très haut niveau.

      Bon par contre, évidemment, pas de lecteur de disque là-dedans, faut pas déconner. Mais ça n’empêche pas d’avoir quand même un petit slice factice qui s’illumine en façade pour faire genre. Les jeux et les sauvegardes sont stockés sur une carte microSD à la place. Et pour faire encore plus pro, le Short Stack se branche en HDMI et s’alimente en USB-C. De quoi faire un joli petit media center rétrogaming, fin et discret.

      Alors certes, c’est pas le premier mod de Wii ultra compact, on avait déjà vu passer la KillMii qui tenait dans une boîte d’Altoids. Mais celle-là intégrait un écran, des contrôleurs et une batterie qui tenait… 10 minutes. Pas top pour les sessions de Mario Kart endiablées. Le Short Stack a au moins le mérite d’être vraiment utilisable au quotidien sans trop de compromis. Après, difficile de dire s’il s’agit vraiment de la « plus petite Wii du monde » comme l’affirme Smith, mais une chose est sûre, c’est probablement la plus compacte que vous aurez vraiment envie d’utiliser !

      D’ailleurs si ce projet de fou vous tente, sachez que Smith a publié tous les détails, les fichiers de conception et les instructions sur GitHub. Vous y trouverez quelques infos sur la réalisation, même si on ne peut pas dire que ce soit un tutoriel complet non plus. Et attention, c’est clairement pas un mod pour débutants ! Il vous faudra de sacrées compétences en électronique, pas mal de matos spécifique et une bonne dose de patience pour arriver à un résultat similaire.

      Enfin bref, je dis chapeau bas Monsieur Smith pour ce boulot de malade mental. On en redemande des comme ça ! Parce que soyons honnêtes, ça sert pas à grand chose mais qu’est-ce que c’est classe !

      Source

      PyTorch dévoile Torchtune pour fine-tuner les LLM

      Par : Korben
      19 avril 2024 à 08:18

      PyTorch, le framework chouchou des bidouilleurs d’IA, vient de nous pondre un petit truc cool : Torchtune ! 💎 Cette nouvelle bibliothèque native, encore en phase alpha mais déjà disponible en open-source sur GitHub, va vous permettre de fine-tuner les gros modèles de langage (LLM) comme un pro, sans vous prendre la tête.

      Torchtune est donc une boîte à outils hyper flexible et modulaire qui va vous permettre de vous éclater à customiser des modèles pour vos propres besoins, le tout avec des recettes mémoire efficaces qui tournent même sur une bête carte graphique de gamer, comme les NVidia 3090/4090.

      Son secret ?

      Une architecture bien pensée qui mise sur l’interopérabilité avec l’écosystème des LLM, qu’ils soient open-source ou non. Concrètement, ça veut dire que vous allez pouvoir brancher Torchtune à tout un tas d’outils et de frameworks que vous adorez déjà, comme Hugging Face 🤗, PyTorch FSDP 🪢, Weights & Biases 📈, et plein d’autres.

      Grâce à des recettes simples et bien documentées pour les modèles populaires comme Llama 3, Mistral ou Gemma 7B, même les débutants vont pouvoir se lancer dans l’aventure sans flipper. Bon OK, il faudra quand même un peu de bagage en PyTorch et en LLM, mais rien d’insurmontable ! Et si vous êtes un pro, vous allez pouvoir hacker le code à volonté pour l’adapter à vos besoins spécifiques.

      Alors comment on met les mains dans le cambouis avec Torchtune ?

      Rien de plus simple, mon cher Watson ! Il vous suffit d’installer la dernière version stable de PyTorch (2.2.2 au moment où j’écris ces lignes), puis de télécharger Torchtune depuis PyPI avec un petit

      pip install torchtune

      Et voilà, vous êtes prêt à en découdre avec les LLM !

      Pour vous faire les dents, je vous conseille de jeter un œil au tutoriel sur le fine-tuning de Llama2 7B. C’est le parfait point de départ pour comprendre comment Torchtune fonctionne et comment l’utiliser pour vos propres projets.

      En gros, ça se passe en 4 étapes :

      1. Téléchargez le modèle pré-entraîné et le tokenizer depuis Hugging Face Hub avec tune download.
      2. Choisissez une recette de fine-tuning (LoRA, QLoRA, full…) et customisez-la avec un fichier de config en YAML.
      3. Lancez l’entraînement avec tune run en précisant votre recette et votre config. Vous pouvez même faire du multi-GPU avec torchrun !
      4. Admirez le résultat et testez votre modèle fine-tuné avec une inférence locale. Si tout se passe bien, exportez-le avec ExecuTorch pour le déployer en prod, ou utilisez les API de quantification de Torchao pour l’exporter en int4 ou int8 et l’utiliser sur mobile ou en edge.

      Facile, non ? 😄

      Bon OK, j’avoue, j’ai un peu simplifié. En vrai, il y a pas mal de subtilités et de paramètres à régler pour obtenir les meilleurs résultats, comme le learning rate, le nombre d’époques, la taille du batch, le ratio de LoRA, et tout un tas d’autres trucs, mais c’est justement sa flexibilité qui vous permet d’expérimenter à l’infini pour trouver la combinaison parfaite.

      Bref, si vous êtes dev et que vous aimez jouer avec les LLM c’est à tester.

      Source

      Un moddeur fait tourner Halo 2 en 720p sur la Xbox originale

      Par : Korben
      17 avril 2024 à 21:12

      Un surdoué du bidouillage nommé Ryan Miceli, alias « grimdoomer » sur GitHub, vient de réussir un truc de malade : faire tourner Halo 2 en 720p sur une Xbox première génération ! Oui, 720p sur la vénérable console de Microsoft sortie en 2001, c’est un bel exploit.

      Mais alors, comment ce bon vieux Ryan a-t-il réussi ce tour de passe-passe ? Eh bien figurez-vous qu’il a littéralement mis les mains dans le cambouis pour effectuer des modifications matérielles, dans le kernel, et même sur le jeu lui-même. Un travail de titan !

      Pour entrer un peu plus dans les détails techniques, sachez que Miceli a installé un câble IDE 80 broches pour connecter le disque dur de la Xbox à un PCB custom qui supporte des vitesses de transfert plus rapides. Résultat, des temps de chargement optimisés et des perfs globalement boostées. Côté kernel, notre modder de génie a optimisé la gestion de la mémoire pour augmenter la quantité de RAM disponible pour le jeu. Et ce n’est pas tout ! Il a aussi ajouté le support du triple buffering pour un rendu plus fluide, et même des sliders pour régler le FOV.

      Faut quand même se rappeler qu’à sa sortie, Halo 2 faisait déjà cracher les poumons de la console alors l’idée de le faire tourner en 720p, ça relève presque de la science-fiction. Il a notamment exploité une faille dans le système de mémoire partagée entre le CPU et le GPU et en bidouillant le code, il a réussi à gonfler la mémoire vidéo. Et même si le framerate trinque un peu à cause de cet overclocking, on est quand même en 720p au final.

      Et pour ceux qui voudraient (presque) la même chose sur leur XBox mais qui n’ont pas envie de sortir le fer à souder, Ryan a pensé à tout. Certes, pour obtenir le Graal des 720p, faut mettre les mains dans les composants et charcuter un peu la bête, mais une bonne partie des améliorations, comme la correction du scaling en 480p ou les options pour régler le FOV, fonctionnent sur une console stock !

      Bravo à Mister Miceli, un vrai Master Chief !

      Source

      Reor – L’appli magique de prise de notes boostée à l’IA locale et gratuite

      Par : Korben
      25 mars 2024 à 08:00

      Dispo sous Windows, Linux et macOS (Intel et Silicon), Reor est un outil de prise de notes markdown capable de s’auto-organiser. Cela signifie que l’outil utilise de l’IA localement pour vous aider à mettre de l’ordre dans vos idées.

      C’est assez ouf puisque ça vous fera gagner un max de temps en reliant automatiquement vos idées, mais également en répondant à toutes vos questions en se basant sur vos notes. Reor offre également un moteur de recherche sémantique et le tout est stocké localement, ce qui évitera que vos données ne soient pompées.

      Reor tire parti des géants tels que Llama.cpp, Transformers.js et LanceDB pour permettre à la fois aux modèles LLM et d’inférences de s’exécuter localement. Il est également possible de se connecter à des API compatibles OpenAI si vous le désirez.

      Alors, comment fonctionne cette auto-organisation ?

      En réalité, chaque note que vous écrivez est fragmentée et intégrée dans une base de données vectorielle interne. Les notes connexes sont automatiquement reliées par la similarité vectorielle. De plus, la base de Q&R alimentée par les LLM fonctionne sur un principe de RAG (Retrieval-Augmented Generation) sur le corpus de notes que vous lui avez donné. Exactement comme ce qu’on peut faire aujourd’hui avec des PDF et des outils comme PDFtoChat.

      Pour commencer, rien de plus simple : il vous suffit de télécharger Reor et de l’installer comme n’importe quelle autre application. Notez que pour l’instant, l’application ne télécharge pas les modèles pour vous, vous devrez donc télécharger manuellement votre modèle de choix au format GGUF et l’importer dans l’outil. Cela peut être Mistral ou Llama 2 par exemple. Et comme ce sont des modèles open source et gratuits, vous n’aurez rien à payer.

      L’importation de notes provenant d’autres applications est également possible, puisque Reor stocke ses données dans un seul répertoire, que vous choisissez lors de la première utilisation. Pour importer des notes/fichiers d’une autre application, il vous suffit donc de remplir ce répertoire manuellement avec des fichiers Markdown.

      Voilà, c’est encore un peu brut comme outil, mais je parie que ça s’affinera avec le temps.

      Merci à Lorenper

      Pinokio – Automatisez et scriptez vos IA en un clic

      Par : Korben
      22 mars 2024 à 10:06

      Imaginez que vous puissiez installer, exécuter et automatiser n’importe quelle application qui fait de la bonne grosse IA en un seul clic. Plus besoin d’ouvrir un terminal, de taper des commandes que j’aime tant comme git clone, conda install ou pip install. Fini la galère des environnements d’exécution puisque tout est automatisé, et aussi simple à utiliser qu’un navigateur web.

      C’est exactement ce que propose Pinokio !

      Grâce à Pinokio, n’importe quelle application en ligne de commande peut être portée pour s’exécuter directement dans le navigateur. Les scripts d’installation, les scripts Python, les commandes shell…etc, tout peut être automatisé notamment grâce à son propre langage de script JSON et une API JSON-RPC.

      On y retrouve également un bonne grosse bibliothèques de scripts permettant d’installer outils d’IA comme SUPIR (pour faire de la restauration d’images), un chatbot Ollama ou encore des trucs autour de Stable Diffusion pour faire des images.

      Pinokio supporte également les agents autonomes qui peuvent s’exécuter sans aucune intervention humaine. Imaginez par exemple un bot Discord qui s’auto-héberge, récupère automatiquement de nouvelles données, met à jour son modèle d’IA et répond aux utilisateurs, le tout sans supervision. Avec Pinokio, ce genre de truc est possible.

      Ce que je veux que vous compreniez, c’est que Pinokio n’est pas juste un installeur d’outils IA. C’est vraiment un environnement complet pour coder vos propres scripts et automatiser l’IA sur votre macine. Je vous invite à creuser la documentation pour en savoir plus.

      Pour vous montrer la partie émergé de l’iceberg de cet outil, je vous ai fait un modeste tutoriel vidéo, disponible sur mon Patreon. Si vous n’en faites pas encore partie, c’est le moment de me rejoindre sur https://patreon.com/korben. En plus d’accéder à des contenus en avant première, vous soutiendrez mon travail et m’aiderez à continuer de partager avec vous mes expérimentations et découvertes.

      NES Hub – Le réveil du port d’extension oublié de la Nintendo

      Par : Korben
      21 mars 2024 à 09:57

      Vous vous souvenez de la mythique Nintendo Entertainment System (NES) ? Cette bonne vieille console 8 bits qui a bercé l’enfance de toute une génération de gamers (la mienne en l’occurence) ? Et bien accrochez-vous, car un bidouilleur de génie vient de remettre au goût du jour un trésor caché dans ses entrailles !

      Figurez-vous que la NES possède un mystérieux port d’extension 15 broches, resté inexploité durant des décennies car Nintendo n’a jamais sorti le moindre accessoire pour en tirer parti. C’est kro kro kriste. C’est donc un port fantôme condamné à l’oubli éternel. Enfin ça, c’était avant l’arrivée du NES Hub !

      Ce petit device conçu par RetroTime, un hackeur de génie, se branche directement sur le port d’extension de la NES et là, c’est le feu d’artifice ! D’un seul coup, la vénérable console se transforme en bête de course gavée aux stéroïdes. Au menu des réjouissances :

      • Support pour 4 manettes sans fil (adieu les câbles qui s’emmêlent !)
      • Compatibilité avec les manettes SNES (pour un confort de jeu inégalé)
      • Prise en charge expérimentale des périphériques de la Famicom (la grande sœur japonaise de la NES)
      • Et le meilleur pour la fin : de l’audio étendu pour profiter de sons inédits dans certains jeux !

      Cerise sur le gâteau, le NES Hub est ouvert aux add-ons tiers. Les possibilités sont quasi infinies ! On parle même d’un adaptateur pour lire les disquettes du Famicom Disk System. De quoi faire saliver les collectionneurs les plus acharnés.

      Bon, pour l’instant, le NES Hub n’est encore qu’un prototype. Mais RetroTime compte bien le peaufiner et le commercialiser d’ici peu, notamment sur le site 8bitmods.

      35 ans après, voir encore des trucs sortir sur la NES, ça me fait toujours autant triper !

      Source

      La Pokémon Company lance une chasse contre les Mods et menace les Youtubeurs

      Par : Korben
      21 mars 2024 à 06:39

      Ça chauffe pour les mods Pokémon ! La Pokémon Company a décidé de partir en guerre contre tous les mods qui osent introduire nos petits monstres préférés dans d’autres jeux. On pensait qu’ils s’étaient calmés après avoir canardé le mod de Palworld qui ajoutait des vrais Pokémon, mais que nenni ! Ils remettent ça, et en beauté.

      Le pauvre Youtubeur NoahJ456 vient d’en faire les frais. Une de ses vidéos vieille de 7 ans, qui montrait un mod Call of Duty avec des Pokémon, s’est fait dégommer par un strike de Pokémon Co. Et attention, après 3 strikes, c’est la suppression pure et simple de la chaîne !

      Sympa comme épée de Damoclès…

      Bon ok, légalement, Pokémon Co. est dans son droit. Les Pokémon sont leur propriété intellectuelle, et ils peuvent faire retirer ce qu’ils veulent. N’empêche que moralement, c’est plus que limite. On parle de fans qui kiffent tellement les Pokémon qu’ils veulent les voir partout, même dans d’autres jeux ! Aucun mal à ça non ? Ça ne retire rien à Pokémon, au contraire, ça ne fait que renforcer la hype autour de la franchise.

      Mais visiblement, c’est no fun allowed dès qu’on touche au sacro-saint contrôle de la marque… Même le créateur du mod Palworld, Toasted Shoes, a dit qu’il regrettait d’avoir été « imprudent » et d’avoir potentiellement déclenché cette nouvelle vague de chasse aux sorcières. C’est dire le niveau de pression !

      Et le pire, c’est que malgré tous ces mods « illégaux », les jeux Pokémon continuent de cartonner ! Les derniers Scarlet et Violet se sont arrachés comme des petits pains, bugs et Dexit compris. Alors pourquoi s’acharner contre la créativité des fans ? Juste pour montrer qui est le boss et faire un exemple ?

      Franchement, c’est d’une tristesse… Pokémon Co. devrait au contraire être fier que sa création inspire autant les joueurs et modders. Mais non, dès que ça touche à leur précieux copyright, y a plus personne et ça envoie un message de merde aux fans qui voudraient créer autour de la franchise.

      Après, faut pas trop s’étonner non plus. Pokémon Co. n’a jamais été un grand défenseur de la liberté créative, on l’a déjà vu avec leur goût à utiliser les créations des fans sans les créditer. Mais quand même, de là à aller déterrer des vidéos d’il y a 7 ans… breeef.

      Avis à tous les créateurs de contenu : planquez vite vos videos qui traitent des mods Pokémon car Big Pikachu Brother arrive !

      Source : Pokémon Co. Is Now DMCAing Years Old Videos Showing Pokémon Modded Into Other Games

      MM1 – L’IA multimodale d’Apple qui « pense » différemment

      Par : Korben
      19 mars 2024 à 17:38

      Vous pensiez qu’Apple se contentait de suivre les autres géants de la tech en matière d’intelligence artificielle ? Détrompez-vous ! La firme de Cupertino vient de dévoiler les secrets de son nouveau modèle d’IA baptisé MM1, et croyez-moi, ça décoiffe grave !

      Alors que Google mise sur son modèle Gemini pour booster les fonctionnalités IA d’iOS 18, Apple a décidé de tracer sa propre route avec MM1. L’idée de génie ? Utiliser un dataset diversifié qui mélange allègrement du texte et des images pour entraîner cette IA nouvelle génération.

      Résultat, MM1 est capable de générer des légendes pour des images de manière hyper précises, de répondre à des questions posées sur des images et même d’inférer du langage naturel à partir d’indices linguistiques et visuels. Une vraie bête de compétition !

      En combinant différentes méthodes d’entraînement issues d’autres IA avec ses propres techniques maison, Apple espère ainsi rattraper son retard sur des mastodontes comme Google ou OpenAI. Et vu le niveau de performances annoncé, y a de quoi être optimiste !

      Alors comment ça fonctionne ?

      Et bien si vous montrez une photo de votre chat à MM1, non seulement il sera capable de le reconnaître et de le décrire avec une précision redoutable, mais il pourra aussi répondre à des questions du genre « De quelle couleur est son collier ? » ou « A-t-il l’air joueur ou paresseux sur cette image ?« .

      Dans l’exemple réel ci-dessous, on lui demande combien il devra payer pour les bières (photo 1) d’après le menu (photo 2). Et c’est le seul à répondre correctement, et précisemment.

      Bluffant, non ?

      Et ce n’est qu’un exemple parmi d’autres. Apple étant Apple, on peut s’attendre à ce que MM1 révolutionne notre façon d’interagir avec nos devices. Pourquoi pas imaginer une app qui génère automatiquement la description textulle d’une scène que vous auriez photographié ? Ou un mode « sous-titres » universel qui retranscrirait en temps réel tout ce que votre iPhone voit et entend ? Les possibilités sont infinies dès que l’IA est embarquée !

      Bien sûr, tout cela n’est encore qu’à l’état de recherche pour le moment. Mais connaissant Apple, on peut parier que la firme mettra rapidement en application les promesses de MM1 dans ses futurs produits et services. iOS 19 propulsé par une IA multimodale surpuissante, ça envoie du rêve, je ne vous le cache pas.

      Avec MM1, Apple prouve une fois de plus sa capacité à innover. Pendant que les autres géants de la Silicon Valley se contentent d’améliorer leurs modèles existants, la marque à la pomme préfère partir d’une feuille blanche pour inventer l’IA de demain. Comme dirait l’autre, « think different », ça a du bon ! 😎

      Alors, vous en pensez quoi de ce MM1 ? Hâte de voir ce qu’Apple nous réserve pour la suite.

      Perso, j’ai déjà hâte de discuter avec mon iPhone comme s’il était mon meilleur pote. Au moins, j’aurais un pote ^^.

      Source

      Modular speaker concept creates an immersive audio experience anywhere

      Par : JC Torres
      20 mars 2024 à 12:40

      Portable wireless speakers are becoming quite ubiquitous these days as a way to enjoy your favorite music anywhere you are, whether you’re outside or just in another room. In exchange for their portability, however, the quality of the sound these speakers produce is less impressive compared to bigger and more stationary equipment found at home. It would be nice if you could have the best of both worlds, enjoying an audio system that follows you around the house without missing a beat. You could try to buy multiple wireless speakers and hope they can be connected to each other, or you can hope that this peculiar speaker system concept becomes a reality, allowing you to pick up one or two speakers from their base as easily as you would pick up your takeout meal.

      Designers: Junwoo Kim, Yoonjeong Lee, Heeyeol Yang, Jaehoon Jeong

      For an audio experience to be considered truly immersive, it has to sound like it’s coming from all around you. More specifically, the right sounds have to come from the correct direction rather than equally from all directions. Making this possible with a single speaker or even a pair of headphones is possible but difficult to accomplish, requiring sophisticated algorithms and precise control to create the illusion of surround sound. Of course, you could set up a surround sound system in your entertainment den, but then that magic only takes effect in that room.

      TakeOut is an LG-inspired concept for a modular speaker system that lets you design your own audio space in a snap. At its core is a 360-degree soundbar that tries to bring the sound to you wherever you are in the room by blasting it in all directions. But when you push down on one of the circles on the top of the soundbar, a short cylindrical wireless speaker pops up. It’s not a completely independent speaker and it works in tandem with the soundbar, but its most important feature is that you can take it anywhere with you in the house.

      This portability means that you can set up your audio experience just the way you want it, whether you’re listening in the same room or elsewhere. Need to go to your home office for a while? Just pop out one of the speakers and let the music follow you there. You can also create your surround sound setup in a flash by positioning the four “sub-speakers” around the room, though that doesn’t necessarily mean that the system will know which sound needs to come from which speaker.

      While the design of TakeOut is quite interesting, there might be some practical issues with it as well. For one, the concept doesn’t clarify if the individual speakers can be used separately from the soundbar or if they’re completely dependent on it. If it’s the latter, it also means that the speakers won’t function properly if they ever go out of range of the soundbar or if the data can’t reach them because of obstacles like walls. Those details, however, could actually be ironed out with some features that don’t take away anything from the spirit of this modular and immersive audio system.

      The post Modular speaker concept creates an immersive audio experience anywhere first appeared on Yanko Design.

      LLM4Decompile – Quand l’IA se met à décompiler du binaire

      Par : Korben
      16 mars 2024 à 01:15

      Imaginez un monde merveilleux où les secrets enfermés dans les binaires compilés ne seraient plus inaccessibles aux simples mortels que nous sommes…

      C’est exactement ce que LLM4Decompile, le premier LLM (Large Language Model) open-source dédié à la décompilation, promet de réaliser. Fruit d’un travail de recherche innovant mené par une équipe de chercheurs passionnés, ce modèle révolutionnaire ouvre de nouvelles perspectives dans le domaine du reverse engineering.

      Jusqu’à présent, la décompilation, c’est-à-dire le processus qui consiste à retrouver le code source à partir d’un exécutable compilé, restait un défi de taille. Les outils existants peinaient à produire un code lisible et compréhensible par les humains, ce qui est logique puisqu’il y a une grosse perte d’informations lors de la compilation. Mais ça, c’était avant l’arrivée de LLM4Decompile !

      Entraîné sur un énorme dataset de 4 milliards de tokens de code C et d’assembleur x86, ce modèle de langage surpuissant a appris à décoder les secrets des binaires. Grâce à son architecture basée sur les Transformers et ses milliards de paramètres, il est donc capable de capturer les patterns et la sémantique du code à un niveau inédit.

      Mais les chercheurs ne se sont pas arrêtés là. Ils ont aussi développé le premier benchmark standardisé pour la décompilation baptisé Decompile-Eval. Basé sur des problèmes de programmation réels, il permet d’évaluer la capacité des modèles à regénérer un code recompilable et ré-exécutable. Exit les métriques de similarité de tokens, place à des critères solides et pertinents ! LLM4Decompile parvient à recompiler 90% des binaires décompilés (oui oui, je me suis pas trompé) !

      Mieux encore, 21% du code re-généré réussit tous les tests unitaires, démontrant une préservation de la logique du programme. C’est 50% de plus que GPT-4, pourtant considéré comme l’état de l’art.

      Cerise sur le gâteau, LLM4Decompile est entièrement open-source. Les modèles pré-entraînés de 1,3 à 33 milliards de paramètres sont disponibles sur Hugging Face, prêts à être utilisés et améliorés par la communauté. Le code, les données d’entraînement et le benchmark sont aussi accessibles sur GitHub.

      Bien sûr, LLM4Decompile n’est qu’un premier pas vers la décompilation par l’IA. Il reste limité au langage C et à l’assembleur x86, et ne gère pour l’instant que des fonctions isolées. Mais les perspectives sont immenses ! On peut imaginer étendre son champ d’action à d’autres langages et architectures, voire carrément l’utiliser pour transpiler automatiquement du code entre différents langages.

      Les applications potentielles sont nombreuses : reverse engineering de logiciels legacy (ça veut dire obsolète mais encore utilisé.. .argh !), analyse de malware, portage de vieux jeux vidéos, etc. Même les vieux binaires qui sentent la naphtaline n’auront bientôt plus de secrets pour nous !

      Le support des cartes AMD débarque sur Ollama

      Par : Korben
      15 mars 2024 à 21:38

      Bonne nouvelle, Ollama vient tout juste d’annoncer un truc qui devrait vous faire plaisir : le support des cartes graphiques AMD en preview ! Cela signifie que toutes les fonctionnalités d’Ollama peuvent maintenant être accélérées par les cartes graphiques AMD, que ce soit sur Linux ou Windows.

      Mais au fait, c’est quoi Ollama ? Pour les deux du fond qui suivent pas, je vous refais un topo vite fait. Ollama, c’est un outil hyper pratique qui permet de faire tourner des grands modèles de langage open-source directement sur votre machine locale. Genre Mistral, Llama 2 et toute la clique.

      Alors, quelles sont les cartes AMD compatibles ?

      Pas de panique, je vous ai préparé une petite liste bien détaillée. Dans la famille des Radeon RX, on retrouve les monstres comme les 7900 XTX, 7900 XT, 7800 XT, 6900 XT et compagnie. Pour les pros, la gamme Radeon PRO est aussi de la partie avec les W7900, W6800X Duo, Vega II… Bref, y a du beau monde au rendez-vous. Et si vous êtes un fan des cartes Instinct, pas de jaloux, les MI300X, MI250, MI100 et autres sont aussi supportées.

      Ollama promet également que d’autres modèles de cartes graphiques suivront. Alors on croise les doigts et on surveille les annonces comme le lait sur le feu. En attendant, si vous voulez vous lancer dans l’aventure Ollama avec votre carte AMD, c’est simple comme bonjour.

      Téléchargez Ollama pour Linux ou Windows, installez le bouzin et hop, vous voilà parés pour faire chauffer votre GPU AMD ! C’est pas beau la vie ? Je vous ai même fait un tutoriel ici !

      Allez, je vous laisse, j’ai un rendez-vous urgent avec mon Llama2 uncensored qui me fait de l’œil.

      Source

      ❌
      ❌