Vue normale

Il y a de nouveaux articles disponibles, cliquez pour rafraîchir la page.
À partir d’avant-hierFlux principal

Adobe VideoGigaGAN – L’IA qui transforme vos vidéos floues en HD !

Par : Korben
25 avril 2024 à 08:37

Vous avez une vieille vidéo toute pourrie, floue à souhait, qui date de Mathusalem et bien avec VideoGigaGAN d’Adobe, elle va se transformer en une magnifique séquence HD, avec des détails si nets que vous pourrez compter les poils de nez des gens qui sont dessus !

VideoGigaGAN est ce qu’on appelle un modèle d’IA génératif. En gros, ce machin est capable de deviner les détails manquants dans une vidéo pourrave pour la rendre méga classe. Les petits gars d’Adobe ont balancé des exemples sur leur GitHub et franchement, c’est impressionnant. On passe d’une vidéo degueulasse à un truc ultra net, avec des textures de peau hallucinantes et des détails de fou !

En plus, cette IA est capable d’upscaler les vidéos jusqu’à 8 fois leur résolution d’origine, par contre, faut pas s’emballer car pour le moment, c’est juste une démo de recherche et y’a pas encore de date de sortie officielle. Mais connaissant Adobe, y’a moyen que ça finisse dans Premiere Pro un de ces quatre. Je vais pouvoir améliorer mes vidéos tournées à l’époque au format 3GP \o/.

D’ici là, va falloir continuer à se taper des vidéos de chat toutes pixelisées sur les réseaux sociaux.

Source

OpenELM – Apple sort ses modèles IA légers et open-source

Par : Korben
25 avril 2024 à 08:19

Vous connaissez OpenELM ? Non, normal, ça vient de sortir. Et c’est une famille de modèles IA open-source made in Apple conçus pour tourner directement sur vos appareils, sans passer par le cloud. En gros, c’est de l’IA maison dans nos iPhone, iPad et Mac…etc.

OpenELM combine plusieurs modèles de langage naturel (LLMs) utilisant des algorithmes évolutionnistes qui exploitent les principes techniques suivants :

  1. Layer-wise scaling strategy : Cette stratégie consiste à allouer les paramètres dans les couches d’un modèle transformeur pour améliorer l’exactitude. Les modèles sont pré-alourés avec un budget de paramètres de 270 millions, 450 millions, 1,1 milliard et 3 milliards.
  2. Pré-entraînement : Les modèles ont été pré-entraînés à l’aide d’une combinaison de datasets, incluant une sous-ensemble de Dolma v1.6, RefinedWeb, deduplicated PILE et une sous-ensemble de RedPajama. Ce dataset contient environ 1,8 trillion de tokens.
  3. Evolutionary algorithms : Les algorithmes évolutionnistes sont utilisés pour combiner les modèles LLM et améliorer l’exactitude. Cela permet d’exploiter les forces combinées des modèles pré-alourés et d’améliorer leur précision.

Alors évidemment, Apple arrive un peu après la bataille dans l’IA, pendant que Microsoft et Google déboulent à fond la caisse. Mais bon, mieux vaut tard que jamais, et puis ils compensent avec du lourd, soit 8 modèles OpenELM au total, dont 4 pré-entraînés avec CoreNet et 4 fine-tunés. Et avec leur stratégie de scaling par couche ça optimise à fond l’allocation des paramètres.

Allez, je traduits… En gros, ça veut dire qu’ils sont hyper efficaces et précis. Prenez le modèle à 1 milliard de paramètres et bien bah il explose un modèle équivalent comme OLMo de 2,36% en précision, avec 2 fois moins de tokens en pré-entraînement. Et ce qui est top, c’est qu’Apple balance tout : code, logs d’entraînement, configuration…etc et pas juste le modèle final. Et vu qu’ils utilisent des datasets publics, c’est top en matière de transparence et vérification des biais.

En tout cas, une chose est sûre, avec OpenELM, Apple nous prouve qu’ils sont dans la course, et qu’ils comptent bien mettre le paquet sur l’IA

Et Merci à Letsar pour l’info, c’est lui qui m’a mis la puce à l’oreille sur OpenELM. Tu gères !

Source

L’IA du MIT qui prédit les actions humaines

Par : Korben
24 avril 2024 à 18:00

Imaginez un monde où les ordinateurs pourraient prédire ce que vous allez faire avant même que vous ne le fassiez. Ça peut sembler tout droit sorti d’un film de science-fiction du style de Minority Report, mais les chercheurs du célèbre MIT (Massachusetts Institute of Technology) sont en train de rendre ça possible ! En effet, ils ont mis au point un modèle d’IA (intelligence artificielle) qui est capable d’analyser les limitations d’un agent, qu’il soit humain ou artificiel, pour en déduire ses actions futures les plus probables.

Dingue, non ?

Mais comment ce modèle s’y prend-il pour jouer les madame Irma ? En fait, tout est une question de limites. Nan, je ne parle pas des limites de vitesse ou des dates de péremption, hein. Je parle des contraintes qui pèsent sur un agent peu importe sa nature, biologique ou numérique.

Prenons un exemple concret : Vous êtes en train de jouer aux échecs contre un ordinateur. Vous avez vos propres contraintes : votre niveau de jeu, votre connaissance des ouvertures et des fins de partie, votre capacité à anticiper les coups de l’adversaire… Bref, tout un tas de facteurs qui limitent vos possibilités d’action. Eh bien, c’est exactement ce que le modèle d’IA du MIT analyse !

En se basant sur ces fameuses limites, il est capable d’inférer les coups que vous avez le plus de chances de jouer. Pas besoin d’être Garry Kasparov pour comprendre à quel point c’est bluffant. Votre ordinateur sera bientôt meilleur que vous aux échecs… et dans plein d’autres domaines !

Mais attention, le modèle du MIT ne prétend pas prédire l’avenir avec une précision de 100%. Il s’agit plutôt d’identifier des tendances et des schémas de comportement en fonction des limitations d’un agent. Ça reste néanmoins un outil très puissant pour anticiper les actions les plus probables.

D’ailleurs, les applications de cette technologie vont bien au-delà des jeux de société. Je pense par exemple au voitures autonomes qui pourraient anticiper les mouvements des piétons et des autres véhicules, des assistants virtuels qui sauraient exactement ce que vous allez leur demander avant même que vous n’ouvriez la bouche, des robots industriels capables de s’adapter en temps réel aux changements de leur environnement… Les possibilités sont infinies !

Bien sûr, tout cela soulève aussi son lot de questions éthiques. Est-ce qu’on a vraiment envie que les machines lisent dans nos pensées comme dans un livre ouvert ? Est-ce que ça ne risque pas de créer de sacrés problèmes de vie privée et de manipulation ? Imaginez que votre enceinte connectée décide de vous commander une pizza quatre fromages parce qu’elle a deviné que vous aviez un petit creux… Flippant, non ?

Mais bon, on n’en est pas encore là. Pour l’instant, les chercheurs du MIT sont encore en train de plancher sur leur modèle pour le perfectionner et étendre ses capacités. Et croyez-moi, c’est loin d’être un long fleuve tranquille ! L’IA a beau faire des progrès de géant, prédire le comportement humain reste un sacré défi. On est tellement imprévisibles et irrationnels, nous autres mortels…

En attendant de pouvoir déléguer toutes nos décisions à une machine, le modèle du MIT nous offre un aperçu de ce que pourrait être le futur de l’interaction homme-machine. Un futur où les ordinateurs nous comprendraient mieux que nous-mêmes, pour le meilleur et pour le pire. Perso, j’oscille entre fascination et inquiétude.

Et vous ?

Source

Un distributeur de CPU au Japon – Un Core i7-8700 pour 3 dollars !

Par : Korben
24 avril 2024 à 07:58

Vous pensiez avoir tout vu en matière de distributeurs automatiques ? Et bien le pays du Soleil Levant repousse une fois de plus les limites de l’imagination avec une machine pour le moins insolite : un distributeur de… CPU Intel ! Si, si, vous avez bien lu. Au pays des capsules toys, tout est possible même de tomber sur un Core i7-8700 pour la modique somme de 500 yens, soit environ 3 dollars.

La scène se passe devant une boutique d’informatique nommée 1’s PC, qui a visiblement eu l’idée farfelue de recycler ses vieux processeurs en les mettant dans un distributeur façon gacha. Le principe est simple : vous insérez une pièce, tournez la manivelle, et hop ! Voilà votre petite capsule contenant un CPU mystère. C’est comme une pochette surprise, mais avec des puces en silicium dedans. Évidemment, c’est la loterie : vous pouvez aussi bien tomber sur un vieux Celeron tout poussiéreux que sur une pépite comme ce fameux i7-8700.

Un YouTubeur japonais nommé Sawara-San a tenté sa chance et a eu la main particulièrement chanceuse en décrochant le précieux sésame pour seulement 500 yens. Ni une ni deux, notre bidouilleur s’est empressé de rentrer chez lui pour tester la bête et vérifier si le CPU est fonctionnel ou non. Parce que bon, à ce prix-là, on peut légitimement avoir des doutes.

Après un montage express sur une carte mère d’occasion, première tentative de boot et… rien. Nada. Que dalle. L’écran reste désespérément noir. Le CPU serait-il mort ? Que nenni ! Après quelques secondes de panique, notre cher Sawara-San s’est rendu compte qu’il avait juste oublié de brancher le câble d’alimentation du GPU. Une fois ce léger détail corrigé, l’ordinateur a enfin daigné s’allumer.

Direction le BIOS pour checker les infos CPU et là, bingo ! C’est bien un Core i7-8700 qui est détecté. Ce processeur possède 6 cœurs et 12 threads, avec une fréquence de base de 3.2 GHz et un boost jusqu’à 4.6 GHz. Il est compatible avec les cartes mères équipées d’un socket LGA 1151 et d’un chipset de la série 300. Maintenant, il faut installer Windows et vérifier que tout fonctionne correctement. Et c’est là que les choses se corsent un peu…

L’installation se passe sans accroc, mais une fois sur le bureau, Sawara-San remarque quelques artefacts graphiques suspects. Après investigation, il semblerait que la puce graphique intégrée du CPU ait morflé. Ces soucis semblent spécifiques à ce processeur en particulier et ne sont pas forcément représentatifs de tous les Core i7-8700. Bon, tant pis, il décide de passer outre et de lancer quelques benchmarks pour voir ce que le proc a dans le ventre.

Résultat : l’i7-8700 se comporte plutôt bien malgré son statut de rescapé d’un distributeur automatique ! Sous Cinebench R15, il atteint un score de 992 points en multi-thread. Certes, c’est un poil en-dessous d’un modèle fraîchement sorti d’usine, mais pour 3 dollars, on va éviter de faire la fine bouche, hein.

En fouillant un peu dans le Gestionnaire des tâches, Sawara-San se rend compte que le CPU ne compte que 5 cœurs actifs au lieu de 6. Étrange… Serait-ce un autre dommage collatéral ? Ni une ni deux, il fonce dans le BIOS et décide de désactiver manuellement le cœur défectueux. Et voilà, le tour est joué ! Windows ne voit plus que 5 cœurs, mais au moins, le système est stable.

Au final, ce Core i7-8700 bradé dans un distributeur aura fait le bonheur de Sawara-San qui, pour seulement une poignée de yens, a pu mettre la main sur un CPU encore vaillant. Certes, la puce a quelques défauts, comme son iGPU aux fraises et un cœur en moins, mais pour ce prix, c’est tout bonnement exceptionnel. Un vrai coup de bol !

Et vous, seriez-vous prêt à tenter votre chance dans ce drôle de distributeur de CPU ?

Qui sait, peut-être que la chance vous sourira aussi ! En attendant, si vous passez devant la boutique 1’s PC au Japon, n’hésitez pas à faire un petit tour au rayon gacha, car c’est peut-être vous le prochain gagnant d’un processeur haut de gamme pour le prix d’un café !

Source

Phone-powered smart speaker concept reads your mood to play the right music for work

Par : JC Torres
22 avril 2024 à 19:15

Not everyone likes listening to music, but even those will perhaps begrudgingly agree that certain kinds of music can have different effects on one’s mood or mental state. Next to entertainment or the sheer joy of listening to favorite tunes, the most common use of music is to set the right mood, whether it’s to relax, to get pumped, or to be more productive. That said, musical tastes can be quite subjective, and even the kind of harmonies that you like could be affected by your mood at any given time. It can be quite taxing to change playlists or tracks every time, so rather than relying on your fingers and your own mind, why not let your phone do the work for you? This desk speaker concept does exactly that, analyzing your mood and picking the right music to help you finish your work, studies, or any other task you need to get done.

Designer: Junyoung Lee

People who love playing music while they work most likely have a library of tunes selected to help massage their grey matter, especially during slow hours. Unfortunately, the effectiveness of music can be thwarted by moods, emotions, and physical conditions. Sometimes we’re just stuck in a slump and manually picking out a more appropriate playlist only adds to the stress and traps you in a vicious mental cycle.

MIX:X is a smart speaker system that uses the power of your smartphone and machine learning to automate that process so you won’t have to lift a finger when your brain or heart is just too tired to care. You simply dock the phone in front of the tall, boxy speaker to start the process. The large camera at the bottom keeps a constant watch on the person’s face in front of it, particularly their facial expressions, and using computer vision, machine learning, and algorithms, it tries to identify the mood that the person is in. Depending on what mood that is, it will switch to a different playlist that will help get you into a more productive working state.

Part of the MIX:X speaker’s solution is actually not the device itself but the app that comes with it. Here you select the songs that you like and associate them with certain moods. The app’s AI analyzes the music selection and uses that as a pool to choose from when your mood shifts one way or another. It doesn’t simply get music out of thin air (or the Internet), giving you some amount of control to limit the choices to your preferences.

In that sense, the MIX:X speaker is simply a box with speakers facing sideways and a camera, though it definitely has an interesting aesthetic. It has transparent panels for its sides and back, putting the sophisticated electronics inside on display. The rest of the device’s design is pretty minimal, with a single dial for the volume. If there’s one glaring flaw in its design, it’s the fact that it seems to support only a specific model or size of a specific phone, namely an iPhone, which severely limits how much this concept can be used outside of that single device.

The post Phone-powered smart speaker concept reads your mood to play the right music for work first appeared on Yanko Design.

Language AI Pioneer DeepL Targets APAC Businesses With Pro Translation Options

Par : Ben Abbott
19 avril 2024 à 15:20
AI-native language translation application DeepL Translate is launching into Australia and Singapore following regional forays into Japan and South Korea. Founder and CEO Jarek Kutylowski said it is targeting APAC businesses that require more natural language translations.

Time for APAC Region to Build Its Own AI Foundation Models, Says CSIRO

Par : Ben Abbott
19 avril 2024 à 14:47
Most AI foundation models are being developed in markets like the U.S. and China. Research from Australia asks whether other countries should be building sovereign AI models for citizens and businesses.

La base de données des incidents d’IA – Bugs, dérapages et leçons à tirer

Par : Korben
22 avril 2024 à 07:00

Pendant qu’une utopie où les véhicules autonomes, les assistants virtuels et les systèmes de recommandation se profile à l’horizon, force est de constater que l’intelligence artificielle n’en est encore qu’à ses balbutiements. La promesse d’un monde meilleur se heurte à la dure réalité des incidents causés par ces systèmes dits « intelligents », déployés trop rapidement dans notre environnement.

C’est là qu’intervient la base de données des incidents d’IA (AIID), véritable mémoire collective répertoriant les bugs, plantages et autres dérapages de l’IA lorsqu’elle est lâchée dans la nature. Tel un Guinness Book des foirages technologiques, elle recense déjà plus de 1000 cas, des plus anodins aux plus tragiques :

  • – un taxi sans chauffeur Waymo qui emboutit un cycliste en plein San Francisco
  • – un deepfake audio d’Imran Khan appelant au boycott des élections au Pakistan pour tromper les électeurs
  • – de fausses images de Donald Trump entouré d’électeurs noirs générées par IA pour influencer le vote des afro-américains
  • – et le pire de tous (ou pas) : des collégiens de Beverly Hills qui créent de fausses photos dénudées de leurs camarades grâce à l’IA !

Bref, c’est la foire aux casseroles dans le merveilleux monde de l’IA et il était temps que quelqu’un dresse l’inventaire de ces dérapages en tout genre. Mais au-delà du simple folklore, la mission de l’AIID est d’apprendre de ces échecs pour bâtir des IA plus sûres, à l’image de ce qui se fait dans l’aéronautique ou la cybersécurité.

La base s’enrichit chaque jour grâce aux signalements de la communauté. Chacun peut ainsi apporter sa pierre à l’édifice en soumettant de nouveaux incidents, triés et classés pour en dégager des tendances. L’idée est d’arriver à une définition partagée de ce qu’est un « incident d’IA » et d’en tirer des leçons pour l’avenir.

Car n’en déplaise à Elon Musk ou à Mark Zuckerberg, le futur de l’IA ne se fera pas sans règles ni garde-fous. Pour que la révolution intelligente profite au plus grand nombre, elle doit impérativement s’accompagner d’une démarche éthique et responsable. C’est précisément la mission du Responsible AI Collaborative, l’organisation derrière l’AIID, qui rassemble chercheurs, entrepreneurs et experts du monde entier.

D’ailleurs, vous aussi, vous pouvez contribuer ! Et ils ont de grandes ambitions puisque la prochaine étape sera d’intégrer les incidents dans des outils de test pour reproduire les scénarios à risque et s’entraîner à y faire face. Une sorte de « crash test » géant pour IA en quelque sorte !

À terme, l’objectif est de faire de l’AIID un outil incontournable pour tous les acteurs de l’écosystème : Chercheurs, régulateurs, industriels… Car ne nous y trompons pas, la course à l’IA ne fait que commencer et les incidents risquent de se multiplier si nous n’y prenons pas garde.

D’ici là, votre mission si vous l’acceptez sera de garder un oeil sur ce grand capharnaüm de l’IA et de signaler sans relâche les anomalies que vous constaterez ! Car après tout, la sécurité de ces systèmes est l’affaire de tous et rien ne vaut la vigilance humaine pour déjouer les bugs les plus retors.

PyTorch dévoile Torchtune pour fine-tuner les LLM

Par : Korben
19 avril 2024 à 08:18

PyTorch, le framework chouchou des bidouilleurs d’IA, vient de nous pondre un petit truc cool : Torchtune ! 💎 Cette nouvelle bibliothèque native, encore en phase alpha mais déjà disponible en open-source sur GitHub, va vous permettre de fine-tuner les gros modèles de langage (LLM) comme un pro, sans vous prendre la tête.

Torchtune est donc une boîte à outils hyper flexible et modulaire qui va vous permettre de vous éclater à customiser des modèles pour vos propres besoins, le tout avec des recettes mémoire efficaces qui tournent même sur une bête carte graphique de gamer, comme les NVidia 3090/4090.

Son secret ?

Une architecture bien pensée qui mise sur l’interopérabilité avec l’écosystème des LLM, qu’ils soient open-source ou non. Concrètement, ça veut dire que vous allez pouvoir brancher Torchtune à tout un tas d’outils et de frameworks que vous adorez déjà, comme Hugging Face 🤗, PyTorch FSDP 🪢, Weights & Biases 📈, et plein d’autres.

Grâce à des recettes simples et bien documentées pour les modèles populaires comme Llama 3, Mistral ou Gemma 7B, même les débutants vont pouvoir se lancer dans l’aventure sans flipper. Bon OK, il faudra quand même un peu de bagage en PyTorch et en LLM, mais rien d’insurmontable ! Et si vous êtes un pro, vous allez pouvoir hacker le code à volonté pour l’adapter à vos besoins spécifiques.

Alors comment on met les mains dans le cambouis avec Torchtune ?

Rien de plus simple, mon cher Watson ! Il vous suffit d’installer la dernière version stable de PyTorch (2.2.2 au moment où j’écris ces lignes), puis de télécharger Torchtune depuis PyPI avec un petit

pip install torchtune

Et voilà, vous êtes prêt à en découdre avec les LLM !

Pour vous faire les dents, je vous conseille de jeter un œil au tutoriel sur le fine-tuning de Llama2 7B. C’est le parfait point de départ pour comprendre comment Torchtune fonctionne et comment l’utiliser pour vos propres projets.

En gros, ça se passe en 4 étapes :

  1. Téléchargez le modèle pré-entraîné et le tokenizer depuis Hugging Face Hub avec tune download.
  2. Choisissez une recette de fine-tuning (LoRA, QLoRA, full…) et customisez-la avec un fichier de config en YAML.
  3. Lancez l’entraînement avec tune run en précisant votre recette et votre config. Vous pouvez même faire du multi-GPU avec torchrun !
  4. Admirez le résultat et testez votre modèle fine-tuné avec une inférence locale. Si tout se passe bien, exportez-le avec ExecuTorch pour le déployer en prod, ou utilisez les API de quantification de Torchao pour l’exporter en int4 ou int8 et l’utiliser sur mobile ou en edge.

Facile, non ? 😄

Bon OK, j’avoue, j’ai un peu simplifié. En vrai, il y a pas mal de subtilités et de paramètres à régler pour obtenir les meilleurs résultats, comme le learning rate, le nombre d’époques, la taille du batch, le ratio de LoRA, et tout un tas d’autres trucs, mais c’est justement sa flexibilité qui vous permet d’expérimenter à l’infini pour trouver la combinaison parfaite.

Bref, si vous êtes dev et que vous aimez jouer avec les LLM c’est à tester.

Source

Eco-friendly seed-pods made from plant and seafood waste could revolutionize bio-packaging

Par : Tanvi Joshi
21 avril 2024 à 22:30

Born from discarded seafood shells, SEAD merges tradition with innovation, offering eco-friendly pods for heirloom seeds. It’s a journey of reimagined agriculture, where waste transforms into a resource and every seed sown signifies sustainability. SEAD’s design mirrors ecological harmony and agricultural resilience, promising a greener future. Join the movement where innovation blossoms and sustainability flourishes, one seed, one pod at a time.

Designer: Mara Zimmerman

SEAD represents more than just packaging; it embodies a sustainable ethos by repurposing waste material into a valuable resource. Its inception showcases the potential of replacing virgin materials with recycled alternatives, contributing to a circular economy and reducing environmental impact.

At the heart of SEAD lies the preservation of heirloom seeds, varieties passed down through generations, each carrying a rich history and cultural significance. Heirloom seeds, with their diverse traits and adaptability, play a crucial role in maintaining biodiversity and ensuring food security in the face of evolving environmental challenges.

The use of chitin (pronounced kai-tun) in SEAD packaging not only offers a sustainable alternative to traditional materials but also brings agricultural benefits. Chitin, and its derivatives, act as bio-stimulants, enhancing seed germination, and promoting crop growth. Its natural properties boost plant defenses against pests and diseases while improving water retention in adverse conditions.

Crafted through a meticulous three-step pressing process, SEAD packaging demonstrates the remarkable self-binding ability of chitin, eliminating the need for additional agents. Laser-engraved labeling ensures traceability without the use of inks or dyes, aligning with SEAD’s commitment to sustainability.

Inspired by nature’s design, SEAD packaging mimics the structure of fruits and vegetables, providing a functional and aesthetically pleasing solution. The innovative design features creases that allow for easy tearing, enabling users to plant seeds conveniently while keeping the rest of the packaging intact.

SEAD offers a holistic approach to sustainable agriculture, combining ecological principles with practical innovation. By seamlessly integrating packaging with planting, SEAD promotes zero-waste practices and fosters a deeper connection between consumers and the environment.

Just in four simple steps: Break pods along perforated lines, gently crush for better seed exposure, plant enriched seeds, and store remaining bars conveniently. These actions seamlessly integrate eco-friendly practices into gardening routines, fostering a deeper connection with the environment. Each step contributes to a greener future, promoting sustainability and preserving heirloom seeds. With SEAD, every seed sown signifies a commitment to ecological harmony and agricultural resilience, paving the way for a more sustainable tomorrow.

SEAD’s innovative seed packaging, crafted from discarded seafood shells, faces cultural barriers in regions like India and Mexico, where pure vegetarianism is prevalent. Mixing seafood with vegetables may encounter resistance due to dietary preferences. Convincing individuals adhering to strict vegetarian or vegan diets of SEAD’s ecological benefits requires careful communication. Despite these challenges, SEAD offers a sustainable option for open-minded consumers committed to environmental conservation. It’s crucial to acknowledge cultural sensitivities and cater to diverse preferences.

The post Eco-friendly seed-pods made from plant and seafood waste could revolutionize bio-packaging first appeared on Yanko Design.

VASA-1 – Des visages parlants ultra-réalistes et en temps réel

Par : Korben
17 avril 2024 à 23:49

VASA-1 est un nouveau framework qui permet de générer des visages parlants ultra-réalistes en temps réel ! En gros, vous balancez une simple photo à cette IA, ainsi qu’un petit clip audio, et bim ! Elle vous pond une vidéo d’un visage qui parle, avec une synchronisation de la bouche nickel chrome, des expressions faciales hyper naturelles et des mouvements de tête très fluides. C’est hyper bluffant !

Les chercheurs de Microsoft ont réussi ce tour de force en combinant plusieurs techniques de pointe en deep learning. Ils ont d’abord créé un espace latent expressif et bien organisé pour représenter les visages humains. Ça permet de générer de nouveaux visages variés, qui restent cohérents avec les données existantes. Ensuite, ils ont entraîné un modèle de génération de dynamiques faciales et de mouvements de tête, appelé le Diffusion Transformer, pour générer les mouvements à partir de l’audio et d’autres signaux de contrôle.

Et le résultat est juste époustouflant. On a l’impression de voir de vraies personnes qui parlent, avec toutes les nuances et les subtilités des expressions faciales. Les lèvres bougent parfaitement en rythme avec les paroles, les yeux clignent et regardent naturellement, les sourcils se lèvent et se froncent…

En plus de ça, VASA-1 peut générer des vidéos en haute résolution (512×512) à une cadence élevée, jusqu’à 40 images par seconde, avec une latence de démarrage négligeable. Autant dire que c’est le graal pour toutes les applications qui nécessitent des avatars parlants réalistes. On peut imaginer des assistants virtuels avec lesquels on pourrait interagir de manière super naturelle, des personnages de jeux vidéo encore plus crédibles et attachants, des outils pédagogiques révolutionnaires pour apprendre les langues ou d’autres matières, des thérapies innovantes utilisant des avatars pour aider les patients… etc etc..

En plus de pouvoir contrôler la direction du regard, la distance de la tête et même les émotions du visage généré, VASA-1 est capable de gérer des entrées qui sortent complètement de son domaine d’entraînement comme des photos artistiques, du chant, d’autres langues…etc.

Bon, évidemment, il reste encore quelques limitations. Par exemple, le modèle ne gère que le haut du corps et ne prend pas en compte les éléments non rigides comme les cheveux ou les vêtements. De plus, même si les visages générés semblent très réalistes, ils ne peuvent pas encore imiter parfaitement l’apparence et les mouvements d’une vraie personne mais les chercheurs comptent bien continuer à l’améliorer pour qu’il soit encore plus versatile et expressif.

En attendant, je vous invite à checker leur page de démo pour voir cette merveille en action. C’est juste hallucinant ! Par contre, vu les problèmes éthiques que ça pourrait poser du style usurpation d’identité, fake news et compagnie, et connaissans Microsoft, je pense que VASA-1 ne sera pas testable par tous bientôt malheureusement. Mais je peux me tromper…

ChatGPT est plus efficace et moins coûteux qu’un cybercriminel

Par : Korben
17 avril 2024 à 23:03

Les grands modèles de langage (LLM), comme le célèbre GPT-4 d’OpenAI, font des prouesses en termes de génération de texte, de code et de résolution de problèmes. Perso, je ne peux plus m’en passer, surtout quand je code. Mais ces avancées spectaculaires de l’IA pourraient avoir un côté obscur : la capacité à exploiter des vulnérabilités critiques.

C’est ce que révèle une étude de chercheurs de l’Université d’Illinois à Urbana-Champaign, qui ont collecté un ensemble de 15 vulnérabilités 0day bien réelles, certaines classées comme critiques dans la base de données CVE et le constat est sans appel. Lorsqu’on lui fournit la description CVE, GPT-4 parvient à concevoir des attaques fonctionnelles pour 87% de ces failles ! En comparaison, GPT-3.5, les modèles open source (OpenHermes-2.5-Mistral-7B, Llama-2 Chat…) et même les scanners de vulnérabilités comme ZAP ou Metasploit échouent lamentablement avec un taux de 0%.

Heureusement, sans la description CVE, les performances de GPT-4 chutent à 7% de réussite. Il est donc bien meilleur pour exploiter des failles connues que pour les débusquer lui-même. Ouf !

Mais quand même, ça fait froid dans le dos… Imaginez ce qu’on pourrait faire avec un agent IA qui serait capable de se balader sur la toile pour mener des attaques complexes de manière autonome. Accès root à des serveurs, exécution de code arbitraire à distance, exfiltration de données confidentielles… Tout devient possible et à portée de n’importe quel script kiddie un peu motivé.

Et le pire, c’est que c’est déjà rentable puisque les chercheurs estiment qu’utiliser un agent LLM pour exploiter des failles coûterait 2,8 fois moins cher que de la main-d’œuvre cyber-criminelle. Sans parler de la scalabilité de ce type d’attaques par rapport à des humains qui ont des limites.

Alors concrètement, qu’est ce qu’on peut faire contre ça ? Et bien, rien de nouveau, c’est comme d’hab, à savoir :

  • Patcher encore plus vite les vulnérabilités critiques, en priorité les « 0day » qui menacent les systèmes en prod
  • Monitorer en continu l’émergence de nouvelles vulnérabilités et signatures d’attaques
  • Mettre en place des mécanismes de détection et réponse aux incidents basés sur l’IA pour contrer le feu par le feu
  • Sensibiliser les utilisateurs aux risques et aux bonnes pratiques de « cyber-hygiène »
  • Repenser l’architecture de sécurité en adoptant une approche « zero trust » et en segmentant au maximum
  • Investir dans la recherche et le développement en cybersécurité pour garder un coup d’avance

Les fournisseurs de LLM comme OpenAI ont aussi un rôle à jouer en mettant en place des garde-fous et des mécanismes de contrôle stricts sur leurs modèles. La bonne nouvelle, c’est que les auteurs de l’étude les ont avertis et ces derniers ont demandé de ne pas rendre publics les prompts utilisés dans l’étude, au moins le temps qu’ils « corrigent » leur IA.

Source

Breath Smarter, Not Harder: Introducing the World’s first Ai-Driven Smart Mask

Par : Aki Ukita
18 avril 2024 à 01:45

The COVID-19 pandemic may be over, but the challenge of maintaining clean air persists. If there’s anything we’ve learned over the past year, it’s that conventional solutions are no longer sufficient when it comes to breathing fresh air. Common disposable and cloth masks do block some harmful elements, but they also block proper airflow. Some fan-enabled masks improve that situation slightly, but they still put an obstacle to some of the ordinary tasks that we do each day, especially when our voices are involved. Enter the age of AI-enabled technology. The innovative AI Air Mask not only filters out harmful elements with superior efficiency but also enhances airflow, ensuring that breathability and communication remain clear and unhindered. This is the next step in wearable health tech, promising not just cleaner air but also proactive health monitoring, all in a sleek, comfortable, and inclusive design.

Designer: Leandro Rolon

Click Here to Buy Now: $99 $299 ($200 off). Hurry, exclusive deal for YD readers only! Raised over $1.5 million.

We now live in a world where even the air inside our homes can be suspect, so one can only imagine how much worse the situation is outdoors. Just in time for the health scare that gripped the world, ATMOBLUE launched its first smart wearable purifier to address the need for clean, breathable air anywhere you go. It went beyond the minimum requirement of simply blocking harmful microorganisms to deliver a solution that was effective, customizable, and most importantly, comfortable.

Smart Adaptive Filtration: Employs intelligent sensors for adaptive, real-time purification, setting a new bar for air quality protection.

The first ATMOBLUE smart mask was practically a mini air purifier you could wear on your mouth. It utilized replaceable H13 HEPA filters to do the heavy lifting of blocking as much as 99.97% of harmful particles such as bacteria and PM2.5. But while some masks stopped there, ATMOBLUE went above and beyond to include a dual fan airflow system that removed that suffocating feeling whenever you wear a face mask. The result wasn’t just clean air but breathable air as well, increasing the comfort and confidence of wearers who made the investment in backing the project.

Premium Silicone Design: Engineered with superior silicone for unparalleled comfort, designed for all-day wear and redefining the protective gear experience.

As successful as that smart mask was, it isn’t yet the pinnacle of healthy breathing. Stepping into the limelight again, the creators of the ATMOBLUE Mask are presenting an even more advanced solution that leverages the hard-earned lessons of the past and applies the benefits of artificial intelligence to provide a more holistic view of the wearer’s health. This AI-driven Air Mask, an evolution of the original ATMOBLUE Mask, features a refined semi-transparent silicone body for premium comfort. It is equipped with a dynamic adaptive filtration system that intelligently senses environmental changes and auto-adjusts in real time for optimal protection.

AI-Enabled Bluetooth Microphone: Features a built-in mic for clear conversations and seamless AI assistant interaction, improving communication without compromising wearability.

But wait, there’s more! Wearing a mask always has the effect of muffling one’s voice, which can be an even bigger problem when trying to communicate. Addressing this issue head-on, the AI Air Mask is ingeniously equipped with an integrated microphone and Bluetooth connectivity, allowing you to convey your voice clearly and confidently. Elevating the experience further, this mask incorporates advanced voice recognition and AI capabilities, creating a symbiotic relationship with your AI smart assistant that transcends traditional communication barriers. Beyond enhancing dialogue, the AI Air Mask serves as a guardian of your well-being, continuously analyzing key health metrics such as temperature, respiratory patterns, and cough frequency, not only to provide better insight into your health but also to warn you of potential infection.

With the AI Air Mask, the creators of ATMOBLUE aren’t just offering an upgraded wearable but also an investment in a healthier future. That’s exactly the kind of investment you’re making with this sweet pre-sale deal that lets you not only reserve a spot but also get a 50% discount when the world’s first AI-driven smart mask launches next year.

Click Here to Buy Now: $99 $299 ($200 off). Hurry, exclusive deal for YD readers only! Raised over $1.5 million.

The post Breath Smarter, Not Harder: Introducing the World’s first Ai-Driven Smart Mask first appeared on Yanko Design.

❌
❌