Vue normale

Il y a de nouveaux articles disponibles, cliquez pour rafraîchir la page.
À partir d’avant-hierFlux principal

Adobe VideoGigaGAN – L’IA qui transforme vos vidéos floues en HD !

Par : Korben
25 avril 2024 à 08:37

Vous avez une vieille vidéo toute pourrie, floue à souhait, qui date de Mathusalem et bien avec VideoGigaGAN d’Adobe, elle va se transformer en une magnifique séquence HD, avec des détails si nets que vous pourrez compter les poils de nez des gens qui sont dessus !

VideoGigaGAN est ce qu’on appelle un modèle d’IA génératif. En gros, ce machin est capable de deviner les détails manquants dans une vidéo pourrave pour la rendre méga classe. Les petits gars d’Adobe ont balancé des exemples sur leur GitHub et franchement, c’est impressionnant. On passe d’une vidéo degueulasse à un truc ultra net, avec des textures de peau hallucinantes et des détails de fou !

En plus, cette IA est capable d’upscaler les vidéos jusqu’à 8 fois leur résolution d’origine, par contre, faut pas s’emballer car pour le moment, c’est juste une démo de recherche et y’a pas encore de date de sortie officielle. Mais connaissant Adobe, y’a moyen que ça finisse dans Premiere Pro un de ces quatre. Je vais pouvoir améliorer mes vidéos tournées à l’époque au format 3GP \o/.

D’ici là, va falloir continuer à se taper des vidéos de chat toutes pixelisées sur les réseaux sociaux.

Source

OpenELM – Apple sort ses modèles IA légers et open-source

Par : Korben
25 avril 2024 à 08:19

Vous connaissez OpenELM ? Non, normal, ça vient de sortir. Et c’est une famille de modèles IA open-source made in Apple conçus pour tourner directement sur vos appareils, sans passer par le cloud. En gros, c’est de l’IA maison dans nos iPhone, iPad et Mac…etc.

OpenELM combine plusieurs modèles de langage naturel (LLMs) utilisant des algorithmes évolutionnistes qui exploitent les principes techniques suivants :

  1. Layer-wise scaling strategy : Cette stratégie consiste à allouer les paramètres dans les couches d’un modèle transformeur pour améliorer l’exactitude. Les modèles sont pré-alourés avec un budget de paramètres de 270 millions, 450 millions, 1,1 milliard et 3 milliards.
  2. Pré-entraînement : Les modèles ont été pré-entraînés à l’aide d’une combinaison de datasets, incluant une sous-ensemble de Dolma v1.6, RefinedWeb, deduplicated PILE et une sous-ensemble de RedPajama. Ce dataset contient environ 1,8 trillion de tokens.
  3. Evolutionary algorithms : Les algorithmes évolutionnistes sont utilisés pour combiner les modèles LLM et améliorer l’exactitude. Cela permet d’exploiter les forces combinées des modèles pré-alourés et d’améliorer leur précision.

Alors évidemment, Apple arrive un peu après la bataille dans l’IA, pendant que Microsoft et Google déboulent à fond la caisse. Mais bon, mieux vaut tard que jamais, et puis ils compensent avec du lourd, soit 8 modèles OpenELM au total, dont 4 pré-entraînés avec CoreNet et 4 fine-tunés. Et avec leur stratégie de scaling par couche ça optimise à fond l’allocation des paramètres.

Allez, je traduits… En gros, ça veut dire qu’ils sont hyper efficaces et précis. Prenez le modèle à 1 milliard de paramètres et bien bah il explose un modèle équivalent comme OLMo de 2,36% en précision, avec 2 fois moins de tokens en pré-entraînement. Et ce qui est top, c’est qu’Apple balance tout : code, logs d’entraînement, configuration…etc et pas juste le modèle final. Et vu qu’ils utilisent des datasets publics, c’est top en matière de transparence et vérification des biais.

En tout cas, une chose est sûre, avec OpenELM, Apple nous prouve qu’ils sont dans la course, et qu’ils comptent bien mettre le paquet sur l’IA

Et Merci à Letsar pour l’info, c’est lui qui m’a mis la puce à l’oreille sur OpenELM. Tu gères !

Source

L’IA du MIT qui prédit les actions humaines

Par : Korben
24 avril 2024 à 18:00

Imaginez un monde où les ordinateurs pourraient prédire ce que vous allez faire avant même que vous ne le fassiez. Ça peut sembler tout droit sorti d’un film de science-fiction du style de Minority Report, mais les chercheurs du célèbre MIT (Massachusetts Institute of Technology) sont en train de rendre ça possible ! En effet, ils ont mis au point un modèle d’IA (intelligence artificielle) qui est capable d’analyser les limitations d’un agent, qu’il soit humain ou artificiel, pour en déduire ses actions futures les plus probables.

Dingue, non ?

Mais comment ce modèle s’y prend-il pour jouer les madame Irma ? En fait, tout est une question de limites. Nan, je ne parle pas des limites de vitesse ou des dates de péremption, hein. Je parle des contraintes qui pèsent sur un agent peu importe sa nature, biologique ou numérique.

Prenons un exemple concret : Vous êtes en train de jouer aux échecs contre un ordinateur. Vous avez vos propres contraintes : votre niveau de jeu, votre connaissance des ouvertures et des fins de partie, votre capacité à anticiper les coups de l’adversaire… Bref, tout un tas de facteurs qui limitent vos possibilités d’action. Eh bien, c’est exactement ce que le modèle d’IA du MIT analyse !

En se basant sur ces fameuses limites, il est capable d’inférer les coups que vous avez le plus de chances de jouer. Pas besoin d’être Garry Kasparov pour comprendre à quel point c’est bluffant. Votre ordinateur sera bientôt meilleur que vous aux échecs… et dans plein d’autres domaines !

Mais attention, le modèle du MIT ne prétend pas prédire l’avenir avec une précision de 100%. Il s’agit plutôt d’identifier des tendances et des schémas de comportement en fonction des limitations d’un agent. Ça reste néanmoins un outil très puissant pour anticiper les actions les plus probables.

D’ailleurs, les applications de cette technologie vont bien au-delà des jeux de société. Je pense par exemple au voitures autonomes qui pourraient anticiper les mouvements des piétons et des autres véhicules, des assistants virtuels qui sauraient exactement ce que vous allez leur demander avant même que vous n’ouvriez la bouche, des robots industriels capables de s’adapter en temps réel aux changements de leur environnement… Les possibilités sont infinies !

Bien sûr, tout cela soulève aussi son lot de questions éthiques. Est-ce qu’on a vraiment envie que les machines lisent dans nos pensées comme dans un livre ouvert ? Est-ce que ça ne risque pas de créer de sacrés problèmes de vie privée et de manipulation ? Imaginez que votre enceinte connectée décide de vous commander une pizza quatre fromages parce qu’elle a deviné que vous aviez un petit creux… Flippant, non ?

Mais bon, on n’en est pas encore là. Pour l’instant, les chercheurs du MIT sont encore en train de plancher sur leur modèle pour le perfectionner et étendre ses capacités. Et croyez-moi, c’est loin d’être un long fleuve tranquille ! L’IA a beau faire des progrès de géant, prédire le comportement humain reste un sacré défi. On est tellement imprévisibles et irrationnels, nous autres mortels…

En attendant de pouvoir déléguer toutes nos décisions à une machine, le modèle du MIT nous offre un aperçu de ce que pourrait être le futur de l’interaction homme-machine. Un futur où les ordinateurs nous comprendraient mieux que nous-mêmes, pour le meilleur et pour le pire. Perso, j’oscille entre fascination et inquiétude.

Et vous ?

Source

Google Pixel Fold 2: News, Rumors, Price, and Release Date

Par : JC Torres
24 avril 2024 à 15:20

Despite developing an operating system that’s used on a variety of devices and computers, Google has practically snubbed anything other than a smartphone. It’s notorious for having a love-hate relationship with tablets, for example, so it was a bit of a surprise that Google would launch its own foldable device. Perhaps even more surprising is how it might actually release a second-gen foldable phone. Given its pedigree, the next Google foldable is definitely going to pique people’s curiosity, whether it will be called the Pixel Fold 2 or the Pixel 9 Pro Fold. Judging from what we’ve been hearing so far, this foldable phone will be undergoing several significant changes, though not all of them might appeal to Pixel fans and onlookers alike.

Designer: Google (renders courtesy of Smartprix, @OnLeaks)

Google Pixel Fold 2: Design

For three generations since the Pixel 6 in 2021, Google seemed to have settled on a signature design that, unusual as it may have been, gave its phones a unique personality. It seems, however, that Google has gotten tired of that look and will be moving to a different design for the Pixel 9 series. For better or for worse, that change is apparently happening to the foldable version of the Pixel as well, but not in the same way as leaks and renders would have it.

The camera bump, which was a horizontal bar across the width of the Pixel Fold’s “back,” has now been reduced to a more conventional rectangle. But unlike the ones you’d see on other smartphones, Google opted for an odd horizontal layout, with black pill-shaped markings that hold the actual camera lenses. It’s definitely an unusual design, but unlike the current “visor” shape, many might find it visually unappealing.

Fortunately, there will be even more important design changes in store for the Pixel Fold 2 (or Pixel 9 Pro Fold), though they might be a bit more subtle. According to rumors and at least one leaked prototype, the next Google foldable will have an outer screen that is taller than its predecessor, yielding an unfolded shape that is more square than the first Pixel Fold as well. Whereas the Pixel Fold had a rectangular shape that resembled a small notebook, the Pixel Fold 2 could be more like a minuscule iPad mini.

This change in screen aspect ratios isn’t just cosmetic and will have important usability implications. It won’t be as tall and narrow as the Samsung Galaxy Z Fold 5, which is notorious for being almost unusable as a regular phone, but it could make it a bit more awkward to use the Pixel Fold 2 in folded form, at least with a single hand. Those who loved the current wider design of the Pixel Fold might be disappointed, but those who missed using a 16:9 phone will welcome this change.

Samsung Galaxy Z Fold 2

Samsung Galaxy Z Fold 2

Samsung Galaxy Z Fold 2

Google Pixel Fold 2: Specs and Software

With the change in screen aspect ratios come changes in screen sizes as well, and everyone will probably love what’s rumored so far. The Pixel Fold 2/Pixel 9 Pro Fold is expected to have bigger screens on both sides, though there is some agreement on the exact sizes. Some claim that the external Cover Screen will be 6.4 inches and the main foldable screen will be 7.9 inches, while another source uses 6.29 inches and 8.02 inches for those same screens, respectively. Either way, it will still be a significant size boost compared to the current Pixel Fold’s 5.8-inch exterior and 7.6-inch interior displays.

As far as the hardware is concerned, Google might debut a new Tensor G4 on the Pixel Fold 2, a very big leap from the Tensor G2 on the OG Pixel Fold. Details on this new processor are still extremely slim at this point, but you can expect significant performance improvements, especially on Google’s favorite AI features. Uncharacteristically, Google might also be extra generous and give the Pixel Fold 2 as much as 16GB of RAM, something that even the Galaxy Z Fold 6 isn’t expected to have.

There seems to be some disagreement on which version of Android the Pixel Fold 2 will ship with, but that mostly depends on when the foldable device will actually launch. It could go with Android 14, which is the current version in circulation, or it could delay it to coincide with the release of Android 15. Pushing the Pixel 9 Pro Fold’s launch to the end of the year might sound unreasonable, but there might be one very good reason for doing so. Android 15 betas have revealed that Google implemented improvements to the behavior of apps on foldable phones, something that its Pixel Fold badly needed.

Google Pixel Fold 2: Cameras

It’s a bit surprising that there hasn’t been any news on the kind of cameras that the Pixel Fold 2 will bear. The new camera design on the back may look like Google was making room for an additional camera, but the lack of news in that department suggests otherwise. In short, the new Pixel Fold may still be using the exact same three sensors as the current model, with some additional lenses for focusing or maybe a thermal sensor for taking temperatures. It wouldn’t be unheard of for Google, since it prefers to rely on software solutions to improve image quality.

Another big camera design change will be the internal selfie camera which used to sit on the Pixel Fold’s ugly thick bezels. According to leaks and renders, the Pixel Fold 2 will do away with those atrocities, which means there’s a need to move the camera to a different place. The consensus is that it will take the form of an under-display camera similar to the Galaxy Z Fold, but it’s also possible Google will opt for a simpler solution that has a traditional punch-hole cutout for the camera.

Google Pixel Fold 2: Price and Release Date

Although the Pixel Fold 2, or Pixel 9 Pro Fold, will be advertised as an upgrade, it doesn’t seem like a huge generational leap if not for the difference in design and the new Tensor G4 processor. As such, it’s probably only reasonable to expect that the price tag won’t go higher than the $1,800 that the first Pixel Fold launched with. At the same time, it’s also not expected to go lower than that either.

As for its launch date, that could depend on whether Google wants to delay it to sync with Android 15’s release. If it’s fine with having it run Android 14 out of the box, it could follow the same schedule last year that saw the Pixel Fold hit shelves in June. Otherwise, we might be looking at an October date after Android 15 goes gold. Either way, we’ll definitely find out more next month when Google reveals the real deal at I/O 2024.

Google Pixel Fold 2: Final Thoughts

The first Pixel Fold was definitely a surprise for Google fans. It managed to carry some of the personality of the Pixel design language to a foldable phone, along with Google’s blessed flavor of the Android user experience. At the same time, however, it really failed to stand up to other options in the market, and its very thick bezels were a big turn-off for more design-conscious consumers.

Fortunately, the Pixel Fold 2 will be improving on those pain points, but it raises the question of whether it’s actually enough or if they’re the right changes to make. The screens will be larger and have thinner bezels, but Google is also moving away from an aspect ratio that was praised by some reviewers as one of its winning traits. The camera design will definitely be divisive, especially if it doesn’t bring significant improvements to the camera system anyway. While the Pixel Fold 2, or Pixel 9 Pro Fold, will catch the attention of Pixel fans and market watchers, it might not end up being the big hit that Google wants it to be, creating a self-fulfilling prophecy of low sales that will lead to the early demise of Google’s foldable phone line.

The post Google Pixel Fold 2: News, Rumors, Price, and Release Date first appeared on Yanko Design.

Un Konami Code dans Castlevania Legacy of Darkness sur Nintendo 64

Par : Korben
24 avril 2024 à 17:42

Vous pensiez connaître Castlevania sur le bout des doigts ? Eh bien 25 ans après la sortie de Castlevania: Legacy of Darkness sur notre bonne vieille Nintendo 64, des petits malins ont déniché un tout nouveau code Konami planqué dans les entrailles du jeu.

Ce code Konami est une vraie petite bombe puisqu’il déverrouille d’un coup TOUS les personnages et leurs costumes alternatifs, et ce dès le début de l’aventure ! Fini de devoir se farcir le jeu deux fois pour accéder à Henry et Carrie. Là c’est open bar direct, et ça change complètement la donne !

Moises et LiquidCat, deux fans passionnés du jeu, ont également déniché deux autres codes bien sympathiques. Le premier remplit entièrement votre inventaire, peu importe le héros que vous incarnez. Fini la galère pour trouver des potions et des équipements, vous voilà paré pour latter du vampire en claquant des doigts. Le second code, disponible uniquement dans les versions japonaise et européenne, booste votre arme au max et vous file un stock de joyaux dont même Picsou serait jaloux. De quoi rendre votre quête bien plus funky !

Pour activer ces codes, rien de plus simple :

  1. Ouvrez le jeu et sélectionnez le mode histoire.
  2. Tapez le code en doublant les inputs du code Konami classique : Up, Up, Down, Down, Left, Right, Left, Right, B, A, Start.
  3. Utilisez les boutons directionnels et A/B de votre manette N64.
  4. Appuyez sur Start pour confirmer l’activation.
  5. Enjoy ! Vous pouvez maintenant jouer avec tous les persos dès le début.

Codes bonus pour les plus curieux :

  • Inventaire au max : Up, Up, Down, Down, Left, Right, Left, Right, B, A, Start (x2)
  • Arme boostée et argent illimité (versions PAL/JPN uniquement)

Alors certes, dit comme ça, ça peut sembler un poil cheaté mais ça fait un quart de siècle que ce jeu nous nargue avec ses secrets, donc ça va, y’a tolérance. En plus, avouons-le, ces codes tombent à pic pour (re)découvrir cet opus culte car s’il y a bien un reproche qu’on pouvait faire à Legacy of Darkness, c’était ce côté un peu prise de tête avec un seul personnage jouable au début. Un choix curieux qui pouvait rebuter certains joueurs. Mais grâce à ce code Konami providentiel, ce problème est relégué aux oubliettes ! Vous pouvez enfin profiter des cinq perso et de leurs capacités uniques sans vous prendre le chou.

Alors si vous aussi vous avez une Nintendo 64 qui prend la poussière dans un coin (ou un émulateur), c’est le moment ou jamais de ressortir Castlevania: Legacy of Darkness et de tester ces fameux codes.

Source

Un piano virtuel en papier ?

Par : Korben
24 avril 2024 à 07:00

Comme tout le reste, le prix des instruments de musique s’envole. Bien sûr, vous rêvez de jouer du piano mais vous n’avez pas les moyens de vous en payer un. Snif c’est trop triste ! Heureusement, tonton Korben est là, c’est plus la peine de faire les brocantes, puisque j’ai déniché un petit bijou qui devrait vous plaire !

Grâce au projet Paper Piano disponible sur GitHub, vous allez pouvoir vous improviser pianiste avec juste une feuille de papier, un feutre et votre webcam. Si si, je vous jure, c’est possible et en plus c’est fun !

Bon, évidemment, on est loin des sensations d’un vrai piano à queue, faut pas rêver non plus mais le concept est super cool et ça permet de s’initier au piano sans se ruiner. Pour l’instant, le projet ne supporte que 2 doigts maximum (un de chaque main) mais le développeur bosse dur pour améliorer ça et permettre de jouer avec tous les doigts comme un vrai pro.

Alors comment ça marche ce truc ?

En fait c’est plutôt simple, il suffit de cloner le repo GitHub, d’installer les dépendances Python en lançant

pip install -r requirements.txt

dans votre terminal et d’exécuter le script

run.py

Jusque là, rien de bien sorcier pour ceux qui sont un peu à l’aise avec la ligne de commande.

La partie un peu plus délicate, c’est l’installation de la webcam. Vu que le programme va devoir détecter votre doigt et son ombre sur le papier, il faut la positionner au bon endroit, avec le bon angle et à la bonne distance. En gros, il faut qu’elle puisse voir votre doigt et les deux rectangles que vous aurez dessinés au marqueur noir de chaque côté de votre feuille A4. Ça demande un peu de bidouille mais en suivant bien les instructions et en regardant la vidéo démo, vous devriez y arriver !

Un petit tips au passage : pensez à bien éclairer votre zone de jeu. Plus la lumière sera forte, mieux l’ombre de votre doigt sera visible et meilleurs seront les résultats. Évitez quand même d’avoir une lumière directe dans l’objectif de la webcam, ça risquerait de tout faire foirer.

Une fois votre matos en place, vous allez pouvoir passer à la phase d’entraînement du modèle. Pour ça, une fenêtre va s’ouvrir et une boîte va s’afficher autour du bout de votre doigt. Vérifiez bien qu’elle englobe tout le doigt et ses environs proches, sinon réglez à nouveau le positionnement de la caméra.

Ensuite c’est parti pour la séance de muscu des doigts !

Alors un conseil, allez-y mollo sur les mouvements. Pas la peine de vous exciter comme un fou jusqu’à trouer le papier, faites ça doucement en montrant bien tous les angles de votre doigt. Et quand vous appuyez, appuyez normalement, pas besoin d’écraser votre feuille non plus. Idem quand vous relevez le doigt, levez le franchement mais pas trop près du papier non plus. En gros, faites comme si vous jouiez sur un vrai piano.

Le projet utilise un réseau de neurones convolutif (CNN) pour apprendre à distinguer les états « doigt en contact » et « doigt levé ». Et bien sûr, si les résultats ne vous conviennent pas, vous pouvez relancer une session d’entraînement pour affiner le modèle.

L’objectif à terme pour le dev, ce serait d’arriver à transformer ce prototype en un vrai piano fonctionnel sur papier. Vous imaginez un peu le truc ? Ça permettrait à tous ceux qui n’ont pas les moyens de s’acheter un piano d’apprendre à en jouer quand même. La classe non ?

Après comme c’est un projet open-source, y’a pas vraiment de mode d’emploi gravé dans le marbre. Toutes les bonnes idées et les améliorations sont les bienvenues !

Je suis sûr qu’on n’a pas fini d’entendre parler de ce genre d’expériences de Papier Augmenté. Qui sait, bientôt on pourra peut-être transformer une simple feuille en un véritable home-studio ! Vous imaginez, une batterie en papier, une basse en carton, une guitare en origami… Ok je m’emballe un peu là, mais l’avenir nous réserve sûrement encore plein de surprises de ce type.

Sur ce, joyeux bidouillage à tous et à la prochaine pour de nouveaux projets délirants !

L’IA générative au service de l’édition de gènes

Par : Korben
23 avril 2024 à 20:46

Vous avez sans doute entendu parler de CRISPR-Cas9 (non), cet outil d’édition génétique révolutionnaire qui permet de modifier l’ADN avec une précision chirurgicale. Et bien, figurez-vous que cette technologie déjà impressionnante pourrait être boostée par une autre innovation majeure : l’IA générative !

Attention, on est sur du lourd. En gros, l’idée c’est d’utiliser la puissance des algorithmes d’IA pour prédire les meilleurs « guides ARN » qui vont diriger les ciseaux moléculaires de CRISPR pile poil où il faut sur le génome. Plus besoin de faire de nombreux tests, il suffit de demander à votre IA favorite de vous générer le guide ARN parfait !

Mais à quoi ça va servir tout ça ?

Déjà, ça pourrait bien révolutionner la recherche biomédicale. Imaginez qu’on puisse modeler des lignées cellulaires ou des organismes modèles avec les mutations souhaitées rapidement, le gain de temps serait considérable ! Surtout que l’IA ne va pas juste prédire l’efficacité des guides ARN, mais aussi les potentiels effets secondaires. Parce que c’est bien beau de jouer avec le code de la vie, mais il faut éviter les conséquences indésirables… Là, l’IA va pouvoir modéliser les modifications « off-target » et réduire les risques.

Et à terme, ça ouvre des perspectives intéressantes pour la médecine personnalisée. Des thérapies géniques sur-mesure, où il suffirait de séquencer votre ADN, le fournir à une IA qui va déterminer le traitement CRISPR optimal, et hop, traiter des maladies génétiques ! Bon après, il faudra encore travailler sur les vecteurs pour acheminer ça dans les bonnes cellules…

Cela dit, on n’en est pas encore là, et il y a quand même des défis importants à relever. Déjà, éthiquement ça soulève des questions. Est-ce qu’on est prêts à laisser une IA influencer le génome humain ? Et il va falloir un cadre réglementaire solide et beaucoup de transparence pour éviter les dérives… Et puis techniquement, c’est loin d’être gagné ! Les interactions génétiques sont très complexes, avec de nombreux phénomènes comme l’épistasie et la pléiotropie. Pas sûr que les IA arrivent à modéliser un système aussi compliqué, même avec du deep learning poussé… Sans compter les contraintes pour synthétiser les guides ARN.

Mais bon, c’est le genre de défi stimulant non ? Si des IA peuvent générer des images bluffantes ou écrire du code, pourquoi pas des modifications génétiques ? En tout cas, une chose est sûre, la convergence de l’IA et des biotechs promet des avancées passionnantes.

Alors oui, certains diront que tout ceci relève encore de la spéculation, voire de la science-fiction. Que l’édition génétique est trop complexe pour être entièrement automatisée, même avec l’aide de l’IA. Que les risques de dérives sont trop grands et qu’il faut appliquer le principe de précaution. Ce sont des arguments à prendre en compte. Mais bon, on a dit pareil pour la fécondation in vitro, les OGM, les thérapies géniques…

À chaque fois, on nous dit que c’est contre-nature, que ça va avoir des conséquences désastreuses, et au final ça finit par entrer dans les mœurs et faire progresser la médecine. Alors sur l’IA et CRISPR, voyons jusqu’où ça nous mène, tout en étant vigilants sur les enjeux éthiques. Parce qu’on parle quand même de technologies avec un potentiel énorme pour soigner des maladies et améliorer notre compréhension du vivant. Ce serait dommage de tout bloquer.

Maintenant, si vous voulez en savoir plus sur la révolution CRISPR-IA, je vous invite à lire cet excellent article du New York Times.

La sonde Voyager 1 de la NASA transmet à nouveau des données \o/

Par : Korben
23 avril 2024 à 06:18

Ça y est, la vénérable sonde spatiale Voyager 1 de la NASA refait parler d’elle ! Après des mois de silence radio qui ont fait transpirer les ingénieurs, notre exploratrice de l’espace lointain a enfin daigné donner de ses nouvelles puisque pour la première fois depuis le 14 novembre 2023, elle renvoie des données utilisables sur l’état de santé de ses systèmes embarqués. Ils respirent mieux à la NASA.

Il faut dire que la mission nous a offert quelques sueurs froides ces derniers temps car depuis cette date, elle continuait bien à recevoir et exécuter les commandes envoyées depuis la Terre, mais impossible d’obtenir en retour des infos cohérentes sur son fonctionnement. Alors les enquêteurs du Jet Propulsion Laboratory de la NASA ont mené l’enquête et ont fini par identifier le coupable : un des trois ordinateurs de bord, le fameux « flight data subsystem » (FDS) responsable de la transmission des données, était en cause. Un seul circuit défectueux qui stocke une partie de la mémoire du FDS avec une portion cruciale du logiciel… et bim, panne générale avec perte des trames de données !

Pas évident de réparer ça à des milliards de kilomètres de distance et comme souvent, quand on ne peut pas changer le hardware, il faut ruser avec le software. L’équipe a alors élaboré un plan génial : découper le code incriminé et le stocker à des endroits différents de la mémoire du FDS. Un vrai casse-tête type jeu de « Mémory » pour recoller les morceaux correctement sans faire sauter la banque mémoire !

Puis banco ! Premier essai le 18 avril, ils transfèrent le nouveau code maison spécial « télémétrie de l’état des systèmes » dans la mémoire du FDS et environ 45 heures plus tard, en comptant les 22h30 de trajet aller-retour du signal radio, les ingénieurs reçoivent les précieuses données tant attendues.

Yes !!! Voyager 1 est de retour aux affaires et recommence à parler de sa santé !

Regardez comme ils sont contents à la NASA :

Outre le soulagement de voir la communication rétablie, c’est une belle prouesse technique et un formidable pied-de-nez à l’obsolescence programmée. Pas mal pour une sonde lancée en 1977 et qui fête ses 46 ans ! Quand on vous dit que le matériel était bien meilleur à l’époque. 😉😜

Maintenant l’équipe du JPL va pouvoir se consacrer aux prochaines étapes à savoir relocaliser petit à petit les autres bouts de code du FDS pour retrouver une configuration nominale, puis renouer avec la transmission des données scientifiques et le but premier de la mission, à savoir explorer les confins de l’espace interstellaire !

Pendant ce temps, sa petite sœur Voyager 2, lancée 16 jours plus tard en 1977, poursuit tranquillement sa route aux frontières du système solaire sans faire de vagues. Une fiabilité à toute épreuve pour ces deux merveilles technologiques qui auront marqué l’histoire de l’exploration spatiale qui avant même de s’aventurer dans le « grand vide » interstellaire, nous ont offert des clichés époustouflants de Jupiter, Saturne, Uranus et Neptune.

Et qui sait, peut-être qu’un jour, elle captera peut-être un signal extraterrestre ou tombera nez-à-nez avec une civilisation alien super évoluée technologiquement…

Vers l’infini et au delà, les amigos !

Source

Drive Pilot – La conduite autonome de Mercedes arrive aux États-Unis

Par : Korben
22 avril 2024 à 21:28

Mercedes secoue le monde automobile avec le lancement de Drive Pilot aux États-Unis, le premier système de conduite autonome de niveau 3 commercialisé directement auprès des consommateurs. Ça y est les amis, le futur nous rattrape ! Bientôt, on pourra enfin lâcher le volant et vaquer à d’autres occupations pendant les longs trajets…

Concrètement, dans certaines conditions bien spécifiques, Drive Pilot permet au conducteur de détourner son attention de la route pour se concentrer sur des activités non liées à la conduite, comme consulter ses mails, surfer sur internet ou regarder un film. Mais attention, il faudra toujours rester prêt à reprendre le contrôle du véhicule à tout moment si nécessaire. J’imagine qu’en cas de problème, la voiture saura vous tirer de votre session de TikTok avec des bip bip.

Pour cela, Drive Pilot s’appuie sur une multitude de capteurs ultra-perfectionnés : caméras, radars, LiDAR, capteurs à ultrasons… Un véritable concentré de technologies de pointe pour analyser l’environnement en temps réel. Un puissant ordinateur de bord exploite ensuite toutes ces données pour prendre les meilleures décisions de conduite de manière autonome.

Il y a cependant quelques conditions à respecter pour pouvoir activer Drive Pilot : Le système ne peut être utilisé que sur certaines portions d’autoroutes spécifiques, avec un marquage au sol suffisamment clair et visible, une densité de trafic modérée à élevée et une vitesse limitée à 60 km/h. Ça fait beaucoup de conditions à la con quand même.

Le conducteur doit aussi rester visible par la caméra située au-dessus de l’écran conducteur. On est donc encore loin d’une conduite 100% autonome en toutes circonstances, mais c’est un premier pas très prometteur ! Pour l’instant, seuls les propriétaires des dernières Mercedes Classe S et EQS pourront profiter de Drive Pilot, moyennant un abonnement annuel à 2500$ (lol). Bref, c’est une technologie encore réservée à une élite friquée, mais on peut espérer que Mercedes la démocratisera rapidement sur des modèles plus abordables.

Malgré ses limitations actuelles, Drive Pilot représente une avancée majeure vers une conduite plus sûre, plus confortable et plus… productive. Fini le stress des embouteillages, ce temps pourra être mis à profit pour avancer sur son travail, discuter avec ses proches ou se détendre devant un bon film. Tout ça pendant que l’IA gère la conduite de manière sereine et vigilante.

Bien sûr, de nombreux défis restent encore à relever avant de voir des voitures 100% autonomes partout sur nos routes. Les questions de responsabilité juridique en cas d’accident, de sécurité face au piratage ou encore d’éthique et de contrôle humain sont complexes. Et il faudra aussi s’assurer de la fiabilité totale du système pour éviter tout bug ou panne aux conséquences potentiellement dramatiques.

Mais une chose est sûre, la conduite autonome sera l’un des enjeux majeurs de la mobilité du futur. Avec des acteurs de poids comme Comma, Mercedes, Tesla ou Waymo qui investissent massivement sur le sujet, on peut s’attendre à des progrès rapides et à une démocratisation progressive de cette technologie dans les années à venir.

Source

Headphone jacks on smartphones are making a comeback for your listening pleasure

Par : JC Torres
23 avril 2024 à 13:20

There are some heated discussions right now about how a YouTuber may have single-handedly killed a startup, but big companies do that every time. In 2016, Apple may have put the audio industry on notice when it banished the headphone jack from the iPhone forever. Of course, the 3.5mm connector is used in more than just smartphones, but this change caused a ripple that pushed wireless audio technologies to innovate and improve. Although it’s becoming more common for smartphones to rely on Bluetooth headphones and speakers, many audiophiles still swear by wired equipment to deliver high-fidelity lossless sound, and it seems that there’s a growing trend of bringing the venerable headphone jack back to smartphones to satisfy these audio cravings.

MOONDROP MIAD01

It isn’t enough just to have a 3.5mm headphone jack and expect to have high-quality audio output. You still have to make sure that the digital-to-analog conversion process is just as good, usually with some help from dedicated hardware designed for that purpose. Hi-Fi audio equipment maker MOONDROP knows that only too well, which is probably why it’s making an ambitious attempt to corner a niche market with an upcoming MIAD01 smartphone made specifically for discerning audiophiles.

Designer: MOONDROP

Aside from a few teaser images, details on this “Hi-Fi” smartphone are still pretty slim other than the mention of 3.5mm+4.4mm interfaces. The latter of the two is known as “balanced” output used by high-impedance headphones and speakers, resulting in even better output quality. It’s not yet known, however, if the phone will have two headphone jacks or have a single 4.4mm port with a 3.5mm adapter. Either way, it’s something that music lovers on the Android side of the smartphone camp will want to keep an eye, or an ear, out for.

nubia Music Phone

Although technologically less ambitious, ZTE subsidiary nubia is putting a different twist on enjoying music on smartphones. The nubia Music Phone does have two headphone jacks, both 3.5mm, but their main purpose is to simply connect two wired headphones at the same time. It brings back the social aspect of listening to music by sharing your favorite tunes with a friend or loved one while still keeping it private among yourselves. Of course, the fact that you can connect high-performance headphones is definitely a plus as well.

Designer: nubia (ZTE)

The nubia Music Phone also puts a fun and quirky spin on that activity with a design that will appeal to music lovers. It has a large speaker on its back, in itself already an oddity, and it’s made to look like a turntable together with dual camera lenses. Its colorful designs just scream vibrancy and playfulness, characteristics that will pull at the heartstrings of a younger crowd.

ASUS ROG Phone 8 Pro

It isn’t just audiophiles who will appreciate good sound output, however. Poor audio can also break the immersion of a mobile game, especially as these titles become more sophisticated and more resource-intensive. While most of its features naturally revolve around graphics and processing, the ASUS ROG Phone 8 Pro doesn’t skimp on the audio side of the equation, whether it’s the “multi-magnet” dual speakers or hi-res 3.5mm headphone jack.

Designer: ASUS ROG

More than just doing the bare minimum, the ROG Phone 8 Pro boasts 384kHz/32-bit audio quality from that wired connection. It also implements spatial sound for headphones and provides listening profiles for different situations. It’s definitely one of the very few premium smartphones these days that have a headphone jack, something that hardcore mobile gamers will surely appreciate.

Sony Xperia 1 V

Speaking of high-end phones, Sony hasn’t completely given up yet on the smartphone market, and neither is it turning back on the features that differentiate its remaining devices. It bears an unusual ultra-wide, ultra-tall screen aspect ratio which Sony claims to be the best format for watching videos. It also shows off its display-making prowess which it also uses on a bigger scale on TVs.

Designer: Sony

The entertainment and electronics company naturally also knows that video is only half the battle. The phone also has a headphone jack to support hi-fi lossless audio output through wired headphones and speakers, something you’d expect from a device designed to deliver a cinematic watching experience on mobile.

TECNO Camon 20 Pro 5G

It’s almost ironic that mid-range and lower smartphone tiers are the remaining bastions of the 3.5mm port, probably as a form of cost-savings on more expensive wireless technologies. At the same time, however, some brands continue to support the feature even on their higher-end models. That’s definitely true for last year’s TECNO Camon 20 Pro 5G, which combines stylish design with a well-balanced set of features, including that headphone jack.

Designer: TECNO

Among TECNO’s flagship Camon line, the Camon 20 Pro has the distinction of winning a few design awards, thanks to the unique geometric patterns on its back, including an uneven hexagon shape for the camera bump. Unfortunately, it will also now have the distinction of being the last TECNO Camon to include that 3.5mm port, as the brand seems to be finally shifting this family of smartphones to a wireless future.

Final Thoughts: Hear Ye, Hear Ye

Just because smartphones no longer have headphone jacks doesn’t mean that it’s obsolete technology. Many aspects of the audio industry and the wider multimedia industry still rely on wired connections, and the 3.5mm connector and those like it continue to offer a standard and space-efficient solution. At least for now, wires still have bigger bandwidth and more reliability, even with potential losses when converting between digital and analog.

Wireless audio is thankfully still improving, but it might take some time for it to be a more common technology that can deliver the needed high-fidelity lossless audio transmission. In the push for thinner phones, it’s this aspect that has unfortunately been sacrificed, even if it came at the expense of consumers as well. It’s a good thing, then, that there are still some brands that try to cater to audiophiles, music lovers, and gamers, and we might even see an uptick in these devices as more people become more aware of the critical role that good sound quality plays in an immersive experience.

The post Headphone jacks on smartphones are making a comeback for your listening pleasure first appeared on Yanko Design.

Phone-powered smart speaker concept reads your mood to play the right music for work

Par : JC Torres
22 avril 2024 à 19:15

Not everyone likes listening to music, but even those will perhaps begrudgingly agree that certain kinds of music can have different effects on one’s mood or mental state. Next to entertainment or the sheer joy of listening to favorite tunes, the most common use of music is to set the right mood, whether it’s to relax, to get pumped, or to be more productive. That said, musical tastes can be quite subjective, and even the kind of harmonies that you like could be affected by your mood at any given time. It can be quite taxing to change playlists or tracks every time, so rather than relying on your fingers and your own mind, why not let your phone do the work for you? This desk speaker concept does exactly that, analyzing your mood and picking the right music to help you finish your work, studies, or any other task you need to get done.

Designer: Junyoung Lee

People who love playing music while they work most likely have a library of tunes selected to help massage their grey matter, especially during slow hours. Unfortunately, the effectiveness of music can be thwarted by moods, emotions, and physical conditions. Sometimes we’re just stuck in a slump and manually picking out a more appropriate playlist only adds to the stress and traps you in a vicious mental cycle.

MIX:X is a smart speaker system that uses the power of your smartphone and machine learning to automate that process so you won’t have to lift a finger when your brain or heart is just too tired to care. You simply dock the phone in front of the tall, boxy speaker to start the process. The large camera at the bottom keeps a constant watch on the person’s face in front of it, particularly their facial expressions, and using computer vision, machine learning, and algorithms, it tries to identify the mood that the person is in. Depending on what mood that is, it will switch to a different playlist that will help get you into a more productive working state.

Part of the MIX:X speaker’s solution is actually not the device itself but the app that comes with it. Here you select the songs that you like and associate them with certain moods. The app’s AI analyzes the music selection and uses that as a pool to choose from when your mood shifts one way or another. It doesn’t simply get music out of thin air (or the Internet), giving you some amount of control to limit the choices to your preferences.

In that sense, the MIX:X speaker is simply a box with speakers facing sideways and a camera, though it definitely has an interesting aesthetic. It has transparent panels for its sides and back, putting the sophisticated electronics inside on display. The rest of the device’s design is pretty minimal, with a single dial for the volume. If there’s one glaring flaw in its design, it’s the fact that it seems to support only a specific model or size of a specific phone, namely an iPhone, which severely limits how much this concept can be used outside of that single device.

The post Phone-powered smart speaker concept reads your mood to play the right music for work first appeared on Yanko Design.

Language AI Pioneer DeepL Targets APAC Businesses With Pro Translation Options

Par : Ben Abbott
19 avril 2024 à 15:20
AI-native language translation application DeepL Translate is launching into Australia and Singapore following regional forays into Japan and South Korea. Founder and CEO Jarek Kutylowski said it is targeting APAC businesses that require more natural language translations.

Time for APAC Region to Build Its Own AI Foundation Models, Says CSIRO

Par : Ben Abbott
19 avril 2024 à 14:47
Most AI foundation models are being developed in markets like the U.S. and China. Research from Australia asks whether other countries should be building sovereign AI models for citizens and businesses.
❌
❌