Vue normale

Il y a de nouveaux articles disponibles, cliquez pour rafraîchir la page.
Hier — 25 juin 2024Flux principal

Supervision – Donnez la vue à votre projet IA

Par : Korben
18 juin 2024 à 07:00

Vous rêvez de donner à vos projets d’IA des superpouvoirs visuels ? Ne cherchez plus, Supervision est là pour vous ! Détecter des objets, segmenter des instances, annoter des images et des vidéos… tout ça devient possible en quelques lignes de code seulement grâce à ce projet qui propose une API intuitive et des fonctionnalités avancées pour vous faciliter la vie.

Le secret de Supervision ? Une intégration transparente avec les meilleures librairies de deep learning du moment comme YOLO-NAS, YOLOv8…etc. Ces modèles surpuissants de détection d’objets n’auront plus de secrets pour vous et grâce à eux, vous pourrez identifier et localiser précisément chaque élément dans vos images et vidéos.

Supervision vous offre aussi des outils d’annotation et de visualisation hyper pratiques. Vous pourrez par exemple dessiner des boîtes englobantes autour des objets détectés, afficher les masques de segmentation avec des couleurs personnalisées, ajouter des étiquettes et des scores de confiance…etc.

Côté données, il assure également avec son API de gestion de datasets qui permet de charger vos images et annotations au format YOLO en un clin d’œil, explorer votre dataset, filtrer et spliter les données comme un pro…etc. C’est super simple !

Si ça vous intéresse, tout est sur le repo GitHub du projet et il y a même un site dédié avec la doc, le détail des API et plein d’exemple.

Cheaper Apple Vision design might have you connecting to an iPhone or Mac

Par : JC Torres
25 juin 2024 à 13:20

It hasn’t even been a year since it launched, but there are already talks of Apple’s next headset after the Vision Pro. No, it won’t be an upgrade that will make the $3,500 device obsolete but, instead, might even be considered a downgrade of sorts. In a way, this more affordable Apple Vision will be its own class, one that might have to make quite a few compromises to reach a desired price point. What those cuts will be is still unknown, but some insider insight suggests that the non-Pro Vision headset might offload its processing and software to an external device, requiring you to tether it to an iPhone or even a Mac or MacBook.

Designer: Apple (via Mark Gurman)

Impressive as the Vision Pro and visionOS might be, Apple’s spatial computing platform hasn’t yet taken the tech world by storm for one critical reason. The headset costs a whopping $3,500, far beyond the reach of developers without deep pockets or backing, let alone regular consumers. Apple has always planned on launching a more accessible Vision headset after the Pro model has taken root, but the big puzzle is how it would make it significantly cheaper without compromising on the experience too much.

The immediate answer would be to take the features down a few notches, throwing out EyeSight that shows your eyes to people on the opposite side of the glass, reducing image quality of passthrough visuals, or using less powerful processors. These, however, are the features that would differentiate the Vision from other mixed reality headsets, and a price tag of $1,500 would make it look even more expensive than the competition without these “killer features.” One alternative would be to have the headset connect to a device, either the iPhone or the Mac, making the Apple Vision focus solely on the optics and display.

This wouldn’t be the first phone-powered headset, and history has given us the advantages and disadvantages of that design. An iPhone would actually offer a bit more mobility and flexibility, especially if it will also power the Vision headset. It could, however, be the bottleneck considering the apps and experiences that visionOS supports. A MacBook, on the other hand, would deliver that much-needed power at the expense of freedom of movement and comfort.

This is definitely a conundrum for Apple, which isn’t always keen on degrading product quality in the name of price cuts. At the same time, however, it really has no choice but to make some concessions if it wants its spatial computing vision to be embraced by more people. It still hasn’t given up on the Vision Pro, whose successor is expected to arrive in 2026, but it will be pouring resources over the more accessible Vision for a 2025 launch, and hopefully, it will be able to hit the nail on the head in the end.

The post Cheaper Apple Vision design might have you connecting to an iPhone or Mac first appeared on Yanko Design.

À partir d’avant-hierFlux principal

Skyvern – Plus besoin de vous prendre la tête pour automatiser une tâche web (scraping, saisie de formulaire…etc)

Par : Korben
7 mai 2024 à 07:00

Qui n’a jamais rêvé d’automatiser n’importe quelle tâche web peu importe sa complexité, pour évidemment se la couler douce ?

C’est précisément ce que vous propose Skyvern, un outil qui allie intelligence artificielle et vision par ordinateur pour interagir avec les sites web comme vous le feriez vous-même.

Plus besoin de scripts qui pètent à tout bout de champs, de XPath qui changent tous les 4 matins et de parseurs de DOM capricieux puisque Skyvern est capable de comprendre visuellement ce qu’il y a sur une page web et ainsi générer un plan d’interaction en temps réel.

Cela signifie que Skyvern est capable d’agir sur des sites qu’il n’a jamais vus auparavant, le tout sans avoir besoin de code spécifique. Il analyse les éléments visuels de la page pour déterminer les actions nécessaires pour répondre à votre demande, ce qui en fait un outil immunisé contre les changements de design de sites, contrairement à votre bon vieux scrapper.

Grâce aux modèles de langage (LLM) qu’il embarque, il est capable de « raisonner » donc par exemple, de remplir un formulaire qui vous pose plein de questions, ou de comparer des produits.

Vous voulez voir Skyvern à l’œuvre ? Voici un petit aperçu en vidéo :

Sous le capot, Skyvern s’inspire des architectures d’agents autonomes comme BabyAGI et AutoGPT, avec une couche d’automatisation web en plus, basée sur des outils comme Playwright.

Et comme d’hab, vous pouvez installer la bête sur votre machine et commencer à automatiser tout votre boulot en quelques commandes.

Vous devrez donc avoir Python 3.11, puis installez poetry :

brew install poetry

Ensuite, clonez le dépôt git et aller dans le dossier :

git clone https://github.com/Skyvern-AI/skyvern.git

cd skyvern

Puis lancez le script d’install :

./setup.sh

Une fois que c’est fini, démarrez le serveur :

./run_skyvern.sh

Et voilà, vous pouvez maintenant envoyer des requêtes au serveur, mais ne vous inquiétez pas, y’a une interface graphique :). Pour la lancer :

./run_ui.sh

Ouvrez ensuite http://localhost:8501 dans votre navigateur pour y accéder. Vous verrez alors ce genre d’interface. A vous de remplir les champs qui vont bien pour créer votre première automatisation.

En commande cURL, ça ressemble à ça (pensez bien à mettre votre clé API locale dans la commande) :

curl -X POST -H 'Content-Type: application/json' -H 'x-api-key: {Votre clé API locale}' -d '{
    "url": "https://www.geico.com",
    "webhook_callback_url": "",
    "navigation_goal": "Naviguer sur le site Web jusqu\'à ce que vous obteniez un devis d\'assurance automobile. Ne pas générer de devis d\'assurance habitation. Si cette page contient un devis d\'assurance automobile, considérez l\'objectif atteint",
    "data_extraction_goal": "Extraire toutes les informations de devis au format JSON, y compris le montant de la prime et le délai du devis",
    "navigation_payload": "{Vos données ici}",
    "proxy_location": "NONE"
}' http://0.0.0.0:8000/api/v1/tasks

Vous voyez, on peut vraiment faire des trucs pointu. Et le petit plus, c’est qu’on peut voir toutes les interactions puisque Skyvern enregistre chaque action avec une capture d’écran correspondante pour vous permettre de débugger facilement vos workflows.

Bref, pour en savoir plus, c’est sur le Github. Et sur leur site officiel.

TunnelVision – la faille qui fait sauter le VPN et laisse fuiter vos données

Par : Korben
6 mai 2024 à 21:03

Voici une info qui va vous faire voir les VPN sous un autre angle. Bah oui, parce que si vous pensiez que votre petit tunnel chiffré préféré vous mettait à l’abri des regards indiscrets quand vous surfez depuis un réseau public, désolé de casser vos rêves, mais c’est loin d’être le cas !

Une équipe de chercheurs de Leviathan Security a découvert une faille qu’ils ont baptisée TunnelVision qui permet de court-circuiter la protection des VPN à l’aiiise, grâce à une fonctionnalité bien pratique du protocole DHCP, ce bon vieux serviteur qui distribue des adresses IP à tout va.

En gros, quand vous vous connectez à un réseau, votre machine demande gentiment une adresse IP au serveur DHCP local. Jusque là, tout va bien. Sauf que ce protocole a plus d’un tour dans son sac. Il peut notamment pousser des règles de routage sur votre bécane, via une option peu connue appelée « Classless Static Route » ou option 121.

Concrètement, un attaquant qui contrôle le serveur DHCP peut installer des routes par défaut sur votre machine, ce qui lui permet de rediriger tout votre trafic vers sa propre passerelle, même si vous êtes connecté via un VPN ! Et là, c’est le drame, car il peut intercepter toutes vos données en clair. 😱

Bon, rassurez-vous, il y a quand même quelques conditions pour que cette attaque fonctionne :

  • 1. L’attaquant doit avoir un accès physique au réseau local ou être en mesure de compromettre un équipement sur ce réseau.
  • 2. Le client VPN ne doit pas bloquer les sorties de trafic vers les interfaces réseau locales.

Mais quand même, ça fait froid dans le dos, d’autant que cette faille touche potentiellement tous les réseaux, des petits réseaux domestiques aux gros réseaux d’entreprise. Les chercheurs ont d’ailleurs réussi à l’exploiter sur Windows, macOS, iOS, Android, et même sur des distributions Linux.

Heureusement, il existe des parades pour se prémunir contre TunnelVision :

  • Activer les fonctions de DHCP snooping et d’ARP protection sur les commutateurs réseau pour empêcher l’installation de serveurs DHCP non autorisés.
  • Configurer des règles de pare-feu strictes pour bloquer le trafic non autorisé.
  • Utiliser des protocoles de chiffrement comme HTTPS pour sécuriser les ressources internes.
  • Implémenter une isolation réseau robuste via des fonctionnalités comme les espaces de noms réseau (network namespaces) sous Linux.

Les fournisseurs de VPN ont évidemment aussi un rôle à jouer en documentant publiquement les mesures d’atténuation contre TunnelVision et en avertissant leurs utilisateurs des risques.

Bref, en attendant un éventuel correctif, la prudence reste de mise. Mais en appliquant les bonnes pratiques et en restant vigilants, on peut quand même limiter les dégâts ! Si le sujet vous intéresse et que vous voulez aller plus loin, je vous invite à consulter le papier de recherche complet qui détaille le fonctionnement technique de TunnelVision. C’est un peu ardu, mais ça vaut le coup d’œil pour les plus motivés d’entre vous.

Source

Une ÉNORME liste des meilleurs chaînes IPTV gratuites et sans abonnement pour votre box ou Smart TV

Par : Korben
21 mars 2024 à 09:39

Si vous voulez monter votre propre service IPTV pour vos besoins personnels et arrêter de payer des services mafieux ou décodeurs pirates pour regarder de la TV en streaming, j’ai ce qu’il vous faut en accès gratuit.

Il s’agit d’un dépôt Github qui compile une playlist au format .m3u regroupant de nombreux streams en IPTV. Attention, comme la radio en streaming, rien d’illégal pour l’utilisateur ici, c’est tout simplement des chaînes dont les flux sont accessibles gratuitement et légalement sur le web sans décodeur.

Pour le commun des mortels, ça suffira largement à votre bonheur, et vous pourrez lire toutes ces chaînes sans céder à l’achat d’un boitier IPTV ou abonnement IPTV spécifique. Un simple lecteur vidéo comme VLC suffira. Ça fonctionnera également sur votre téléviseur avec l’application Smart IPTV ou sur votre box Android.

Pour commencer à regarder la TV sans décodeur ni box android, lancez simplement VLC ou tout autre lecteur vidéo capable de lire les fichiers M3U comme Kodi puis faites Fichier -> Ouvrir un flux réseau et copiez-collez simplement le lien suivant :

https://raw.githubusercontent.com/Free-TV/IPTV/master/playlist.m3u8

Cette playlist regroupe des chaînes TV gratuites du monde entier, soit localement en hertzien, soit gratuitement sur internet via des services comme :

  • Plex TV
  • Pluto TV (en anglais, espagnol, français, italien)
  • Redbox Live TV
  • Roku TV
  • Samsung TV Plus
  • Chaînes Youtube en direct

Il y a du contenu en accès gratuit pour tous les goûts et ça vous changera de votre box Android avec uniquement Molotov installé dessus.

Logo des chaînes IPTV gratuites pour votre box ou Smart TV

Cette liste est maintenue par une communauté de bénévoles avec une philosophie de qualité plutôt que quantité. Seules les meilleures chaînes gratuites et grand public sont incluses, pas de chaînes adultes, religieuses ou politiques. Les flux proviennent de sources comme le dépôt Github IPTV ou Youtube.

Et si VLC ça ne vous convient pas, vous pouvez également passer par un service en ligne en accès gratuit comme Whats Up TV qui est capable de charger des playlists M3U pour vous afficher ensuite les chaînes. Une sorte de client web si vous préférez. À vous les contenus info, cinéma et divertissement.

Capture d'écran d'une liste de chaînes IPTV gratuites pour votre box ou Smart TV

Profitez en bien !

Méchant bug dans macOS – iCloud perd le versioning de vos fichiers

Par : Korben
21 mars 2024 à 06:56

Aïe aïe aïe y’a un gros bug bien vicieux qui se planque dans macOS Sonoma 14.4 !

Si vous avez activé « Optimiser le stockage » pour iCloud Drive, méfiance, car vos précieuses versions de fichiers risquent de partir en fumée…

Concrètement, ce bug se déclenche uniquement si vous remplissez toutes ces conditions :

  • Votre Mac tourne sous Sonoma 14.4 (pas de souci avec Ventura ou les versions précédentes de Sonoma)
  • Vous déplacez dans iCloud Drive des fichiers qui ont des versions sauvegardées (générées automatiquement quand vous enregistrez avec des apps compatibles)
  • « Optimiser le stockage Mac » est activé dans les réglages iCloud, pour permettre l’éviction des fichiers locaux

Pour voir le désastre en action, créez un fichier avec une app qui gère les versions comme Pages, Numbers, ou TextEdit. Ajoutez du contenu, sauvegardez plusieurs fois pour générer quelques versions. Vérifiez-les avec la commande « Revenir à ».

Maintenant, sélectionnez ce fichier dans iCloud Drive, faites un clic droit et choisissez « Supprimer la copie« . Paf, éviction express, l’icône bleue indique qu’il faudra re-télécharger le fichier pour l’utiliser. Attendez une minute et cliquez sur l’icône pour rapatrier le fichier.

Et là, surprise ! : toutes les versions précédentes se sont volatilisées ! Envolées dans une cyber-creusasse sans fond… Snif. Et comme aucun outil de backup ne sauvegarde les versions et qu’elles restent locales au volume, vous ne les retrouverez nulle part, même pas dans la sauvegarde 30 jours d’iCloud Drive.

Dans le cul, lulu ! (Vous avez la ref ? ^^)

En attendant, faites gaffe avec iCloud Drive. Vérifiez bien vos versions après un « Supprimer la copie » et en attendant qu’Apple corrige le problème, je vous suggère de ne pas enregistrer de fichiers sur iCloud Drive ou de désactiver l’option « Optimiser le stockage » sur Mac.

Source

FeatUp – L’algo qui permet à l’IA de passer à la haute résolution

Par : Korben
20 mars 2024 à 06:32

FeatUp, c’est le nom de ce nouvel algorithme révolutionnaire développé par une équipe de chercheurs du MIT dont le but consiste à faire passer la vision par ordinateur à la vitesse supérieure en lui offrant une résolution digne d’un œil de lynx.

Comment ça marche ? En gros, FeatUp s’attaque au problème de la perte d’information qui se produit quand les algorithmes d’IA analysent une image. Normalement, ils la découpent en une grille de petits carrés de pixels qu’ils traitent par groupe. Résultat, la résolution finale est bien plus faible que l’image de départ. Avec FeatUp, fini la myopie ! L’algo est capable de capter tous les détails, des plus évidents aux plus subtils.

La clé, c’est de faire légèrement bouger et pivoter les images pour voir comment l’IA réagit à ces micro-variations. En combinant des centaines de « cartes de caractéristiques » ainsi générées, on obtient un ensemble de données haute définition super précis. Un peu comme quand on crée un modèle 3D à partir de plusieurs images 2D sous différents angles.

Mais pour que ça turbine, il a fallu créer une nouvelle couche de réseau de neurones ultra-efficace, baptisée « suréchantillonnage bilatéral conjoint« . Grâce à elle, FeatUp améliore les performances d’un tas d’algos différents, de la segmentation sémantique à l’estimation de profondeur.

Les applications potentielles sont dingues : imaginez pouvoir repérer un minuscule panneau sur une autoroute encombrée pour une voiture autonome, ou localiser précisément une tumeur sur une radio des poumons. Avec sa capacité à transformer des suppositions vagues en détails précis, FeatUp pourrait rendre tous ces systèmes bien plus fiables et sûrs.

L’objectif des chercheurs, c’est que FeatUp devienne un outil fondamental du deep learning, pour enrichir les modèles sans sacrifier l’efficacité. Comme le résume Mark Hamilton, co-auteur de l’étude, l’enjeu est d’obtenir « le meilleur des deux mondes : des représentations très intelligentes avec la résolution de l’image d’origine« .

Bref, si FeatUp tient ses promesses, on n’a pas fini d’entendre parler de cette prouesse technologique qui pourrait donner un sacré coup de boost à l’IA visuelle puisqu’elle fournit des versions haute résolution d’analyses d’images qu’on pensait jusque-là limitées à la basse résolution. »

Pour en savoir plus, direction l’article du MIT !

❌
❌