Vue lecture

Il y a de nouveaux articles disponibles, cliquez pour rafraîchir la page.

YouTube Incognito Mode pour naviguer discrètement sans traces

Ce bon vieux YouTube est toujours là pour nous divertir avec ses vidéos à n’en plus finir mais parfois, on aimerait bien pouvoir y faire un petit tour incognito, histoire de regarder tranquillou ce qui nous chante sans que ça nous colle à la peau ad vitam aeternam. Vous voyez ce que je veux dire ? Vous matez une interview d’artiste ou quelques vidéos de chats et PAF, votre page d’accueil ne vous recommande quasiment plus que ça ! Ou alors, vous vous laissez tenter par quelques tutos de bricolage et là, c’est le drame : YouTube s’imagine que vous êtes MacGyver et vous spamme de suggestions pour construire un palace avec trois briquettes et un trombone… Bonjour l’angoisse !

Mais ne vous inquiétez pas, j’ai la solution à votre problème ! Laissez-moi vous présenter… roulements de tambourYouTube Incognito Mode ! Grâce à cette merveilleuse extension Chrome disponible sur GitHub, vous allez pouvoir vous balader sur YouTube comme un ninja des internets, sans laisser la moindre trace compromettante derrière vous.

Une fois l’extension installée, il vous suffit de vous rendre sur YouTube et de cliquer sur l’icône de YouTube Incognito Mode dans votre navigateur. Et là, vous serez propulsé dans une nouvelle fenêtre, où vous pourrez vaquer à vos occupations sans craindre que vos petits secrets ne soient dévoilés au grand jour.

Et non content de vous offrir une navigation privée digne de ce nom, cette extension va même jusqu’à bloquer les publicités pour vous !

Bref, plutôt cool comme petite extension. Ça se télécharge ici.

Supervision – Donnez la vue à votre projet IA

Vous rêvez de donner à vos projets d’IA des superpouvoirs visuels ? Ne cherchez plus, Supervision est là pour vous ! Détecter des objets, segmenter des instances, annoter des images et des vidéos… tout ça devient possible en quelques lignes de code seulement grâce à ce projet qui propose une API intuitive et des fonctionnalités avancées pour vous faciliter la vie.

Le secret de Supervision ? Une intégration transparente avec les meilleures librairies de deep learning du moment comme YOLO-NAS, YOLOv8…etc. Ces modèles surpuissants de détection d’objets n’auront plus de secrets pour vous et grâce à eux, vous pourrez identifier et localiser précisément chaque élément dans vos images et vidéos.

Supervision vous offre aussi des outils d’annotation et de visualisation hyper pratiques. Vous pourrez par exemple dessiner des boîtes englobantes autour des objets détectés, afficher les masques de segmentation avec des couleurs personnalisées, ajouter des étiquettes et des scores de confiance…etc.

Côté données, il assure également avec son API de gestion de datasets qui permet de charger vos images et annotations au format YOLO en un clin d’œil, explorer votre dataset, filtrer et spliter les données comme un pro…etc. C’est super simple !

Si ça vous intéresse, tout est sur le repo GitHub du projet et il y a même un site dédié avec la doc, le détail des API et plein d’exemple.

Cheaper Apple Vision design might have you connecting to an iPhone or Mac

It hasn’t even been a year since it launched, but there are already talks of Apple’s next headset after the Vision Pro. No, it won’t be an upgrade that will make the $3,500 device obsolete but, instead, might even be considered a downgrade of sorts. In a way, this more affordable Apple Vision will be its own class, one that might have to make quite a few compromises to reach a desired price point. What those cuts will be is still unknown, but some insider insight suggests that the non-Pro Vision headset might offload its processing and software to an external device, requiring you to tether it to an iPhone or even a Mac or MacBook.

Designer: Apple (via Mark Gurman)

Impressive as the Vision Pro and visionOS might be, Apple’s spatial computing platform hasn’t yet taken the tech world by storm for one critical reason. The headset costs a whopping $3,500, far beyond the reach of developers without deep pockets or backing, let alone regular consumers. Apple has always planned on launching a more accessible Vision headset after the Pro model has taken root, but the big puzzle is how it would make it significantly cheaper without compromising on the experience too much.

The immediate answer would be to take the features down a few notches, throwing out EyeSight that shows your eyes to people on the opposite side of the glass, reducing image quality of passthrough visuals, or using less powerful processors. These, however, are the features that would differentiate the Vision from other mixed reality headsets, and a price tag of $1,500 would make it look even more expensive than the competition without these “killer features.” One alternative would be to have the headset connect to a device, either the iPhone or the Mac, making the Apple Vision focus solely on the optics and display.

This wouldn’t be the first phone-powered headset, and history has given us the advantages and disadvantages of that design. An iPhone would actually offer a bit more mobility and flexibility, especially if it will also power the Vision headset. It could, however, be the bottleneck considering the apps and experiences that visionOS supports. A MacBook, on the other hand, would deliver that much-needed power at the expense of freedom of movement and comfort.

This is definitely a conundrum for Apple, which isn’t always keen on degrading product quality in the name of price cuts. At the same time, however, it really has no choice but to make some concessions if it wants its spatial computing vision to be embraced by more people. It still hasn’t given up on the Vision Pro, whose successor is expected to arrive in 2026, but it will be pouring resources over the more accessible Vision for a 2025 launch, and hopefully, it will be able to hit the nail on the head in the end.

The post Cheaper Apple Vision design might have you connecting to an iPhone or Mac first appeared on Yanko Design.

Skyvern – Plus besoin de vous prendre la tête pour automatiser une tâche web (scraping, saisie de formulaire…etc)

Qui n’a jamais rêvé d’automatiser n’importe quelle tâche web peu importe sa complexité, pour évidemment se la couler douce ?

C’est précisément ce que vous propose Skyvern, un outil qui allie intelligence artificielle et vision par ordinateur pour interagir avec les sites web comme vous le feriez vous-même.

Plus besoin de scripts qui pètent à tout bout de champs, de XPath qui changent tous les 4 matins et de parseurs de DOM capricieux puisque Skyvern est capable de comprendre visuellement ce qu’il y a sur une page web et ainsi générer un plan d’interaction en temps réel.

Cela signifie que Skyvern est capable d’agir sur des sites qu’il n’a jamais vus auparavant, le tout sans avoir besoin de code spécifique. Il analyse les éléments visuels de la page pour déterminer les actions nécessaires pour répondre à votre demande, ce qui en fait un outil immunisé contre les changements de design de sites, contrairement à votre bon vieux scrapper.

Grâce aux modèles de langage (LLM) qu’il embarque, il est capable de « raisonner » donc par exemple, de remplir un formulaire qui vous pose plein de questions, ou de comparer des produits.

Vous voulez voir Skyvern à l’œuvre ? Voici un petit aperçu en vidéo :

Sous le capot, Skyvern s’inspire des architectures d’agents autonomes comme BabyAGI et AutoGPT, avec une couche d’automatisation web en plus, basée sur des outils comme Playwright.

Et comme d’hab, vous pouvez installer la bête sur votre machine et commencer à automatiser tout votre boulot en quelques commandes.

Vous devrez donc avoir Python 3.11, puis installez poetry :

brew install poetry

Ensuite, clonez le dépôt git et aller dans le dossier :

git clone https://github.com/Skyvern-AI/skyvern.git

cd skyvern

Puis lancez le script d’install :

./setup.sh

Une fois que c’est fini, démarrez le serveur :

./run_skyvern.sh

Et voilà, vous pouvez maintenant envoyer des requêtes au serveur, mais ne vous inquiétez pas, y’a une interface graphique :). Pour la lancer :

./run_ui.sh

Ouvrez ensuite http://localhost:8501 dans votre navigateur pour y accéder. Vous verrez alors ce genre d’interface. A vous de remplir les champs qui vont bien pour créer votre première automatisation.

En commande cURL, ça ressemble à ça (pensez bien à mettre votre clé API locale dans la commande) :

curl -X POST -H 'Content-Type: application/json' -H 'x-api-key: {Votre clé API locale}' -d '{
    "url": "https://www.geico.com",
    "webhook_callback_url": "",
    "navigation_goal": "Naviguer sur le site Web jusqu\'à ce que vous obteniez un devis d\'assurance automobile. Ne pas générer de devis d\'assurance habitation. Si cette page contient un devis d\'assurance automobile, considérez l\'objectif atteint",
    "data_extraction_goal": "Extraire toutes les informations de devis au format JSON, y compris le montant de la prime et le délai du devis",
    "navigation_payload": "{Vos données ici}",
    "proxy_location": "NONE"
}' http://0.0.0.0:8000/api/v1/tasks

Vous voyez, on peut vraiment faire des trucs pointu. Et le petit plus, c’est qu’on peut voir toutes les interactions puisque Skyvern enregistre chaque action avec une capture d’écran correspondante pour vous permettre de débugger facilement vos workflows.

Bref, pour en savoir plus, c’est sur le Github. Et sur leur site officiel.

TunnelVision – la faille qui fait sauter le VPN et laisse fuiter vos données

Voici une info qui va vous faire voir les VPN sous un autre angle. Bah oui, parce que si vous pensiez que votre petit tunnel chiffré préféré vous mettait à l’abri des regards indiscrets quand vous surfez depuis un réseau public, désolé de casser vos rêves, mais c’est loin d’être le cas !

Une équipe de chercheurs de Leviathan Security a découvert une faille qu’ils ont baptisée TunnelVision qui permet de court-circuiter la protection des VPN à l’aiiise, grâce à une fonctionnalité bien pratique du protocole DHCP, ce bon vieux serviteur qui distribue des adresses IP à tout va.

En gros, quand vous vous connectez à un réseau, votre machine demande gentiment une adresse IP au serveur DHCP local. Jusque là, tout va bien. Sauf que ce protocole a plus d’un tour dans son sac. Il peut notamment pousser des règles de routage sur votre bécane, via une option peu connue appelée « Classless Static Route » ou option 121.

Concrètement, un attaquant qui contrôle le serveur DHCP peut installer des routes par défaut sur votre machine, ce qui lui permet de rediriger tout votre trafic vers sa propre passerelle, même si vous êtes connecté via un VPN ! Et là, c’est le drame, car il peut intercepter toutes vos données en clair. 😱

Bon, rassurez-vous, il y a quand même quelques conditions pour que cette attaque fonctionne :

  • 1. L’attaquant doit avoir un accès physique au réseau local ou être en mesure de compromettre un équipement sur ce réseau.
  • 2. Le client VPN ne doit pas bloquer les sorties de trafic vers les interfaces réseau locales.

Mais quand même, ça fait froid dans le dos, d’autant que cette faille touche potentiellement tous les réseaux, des petits réseaux domestiques aux gros réseaux d’entreprise. Les chercheurs ont d’ailleurs réussi à l’exploiter sur Windows, macOS, iOS, Android, et même sur des distributions Linux.

Heureusement, il existe des parades pour se prémunir contre TunnelVision :

  • Activer les fonctions de DHCP snooping et d’ARP protection sur les commutateurs réseau pour empêcher l’installation de serveurs DHCP non autorisés.
  • Configurer des règles de pare-feu strictes pour bloquer le trafic non autorisé.
  • Utiliser des protocoles de chiffrement comme HTTPS pour sécuriser les ressources internes.
  • Implémenter une isolation réseau robuste via des fonctionnalités comme les espaces de noms réseau (network namespaces) sous Linux.

Les fournisseurs de VPN ont évidemment aussi un rôle à jouer en documentant publiquement les mesures d’atténuation contre TunnelVision et en avertissant leurs utilisateurs des risques.

Bref, en attendant un éventuel correctif, la prudence reste de mise. Mais en appliquant les bonnes pratiques et en restant vigilants, on peut quand même limiter les dégâts ! Si le sujet vous intéresse et que vous voulez aller plus loin, je vous invite à consulter le papier de recherche complet qui détaille le fonctionnement technique de TunnelVision. C’est un peu ardu, mais ça vaut le coup d’œil pour les plus motivés d’entre vous.

Source

❌