Vue normale

Il y a de nouveaux articles disponibles, cliquez pour rafraîchir la page.
À partir d’avant-hierFlux principal

Time for APAC Region to Build Its Own AI Foundation Models, Says CSIRO

Par : Ben Abbott
19 avril 2024 à 14:47
Most AI foundation models are being developed in markets like the U.S. and China. Research from Australia asks whether other countries should be building sovereign AI models for citizens and businesses.

ChatGPT est maintenant accessible sans compte

Par : Korben
1 avril 2024 à 19:10

Ça y est, c’est officiel ! ChatGPT, le célèbre agent conversationnel développé par OpenAI, est désormais accessible à tous sans qu’on ait besoin de se créer un compte. C’est une nouvelle qui devrait ravir les curieux qui souhaitaient tester les capacités de cette intelligence artificielle révolutionnaire sans avoir à s’embêter avec la création d’un énième compte en ligne.

Pour profiter de ChatGPT sans compte, rien de plus simple ! Il vous suffit de vous rendre sur l’application web chat.openai.com ou de télécharger l’application officielle ChatGPT sur votre smartphone, que vous soyez sur iPhone ou Android. Et vous pourrez directement commencer à discuter avec l’IA sans aucune autre formalité.

Par contre, ici en France, ça n’a pas encore l’air actif. J’ai du passer par un VPN via les États-Unis pour en profiter sans avoir à me créer un compte.

Et il faut quand même noter quelques petites limitations par rapport à la version avec compte. Déjà, vous ne pourrez pas sauvegarder ni consulter l’historique de vos conversations, et encore moins les partager avec d’autres utilisateurs. Vous n’aurez pas non plus accès aux conversations vocales ou aux instructions personnalisées. Et surtout, vous serez limité au modèle standard GPT-3.5, comme pour les comptes gratuits. Si vous voulez profiter de la puissance du modèle GPT-4, il faudra alors passer à la caisse et souscrire à l’abonnement payant ChatGPT Plus.

Mais bon, pour une utilisation basique de ChatGPT, la version sans compte est largement suffisante. Vous pourrez poser toutes vos questions, demander des conseils, générer du contenu, et même avoir des conversations à l’infini avec l’IA. Parfait pour découvrir le potentiel de l’IA conversationnelle et vous familiariser avec cet outil fascinant si ce n’est pas encore fait.

D’ailleurs, OpenAI a précisé avoir mis en place des « garde-fous supplémentaires » pour l’utilisation de ChatGPT sans compte. Donc ne soyez pas surpris si l’IA refuse de répondre à certaines de vos questions un peu trop sensibles ou sur des thèmes controversées.

N’oubliez pas que ChatGPT reste un outil imparfait, avec ses limites et ses défauts et qu’il peut parfois se tromper, inventer des choses ou tenir des propos biaisés. Donc gardez toujours votre esprit critique et ne prenez pas tout ce qu’il dit pour argent comptant. Et par pitié, ne l’utilisez pas comme un oracle infaillible ou comme si c’était Wikipédia. Voyez plutôt ça comme un outil permettant de retravailler du texte.

Amusez-vous bien !

Source

Top 50 des IA génératives à découvrir absolument en 2024

Par : Korben
16 mars 2024 à 07:00

Depuis que ChatGPT a catapulté l’IA générative sur le devant de la scène il y a plus d’un an, des milliers de nouvelles apps IA grand public ont vu le jour. Ça va des générateurs de vidéos délirants aux assistants de productivité boostés à l’IA, en passant par des outils créatifs et même des compagnes virtuelles !

Andreesen Horowitz a épluché pour vous les data de trafic web d’un tas de services IA pour identifier le top 50 des apps IA les plus populaires du moment, histoire de faire le tri dans cette jungle.

Et devinez quoi ?

En à peine 6 mois, plus de 40% des boîtes dans le classement sont des petits nouveaux ! Ça bouge à une de ces vitesses dans le monde de l’IA…

Alors ok, les poids lourds comme ChatGPT, Midjourney ou Character.AI trustent toujours le haut du panier côté fréquentation. Mais de nouvelles catégories émergent, comme les outils de productivité (recherche, prise de notes, résumé de docs…) et même la musique ! Vous avez déjà essayé Suno ? Cette app permet de générer des chansons complètes à partir d’un simple texte. Bluffant !

Côté apps mobiles, c’est un peu la foire aux assistants façon ChatGPT et aux créateurs d’avatars. Forcément, avec toutes les photos qu’on a dans nos smartphones, y a de quoi alimenter les IA. Mais là où ça devient intéressant, c’est quand on creuse les usages spécifiques au mobile : les claviers IA pour écrire ses textos, les scanners de devoirs pour les étudiants flemmards, les profs de langues virtuels…

Plein de ces apps à succès viennent de studios basés à Istanbul ou Milan ! Les gars maîtrisent l’art de pondre des apps IA addictives et qui rapportent beaucoup pognon. Du genre Remini, l’outil d’amélioration de photos, qui a levé 155 millions de dollars ! 🤑

Bref, une chose est sûre, cette nouvelle génération d’apps IA est en train de bouleverser nos usages à vitesse grand V. Elles nous rendent plus créatifs, plus productifs… et parfois un peu accros aussi, faut bien l’avouer ! 😅 Mais honnêtement, quand je vois tout ce qui est possible aujourd’hui grâce à l’IA générative, j’ai hâte de découvrir la suite.

Il y avait des failles critiques dans ChatGPT et ses plugins

Par : Korben
14 mars 2024 à 15:11

Vous avez entendu parler de ces vulnérabilités dans ChatGPT et ses plugins ?

Ça n’a rien à voir avec l’article précédent, car cette fois c’est Salt Labs qui a découvert le pot aux roses et publié ça dans un article de blog où ils explique comment des affreux pouvaient accéder aux conversations privées des utilisateurs et même à leurs comptes GitHub perso, juste en exploitant des failles dans l’implémentation d’OAuth.

Bon déjà, c’est quoi OAuth ?

C’est un protocole qui permet à une appli d’accéder à vos données sur un autre site sans que vous n’ayez à filer vos identifiants. Hyper pratique mais faut pas se louper dans le code sinon ça part en sucette… Et devinez quoi ? Bah c’est exactement ce qui s’est passé avec certains plugins de ChatGPT !

Salt Labs a trouvé notamment une faille bien vicieuse dans PluginLab, un framework que plein de devs utilisent pour concevoir des plugins. En gros, un attaquant pouvait s’infiltrer dans le compte GitHub d’un utilisateur à son insu grâce au plugin AskTheCode. Comment ? Tout simplement en bidouillant la requête OAuth envoyée par le plugin pour injecter l’ID d’un autre utilisateur au lieu du sien. Vu que PluginLab ne vérifiait pas l’origine des demandes, c’était open bar !

Le pire c’est que cet ID utilisateur, c’était juste le hash SHA-1 de son email. Donc si le hacker connaissait l’email de sa victime, c’était gagné d’avance. Et comme si ça suffisait pas, y’avait carrément un endpoint de l’API PluginLab qui balançait les ID quand on lui envoyait une requête avec une adresse email. Un boulevard pour les cybercriminels !

Une fois qu’il avait chopé le précieux sésame OAuth en se faisant passer pour sa victime, l’attaquant pouvait alors se servir de ChatGPT pour fouiner dans les repos privés GitHub de sa cible. Au menu : liste des projets secrets et accès en lecture aux fichiers confidentiels, le jackpot pour voler du code proprio, des clés d’API ou d’autres données sensibles.

Mais attendez, c’est pas fini ! Salt Labs a déniché deux autres failles bien creepy. La première dans ChatGPT lui-même : un attaquant pouvait créer son propre plugin pourri et le faire valider par ChatGPT sans que l’utilisateur ait son mot à dire. Ensuite en envoyant un lien piégé il installait direct son plugin à la victime qui cliquait dessus. Ni vu ni connu le plugin malveillant aspirait alors les conversations privées sur ChatGPT.

L’autre faille concernait des plugins comme Charts by Kesem AI qui ne vérifiaient pas la destination des tokens OAuth. Du coup un hacker pouvait intercepter le lien d’authentification, mettre son propre domaine dedans et envoyer ça à sa proie. Et bam, quand le pigeon cliquait, le token OAuth partait direct dans la poche du méchant qui pouvait ensuite se servir dans le compte lié sur ChatGPT ! Un vol d’identité en 2 clics…

Bon OK, OpenAI et les dévs ont colmaté les brèches rapidos une fois prévenu par les gentils chercheurs en sécu. Mais ça calme… 😰

Salt Labs compte d’ailleurs balancer bientôt d’autres résultats de recherche flippants sur les failles dans les plugins ChatGPT. Sans parler des menaces encore plus perverses comme le vol de prompts, la manipulation des IA ou la création de malwares et de phishing à la chaîne…

Source

Open Interpreter – ChatGPT pour exécuter du code en local

Par : Korben
3 janvier 2024 à 08:00

Si vous êtes un peu barbu et que vous kiffez l’IA, vous allez adorer Open Interpreter. Cet outil je l’utilise depuis des mois et des mois, et je n’avais jamais pris le temps d’en faire un post.

Il s’agit d’une implémentation open-source et locale qui permet au LLM (locale ou d’OpenAI – ChatGPT) d’exécuter du code (Python, JavaScript, Shell, etc.) directement sur votre ordinateur. L’idée c’est d’aller encore plus loin que de simplement discuter avec l’IA.

Dans le cas d’Open Interpréter, elle est capable de produire du code, de l’exécuter, de récupérer le résultat de cette exécution et éventuellement de s’auto-corriger avant de passer à la suite.

Pour l’installer, c’est simple. Il vous faudra Python 3.10 ou 3.11. Dans votre terminal, tapez :

pip install open-interpreter

Puis lancez l’outil avec la commande :

interpreter

Et concrètement, qu’est ce qu’on peut faire avec ?

Et bien le mieux c’est que le logiciel se présente lui-même, non ?

Pour résumer, il peut donc exécuter du code, installer des packages, gérer ses erreurs, utiliser de l’AppleScript pour interagir avec l’ensemble de macOS (genre lire vos emails, changer de fond d’écran…) etc.

Dans mon cas, je l’utilise avec GPT-4 mais vous pouvez aussi le lancer avec un LLM local (notamment via le serveur intégré à LM Studio) :

interpreter --local

Ou se connecter à d’autres modèles en ligne que GPT-4 :

interpreter --model gpt-3.5-turbo
interpreter --model claude-2
interpreter --model command-nightly

Pensez bien à exporter votre clé API sur votre système (vous pouvez caler ça dans votre .zshrc ou .bashrc) :

export OPENAI_API_KEY=XXXXXXXXXXXXXXXXXXXXXXXXXX

Au-delà du chat interactif proposé par l’outil interpreter, il y a également un paquet en Python qui vous donne encore plus de contrôle puisque vous pouvez l’appeler dans vos scripts.

import interpreter

interpreter.chat("Plot AAPL and META's normalized stock prices") # Executes a single command
interpreter.chat() # Starts an interactive chat
  • Ainsi, utilisez interpreter pour un chat interactif
  • Utilisez interpreter.chat() pour un chat programmatique
  • Utilisez interpreter.reset() pour réinitialiser la conversation
  • Puis sauvegardez et chargez des discussions avec interpreter.load(messages)

Je vous renvoie vers la documentation sur la page Github si évidemment vous voulez creuser un peu plus ce outil merveilleux.

Maintenant pour l’avoir utilisé énormément, ça rend pas mal de service, surtout pour tout ce qui se passe en ligne de commande. C’est un bon assistant à l’usage du Shell. Pour ce qui est génération de code, il faut souvent repasser derrière lui, mais rien de dramatique non plus. Bref, ce truc couplé à votre cerveau et c’est le duo parfait pour avancer dans la vie.

Et en cadeau, offert pour vous par les Patreons qui me soutiennent, une vidéo tuto sur Open Interpreter.

LM Studio – Pour faire tourner des LLMs en local et les utiliser directement dans votre code

Par : Korben
22 novembre 2023 à 09:21

Avec tout ce qui se passe côté OpenAI en ce moment, je suis en train de chercher des alternatives libres pour re-brancher sur mes scripts existants qui ne demandent pas trop de réécriture. C’est simplement un principe de précaution pour ne pas être pris au dépourvu si la qualité de service baisse côté ChatGPT.

Et pour ça, j’ai besoin d’un modèle de langage et d’un outil qui permette de transformer ce modèle en API que je peux appeler dans mon code.

Pour l’instant, tout ceci est en phase de R&D mais je me suis dit qu’un petit retour, ça vous ferait plaisir. Je suis donc parti sur un modèle OpenChat censé être aussi performant qu’un ChatGPT 3.5. Jusque là rien de compliqué.

J’ai donc fait tourner ce modèle dans llamacpp sans souci en mode discussion. Puis je suis parti en quête d’un bridge pour avoir des API. Je suis donc tombé sur Llama-cpp-python avec son option Server qui malheureusement n’a jamais voulu correctement fonctionner chez moi pour de sombres incompatibilités x64 / ARM64 même dans pyenv. Bref…

N’ayant pas le temps d’y passer des semaines, on m’a ensuite gentiment rappelé durant mon live Twitch, que je pouvais faire ça avec Ollama, ce que j’avais complètement zappé alors que j’ai fait une vidéo pour les Patreons à ce sujet (arf).

Puis Thoxy et LePopeye, lecteurs de Korben.info, m’ont recommandé un outil baptisé LM Studio dont je vais vous parler dans cet article.

LM Studio est un outil fonctionnant sous macOS, Windows et Linux qui permet très simplement de télécharger des LLMs (Large Language Models) et de les faire tourner en local. Ainsi vous pouvez discuter avec ces modèles via un chat comme vous le feriez avec ChatGPT.

Mais ce n’est pas tout puisque l’outil offre des tas de possibilités de réglages (y compris du support pour les Mac Silicon) pour optimiser le modèle. Et bien sûr, la fonctionnalité qui m’a le plus intéressé, c’est la possibilité de faire tourner un serveur local qui sert une API identique à celle de ChatGPT.

Cela permet, sans énormément de modifs dans votre code, de basculer des services d’OpenAI à une IA locale de manière transparente ou presque pour peut que vous utilisiez la lib OpenAI 0.28.1

pip install openai==0.28.1

Voici un code d’exemple qui montre comment l’appeler en Python :

import os
import openai

openai.api_base = "http://localhost:1234/v1" 
openai.api_key = "" 

completion = openai.ChatCompletion.create(
  model="local-model",
  messages=[
    {"role": "system", "content": "Always answer in rhymes."},
    {"role": "user", "content": "Introduce yourself."}
  ]
)

print(completion.choices[0].message)

Pas besoin de clé API donc. Et pas besoin de casser tout votre code. Suffit de migrer vers LM Studio. Puis c’est gratuit 🙂

Bref, j’ai fait mes tests comme ça et malheureusement pour le moment, c’est pas super concluant. L’outil répond correctement en version « chat » mais son paramétrage un peu différent en version serveur. Donc faut encore que je gratte un peu pour trouver le dressage optimale de mon IA. Mais j’y suis presque.

Si ça vous branche de tester LM Studio, c’est par ici que ça se passe.

Une jolie liste de GPTs, le meilleurs des bots ChatGPT

Par : Korben
14 novembre 2023 à 13:28

J’sais pas si vous avez la chance d’avoir un abonnement à ChatGPT, mais avec l’arrivée des GPTs, c’est à dire des « bots » ChatGPT personnalisables, on peut faire des trucs vraiment cool.

Pour ma part, je me suis fait un « assistant travaux » pour me conseiller un peu dans certains trucs de bricolage, et un assistant « Planning » pour m’aider à mieux m’organiser sans burn-outer. Voilà à part ça, je manque un peu d’idées géniales.

Mais ce n’est pas grave, car il existe un site nommé GPT List qui recense une belle brochette de bots personnalisés que les gens ont créé et partagent publiquement. On y retrouve par exemple un bot spécialisé dans les questions d’amour, de rupture, de sentiments…

…un bot qui vous aidera en marketing, un autre qui vous accompagnera dans le dressage de votre chien, et même un bot qui échangera avec vous selon les principes du philosophe grec Socrate ou qui fera votre logo ou vous racontera une bonne blague de papa.

Pour les plus techos, il y a même un expert en électronique et systèmes embarqués, un autre qui vous fera du support technique informatique, ou encore Build Buddy pour tout ce qui est DIY et bricolage et j’en passe…

Si cette liste vous intéresse, vous pouvez la consulter en cliquant ici et même y ajouter vos propres versions améliorées de ChatGPT.

Comment automatiser un tweet intelligent à partir d’un flux RSS grâce à ChatGPT ?

Par : Korben
25 octobre 2023 à 09:15

Vous êtes-vous déjà demandé comment rendre votre compte Twitter qui poste vos news de blog, un peu plus « intelligent », ou du moins, un peu moins monotone ?

Et bien, aujourd’hui, je vais vous montrer comment faire exactement cela.

Dans cette vidéo, on va décortiquer ensemble un script Python qui permet de récupérer la dernière news d’un flux RSS, d’en faire un tweet unique grâce à ChatGPT et de poster tout ça sur Twitter. Oui, oui, vous avez bien lu : on va mixer l’automatisation de récupération de news et la magie de l’IA pour pondre des tweets qui ont du sens et de la saveur.

Un grand merci à mes Patreons

Je tenais à remercier du fond du cœur tous mes Patreons qui soutiennent ce genre de projets et permettent de continuer à explorer, à tester et à partager ces connaissances avec vous. Vous êtes les meilleurs ! ❤️

Pour ceux qui sont abonnés Patreon, vous pouvez d’ores et déjà récupérer le code source. Pour les autres, n’hésitez pas à jeter un œil à ma vidéo pour une démo en direct !

Et en bonus « Rien à voir », un petit morceau de musique :

❌
❌