Vue normale

Il y a de nouveaux articles disponibles, cliquez pour rafraîchir la page.
À partir d’avant-hierFlux principal

Elia – Un assistant IA pour votre terminal sous Linux

Par : Korben
28 mai 2024 à 06:20

Vous cherchez une manière simple et efficace de discuter avec des assistants IA directement depuis votre terminal Linux alors Elia est fait pour vous ! Cette application vous permet d’interagir avec une variété de modèles de langage comme Claude, ChatGPT, GPT-4, ou même des modèles locaux tels que Llama, Phi, Mistral ou Gemma, tout cela sans quitter votre terminal préféré.

Elia dispose donc d’une interface utilisateur minimaliste mais diablement efficace, entièrement pilotable au clavier et vos conversations sont stockées dans une base de données SQLite locale, ce qui vous permettra de reprendre vos discussions là où vous les avez laissées.

L’installation d’Elia est plutôt simple grâce à pipx et il vous faudra quelques clés d’API pour les modèles propriétaires dans vos variables d’environnement (OPENAI_API_KEY, ANTHROPIC_API_KEY, GEMINI_API_KEY).

pipx install elia-chat

Une fois installé, tapez elia dans votre terminal et vous voilà propulsé dans l’interface. Vous pouvez même lancer une discussion express en mode « inline » directement sous votre prompt avec l’option -i :

elia -i "Raconte-moi une blague sur Linux !"

Pour spécifier un modèle LLM particulier, c’est avec l’option -m :

elia -m gpt-4o

Comme je le disais au début, l’outil est aussi compatible avec les modèles open source comme Llama. Il vous suffit d’installer ollama, de télécharger le modèle voulu, de lancer le serveur ollama en local et d’ajouter le modèle au fichier de configuration d’Elia. Et voilà, vous pouvez discuter avec une IA 100% libre.

La config se fait via un fichier texte tout ce qu’il y a de plus basique. C’est là que vous pourrez ajouter vos différents modèles, spécifier celui à utiliser par défaut, personnaliser le prompt système ou encore choisir le thème de coloration syntaxique pour vos bouts de code.

Un exemple de fichier de config :

default_model = "gpt-4"
system_prompt = "Tu es un assistant serviable qui parle comme un pirate." message_code_theme = "dracula"

[[models]]

name = "ollama/llama3"

[[models]] 
name = "openai/mon-modele" 
api_base = "http://localhost:8080/v1" 
api_key = "ma-cle-api-si-besoin"

Évidemment, ce n’est pas aussi complet qu’une interface web de ChatGPT et on ne peut pas changer les raccourcis clavier, mais l’essentiel est là.

D’ailleurs, sachez qu’Elia vous permet d’importer facilement vos conversations depuis l’interface web de ChatGPT. Pratique pour retrouver tous vos échanges au même endroit. Il suffit d’exporter l’historique au format JSON depuis ChatGPT, puis de taper :

elia import 'chemin/vers/conversations.json'

Et hop, toutes vos conversations sont là, prêtes à être poursuivies depuis votre terminal.

Un dernier petit conseil avant de vous laisser jouer avec votre nouveau copain : si à un moment donné les choses dérapent et que le LLM commence à délirer (ça arrive même aux meilleurs), n’hésitez pas à lui remettre les idées en place avec un bon gros reset :

elia reset

Voilà, vous savez tout (ou presque) sur ce logiciel… Vous allez pouvoir refaire le monde, le tout sans quitter votre shell adoré. Que demande le peuple ?

Source

Comment surveiller et debugger vos conteneurs Docker ?

Par : Korben
5 mai 2024 à 07:00

Si vous êtes devop, vous savez qu’il est essentiel de savoir surveiller et déboguer les applications en temps réel.

Mais le faire n’est pas si simple, surtout si celles-ci tournent dans des conteneurs Docker. C’est là qu’intervient l’outil libre Dozzle !

Grâce à une interface intuitive et des fonctionnalités d’analyse temps réel et de filtrage, les développeurs et les administrateurs système que vous êtes pourront facilement accéder aux journaux générés par leurs conteneurs Docker.

Avec Dozzle, les utilisateurs peuvent bénéficier d’un affichage des logs en temps réel sans avoir besoin de rafraîchir la page et l’outil prend en charge les journaux JSON avec une coloration intelligente, ce qui en facilite la lecture et la compréhension. L’installation et la configuration de Dozzle sont relativement simples et rapides. L’outil peut être installé localement ou utilisé pour se connecter à des hôtes distants via tcp:// et tls.

Le moyen le plus simple d’installer Dozzle est d’utiliser la commande Docker CLI et de monter le fichier docker.sock. Ce fichier se trouve généralement dans le répertoire /var/run/docker.sock. Vous devez également spécifier le port d’accès à l’interface de Dozzle. Par défaut, Dozzle écoute sur le port 8080, mais vous pouvez modifier le port externe en utilisant l’option -p.

Voici la commande à utiliser :

docker run --detach --volume=/var/run/docker.sock:/var/run/docker.sock -p 8080:8080 amir20/dozzle

Docker Compose permet de configurer Dozzle plus facilement au sein d’un projet existant.

Voici un exemple de fichier docker-compose.yml pour Dozzle :

version: "3"
services:
  dozzle:
    container_name: dozzle
    image: amir20/dozzle:latest
    volumes:
      - /var/run/docker.sock:/var/run/docker.sock
    ports:
      - 9999:8080

Ensuite, pour lancer Dozzle avec Docker Compose, enregistrez le fichier docker-compose.yml dans votre projet et exécutez la commande suivante dans votre terminal :

docker-compose up -d

Quelle que soit la méthode choisie, une fois Dozzle lancé, vous pourrez alors accéder à son interface web pour visualiser les journaux de vos conteneurs Docker.

Amusez-vous bien et bon debugging à tous !

❌
❌