🏠 Accueil Tous les projets

Local VLM Chatbot avec Ollama

Simple chatbot qui permet d'analyser les images mises en entrée

Description

Ce script Python permet de sélectionner une image via l'explorateur de fichier, de saisir un prompt dans la console, puis d'appeler le modèle qwen2.5vl:3b via la CLI Ollama pour générer une réponse basée sur l'image et le prompt.

Prérequis

 ollama pull qwen2.5vl:3b

Installation

  1. Clonez ce dépôt ou téléchargez le script :
git clone git@github.com:Razziat/local_vlm_chatbot.git ou https://github.com/Razziat/local_vlm_chatbot.git
cd local_vlm_chatbot/local_vlm_chatbot
  1. (Optionnel) Créez un environnement virtuel et activez-le :
python3 -m venv venv
source venv/bin/activate  # macOS/Linux
venv\Scripts\activate    # Windows

Utilisation

  1. Lancez le script :
python challenge_optionnel.py
  1. Une fenêtre de sélection de fichier s'ouvre. Choisissez une image (PNG, JPG, JPEG, BMP, GIF).

  2. Si aucun fichier n'est sélectionné, le programme s'arrête.

  3. Dans la console, saisissez votre prompt et validez.

  4. Le script appelle Ollama CLI et affiche la réponse du modèle.

Exemple de sortie

Entrez votre prompt : Décris cette image en détail.

Réponse du modèle :
...

Personnalisation

["ollama", "run", "qwen2.5vl:3b", file_path, prompt],