Chatbot IA avec Internet
Backend FastAPI · Frontend React
Ce dépôt contient :
Dossier | Contenu principal |
---|---|
backend/ |
API FastAPI, recherche Serper.dev, LLM Ollama |
frontend/ |
Application React (Vite) |
1. Prérequis
Outil | Version conseillée v |
---|---|
Python | ≥ 3.10 |
Node.js | ≥ 18 |
npm / pnpm / yarn | dernière LTS |
Ollama | installé & ollama serve exécuté & modèle llama3.2:3b |
2. Cloner le projet
git clone git@github.com:Razziat/local_llm_chatbot_with_web_research.git ou https://github.com/Razziat/local_llm_chatbot_with_web_research.git
cd local_llm_chatbot_with_web_research/local_chatbot_web_research
3. Obtenir une clé Serper.dev
- Créez un compte gratuit sur https://serper.dev/.
- Copiez votre API Key depuis le tableau de bord.
4. Variables d’environnement (backend)
Dans backend/
, créez un fichier .env
:
SERPER_API_KEY="xxxxxxxxxxxxxxxxxxxxxxxx" # clé obtenue sur serper.dev
Pour utiliser un autre modèle Ollama que celui par défaut, ouvrez
backend/llm.py
, ligne 8, et remplacez la valeur dans la variableOLLAMA_MODEL
. Pour avoir de bons résultats il est conseillé d'utiliser un modèle de 8b de paramètres. Le modèle par défaut est de 3b de paramètres mais ne donne pas de très bons résultats.
5. Installation & lancement
Ouvrez deux terminaux :
Terminal 1 – Backend
cd backend
python -m venv .venv
source .venv/bin/activate # Windows : .venv\Scripts\activate
pip install -r requirements.txt
python -m uvicorn app:app --reload # API sur http://127.0.0.1:8000
````
\### Terminal 2 – Frontend
```bash
cd frontend
npm install
npm run dev # lance CRA sur http://localhost:3000
6. Utilisation
- Ouvrez http://localhost:3000.
- Saisissez votre question dans la zone de discussion.
- (Optionnel) décochez « Activer la recherche Web » pour interroger uniquement le modèle.
- Les sources utilisées s’affichent sous la réponse.
Vous pouvez demander un nombre précis de sources : « Donne‑moi 5 sources sur… » ajustera dynamiquement la recherche. Par défaut, le modèle vous donnera 3 sources.