Open WebUI

Une Nouvelle Interface Graphique pour Ollama

fred

Open WebUI : Une Nouvelle Interface Graphique pour Ollama

 

Open WebUI débarque pour révolutionner notre interaction avec Ollama, grâce à une interface graphique à la fois intuitive et ergonomique. Pour rappel, Ollama est un outil permettant de faire tourner des modèles de langage (LLM) en local, utilisable via du code ou en ligne de commande. Mais avec Open WebUI, tout devient plus simple et agréable à utiliser.

Principales Caractéristiques d’Open WebUI

  • Interface Web Personnalisable : Choisissez votre thème préféré, sombre ou clair, et votre langue, de l’anglais au klingon en passant par le français.
  • Support de Markdown et LaTeX : Idéal pour générer du code et des formules mathématiques avec une mise en forme sophistiquée.
  • Utilisation de Multiples Modèles : Comparez les réponses de différents modèles et faites-les interagir entre eux.
  • Fonctionnalités de Récupération Augmentée (RAG) : Intégrez des documents externes dans vos conversations et utilisez la navigation web intégrée pour récupérer des informations en temps réel.
  • Création de Fichiers Modèle (modelfiles) : Définissez des agents conversationnels personnalisés et partagez-les avec la communauté.
  • Reconnaissance Vocale et Synthèse Text-to-Speech : Pour une interaction encore plus naturelle.
  • Génération d’Images : Compatible avec DALL-E et d’autres systèmes de génération d’images.
  • Intégration avec les API compatibles OpenAI : Pour des possibilités créatives sans limites.

Pré-requis pour l’Installation

Avant de commencer, assurez-vous d’avoir les éléments suivants :

  • Docker installé sur votre machine.
  • URL de base pour Ollama (OLLAMA_BASE_URL) correctement configurée. Cette URL peut être définie comme une variable d’environnement ou spécifiée dans un fichier de configuration dédié.

Procédure d’Installation

Une fois les prérequis en place, installez Open WebUI avec Docker en exécutant la commande suivante :

docker run -d --network=host \
        -v open-webui:/app/backend/data \
        -e OLLAMA_BASE_URL=http://127.0.0.1:11434 -e PORT=11545 \
        --name open-webui --restart always \
        ghcr.io/open-webui/open-webui:main

Cette commande téléchargera l’image Docker d’Open WebUI et lancera un conteneur accessible à l’adresse http://localhost:3000


 
 

.:robot: Une IA Libre en Monnaie Libre

Depuis la révélation chatGPT de openAI j’ai cherché à trouver le moyen de ne pas dépendre des datacenter pour en bénéficier.

Grâce aux « généreux donateurs 1 » du G1FabLab 2 on a pu s’équiper avec un PC Gamer et y installer ollama et open-webui