Spaces:
Sleeping
Sleeping
| title: Docker Ollama | |
| emoji: 🐳 🦙 🤗 | |
| colorFrom: yellow | |
| colorTo: red | |
| sdk: docker | |
| pinned: false | |
| license: gpl-3.0 | |
| short_description: Ollama Small Models Chat | |
| [#MisterAI/Docker_Ollama]: # | |
| [#README.md_01]: # | |
| [#https://huggingface.co/spaces/MisterAI/Docker_Ollama/]: # | |
| #MisterAI/Docker_Ollama | |
| ## Description | |
| Bienvenue sur **Docker_Ollama**, un espace dédié à l'exploration et au test des modèles Ollama. | |
| Cette Démo permet aux utilisateurs de tester tous les modèles Ollama dont la taille est inférieure à 10 milliards de paramètres directement depuis cette interface. | |
| L'Application tourne sur une machine Hugging Face Free Space : 2 CPU - 16Gb RAM | |
| ## Fonctionnalités | |
| - **Interface utilisateur intuitive** : Utilisez Gradio pour interagir facilement avec les modèles Ollama. | |
| - **Sélection de modèles** : Choisissez parmi une liste de modèles compatibles avec les ressources disponibles. | |
| - **Paramètres ajustables** : Configurez les paramètres tels que le nombre maximum de tokens et la température pour personnaliser les réponses des modèles. | |
| ## Comment ça marche ? | |
| 1. **Sélectionnez un modèle** : Choisissez un modèle parmi ceux disponibles dans la liste déroulante. | |
| 2. **Entrez votre texte** : Saisissez le texte que vous souhaitez soumettre au modèle. | |
| 3. **Ajustez les paramètres** : Modifiez les paramètres selon vos besoins. | |
| 4. **Obtenez les résultats** : Cliquez sur le bouton pour générer la réponse du modèle. | |
| ## Crédits | |
| Ce projet a été rendu possible grâce à la collaboration de plusieurs assistants et outils : | |
| - **Bolt.new** : Pour la génération du framework initial de l'application, y compris les fichiers de configuration de base (Dockerfile, app.py, start.sh, requirements.txt). | |
| - **Hugging Face Assistants** : Utilisation de modèles tels que `CohereForAI/c4ai-command-r-plus-08-2024` et `MistralAI/Nemo` pour diverses tâches d'assistance. | |
| - **Le Chat Mistral** : Pour l'assistance dans la vérification et la correction du code. | |
| - **Hugging Face Hub** : Mise a disposition d'une machine et d'un espace pour exposer l'Application | |
| ## Remerciements | |
| Merci à tous les contributeurs et outils qui ont rendu ce projet possible. | |
| ## Liens utiles | |
| - [Documentation Hugging Face Spaces](https://huggingface.co/docs/hub/spaces) | |
| - [Ollama](https://ollama.com/) | |
| --- | |
| N'hésitez pas à explorer les différents modèles et à expérimenter avec les paramètres disponibles. Votre retour est précieux pour améliorer cet espace ! | |