V
VERA
v0.1
INTELLIGENCE
Solution d'intelligence artificielle nouvelle génération

Vera v0.1

Créé le : 23 avril 2025
Auteur : Dorian Dominici
Paramètres : 7 milliards
Contexte max. : 32 000 tokens


🌟 Description

Vera est un modèle de langage polyvalent (LLM) bilingue, conçu pour offrir un échange naturel en français et en anglais. Grâce à ses 7 milliards de paramètres et à une fenêtre contextuelle étendue à 32 k tokens, Vera excelle dans :

  • 💬 Conversation fluide
  • 🔄 Traduction précise
  • 📝 Génération et correction de code léger
  • 🤖 Agents IA pour tâches générales

🚀 Points forts

  • Bilingue FR/EN : compréhensions et réponses optimisées pour ces deux langues.
  • Large contexte : idéale pour les documents longs et les scénarios complexes d’agent IA.
  • Polyvalence : adaptée aux cas d’usage variés : chat, traduction, résumé, codage, etc.
  • Accès open-source : facile à déployer et à intégrer via la plateforme Hugging Face.

🛠️ Cas d’usage

Domaine Exemples
Chatbot & Assistance Support client, FAQ interactives
Traduction Texte technique, emails, documentation
Aide au développement Snippets, correction de bugs, documentation code
Rédaction & Résumé Articles, rapports, synthèses
Automatisation IA Agents conversationnels, workflows automatisés

Téléchargement et utilisation :

Option 1 : Via Ollama

ollama run hf.co/Dorian2B/Vera-v0.1-GGUF

Option 2 : Téléchargement direct (GGUF)

Modèle GGUF Quantifié (Q8_0)

Option 3 : Utilisation avec Python (PyTorch)

from transformers import AutoModelForCausalLM, AutoTokenizer

model_name = "Dorian2B/Vera-v0.1"
tokenizer = AutoTokenizer.from_pretrained(model_name)
model = AutoModelForCausalLM.from_pretrained(model_name)

input_text = "Bonjour Vera, comment ça va ?"
inputs = tokenizer(input_text, return_tensors="pt")
outputs = model.generate(**inputs, max_length=100)

print(tokenizer.decode(outputs[0], skip_special_tokens=True))

Cas d'usage :

  • Assistance personnelle hors ligne
  • Réponses rapides en français
  • Solutions pour appareils à ressources limitées

Notes :

  • Fonctionnement 100% local respectant la vie privée
  • Performances optimales sur CPU/GPU (format GGUF)
  • Poids du modèle : ~7.7GB (Q8_0)
Downloads last month
11
GGUF
Model size
7B params
Architecture
llama
Hardware compatibility
Log In to view the estimation

We're not able to determine the quantization variants.

Inference Providers NEW
This model isn't deployed by any Inference Provider. 🙋 Ask for provider support