from transformers import pipeline pipe = pipeline("text-generation", model="carlosdimare/qclase") def responder(mensaje, historial): prompt = f"### Instrucción:\n{mensaje}\n\n### Respuesta:\n" salida = pipe(prompt, max_new_tokens=200, do_sample=True, temperature=0.7)[0]["generated_text"] return salida[len(prompt):] import gradio as gr gr.Interface(fn=responder, inputs="text", outputs="text").launch()