Spaces:
Runtime error
Runtime error
| from transformers import AutoModelForCausalLM, AutoTokenizer | |
| import gradio as gr | |
| # Cargar modelo y tokenizador desde Hugging Face Hub | |
| repo_id = "Blandskron/ModelChatBot" # Nombre del repositorio en Hugging Face Hub | |
| model = AutoModelForCausalLM.from_pretrained(repo_id) | |
| tokenizer = AutoTokenizer.from_pretrained(repo_id) | |
| # Funci贸n para generar respuestas | |
| def responder(pregunta): | |
| inputs = tokenizer(pregunta, return_tensors="pt") | |
| outputs = model.generate(**inputs, max_length=50) | |
| respuesta = tokenizer.decode(outputs[0], skip_special_tokens=True) | |
| return respuesta | |
| # Crear interfaz | |
| iface = gr.Interface( | |
| fn=responder, | |
| inputs="text", | |
| outputs="text", | |
| title="Chatbot de Tecnolog铆a 馃", | |
| description="Preg煤ntame sobre programaci贸n, hardware, software y tendencias tecnol贸gicas." | |
| ) | |
| iface.launch() |