Spaces:
Runtime error
Runtime error
| from transformers import AutoModelForCausalLM, AutoTokenizer | |
| import gradio as gr | |
| # Cargar modelo y tokenizador desde Hugging Face Hub | |
| repo_id = "Blandskron/ModelChatBot" | |
| try: | |
| model = AutoModelForCausalLM.from_pretrained( | |
| repo_id, | |
| ignore_mismatched_sizes=True | |
| ) | |
| tokenizer = AutoTokenizer.from_pretrained(repo_id) | |
| except Exception as e: | |
| print(f"Error al cargar el modelo: {e}") | |
| print("Aseg煤rate de que el repositorio contiene todos los archivos necesarios.") | |
| exit(1) | |
| # Funci贸n para generar respuestas | |
| def responder(pregunta): | |
| inputs = tokenizer(pregunta, return_tensors="pt") | |
| outputs = model.generate(**inputs, max_length=50) | |
| respuesta = tokenizer.decode(outputs[0], skip_special_tokens=True) | |
| return respuesta | |
| # Crear interfaz | |
| iface = gr.Interface( | |
| fn=responder, | |
| inputs="text", | |
| outputs="text", | |
| title="Chatbot de Tecnolog铆a", | |
| description="Preg煤ntame sobre programaci贸n, hardware, software y tendencias tecnol贸gicas." | |
| ) | |
| iface.launch() |