ChatBot / app.py
Blandskron's picture
Update app.py
554c90f verified
raw
history blame
836 Bytes
from transformers import AutoModelForCausalLM, AutoTokenizer
import gradio as gr
# Cargar modelo y tokenizador desde Hugging Face Hub
repo_id = "Blandskron/ModelChatBot" # Nombre del repositorio en Hugging Face Hub
model = AutoModelForCausalLM.from_pretrained(repo_id)
tokenizer = AutoTokenizer.from_pretrained(repo_id)
# Funci贸n para generar respuestas
def responder(pregunta):
inputs = tokenizer(pregunta, return_tensors="pt")
outputs = model.generate(**inputs, max_length=50)
respuesta = tokenizer.decode(outputs[0], skip_special_tokens=True)
return respuesta
# Crear interfaz
iface = gr.Interface(
fn=responder,
inputs="text",
outputs="text",
title="Chatbot de Tecnolog铆a 馃",
description="Preg煤ntame sobre programaci贸n, hardware, software y tendencias tecnol贸gicas."
)
iface.launch()