Python-Huggingface / README.md
morenomp's picture
init commit 2
fea4ff8
metadata
app_file: app.py
colorFrom: indigo
colorTo: blue
emoji: 馃
pinned: false
sdk: gradio
sdk_version: 6.9.0
title: RAG QA System

馃搶 Descripci贸n del proyecto

Este proyecto implementa un sistema de preguntas y respuestas basado en la t茅cnica RAG (Retrieval-Augmented Generation).

El sistema permite al usuario hacer preguntas en ingl茅s sobre una base de conocimiento (documents.json), y genera respuestas utilizando modelos de inteligencia artificial.

El proyecto incluye:

  • Un motor RAG (rag_engine.py)
  • Una interfaz web interactiva con Gradio (app.py)
  • Una base de conocimiento en formato JSON
  • Acceso mediante API

鈿欙笍 Tecnolog铆as utilizadas

  • Python
  • Transformers (HuggingFace)
  • Sentence Transformers
  • Scikit-learn
  • Gradio

Modelos utilizados:

  • Embeddings: MongoDB/mdbr-leaf-ir
  • LLM: PleIAs/Pleias-RAG-350M

馃 驴C贸mo funciona el sistema?

El sistema sigue estos pasos:

  1. El usuario introduce una pregunta
  2. Se convierte la pregunta en un embedding (vector)
  3. Se comparan los embeddings con los documentos
  4. Se seleccionan los documentos m谩s relevantes
  5. Se construye un prompt con contexto
  6. El modelo genera una respuesta basada en ese contexto

馃搨 Estructura del proyecto

app.py
rag_engine.py
documents.json
requirements.txt
tests/
    test_api.py

馃殌 Instalaci贸n

  1. Clonar el repositorio o descargar los archivos

  2. Instalar dependencias:

pip install -r requirements.txt

鈻讹笍 Ejecuci贸n

python app.py

Abrir en navegador:

http://127.0.0.1:7860


馃寪 Despliegue

La aplicaci贸n est谩 desplegada en Hugging Face Spaces:

https://morenomp-python-huggingface.hf.space


馃攲 Uso de la API

from gradio_client import Client

client = Client("https://morenomp-python-huggingface.hf.space")

result = client.predict(
    query="Where is the hospital?",
    top_k=2,
    umbral=0.5,
    api_name="/ask"
)

print(result)