Ejemplos de principio a fin
Esta documentación ha sido traducida automáticamente y puede contener errores. No dudes en abrir una Pull Request para sugerir cambios.
Incluimos varios ejemplos de principio a fin utilizando LlamaIndex.TS en el repositorio.
Echa un vistazo a los ejemplos a continuación o pruébalos y complétalos en minutos con los tutoriales interactivos de Github Codespace proporcionados por Dev-Docs aquí:
Motor de Chat
Lee un archivo y chatea sobre él con el LLM.
Índice de Vectores
Crea un índice de vectores y realiza consultas en él. El índice de vectores utilizará embeddings para obtener los nodos más relevantes en función de los k mejores. De forma predeterminada, el valor de k es 2.
Índice de resumen
Crea un índice de lista y realiza consultas en él. Este ejemplo también utiliza el LLMRetriever
, que utilizará el LLM para seleccionar los mejores nodos a utilizar al generar una respuesta.
Guardar / Cargar un Índice
Crea y carga un índice de vectores. La persistencia en disco en LlamaIndex.TS ocurre automáticamente una vez que se crea un objeto de contexto de almacenamiento.
Índice de Vector Personalizado
Crea un índice de vector y realiza consultas en él, al mismo tiempo que configuras el LLM
, el ServiceContext
y el similarity_top_k
.
OpenAI LLM
Crea un OpenAI LLM y úsalo directamente para chatear.
Llama2 DeuceLLM
Crea un Llama-2 LLM y úsalo directamente para chatear.
SubQuestionQueryEngine
Utiliza el SubQuestionQueryEngine
, que divide las consultas complejas en varias preguntas y luego agrega una respuesta a través de las respuestas a todas las subpreguntas.
"
Módulos de bajo nivel
Este ejemplo utiliza varios componentes de bajo nivel, lo que elimina la necesidad de un motor de consulta real. Estos componentes se pueden utilizar en cualquier lugar, en cualquier aplicación, o personalizar y subclasificar para satisfacer tus propias necesidades.