Esempi end-to-end
Questa documentazione è stata tradotta automaticamente e può contenere errori. Non esitare ad aprire una Pull Request per suggerire modifiche.
Includiamo diversi esempi end-to-end utilizzando LlamaIndex.TS nel repository.
Controlla gli esempi di seguito o provale e completale in pochi minuti con i tutorial interattivi di Github Codespace forniti da Dev-Docs qui:
Motore di chat
Leggi un file e chatta al riguardo con il LLM.
Indice vettoriale
Crea un indice vettoriale e interrogalo. L'indice vettoriale utilizzerà le embedding per recuperare i nodi più rilevanti in cima k. Per impostazione predefinita, il valore di k è 2.
Indice di riepilogo
Crea un indice di elenco e interrogalo. Questo esempio utilizza anche il LLMRetriever
, che utilizzerà LLM per selezionare i migliori nodi da utilizzare durante la generazione della risposta.
Salva / Carica un indice
Crea e carica un indice vettoriale. La persistenza su disco in LlamaIndex.TS avviene automaticamente una volta creato un oggetto di contesto di archiviazione.
Indice vettoriale personalizzato
Crea un indice vettoriale e interrogalo, configurando anche il LLM
, il ServiceContext
e il similarity_top_k
.
OpenAI LLM
Crea un OpenAI LLM e utilizzalo direttamente per la chat.
Llama2 DeuceLLM
Crea un Llama-2 LLM e utilizzalo direttamente per la chat.
"
SubQuestionQueryEngine
Utilizza il SubQuestionQueryEngine
, che suddivide le query complesse in diverse domande e quindi aggrega una risposta tra le risposte a tutte le sotto-domande.
"
Moduli a basso livello
Questo esempio utilizza diversi componenti a basso livello, che eliminano la necessità di un motore di interrogazione effettivo. Questi componenti possono essere utilizzati ovunque, in qualsiasi applicazione, o personalizzati e sottoclassificati per soddisfare le tue esigenze.