End-to-End-Beispiele
Diese Dokumentation wurde automatisch übersetzt und kann Fehler enthalten. Zögern Sie nicht, einen Pull Request zu öffnen, um Änderungen vorzuschlagen.
Wir haben mehrere End-to-End-Beispiele mit LlamaIndex.TS im Repository enthalten.
Schauen Sie sich die folgenden Beispiele an oder probieren Sie sie aus und vervollständigen Sie sie in wenigen Minuten mit interaktiven Github Codespace-Tutorials, die von Dev-Docs hier bereitgestellt werden:
Chat Engine
Lesen Sie eine Datei und unterhalten Sie sich darüber mit dem LLM.
Vektor-Index
Erstellen Sie einen Vektor-Index und fragen Sie ihn ab. Der Vektor-Index verwendet Einbettungen, um die k relevantesten Knoten abzurufen. Standardmäßig ist k gleich 2.
"
Zusammenfassungsindex
Erstellen Sie einen Listenindex und fragen Sie ihn ab. Dieses Beispiel verwendet auch den LLMRetriever
, der den LLM verwendet, um die besten Knoten auszuwählen, die beim Generieren einer Antwort verwendet werden sollen.
Index speichern / laden
Erstellen und laden Sie einen Vektorindex. Die Persistenz auf der Festplatte in LlamaIndex.TS erfolgt automatisch, sobald ein Speicherkontextobjekt erstellt wird.
Angepasster Vektorindex
Erstellen Sie einen Vektorindex und fragen Sie ihn ab, während Sie auch das LLM
, den ServiceContext
und das similarity_top_k
konfigurieren.
OpenAI LLM
Erstellen Sie ein OpenAI LLM und verwenden Sie es direkt für den Chat.
"
Llama2 DeuceLLM
Erstellen Sie einen Llama-2 LLM und verwenden Sie ihn direkt für den Chat.
"
SubQuestionQueryEngine
Verwendet den SubQuestionQueryEngine
, der komplexe Abfragen in mehrere Fragen aufteilt und dann eine Antwort über die Antworten auf alle Teilfragen aggregiert.
"
Niedrigstufige Module
Dieses Beispiel verwendet mehrere niedrigstufige Komponenten, die den Bedarf an einer tatsächlichen Abfrage-Engine beseitigen. Diese Komponenten können überall verwendet werden, in jeder Anwendung, oder angepasst und untergeordnet werden, um Ihren eigenen Bedürfnissen gerecht zu werden.