Przykłady od początku do końca
Ta dokumentacja została przetłumaczona automatycznie i może zawierać błędy. Nie wahaj się otworzyć Pull Request, aby zaproponować zmiany.
W repozytorium zawieramy kilka przykładów od początku do końca, korzystając z LlamaIndex.TS.
Sprawdź poniższe przykłady lub wypróbuj je i uzupełnij w kilka minut za pomocą interaktywnych samouczków Github Codespace udostępnionych przez Dev-Docs tutaj:
Silnik czatu
Przeczytaj plik i porozmawiaj o nim z LLM.
Indeks wektorowy
Utwórz indeks wektorowy i zapytaj go. Indeks wektorowy będzie używał osadzeń do pobrania k najbardziej istotnych węzłów. Domyślnie, k wynosi 2.
"
Indeks podsumowania
Utwórz indeks listy i zapytaj go. Ten przykład wykorzystuje również LLMRetriever
, który używa LLM do wyboru najlepszych węzłów do użycia podczas generowania odpowiedzi.
"
Zapisz / Wczytaj indeks
Utwórz i wczytaj indeks wektorowy. Automatyczne zapisywanie na dysku w LlamaIndex.TS następuje automatycznie po utworzeniu obiektu kontekstu przechowywania.
"
Niestandardowy indeks wektorowy
Utwórz indeks wektorowy i zapytaj go, konfigurując jednocześnie LLM
, ServiceContext
i similarity_top_k
.
"
OpenAI LLM
Utwórz OpenAI LLM i użyj go bezpośrednio do czatu.
"
Llama2 DeuceLLM
Utwórz Llama-2 LLM i użyj go bezpośrednio do czatu.
"
SubQuestionQueryEngine
Wykorzystuje SubQuestionQueryEngine
, który dzieli złożone zapytania na wiele pytań, a następnie agreguje odpowiedzi na wszystkie podpytania.
"
Moduły na niskim poziomie
Ten przykład wykorzystuje kilka komponentów na niskim poziomie, co eliminuje potrzebę posiadania rzeczywistego silnika zapytań. Te komponenty mogą być używane w dowolnym miejscu, w dowolnej aplikacji, lub dostosowane i podklasowane, aby spełnić Twoje własne potrzeby.
"