Ví dụ từ đầu đến cuối
Tài liệu này đã được dịch tự động và có thể chứa lỗi. Đừng ngần ngại mở một Pull Request để đề xuất thay đổi.
Chúng tôi bao gồm một số ví dụ từ đầu đến cuối sử dụng LlamaIndex.TS trong kho lưu trữ
Hãy xem các ví dụ dưới đây hoặc thử chúng và hoàn thành chúng trong vài phút với hướng dẫn tương tác Github Codespace được cung cấp bởi Dev-Docs tại đây:
Bộ máy trò chuyện
Đọc một tệp và trò chuyện về nó với LLM.
Chỉ số Vector
Tạo một chỉ số vector và truy vấn nó. Chỉ số vector sẽ sử dụng nhúng để lấy các nút liên quan nhất hàng đầu k. Mặc định, k hàng đầu là 2.
"
Chỉ mục Tóm tắt
Tạo một chỉ mục danh sách và truy vấn nó. Ví dụ này cũng sử dụng LLMRetriever
, sẽ sử dụng LLM để chọn các nút tốt nhất để sử dụng khi tạo câu trả lời.
"
Lưu / Tải một Chỉ mục
Tạo và tải một chỉ mục vector. Việc lưu trữ vào đĩa trong LlamaIndex.TS xảy ra tự động khi một đối tượng ngữ cảnh lưu trữ được tạo ra.
"
Chỉ số Vector Tùy chỉnh
Tạo một chỉ số vector và truy vấn nó, đồng thời cấu hình LLM
, ServiceContext
và similarity_top_k
.
OpenAI LLM
Tạo một OpenAI LLM và sử dụng nó trực tiếp để trò chuyện.
"
Llama2 DeuceLLM
Tạo một Llama-2 LLM và sử dụng nó trực tiếp cho cuộc trò chuyện.
"
SubQuestionQueryEngine
Sử dụng SubQuestionQueryEngine
, nó chia các truy vấn phức tạp thành nhiều câu hỏi nhỏ, sau đó tổng hợp phản hồi từ các câu trả lời của tất cả các câu hỏi con.
"
Các mô-đun cấp thấp
Ví dụ này sử dụng một số thành phần cấp thấp, loại bỏ nhu cầu sử dụng một công cụ truy vấn thực tế. Các thành phần này có thể được sử dụng ở bất kỳ đâu, trong bất kỳ ứng dụng nào, hoặc tùy chỉnh và phụ lớp để đáp ứng nhu cầu của riêng bạn.