ตัวอย่าง End to End
เอกสารนี้ได้รับการแปลโดยอัตโนมัติและอาจมีข้อผิดพลาด อย่าลังเลที่จะเปิด Pull Request เพื่อแนะนำการเปลี่ยนแปลง.
เรามีตัวอย่าง End-to-End หลายรูปแบบที่ใช้ LlamaIndex.TS ในเรปอสิทอรี
ดูตัวอย่างด้านล่างหรือลองใช้งานและทำตามได้ในไม่กี่นาทีด้วยการสอนแบบ Github Codespace ที่ให้โดย Dev-Docs ที่นี่:
Chat Engine
อ่านไฟล์และพูดคุยเกี่ยวกับมันกับ LLM.
ดัชนีเวกเตอร์
สร้างดัชนีเวกเตอร์และสอบถามข้อมูล ดัชนีเวกเตอร์จะใช้การฝังรูปภาพเพื่อเรียกดูโหนดที่เกี่ยวข้องมากที่สุด k โหนด โดยค่าเริ่มต้นของ k คือ 2.
"
สรุปดัชนี
สร้างดัชนีรายการและสอบถามดัชนี ตัวอย่างนี้ยังใช้ LLMRetriever
ซึ่งจะใช้ LLM เพื่อเลือกโหนดที่ดีที่สุดในการสร้างคำตอบ
"
บันทึก / โหลดดัชนี
สร้างและโหลดดัชนีเวกเตอร์ การบันทึกลงดิสก์ใน LlamaIndex.TS จะเกิดขึ้นโดยอัตโนมัติเมื่อมีการสร้างออบเจ็กต์ storage context
"
Customized Vector Index
สร้างดัชนีเวกเตอร์และสอบถามด้วยการกำหนดค่า LLM
, ServiceContext
, และ similarity_top_k
"
OpenAI LLM
สร้าง OpenAI LLM และใช้งานได้โดยตรงสำหรับการสนทนา.
"
Llama2 DeuceLLM
สร้าง Llama-2 LLM และใช้งานได้โดยตรงสำหรับการสนทนา.
"
SubQuestionQueryEngine
ใช้ SubQuestionQueryEngine
ซึ่งแยกคำถามที่ซับซ้อนเป็นคำถามหลายๆ คำ แล้วรวมผลลัพธ์จากคำตอบของทุกคำถามย่อยเข้าด้วยกัน
"
โมดูลระดับต่ำ
ตัวอย่างนี้ใช้คอมโพเนนต์ระดับต่ำหลายอย่างซึ่งลดความจำเป็นในการใช้งานเครื่องมือค้นหาจริง คอมโพเนนต์เหล่านี้สามารถใช้ได้ทุกที่ในแอปพลิเคชันใดก็ได้ หรือปรับแต่งและสร้างคลาสย่อยเพื่อตอบสนองความต้องการของคุณเอง