Uçtan Uca Örnekler
Bu belge otomatik olarak çevrilmiştir ve hatalar içerebilir. Değişiklik önermek için bir Pull Request açmaktan çekinmeyin.
Depoda LlamaIndex.TS kullanarak birkaç uçtan uca örnek bulunmaktadır.
Aşağıdaki örnekleri inceleyin veya onları deneyin ve kendi ihtiyaçlarınıza uyacak şekilde özelleştirilebilen interaktif Github Codespace öğreticileriyle dakikalar içinde tamamlayın. Dev-Docs tarafından sağlanan öğreticilere buradan erişebilirsiniz:
Sohbet Motoru
Bir dosyayı okuyun ve LLM ile ilgili sohbet edin.
Vektör İndeksi
Bir vektör indeksi oluşturun ve sorgulayın. Vektör indeksi, en ilgili k en üst düğümü getirmek için gömme kullanacaktır. Varsayılan olarak, k değeri 2'dir.
"
Özet İndeks
Bir liste indeksi oluşturun ve sorgulayın. Bu örnek ayrıca yanıt üretirken kullanılacak en iyi düğümleri seçmek için LLMRetriever
'ı da kullanır.
"
Bir İndeks Kaydet / Yükle
Bir vektör indeksi oluşturun ve yükleyin. LlamaIndex.TS'de depolama bağlamı nesnesi oluşturulduğunda diskte kalıcılık otomatik olarak gerçekleşir.
"
Özelleştirilmiş Vektör İndeksi
Bir vektör indeksi oluşturun ve sorgulayın, aynı zamanda LLM
, ServiceContext
ve similarity_top_k
'yi yapılandırın.
"
OpenAI LLM
Bir OpenAI LLM oluşturun ve doğrudan sohbet için kullanın.
"
Llama2 DeuceLLM
Bir Llama-2 LLM oluşturun ve doğrudan sohbet için kullanın.
SubQuestionQueryEngine
Karmaşık sorguları birden fazla alt soruya bölen ve ardından tüm alt soruların cevaplarına göre bir yanıt toplayan SubQuestionQueryEngine
kullanır.
"
Düşük Seviye Modüller
Bu örnek, gerçek bir sorgu motoruna ihtiyaç duymadan birkaç düşük seviye bileşen kullanır. Bu bileşenler herhangi bir uygulamada veya ihtiyaçlarınıza uyacak şekilde özelleştirilebilir ve alt sınıflandırılabilir.
"