🔎 檢索增強生成(RAG)
注意
如果您使用 Ollama,請注意其預設 上下文長度為 2048 個 token。這意味著檢索到的資料可能 完全未被使用,因為它無法適合可用的上下文窗口。為了提高 檢索增強生成(RAG)性能,您應該在 Ollama 模型設定中將上下文長度增加到 8192+ token。
檢索增強生成(Retrieval Augmented Generation,RAG)是一項前沿技術,旨在透過整合多種來源的上下文來增強聊天機器人的對話能力。它通過從本地和遠端文件、網頁內容,甚至是多媒體來源(例如 YouTube 視頻)檢索相關資訊來運作。檢索到的文本與預設的 RAG 範本結合,並前置到使用者的提問,提供更加知情且具有上下文相關性的回應。
RAG 的一大優勢是能夠訪問並整合多種來源的資訊,使其成為複雜對話場景的理想解決方案。例如,當使用者提出與特定文件或網頁相關的問題時,RAG 可以檢索並整合該來源中的相關資訊到聊天回應中。RAG 也能從多媒體來源(如 YouTube 視頻)檢索並整合資訊,透過分析這些視頻的文字紀錄或字幕,提取相關資訊並整合到聊天回應中。