探索 Edge Craft RAG

English

在 UI 中使用 LLM 进行 ChatQnA 示例

创建流水线

要创建默认流水线,请在 Pipeline Setting(流水线设置)页面点击 Create Pipeline 按钮。 alt text

然后,在 Generator(生成器)配置页面,将 LLM Inference Type 选择为 Vllm
Large Language Model 字段中输入您的 LLM 模型名称,例如 Qwen/Qwen3-8B
Vllm Url 字段中输入 IP:vllm_port,然后点击 Test 按钮。注意 vllm_port 默认为 8086
(注意:如果测试失败,可能是因为 vLLM 服务尚未就绪,可等待 30 秒后重试。) alt text

您也可以通过 Operation 字段创建多条流水线或更新/删除已有流水线,但请注意处于激活状态的流水线无法被更新。 alt text

上传文件与 ChatQnA

流水线创建完成后,前往 Knowledge Base(知识库)页面,点击 Create Knowledge Base 按钮创建知识库。 alt text

然后按照 UI 中的知识库创建向导进行配置。请注意,在 Indexer Type(索引器类型)中可以选择 MilvusVector 作为索引器(请确保在选择 MilvusVector 之前已启用 Milvus,可参考 启用 Milvus)。
如果选择 MilvusVector,需要先验证向量数据库 URI,请输入 Your_IP:milvus_port,然后点击 Test 按钮。注意 milvus_port 默认为 19530。 alt text

创建知识库时,请选择 Activated(激活)选项,只有处于激活状态的知识库中的文件才能在 ChatQnA 中被检索。 alt text

知识库创建完成后,即可上传用于检索的文档。 alt text

然后,在 Chat 页面的聊天框中提交您的问题。 alt text

在 UI 中使用 Kbadmin 进行 ChatQnA

Kbadmin 知识库

流水线创建完成后,前往 Knowledge Base 页面,点击 Create Knowledge Base 按钮创建知识库。
请在 Type 中选择 kbadmin,并从 kbadmin UI 页面中已创建的知识库列表中选择 kb 名称。加载kb名称可能比较耗时,请耐心等待。

alt text

Indexer 页面,填写 Embedding 服务和向量数据库信息,注意 Embedding 服务端口为 13020,向量数据库端口为 29530。

alt text

然后,在 Chat 页面的聊天框中提交您的问题。 alt text