diff --git a/README.md b/README.md index be124cce..f0a22910 100644 --- a/README.md +++ b/README.md @@ -31,7 +31,7 @@ ## 核心配置:Orin IP 地址 -**重要提示:** 本项目的后端服务和知识库工具需要与在NVIDIA Jetson Orin设备上运行的服务进行通信(嵌入模型和LLM推理服务)。 +**重要提示:** 本项目的后端服务和知识库工具需要与在NVIDIA Jetson Orin设备上运行的服务进行通信(嵌入模型和LLM推理服务),**默认的IP地址为localhost**,所以使用电脑本地部署的模型服务同样可以,但是需要注意指定模型的端口。 在使用前,您必须配置正确的Orin设备IP地址。您可以通过以下两种方式之一进行设置: @@ -47,6 +47,24 @@ **在继续后续步骤之前,请务必完成此项配置。** +## 模型端口启动 + +本项目启动依赖于后端的模型推理服务,即`ORIN_IP`所指向的设备的模型服务端口,目前项目使用instruct模型与embedding模型实现流程,分别部署在8081端口与8090端口。 + +1. **推理模型部署**: + + 在`/llama.cpp/build/bin`路径下执行以下命令启动模型 + ```bash + ./llama-server -m ~/models/gguf/Qwen/Qwen3-8B-GGUF/Qwen3-8B-Q4_K_M.gguf --port 8081 --gpu-layers 36 --host 0.0.0.0 -c 8192 + ``` + +2. **Embedding模型部署** + + 在`/llama.cpp/build/bin`路径下执行以下命令启动模型 + ```bash + ./llama-server -m ~/models/gguf/Qwen/Qwen3-embedding-4B/Qwen3-Embedding-4B-Q4_K_M.gguf --gpu-layers 36 --port 8090 --embeddings --pooling last --host 0.0.0.0 + ``` + --- ## 工作流程 diff --git a/backend_service/src/py_tree_generator.py b/backend_service/src/py_tree_generator.py index bf7d4706..d59d0c29 100644 --- a/backend_service/src/py_tree_generator.py +++ b/backend_service/src/py_tree_generator.py @@ -225,7 +225,7 @@ class PyTreeGenerator: self.system_prompt = self._load_prompt("system_prompt.txt") - self.orin_ip = os.getenv("ORIN_IP", "172.101.1.117") + self.orin_ip = os.getenv("ORIN_IP", "localhost") self.llm_client = openai.OpenAI( api_key=os.getenv("OPENAI_API_KEY", "sk-no-key-required"), base_url=f"http://{self.orin_ip}:8081/v1" diff --git a/tools/ingest.py b/tools/ingest.py index 65da0e6f..476a3ece 100644 --- a/tools/ingest.py +++ b/tools/ingest.py @@ -144,7 +144,7 @@ def main(): return # 2. 初始化ChromaDB客户端和远程嵌入函数 - orin_ip = os.getenv("ORIN_IP", "172.101.1.117") + orin_ip = os.getenv("ORIN_IP", "localhost") embedding_api_url = f"http://{orin_ip}:8090/v1/embeddings" logging.info(f"正在初始化远程嵌入函数,目标服务地址: {embedding_api_url}")