修改README.md以及默认IP
This commit is contained in:
20
README.md
20
README.md
@@ -31,7 +31,7 @@
|
||||
|
||||
## 核心配置:Orin IP 地址
|
||||
|
||||
**重要提示:** 本项目的后端服务和知识库工具需要与在NVIDIA Jetson Orin设备上运行的服务进行通信(嵌入模型和LLM推理服务)。
|
||||
**重要提示:** 本项目的后端服务和知识库工具需要与在NVIDIA Jetson Orin设备上运行的服务进行通信(嵌入模型和LLM推理服务),**默认的IP地址为localhost**,所以使用电脑本地部署的模型服务同样可以,但是需要注意指定模型的端口。
|
||||
|
||||
在使用前,您必须配置正确的Orin设备IP地址。您可以通过以下两种方式之一进行设置:
|
||||
|
||||
@@ -47,6 +47,24 @@
|
||||
|
||||
**在继续后续步骤之前,请务必完成此项配置。**
|
||||
|
||||
## 模型端口启动
|
||||
|
||||
本项目启动依赖于后端的模型推理服务,即`ORIN_IP`所指向的设备的模型服务端口,目前项目使用instruct模型与embedding模型实现流程,分别部署在8081端口与8090端口。
|
||||
|
||||
1. **推理模型部署**:
|
||||
|
||||
在`/llama.cpp/build/bin`路径下执行以下命令启动模型
|
||||
```bash
|
||||
./llama-server -m ~/models/gguf/Qwen/Qwen3-8B-GGUF/Qwen3-8B-Q4_K_M.gguf --port 8081 --gpu-layers 36 --host 0.0.0.0 -c 8192
|
||||
```
|
||||
|
||||
2. **Embedding模型部署**
|
||||
|
||||
在`/llama.cpp/build/bin`路径下执行以下命令启动模型
|
||||
```bash
|
||||
./llama-server -m ~/models/gguf/Qwen/Qwen3-embedding-4B/Qwen3-Embedding-4B-Q4_K_M.gguf --gpu-layers 36 --port 8090 --embeddings --pooling last --host 0.0.0.0
|
||||
```
|
||||
|
||||
---
|
||||
|
||||
## 工作流程
|
||||
|
||||
@@ -225,7 +225,7 @@ class PyTreeGenerator:
|
||||
|
||||
self.system_prompt = self._load_prompt("system_prompt.txt")
|
||||
|
||||
self.orin_ip = os.getenv("ORIN_IP", "172.101.1.117")
|
||||
self.orin_ip = os.getenv("ORIN_IP", "localhost")
|
||||
self.llm_client = openai.OpenAI(
|
||||
api_key=os.getenv("OPENAI_API_KEY", "sk-no-key-required"),
|
||||
base_url=f"http://{self.orin_ip}:8081/v1"
|
||||
|
||||
@@ -144,7 +144,7 @@ def main():
|
||||
return
|
||||
|
||||
# 2. 初始化ChromaDB客户端和远程嵌入函数
|
||||
orin_ip = os.getenv("ORIN_IP", "172.101.1.117")
|
||||
orin_ip = os.getenv("ORIN_IP", "localhost")
|
||||
embedding_api_url = f"http://{orin_ip}:8090/v1/embeddings"
|
||||
|
||||
logging.info(f"正在初始化远程嵌入函数,目标服务地址: {embedding_api_url}")
|
||||
|
||||
Reference in New Issue
Block a user