
https://github.com/shengyanli1982/deepseek-ollama-bridge-release
DeepSeek-Ollama Bridge 是一款专为 DeepSeek 模型打造的高性能桥接服务,让您的 AI 应用如虎添翼!
高频对话场景
资源受限环境
企业级应用


只需一行命令,即可启动企业级 AI 加速服务:
deepseek-ollama-bridge --enable-cache --cache-dir ./cache 更多高级配置选项请使用 -h 参数查看帮助文档。
注:实际性能提升因使用场景和配置而异。欢迎留言反馈问题和改进建议。
curl http://127.0.0.1:3000/v1/chat/completions/chat/completions \ -H "Content-Type: application/json" \ -H "Authorization: Bearer sk-xxx" \ -d '{ "model": "deepseek-coder", "messages": [ { "role": "user", "content": "写一个冒泡排序算法" } ], "temperature": 0.7 }' import openai # 设置 API 基础地址(默认为本地服务) openai.api_base = "http://127.0.0.1:3000/v1/chat/completions" # 设置一个占位 API Key (本地服务不校验) openai.api_key = "sk-xxx" # 基础对话示例 def chat_example(): respOnse= openai.ChatCompletion.create( model="deepseek-coder", # 使用 DeepSeek Coder 模型 messages=[ {"role": "user", "content": "写一个 Python 快速排序算法"} ], temperature=0.7 ) print(response.choices[0].message.content) # 带上下文的对话示例 def context_chat_example(): messages = [ {"role": "system", "content": "你是一个专业的编程助手。"}, {"role": "user", "content": "我想实现一个 REST API 。"}, {"role": "assistant", "content": "我可以帮你使用 FastAPI 框架实现。"}, {"role": "user", "content": "好的,请给出具体示例。"} ] respOnse= openai.ChatCompletion.create( model="deepseek-coder", messages=messages, temperature=0.7 ) print(response.choices[0].message.content) if __name__ == "__main__": print("基础对话示例:") chat_example() print("\n 带上下文的对话示例:") context_chat_example() package main import ( "context" "fmt" "log" openai "github.com/sashabaranov/go-openai" ) func main() { // 创建客户端(使用本地服务地址) client := openai.NewClient("sk-xxx") client.BaseURL = "http://127.0.0.1:3000/v1/chat/completions" // 创建对话请求 req := openai.ChatCompletionRequest{ Model: "deepseek-coder", Messages: []openai.ChatCompletionMessage{ { Role: openai.ChatMessageRoleUser, Content: "用 Go 实现一个简单的 HTTP 服务器", }, }, Temperature: 0.7, } // 发送请求 resp, err := client.CreateChatCompletion(context.Background(), req) if err != nil { log.Printf("对话请求失败: %v\n", err) return } // 输出响应 fmt.Println(resp.Choices[0].Message.Content) // 带上下文的对话示例 contextReq := openai.ChatCompletionRequest{ Model: "deepseek-coder", Messages: []openai.ChatCompletionMessage{ { Role: openai.ChatMessageRoleSystem, Content: "你是一个专业的 Go 开发专家。", }, { Role: openai.ChatMessageRoleUser, Content: "解释什么是依赖注入", }, }, Temperature: 0.7, } contextResp, err := client.CreateChatCompletion(context.Background(), contextReq) if err != nil { log.Printf("上下文对话请求失败: %v\n", err) return } fmt.Println("\n 带上下文的对话响应:") fmt.Println(contextResp.Choices[0].Message.Content) } const { Configuration, OpenAIApi } = require("openai"); // 配置 OpenAI API const cOnfiguration= new Configuration({ basePath: "http://127.0.0.1:3000/v1/chat/completions", apiKey: "sk-xxx", }); const openai = new OpenAIApi(configuration); // 基础对话示例 async function basicChatExample() { try { const respOnse= await openai.createChatCompletion({ model: "deepseek-coder", messages: [{ role: "user", content: "用 Express 实现一个 RESTful API" }], temperature: 0.7, }); console.log("基础对话响应:", response.data.choices[0].message.content); } catch (error) { console.error("对话请求失败:", error.message); } } // 带上下文的对话示例 async function contextChatExample() { try { const respOnse= await openai.createChatCompletion({ model: "deepseek-coder", messages: [ { role: "system", content: "你是一个专业的 Node.js 开发专家。" }, { role: "user", content: "如何实现一个 WebSocket 服务器?" }, ], temperature: 0.7, }); console.log("\n 带上下文的对话响应:"); console.log(response.data.choices[0].message.content); } catch (error) { console.error("对话请求失败:", error.message); } } // 执行示例 async function main() { console.log("=== 基础对话示例 ==="); await basicChatExample(); console.log("\n=== 带上下文的对话示例 ==="); await contextChatExample(); } main().catch(console.error);