SDK 与集成
LangChain
LangChain Python / JS 接入 CokeAPI,无需自定义 LLM 类。
LangChain 内置的 ChatOpenAI 类支持 base_url 参数,直接传 CokeAPI 的 endpoint 就能用。
Python
pip install langchain langchain-openaifrom langchain_openai import ChatOpenAI
from langchain_core.messages import SystemMessage, HumanMessage
llm = ChatOpenAI(
model="gpt-4o-mini",
base_url="https://api.cokeapi.com/v1",
api_key="sk-coke-xxxxxxxx",
temperature=0.7,
)
resp = llm.invoke([
SystemMessage(content="你是简洁的助手"),
HumanMessage(content="用一句话介绍 CokeAPI"),
])
print(resp.content)流式
for chunk in llm.stream([HumanMessage(content="讲个笑话")]):
print(chunk.content, end="", flush=True)Function Calling
from langchain_core.tools import tool
@tool
def get_weather(city: str) -> str:
"""查询某城市天气"""
return f"{city} 晴天"
llm_with_tools = llm.bind_tools([get_weather])
resp = llm_with_tools.invoke("北京天气?")
print(resp.tool_calls)JavaScript
npm install @langchain/openai @langchain/coreimport { ChatOpenAI } from "@langchain/openai";
const llm = new ChatOpenAI({
model: "gpt-4o-mini",
configuration: {
baseURL: "https://api.cokeapi.com/v1",
},
apiKey: "sk-coke-xxxxxxxx",
});
const resp = await llm.invoke([
["system", "你是简洁的助手"],
["user", "用一句话介绍 CokeAPI"],
]);
console.log(resp.content);推荐模型搭配
| LangChain 任务 | 推荐 model |
|---|---|
| 通用 LCEL chain | gpt-4o-mini |
| Agent / Tool use | grok-4.20-expert |
| 长文 RAG | grok-4.20-heavy (256K context) |
| 流式生成 | grok-4.20-fast |
Embeddings (即将支持)
LangChain OpenAIEmbeddings 需要 /v1/embeddings,CokeAPI 计划在 2026 Q4 上线。当前可临时用 bge-m3 / text-embedding-3-small 等本地模型替代。