CokeAPI
SDK 与集成

LangChain

LangChain Python / JS 接入 CokeAPI,无需自定义 LLM 类。

LangChain 内置的 ChatOpenAI 类支持 base_url 参数,直接传 CokeAPI 的 endpoint 就能用。

Python

pip install langchain langchain-openai
from langchain_openai import ChatOpenAI
from langchain_core.messages import SystemMessage, HumanMessage

llm = ChatOpenAI(
    model="gpt-4o-mini",
    base_url="https://api.cokeapi.com/v1",
    api_key="sk-coke-xxxxxxxx",
    temperature=0.7,
)

resp = llm.invoke([
    SystemMessage(content="你是简洁的助手"),
    HumanMessage(content="用一句话介绍 CokeAPI"),
])
print(resp.content)

流式

for chunk in llm.stream([HumanMessage(content="讲个笑话")]):
    print(chunk.content, end="", flush=True)

Function Calling

from langchain_core.tools import tool

@tool
def get_weather(city: str) -> str:
    """查询某城市天气"""
    return f"{city} 晴天"

llm_with_tools = llm.bind_tools([get_weather])
resp = llm_with_tools.invoke("北京天气?")
print(resp.tool_calls)

JavaScript

npm install @langchain/openai @langchain/core
import { ChatOpenAI } from "@langchain/openai";

const llm = new ChatOpenAI({
  model: "gpt-4o-mini",
  configuration: {
    baseURL: "https://api.cokeapi.com/v1",
  },
  apiKey: "sk-coke-xxxxxxxx",
});

const resp = await llm.invoke([
  ["system", "你是简洁的助手"],
  ["user", "用一句话介绍 CokeAPI"],
]);
console.log(resp.content);

推荐模型搭配

LangChain 任务推荐 model
通用 LCEL chaingpt-4o-mini
Agent / Tool usegrok-4.20-expert
长文 RAGgrok-4.20-heavy (256K context)
流式生成grok-4.20-fast

Embeddings (即将支持)

LangChain OpenAIEmbeddings 需要 /v1/embeddings,CokeAPI 计划在 2026 Q4 上线。当前可临时用 bge-m3 / text-embedding-3-small 等本地模型替代。

On this page