Skip to main content
本网站是LangChain/LangGraph中文翻译版本,由AI翻译完成,仅供参考。原始文档版权归LangChain团队所有。此翻译版本可能存在错误或更新延迟,如有疑问,请以Langchain官方文档为准。翻译者与Langchain团队无关,不承担任何法律责任。
LangChain v1 目前正处于积极开发阶段,不建议用于生产环境
  • API 可能随时变更,恕不另行通知
  • 文档尚不完整,且可能随时更改
如需最新稳定版本,请参阅 v0 版本的 LangChain 文档
LangChain 是开始构建大语言模型(LLM)应用最简单的方式,让您仅用不到 10 行代码,即可快速构建基于 OpenAI、Anthropic、Google 等更多提供商的智能代理。 LangChain 的智能代理构建于 LangGraph 之上,从而提供持久化执行、流式响应、人机协作、状态持久化等功能。对于基本的 LangChain 代理使用,您无需了解 LangGraph。

安装

pip install --pre -U langchain

创建一个代理

# 安装模型依赖:pip install -qU "langchain[anthropic]"

from langchain.agents import create_agent

def get_weather(city: str) -> str:
    """获取指定城市的天气信息。"""
    return f"{city} 总是阳光明媚!"

agent = create_agent(
    model="anthropic:claude-3-7-sonnet-latest",
    tools=[get_weather],
    prompt="你是一个乐于助人的助手",
)

# 运行代理
agent.invoke(
    {"messages": [{"role": "user", "content": "旧金山的天气怎么样?"}]}
)

核心优势

标准化模型接口

不同提供商的模型交互 API 各不相同,包括响应格式。LangChain 统一了模型交互方式,让您能够无缝切换提供商,避免供应商锁定。

易用且高度灵活的代理

LangChain 的代理抽象设计旨在易于上手,仅需约 10 行代码即可构建一个简单代理。同时,它也提供了足够的灵活性,满足您对上下文工程的所有需求。

基于 LangGraph 构建

LangChain 的代理构建于 LangGraph 之上。这使我们能够利用 LangGraph 提供的持久化执行、人机协作支持、状态持久化等强大功能。

通过 LangSmith 调试

借助可视化工具,深入洞察复杂代理行为:追踪执行路径、捕获状态转换、提供详细的运行时指标。