AI大模型应用开发入门-LangChain开发Agent


基于 LangChain 和 GPT-4o-mini 的大模型智能体开发实战

近年来,大模型能力的持续突破,使得构建智能代理(Agent)系统成为开发者追逐的热点。

本文将以LangChain框架为核心,结合GPT-4o-mini模型,通过接入工具与消息修剪策略,实现一个具备记忆、调用搜索、执行函数能力的智能体。

环境准备与模型初始化

使用LangChain需要首先初始化语言模型,这里使用的是GPT-4o-mini,由OpenAI提供。

# llm_env.py
from langchain.chat_models import init_chat_model

llm = init_chat_model("gpt-4o-mini", model_provider="openai")

我们将其封装在llm_env.py中供主程序导入。

主程序结构解析

主逻辑文件为main_agent_trim.py,功能包括:

  • 工具集成

  • PostgreSQL 持久化配置

  • 消息修剪策略

  • Agent 交互循环

工具函数与搜索工具接入

我们首先定义了一个简单的数学函数add,以及接入了TavilySearchResults搜索工具,用于增强智能体外部知识获取能力。

def add(a: int, b: int) -> int:
    return a + b

search = TavilySearchResults(max_results=5)
tools = [add, search]

配置 LangGraph 持久化存储

我们使用PostgresSaver来记录 agent 的状态与历史会话,以支持多轮对话记忆。

DB_URI = "postgresql://postgres:123456@localhost:5432/langchaindemo?sslmode=disable"
with PostgresSaver.from_conn_string(DB_URI) as checkpointer:
    checkpointer.setup()

用户输入thread_id,我们组合当天日期生成唯一标识符,确保每个会话线程独立可追溯。

消息修剪策略设计

为了控制模型输入 token 上限,我们引入trim_messages方法,在每轮对话前进行修剪:

def pre_model_hook(state):
    trimmer = trim_messages(
        max_tokens=65,
        strategy="last",
        token_counter=llm_env.llm,
        include_system=True,
        allow_partial=False,
        start_on="human",
    )
    trimmed_messages = trimmer.invoke(state["messages"])
    return {"llm_input_messages": trimmed_messages}

该策略仅保留最近的用户消息,避免长对话历史超出 token 限制,影响模型响应。

构建智能体执行器

借助create_react_agent方法创建智能体,传入模型、工具、hook 与 checkpoint。

agent_excuter = create_react_agent(
    llm_env.llm,
    tools,
    pre_model_hook=pre_model_hook,
    checkpointer=checkpointer,
)

与智能体交互

程序进入循环模式,接收用户输入,执行智能体推理,并输出响应内容及工具调用情况。

while True:
    query = input("你: ")
    if query.strip().lower() == "exit":
        break
    input_messages = [HumanMessage(query)]
    response = agent_excuter.invoke({"messages": input_messages}, config=config)
    for message in response["messages"]:
        if hasattr(message, "content") and message.content:
            print(f"{message.type}:{message.content}")
        if hasattr(message, "tool_calls") and message.tool_calls:
            print(f"{message.type}:{message.tool_calls}")

示例

总结

本文展示了如何基于 LangChain 框架构建一个集搜索、函数执行、消息修剪与状态持久化为一体的智能体系统。通过合理设计 hook 与工具链,我们可以持续扩展其功能边界。