科技 网站 推荐,微信公众号平台app,如何网站推广宣传,建设项目环保竣工信息公开网站AI 智能体#xff08;Agents#xff09;已经将大型语言模型#xff08;LLMs#xff09;的能力提升了一个台阶#xff0c;而深度智能体#xff08;Deep Agents#xff09;又承诺#xff0c;它不仅仅可以回答你的问题#xff0c;而且还能够预先思考、分解任务、创建自己…AI 智能体Agents已经将大型语言模型LLMs的能力提升了一个台阶而深度智能体Deep Agents又承诺它不仅仅可以回答你的问题而且还能够预先思考、分解任务、创建自己的待办事项TODOs甚至可以生成子智能体来完成工作让 AI Agents的能力有提升了一个档次。深度智能体是基于LangGraph构建的LangGraph 是一个专门为创建能够处理复杂任务的智能体而设计的库。让我们了解下深度智能体理解它们的核心能力然后使用该库来构建我们自己的 AI Agents。一、Deep AgentsLangGraph 为有状态的工作流提供了基于图graph-based的运行时但你仍然需要从零开始构建自己的规划、上下文管理或任务分解逻辑。DeepAgents基于 LangGraph 构建则将规划工具、基于虚拟文件系统的内存和子智能体编排等功能开箱即用地打包在一起。可以通过独立的deepagents库来使用深度智能体Deep Agents。它不仅包含了规划能力、还可以生成子智能体同时利用文件系统进行上下文管理。它还能与LangSmith结合使用用于部署和监控。本文中构建的智能体默认使用 “claude-sonnet-4-5-20250929” 模型但可以根据需要进行自定义。在我们开始创建智能体之前先来了解一下它的核心组件。核心组件详细的系统提示词Detailed System Prompts深度智能体使用带有详细说明和示例的系统提示词。规划工具Planning Tools深度智能体内置了用于规划的工具智能体使用TODO 列表管理工具来实现规划。这有助于它们即使在执行复杂任务时也能保持专注。子智能体Sub-Agents子智能体被用于处理委派的任务它们在上下文隔离的环境中执行。文件系统File System虚拟文件系统用于上下文管理和内存管理。这里的 AI 智能体将文件作为工具在上下文窗口满时将上下文卸载到内存中。二、Deep Agents 示例让我们使用deepagents库来构建一个Research Agent它将使用 Tavily 进行网络搜索并具备深度智能体的所有组件。环境准备需要一个OpenAI API 密钥来创建这个智能体你也可以选择使用 Gemini/Claude 等其他模型提供商。请从以下平台获取你的 OpenAI 密钥https://platform.openai.com/api-keys同时还要从这里获取用于网络搜索的Tavily API 密钥https://app.tavily.com/home在 Google Colab 中打开一个新的 Notebook 并添加密文将密钥保存为OPENAI_API_KEY和TAVILY_API_KEY用于演示并且不要忘记开启 Notebook 对这些密文的访问权限。安装依赖库!pip install deepagents tavily-python langchain-openai我们将安装运行代码所需的这些库。导入和 API 设置import osfrom deepagents import create_deep_agentfrom tavily import TavilyClientfrom langchain.chat_models import init_chat_modelfrom google.colab import userdata# Set API keys TAVILY_API_KEY userdata.get(TAVILY_API_KEY)os.environ[OPENAI_API_KEY] userdata.get(OPENAI_API_KEY)我们将 Tavily API 密钥存储在一个变量中并将 OpenAI API 密钥设置到环境变量中。定义工具、子智能体和主智能体# Initialize Tavily client tavily_client TavilyClient(api_keyTAVILY_API_KEY)# Define web search tool def internet_search(query: str, max_results: int 5) - str:Run a web search to find current information results tavily_client.search(query, max_resultsmax_results)return results# Define a specialized research sub-agent research_subagent {name: data-analyzer,description: Specialized agent for analyzing data and creating detailed reports,system_prompt: You are an expert data analyst and report writer. Analyze information thoroughly and create well-structured, detailed reports.,tools: [internet_search],model: openai:gpt-4o,}# Initialize GPT-4o-mini model model init_chat_model(openai:gpt-4o-mini)# Create the deep agent# The agent automatically has access to: write_todos, read_todos, ls, read_file, # write_file, edit_file, glob, grep, and task (for subagents) agent create_deep_agent( modelmodel, tools[internet_search], # Passing the tool system_promptYou are a thorough research assistant. For this task: 1. Use write_todos to create a task list breaking down the research 2. Use internet_search to gather current information 3. Use write_file to save your findings to /research_findings.md 4. You can delegate detailed analysis to the>运行# Research query research_topic What are the latest developments in AI agents and LangGraph in 2025?print(fStarting research on: {research_topic}\n)print( * 70)# Execute the agent result agent.invoke({ messages: [{role: user, content: research_topic}]})print(\n * 70)print(Research completed.\n)注意智能体的执行可能需要一些时间。输出结果# Agent execution trace print(AGENT EXECUTION TRACE:)print(- * 70)for i, msg in enumerate(result[messages]):if hasattr(msg, type): print(f\n[{i}] Type: {msg.type}) if msg.type human: print(fHuman: {msg.content}) elif msg.type ai: if hasattr(msg, tool_calls) and msg.tool_calls: print(fAI tool calls: {[tc[name] for tc in msg.tool_calls]}) if msg.content: print(fAI: {msg.content[:200]}...) elif msg.type tool: print(fTool {msg.name} result: {str(msg.content)[:200]}...)# Final AI response print(\n * 70)final_message result[messages][-1]print(FINAL RESPONSE:)print(- * 70)print(final_message.content)# Files created print(\n * 70)print(FILES CREATED:)print(- * 70)iffilesin result and result[files]:for filepath in sorted(result[files].keys()): content result[files][filepath] print(f\n{ * 70}) print(f{filepath}) print(f{ * 70}) print(content)else: print(No files found.)print(\n * 70)print(Analysis complete.)正如我们所看到一样这个智能体做得很好。它维护了一个虚拟文件系统经过多次迭代后给出了响应并认为自己应该是一个“深度智能体”。但我们的系统仍有改进的空间让我们看看下一节中可以进行哪些改进。我们构建了一个简单的深度智能体如果你感兴趣的话可以基于此并构建出更好的东西。以下是可以改进这个智能体的一些方法使用长期记忆Long-term Memory深度智能体可以将用户偏好和反馈保存在文件/memories/中。这将帮助智能体给出更好的答案并从对话中建立知识库。控制文件系统Control File-system默认情况下文件存储在虚拟状态中你可以使用deepagents.backends中的FilesystemBackend将其更改为不同的后端或本地磁盘。优化系统提示词Refining the System Prompts你可以测试多个提示词看看哪个最适合你的需求。成功构建了我们的深度智能体现在可以看到AI 智能体如何能够利用 LangGraph 来处理任务将 LLM 的能力提升一个台阶。凭借内置的规划、子智能体和虚拟文件系统它们能够顺畅地管理 TODO 列表、上下文和研究工作流。深度智能体功能强大但也要记住如果一个任务更简单可以通过一个简单的智能体或 LLM 来完成那么就不建议使用深度智能体。那么如何系统的去学习大模型LLM作为一名深耕行业的资深大模型算法工程师我经常会收到一些评论和私信我是小白学习大模型该从哪里入手呢我自学没有方向怎么办这个地方我不会啊。如果你也有类似的经历一定要继续看下去这些问题啊也不是三言两语啊就能讲明白的。所以我综合了大模型的所有知识点给大家带来一套全网最全最细的大模型零基础教程。在做这套教程之前呢我就曾放空大脑以一个大模型小白的角度去重新解析它采用基础知识和实战项目相结合的教学方式历时3个月终于完成了这样的课程让你真正体会到什么是每一秒都在疯狂输出知识点。由于篇幅有限⚡️ 朋友们如果有需要全套 《2025全新制作的大模型全套资料》扫码获取~大模型学习指南路线汇总我们这套大模型资料呢会从基础篇、进阶篇和项目实战篇等三大方面来讲解。①.基础篇基础篇里面包括了Python快速入门、AI开发环境搭建及提示词工程带你学习大模型核心原理、prompt使用技巧、Transformer架构和预训练、SFT、RLHF等一些基础概念用最易懂的方式带你入门大模型。②.进阶篇接下来是进阶篇你将掌握RAG、Agent、Langchain、大模型微调和私有化部署学习如何构建外挂知识库并和自己的企业相结合学习如何使用langchain框架提高开发效率和代码质量、学习如何选择合适的基座模型并进行数据集的收集预处理以及具体的模型微调等等。③.实战篇实战篇会手把手带着大家练习企业级的落地项目已脱敏比如RAG医疗问答系统、Agent智能电商客服系统、数字人项目实战、教育行业智能助教等等从而帮助大家更好的应对大模型时代的挑战。④.福利篇最后呢会给大家一个小福利课程视频中的所有素材有搭建AI开发环境资料包还有学习计划表几十上百G素材、电子书和课件等等只要你能想到的素材我这里几乎都有。我已经全部上传到CSDN朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费】相信我这套大模型系统教程将会是全网最齐全 最易懂的小白专用课