网站建设的技术手段,电子网站怎么做,怎样将自己做的网站给别人看,65平米装修全包多少钱一、DeepAgents 深度研究智能体应用
DeepAgents 是 LangChain 团队开源的一款高性能智能体框架#xff0c;专为长周期、高复杂度任务设计。基于 LangChain 和 LangGraph 构建#xff0c;通过内置的任务规划、文件系统、子智能体等能力#xff0c;让智能体能够更高效地完成复…一、DeepAgents 深度研究智能体应用DeepAgents是LangChain团队开源的一款高性能智能体框架专为长周期、高复杂度任务设计。基于LangChain和LangGraph构建通过内置的任务规划、文件系统、子智能体等能力让智能体能够更高效地完成复杂、多步骤的任务而无需开发者从零搭建底层逻辑。本文基于LangChain DeepAgentsTavily Search API 快速构建一个可深度研究的智能体应用。其中Tavily Search API采用封装为MCP Server的方式提供给智能体调用。实验使用模型这里采用claude-sonnet-4模型来源使用OpenRouter整体过程如下所示关于LangChainDeepAgents的详细介绍和使用说明可以参考官方文档和Github官方介绍文档地址https://docs.langchain.com/oss/python/deepagents/quickstartGithub 地址https://github.com/langchain-ai/deepagents实验所使用的主要依赖版本如下tavily-python0.7.12mcp1.9.2langchain1.1.3langchain-mcp-adapters0.1.4langgraph1.0.5fastapi0.115.14最终实验后执行效果如下所示测试问题埃菲尔铁塔与最高建筑相比有多高执行过程部分截图研究报告部分截图二、Tavily Search API 封装 MCP ServerTavily Search API 介绍文档地址https://docs.tavily.com/documentation/quickstart封装为MCP Server这里主要封装两个能力Web网络搜索 和 网页内容查看整体逻辑如下所示from mcp.server.fastmcp import FastMCPfrom typing import Literalfrom tavily import TavilyClientmcp FastMCP(Web-Search-Server)tavily_client TavilyClient(api_keytvly-xxxx) ## 修改为你的keymcp.tool()def web_search(query: str, max_results: int 5, topic: Literal[general, news, finance] general, include_raw_content: bool False): Run a web search return tavily_client.search( query, max_resultsmax_results, include_raw_contentinclude_raw_content, topictopic, ) mcp.tool()def extract(url: str): Extract web page content from URL. return tavily_client.extract(url)if __name__ __main__: mcp.settings.port 6030 mcp.run(sse)启动MCPServer三、深度智能体搭建关于深度智能体的创建和LangChain之前Agent的创建几乎相同只需使用deepagents下的create_deep_agent参数和使用方式和之前也几乎相同关于MCP工具的使用也可以直接使用MultiServerMCPClient抽取的MCP Tools实现过程如下所示import os, configfrom langchain_core.messages import AIMessageChunkos.environ[OPENAI_BASE_URL] https://openrouter.ai/api/v1 ## 支持openai协议的 API BASEos.environ[OPENAI_API_KEY] sk-or-v1-xxxx ## 你的API KEYfrom deepagents import create_deep_agentfrom langchain_mcp_adapters.client import MultiServerMCPClientfrom langchain.chat_models import init_chat_modelimport asynciosystem_prompt 你是一位研究专家。你的工作是根据用户的要求进行彻底的研究然后写一份润色的报告。## 工作流程1. 理解核心需求识别关键要素。2. 制定任务规划明确待办事项。3. 逐步研究记录发现验证结论。4. 整体结果和审查, 必要时重新制定解决链路。5. 输出详细研究报告。async def main(): ## 初始化模型 llm init_chat_model( fopenai:anthropic/claude-sonnet-4, temperature0 ) ## 定义MCP Server, 执行前面创建的 client MultiServerMCPClient( { web-search: { url: http://localhost:6030/sse, transport: sse } } ) ## 获取 MCP Tools tools await client.get_tools() ## 创建深度智能体 agent create_deep_agent( modelllm, toolstools, system_promptsystem_prompt ) ## 执行深度研究以流式的方式输出 async for stream_type, chunk in agent.astream( input{ messages: [ {role: user, content: 埃菲尔铁塔与最高建筑相比有多高} ] }, stream_mode[updates, messages] ): if stream_type messages and type(chunk[0]) is AIMessageChunk: content chunk[0].content if not content: continue print(content, end, flushTrue) elif stream_type updates: if model in chunk: model chunk[model] if messages in model: messages model[messages] for message in messages: tool_calls message.tool_calls for tool_call in tool_calls: name tool_call[name] args tool_call[args] if name write_todos: todos args[todos] print_todos [] for todo in todos: todo_content todo[content] status todo[status] print_todos.append(f {todo_content} -- {status}) if print_todos: print_todos \n.join(print_todos) print(f\n TODO: \n{print_todos}\n\n) else: print(f\n Call MCP: {name}, args: {args}\n) if tools in chunk: tools chunk[tools] if messages in tools: messages tools[messages] for message in messages: content message.content if Updated todo list in content: continue print(\nMCP Result: \n, content, \n)if __name__ __main__: asyncio.run(main())运行后可以看到智能体先是指定初步的待办过程然后逐步执行每个待办最后可以看到研究报告下面将上述逻辑封装为 OpenAI 协议接口使用 Cherry Studio 客户端访问可以更好的进行交互和展示效果。四、封装为 OpenAI 协议接口上述已经通过控制台实现了DeepAgents的执行下面使用FastAPI封装为OpenAI协议接口便于在客户端使用。注意这里主要为实现功能api_key写死在程序中为sk-da4b6cb4a41e4cascascasc9508deb556942随机生成的 后续使用客户端连接时需要填写该api_key。这里由于工具输出内容较多工具的输出暂时没有吐给客户端如果需要查看直接将注释放开即可。整体逻辑如下import osfrom langchain_core.messages import AIMessageChunkos.environ[OPENAI_BASE_URL] https://openrouter.ai/api/v1 ## 支持openai协议的 API BASEos.environ[OPENAI_API_KEY] sk-or-v1-xxxx ## 你的API KEYfrom fastapi import FastAPI, HTTPException, Header, Dependsfrom fastapi.responses import StreamingResponsefrom pydantic import BaseModelfrom typing import List, Dict, Any, Optional, Generatorfrom langchain.chat_models import init_chat_modelfrom langchain_mcp_adapters.client import MultiServerMCPClientfrom deepagents import create_deep_agentfrom datetime import datetimeimport time, uuidapp FastAPI(titleOpenAI Compatible Chat API)api_key sk-da4b6cb4a41e4cascascasc9508deb556942agent Nonesystem_prompt 你是一位研究专家。你的工作是根据用户的要求进行彻底的研究然后写一份润色的报告。## 工作流程1. 理解核心需求识别关键要素。2. 制定任务规划明确待办事项。3. 逐步研究记录发现验证结论。4. 整体结果和审查, 必要时重新制定解决链路。5. 输出详细研究报告。llm init_chat_model( fopenai:anthropic/claude-sonnet-4, temperature0)class ChatCompletionRequest(BaseModel): model: str messages: List[Dict[str, Any]] temperature: Optional[float] 1.0 max_tokens: Optional[int] None stream: Optional[bool] Falseclass ChatCompletionChoice(BaseModel): index: int message: List[Dict[str, Any]] finish_reason: strclass ChatCompletionResponse(BaseModel): id: str object: str chat.completion created: int model: str choices: List[ChatCompletionChoice] usage: Dict[str, int]class ChatCompletionChunk(BaseModel): id: str object: str chat.completion.chunk created: int model: str choices: List[Dict[str, Any]]async def create_agent(): 创建MCP Agent client MultiServerMCPClient( { web-search: { url: http://localhost:6030/sse, transport: sse } } ) tools await client.get_tools() return create_deep_agent( modelllm, toolstools, system_promptsystem_prompt )async def invoke_agent(messages: []): global agent if not agent: agent await create_agent() async for stream_type, chunk in agent.astream({messages: messages}, stream_mode[updates, messages]): if stream_type messages and type(chunk[0]) is AIMessageChunk: content chunk[0].content if not content: continue yield content elif stream_type updates: if model in chunk: model chunk[model] if messages in model: messages model[messages] for message in messages: tool_calls message.tool_calls for tool_call in tool_calls: name tool_call[name] args tool_call[args] if name write_todos: todos args[todos] print_todos [] for todo in todos: todo_content todo[content] status todo[status] print_todos.append(f {todo_content} -- {status}) if print_todos: print_todos \n.join(print_todos) yield f\n TODO: \n{print_todos}\n\n else: yield f\n Call MCP Server: {name}, args: {args}\n\n ## 客户端暂时不输出工具的输出如果需要放开注释即可 # if tools in chunk: # tools chunk[tools] # if messages in tools: # messages tools[messages] # for message in messages: # content message.content # if Updated todo list in content: # continue # yield f MCP Response: \n\njson\n{content}\n\nasync def handle_stream_response(messages: [], model: str, request_id: str) - Generator[str, None, None]: # 执行 agent async for msg in invoke_agent(messages): chunk_data ChatCompletionChunk( idrequest_id, createdint(time.time()), modelmodel, choices[{ index: 0, delta: { content: msg }, finish_reason: None }] ) yield fdata: {chunk_data.model_dump_json()}\n\n final_chunk ChatCompletionChunk( idrequest_id, createdint(time.time()), modelmodel, choices[{ index: 0, delta: {}, finish_reason: stop }] ) yield fdata: {final_chunk.model_dump_json()}\n\n yield data: [DONE]\n\nasync def verify_auth(authorization: Optional[str] Header(None)) - bool: 验证token if not authorization: return False if authorization.startswith(Bearer ): token authorization[7:] else: token authorization return token api_keyapp.post(/v1/chat/completions)async def chat_completions(request: ChatCompletionRequest, auth_result: bool Depends(verify_auth)): # 检查身份验证结果 if not auth_result: raise HTTPException( status_code401, detail{ error: { message: Invalid authentication credentials, type: invalid_request_error, param: None, code: invalid_api_key } }, headers{WWW-Authenticate: Bearer} ) ## 暂不支持非流式返回 if not request.stream: raise HTTPException( status_code400, detail{ error: { message: Streaming responses are not implemented in this mock API, type: invalid_request_error, param: stream, code: invalid_parameter } } ) try: # 触发 agent 并流式返回 request_id fchatcmpl-{uuid.uuid4().hex[:8]} return StreamingResponse( handle_stream_response(request.messages, request.model, request_id), media_typetext/plain, headers{ Cache-Control: no-cache, Connection: keep-alive, Content-Type: text/event-stream } ) except Exception as e: raise HTTPException(status_code500, detailstr(e))app.get(/v1/models)async def list_models(): 列出可用模型 return { object: list, data: [ { id: agent_model, object: model, created: int(time.time()), owned_by: agent } ] }app.get(/health)async def health_check(): 健康检查 return {status: healthy, timestamp: datetime.now().isoformat()}if __name__ __main__: import uvicorn uvicorn.run(app, host0.0.0.0, port8000)启动服务五、使用 Cherry Studio 连接测试注意这里不限于Cherry Studio可以使用任何支持OpenAI协议的客户端连接测试比如OpenWebUI。这里已Cherry Studio为例添加一个OpenAI连接注意这里API秘钥使用前面提到的api key交互测试提问埃菲尔铁塔与最高建筑相比有多高执行过程部分截图研究报告部分截图完整输出内容如下(注意上面封装OpenAI接口时由于工具输出内容较多工具的输出暂时没有吐给客户端如果需要查看直接将注释放开即可)plaintext我来帮您研究埃菲尔铁塔与世界最高建筑的高度对比。这需要查找准确的数据来进行比较。 TODO: 搜索埃菲尔铁塔的准确高度信息 -- in_progress 搜索世界最高建筑的信息和高度 -- pending 对比分析两者的高度差异 -- pending 整理并撰写详细的对比报告 -- pending Call MCP Server: web_search, args: {‘query’: ‘埃菲尔铁塔高度 准确数据 米’} TODO: 搜索埃菲尔铁塔的准确高度信息 -- completed 搜索世界最高建筑的信息和高度 -- in_progress 对比分析两者的高度差异 -- pending 整理并撰写详细的对比报告 -- pending Call MCP Server: web_search, args: {‘query’: ‘世界最高建筑 哈利法塔 迪拜塔 高度 米’} Call MCP Server: web_search, args: {‘query’: ‘2024年世界最高建筑排名 最新’} TODO: 搜索埃菲尔铁塔的准确高度信息 -- completed 搜索世界最高建筑的信息和高度 -- completed 对比分析两者的高度差异 -- in_progress 整理并撰写详细的对比报告 -- pending TODO: 搜索埃菲尔铁塔的准确高度信息 -- completed 搜索世界最高建筑的信息和高度 -- completed 对比分析两者的高度差异 -- completed 整理并撰写详细的对比报告 -- in_progress# 埃菲尔铁塔与世界最高建筑高度对比研究报告## 研究概述本报告通过详细研究对比分析了法国巴黎埃菲尔铁塔与当前世界最高建筑的高度差异为您提供准确的数据对比。## 核心发现### 埃菲尔铁塔高度-当前高度330米2022年3月更新-历史变化 - 1889年建成时312米包含旗杆 - 原始结构300米被称为300米塔 - 2000年增高324米安装数字电视天线 - 2022年最新增高330米安装6米数字音频广播天线### 世界最高建筑 - 哈利法塔迪拜-高度828米-楼层162层地上/ 169层总计-建成时间2010年-保持记录连续14年世界最高建筑2010-2024年## 高度对比分析### 数据对比| 建筑名称 | 高度 | 建成年份 | 位置 ||---------|------|----------|------|| 哈利法塔 | 828米 | 2010年 | 阿联酋迪拜 || 埃菲尔铁塔 | 330米 | 1889年 | 法国巴黎 ||高度差|498米|121年| - |### 关键对比指标1.绝对高度差异498米 - 哈利法塔比埃菲尔铁塔高出498米 - 相当于埃菲尔铁塔高度的1.51倍2.相对比例 - 哈利法塔是埃菲尔铁塔高度的2.51倍 - 埃菲尔铁塔仅为哈利法塔高度的39.9%3.时代差异 - 两座建筑相隔121年建成 - 体现了建筑技术的巨大进步## 历史意义对比### 埃菲尔铁塔1889年- 建成时是世界最高建筑- 保持世界最高记录40年1889-1929年- 标志着钢铁结构建筑的里程碑- 法国文化象征和巴黎地标### 哈利法塔2010年- 现代超高层建筑技术的巅峰- 多项世界纪录保持者- 代表21世纪建筑工程成就- 迪拜城市发展的象征## 结论埃菲尔铁塔虽然在其建成的1889年是世界最高建筑但与当前世界最高建筑哈利法塔相比存在显著的高度差异。哈利法塔以828米的高度比埃菲尔铁塔的330米高出498米是埃菲尔铁塔高度的2.51倍。这一对比不仅展现了建筑技术在过去一个多世纪中的巨大进步也反映了人类对于建造更高建筑的不断追求。埃菲尔铁塔作为19世纪工业革命的杰作与哈利法塔这一21世纪建筑奇迹共同见证了人类建筑史的辉煌发展。 TODO: 搜索埃菲尔铁塔的准确高度信息 -- completed 搜索世界最高建筑的信息和高度 -- completed 对比分析两者的高度差异 -- completed 整理并撰写详细的对比报告 -- completed研究已完成根据最新数据埃菲尔铁塔目前高度为330米而世界最高建筑哈利法塔高度为828米。哈利法塔比埃菲尔铁塔高出498米是埃菲尔铁塔高度的2.51倍。这个巨大的高度差异不仅体现了建筑技术在121年间的飞跃发展也展现了人类建筑工程能力的显著提升。### 交互测试 提问**深度研究下CSDN小毕超博主** 执行过程部分截图  研究报告部分截图  完整输出内容如下 plaintext 我将深度研究CSDN小毕超博主的相关信息。这是一个复杂的研究任务需要多个步骤来收集和分析信息。 TODO: 搜索CSDN小毕超博主的基本信息和简介 -- in_progress 分析小毕超的技术专长和主要内容领域 -- pending 研究其代表性文章和技术贡献 -- pending 分析其在CSDN平台的影响力和数据表现 -- pending 收集其他平台的相关信息如果有 -- pending 整理和撰写详细研究报告 -- pending Call MCP Server: web_search, args: {query: CSDN 小毕超 博主 简介 技术专长, max_results: 10} Call MCP Server: extract, args: {url: https://blog.csdn.net/qq_43692950} TODO: 搜索CSDN小毕超博主的基本信息和简介 -- completed 分析小毕超的技术专长和主要内容领域 -- in_progress 研究其代表性文章和技术贡献 -- pending 分析其在CSDN平台的影响力和数据表现 -- pending 收集其他平台的相关信息如果有 -- pending 整理和撰写详细研究报告 -- pending Call MCP Server: web_search, args: {query: 小毕超 CSDN 博客专家 人工智能 微服务 技术文章, max_results: 8} Call MCP Server: web_search, args: {query: 小毕超 CSDN 博客专家 粉丝数 文章数 影响力, max_results: 8} TODO: 搜索CSDN小毕超博主的基本信息和简介 -- completed 分析小毕超的技术专长和主要内容领域 -- completed 研究其代表性文章和技术贡献 -- in_progress 分析其在CSDN平台的影响力和数据表现 -- pending 收集其他平台的相关信息如果有 -- pending 整理和撰写详细研究报告 -- pending Call MCP Server: web_search, args: {query: 小毕超 CSDN 热门文章 ChatGPT 知识图谱 微服务 大模型, max_results: 10} Call MCP Server: web_search, args: {query: 小毕超 CSDN 博客专家 华为云专家 软考高级 TOGAF 获奖经历, max_results: 8} TODO: 搜索CSDN小毕超博主的基本信息和简介 -- completed 分析小毕超的技术专长和主要内容领域 -- completed 研究其代表性文章和技术贡献 -- completed 分析其在CSDN平台的影响力和数据表现 -- in_progress 收集其他平台的相关信息如果有 -- pending 整理和撰写详细研究报告 -- pending Call MCP Server: web_search, args: {query: 小毕超 阿里云 华为云 技术专家 开发者社区, max_results: 8} TODO: 搜索CSDN小毕超博主的基本信息和简介 -- completed 分析小毕超的技术专长和主要内容领域 -- completed 研究其代表性文章和技术贡献 -- completed 分析其在CSDN平台的影响力和数据表现 -- completed 收集其他平台的相关信息如果有 -- completed 整理和撰写详细研究报告 -- in_progress# CSDN小毕超博主深度研究报告## 一、博主基本信息概览### 个人简介**小毕超**CSDN用户名qq_43692950是CSDN平台上的知名技术博主具有深厚的技术背景和丰富的实践经验。他是一位专注于人工智能、微服务架构领域的专业技术人员同时也是多个技术认证的持有者。### 专业资质与认证- **国内软考高级系统架构设计师职称**- **国际TOGAF鉴定级企业架构设计师**- **PMP项目管理师**- **华为云·云享专家**- **CSDN博客专家**### 获奖经历- 联想杯移动互联比赛 江苏省一等奖和国家二等奖- 第四届全国应用型人才比赛兄弟连杯国家一等奖## 二、技术专长与内容领域分析### 核心技术领域根据研究发现小毕超的技术专长主要集中在以下几个方面#### 1. 人工智能与机器学习- **大语言模型应用**深度研究ChatGPT、Qwen系列、DeepSeek等主流大模型- **模型微调与训练**专注于医疗问答、命名实体识别、文本分类等任务的模型微调- **计算机视觉**目标检测、YOLO系列算法应用与优化- **自然语言处理**知识图谱构建、语义相似性判断、文本解析等#### 2. 微服务架构- **Spring Cloud生态**Spring Cloud Kubernetes、微服务治理- **容器化技术**Docker、Kubernetes集群部署与管理- **服务网格**微服务间通信与治理- **API网关**微服务架构中的流量管理#### 3. 大数据处理- **数据仓库技术**Hive数据处理与分析- **分布式计算**Hadoop生态系统应用- **数据可视化**结合机器学习的数据分析平台#### 4. 云原生技术- **Kubernetes**集群搭建、多租户管理、KubeSphere应用- **DevOps**Jenkins自动化部署、CI/CD流程优化- **云平台服务**华为云、阿里云等云服务应用## 三、代表性技术贡献与文章分析### 最新技术文章2024-2025年1. **《使用 DeepSeek R1 心理医疗健康数据集 Qwen2.5-0.5B-Instruct蒸馏专有领域思考模型》** - 展示了在垂直领域应用大模型的创新实践2. **《基于 Qwen2.5-0.5B 微调训练 Ner 命名实体识别任务》** - 深入探讨了小参数模型在特定NLP任务中的应用3. **《文档解析利器 PaddleOCR-VL 视觉文档解析模型本地部署和测试》** - 结合了计算机视觉与文档处理的实用技术4. **《基于 PyTorch 完全从零手搓 GPT 混合专家 (MOE) 对话模型》** - 展现了深度学习模型架构的深度理解5. **《YOLO 家族全新一代 YOLO v13 上手使用及微调实验》** - 紧跟计算机视觉领域最新发展### 技术创新特点- **前沿性**紧跟AI技术发展趋势及时分享最新模型和技术- **实用性**注重理论与实践结合提供完整的部署和测试方案- **深度性**从底层原理到实际应用的全栈技术覆盖- **系统性**构建完整的技术体系形成专栏化内容## 四、CSDN平台影响力分析### 平台地位- **CSDN博客专家**获得官方认证的技术专家称号- **Java技术领域优质创作者**在后端开发技术领域具有专家地位- **博客之星候选人**在2022年博客之星排行榜中表现优异### 内容数据表现- **专栏数量**创建了73篇微服务相关文章的专栏关注人数8W人- **技术覆盖面**涉及机器学习、大模型、微服务、大数据处理等多个技术领域- **更新频率**保持高频率的技术文章更新紧跟技术发展趋势### 社区影响力- **技术引领**在AI大模型应用、微服务架构等领域具有一定的技术引领作用- **知识分享**通过详细的技术教程和实践案例为开发者社区贡献价值- **跨平台影响**内容被华为云开发者社区等其他平台转载和引用## 五、其他平台表现### 华为云开发者社区小毕超的技术文章在华为云开发者社区也有广泛传播包括- 《使用kubeadm快速部署一个K8s集群》- 《Nexus3 搭建私服maven 仓库》- 《MyCat搭建mysql读写分离介绍并使用SpringBoot测试》这些文章的转载表明其技术内容具有较高的实用价值和影响力。### 技术社区认可- 被多个技术平台引用和转载- 在开发者社区中具有一定的知名度- 技术文章质量得到同行认可## 六、技术发展趋势与特色### 技术发展轨迹1. **早期阶段**专注于传统后端技术如Spring、微服务架构2. **发展阶段**扩展到大数据处理、容器化技术3. **当前阶段**深度投入AI大模型、机器学习应用领域### 技术特色- **全栈能力**从基础架构到AI应用的全技术栈覆盖- **实践导向**注重技术的实际应用和落地- **持续学习**紧跟技术发展趋势不断更新知识体系- **知识传播**通过高质量的技术文章推动技术普及## 七、总结与评价### 综合评价小毕超是CSDN平台上一位具有较高技术水平和影响力的博主。他在人工智能、微服务架构、大数据处理等多个技术领域都有深入的研究和实践经验。其技术文章质量高、实用性强为开发者社区提供了宝贵的技术资源。### 技术价值1. **技术深度**在AI大模型应用方面具有较深的技术积累2. **实践经验**丰富的项目实践经验能够提供完整的解决方案3. **知识分享**积极分享技术知识推动技术社区发展4. **持续创新**紧跟技术发展趋势不断探索新技术应用### 发展前景基于当前的技术发展趋势和小毕超的技术积累预计他将在AI大模型应用、智能化系统构建等领域继续发挥重要作用为技术社区贡献更多有价值的内容。 TODO: 搜索CSDN小毕超博主的基本信息和简介 -- completed 分析小毕超的技术专长和主要内容领域 -- completed 研究其代表性文章和技术贡献 -- completed 分析其在CSDN平台的影响力和数据表现 -- completed 收集其他平台的相关信息如果有 -- completed 整理和撰写详细研究报告 -- completed我已经完成了对CSDN小毕超博主的深度研究。通过系统性的信息收集和分析我为您提供了一份详细的研究报告涵盖了以下几个方面## 研究成果总结1. **个人背景**小毕超是一位具有多项专业认证的技术专家包括软考高级、TOGAF、PMP等资质并获得过多项技术竞赛奖项。2. **技术专长**主要专注于人工智能与机器学习、微服务架构、大数据处理和云原生技术四大领域。3. **技术贡献**在AI大模型应用、模型微调、计算机视觉、微服务架构等方面有深入研究发表了大量高质量的技术文章。4. **平台影响力**在CSDN平台具有博客专家称号是Java技术领域的优质创作者内容被多个技术平台转载。5. **发展趋势**从传统后端技术逐步发展到AI大模型应用展现了持续学习和技术创新的能力。这份研究报告全面展现了小毕超博主在技术社区中的地位、贡献和影响力为了解这位技术专家提供了详实的参考资料。如何学习大模型 AI 由于新岗位的生产效率要优于被取代岗位的生产效率所以实际上整个社会的生产效率是提升的。但是具体到个人只能说是“最先掌握AI的人将会比较晚掌握AI的人有竞争优势”。这句话放在计算机、互联网、移动互联网的开局时期都是一样的道理。我在一线互联网企业工作十余年里指导过不少同行后辈。帮助很多人得到了学习和成长。我意识到有很多经验和知识值得分享给大家也可以通过我们的能力和经验解答大家在人工智能学习中的很多困惑所以在工作繁忙的情况下还是坚持各种整理和分享。但苦于知识传播途径有限很多互联网行业朋友无法获得正确的资料得到学习提升故此将并将重要的AI大模型资料包括AI大模型入门学习思维导图、精品AI大模型学习书籍手册、视频教程、实战学习等录播视频免费分享出来。第一阶段10天初阶应用该阶段让大家对大模型 AI有一个最前沿的认识对大模型 AI 的理解超过 95% 的人可以在相关讨论时发表高级、不跟风、又接地气的见解别人只会和 AI 聊天而你能调教 AI并能用代码将大模型和业务衔接。大模型 AI 能干什么大模型是怎样获得「智能」的用好 AI 的核心心法大模型应用业务架构大模型应用技术架构代码示例向 GPT-3.5 灌入新知识提示工程的意义和核心思想Prompt 典型构成指令调优方法论思维链和思维树Prompt 攻击和防范…第二阶段30天高阶应用该阶段我们正式进入大模型 AI 进阶实战学习学会构造私有知识库扩展 AI 的能力。快速开发一个完整的基于 agent 对话机器人。掌握功能最强的大模型开发框架抓住最新的技术进展适合 Python 和 JavaScript 程序员。为什么要做 RAG搭建一个简单的 ChatPDF检索的基础概念什么是向量表示Embeddings向量数据库与向量检索基于向量检索的 RAG搭建 RAG 系统的扩展知识混合检索与 RAG-Fusion 简介向量模型本地部署…第三阶段30天模型训练恭喜你如果学到这里你基本可以找到一份大模型 AI相关的工作自己也能训练 GPT 了通过微调训练自己的垂直大模型能独立训练开源多模态大模型掌握更多技术方案。到此为止大概2个月的时间。你已经成为了一名“AI小子”。那么你还想往下探索吗为什么要做 RAG什么是模型什么是模型训练求解器 损失函数简介小实验2手写一个简单的神经网络并训练它什么是训练/预训练/微调/轻量化微调Transformer结构简介轻量化微调实验数据集的构建…第四阶段20天商业闭环对全球大模型从性能、吞吐量、成本等方面有一定的认知可以在云端和本地等多种环境下部署大模型找到适合自己的项目/创业方向做一名被 AI 武装的产品经理。硬件选型带你了解全球大模型使用国产大模型服务搭建 OpenAI 代理热身基于阿里云 PAI 部署 Stable Diffusion在本地计算机运行大模型大模型的私有化部署基于 vLLM 部署大模型案例如何优雅地在阿里云私有部署开源大模型部署一套开源 LLM 项目内容安全互联网信息服务算法备案…学习是一个过程只要学习就会有挑战。天道酬勤你越努力就会成为越优秀的自己。如果你能在15天内完成所有的任务那你堪称天才。然而如果你能完成 60-70% 的内容你就已经开始具备成为一名大模型 AI 的正确特征了。这份完整版的大模型 AI 学习资料已经上传CSDN朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费】