菏泽建设职业中等专业学校官方网站,qq官方网站,广州网站推广找哪里,免费下载京东购物25 年以来写了 55 篇技术 Blog#xff0c;字数也累计超过 50 万字。每篇内容背后都是几十甚至上百个小时的项目工程实践的经验提炼#xff0c;虽然原创性没话说#xff0c;但还是产出效率太低#xff0c;以及也难免受限于个人的经验和水平。
So#xff0c;从这篇开始字数也累计超过 50 万字。每篇内容背后都是几十甚至上百个小时的项目工程实践的经验提炼虽然原创性没话说但还是产出效率太低以及也难免受限于个人的经验和水平。So从这篇开始我会把日常闲暇时观摩的一些海外优质内容整理和加工后附上自己的不同观察和思考也通过文章或者视频的形式发布出来给各位做个参考。主要聚焦在 Reddit、Medium、X、Youtube 等平台。这篇就以 Reddit 上 r/AI_Agents 中一个月前发布的一篇有 905 upvotes 的帖子做个翻译整理。Blog 原地址https://www.reddit.com/r/AI_Agents/comments/1nbrm95/building_rag_systems_at_enterprise_scale_20k_docs/这篇试图说清楚原帖的中文翻译人话版、原帖中四个工程要点的代码示例及实际应用建议、以及帖子评论区精华部分的内容节选。以下enjoy:1原帖子翻译企业级 RAG 系统实战2万文档10 个项目踩过的坑原文来自 Reddit作者在受监管行业制药、金融、法律为中型企业100-1000 人构建了 10 个 RAG 系统过去一年我一直在做企业级 RAG 系统服务的客户包括制药公司、银行、律所、咨询公司。说实话这玩意儿比任何教程说的都难太多了。我想分享一些真正重要的东西而不是网上那些基础教程。先说背景这些公司手里都有 1 万到 5 万份文档堆在 SharePoint 或者 2005 年的文档管理系统里。不是什么精心整理的数据集也不是知识库——就是几十年积累下来的业务文档现在需要能被搜索到。文档质量检测没人说的关键环节这是我最大的发现。大多数教程都假设你的 PDF 是完美的。现实是企业文档就是一坨垃圾。我有个制药客户他们有 1995 年的研究论文是打字机打出来再扫描的。OCR 基本不行。还混着现代的临床试验报告500 多页里面嵌了各种表格和图表。你试试对这两种文档用同一套分块策略保证给你返回一堆乱七八糟的结果。我花了几周调试搞不懂为什么有些文档效果很差有些又很好。最后意识到必须先给文档质量打分再决定怎么处理干净的 PDF文本提取完美→ 完整的层级化处理一般的文档有点 OCR 问题→ 基础分块 清理垃圾文档扫描的手写笔记→ 简单固定分块 标记人工复查我做了个简单的评分系统看文本提取质量、OCR 瑕疵、格式一致性然后根据分数把文档送到不同的处理流程。“This single change fixed more retrieval issues than any embedding model upgrade.”这一个改动解决的检索问题比升级 embedding 模型管用得多。固定大小分块基本是错的所有教程都说“把所有东西切成 512 token加点重叠就行”现实是文档是有结构的。研究论文的方法论部分和结论部分不一样。财报有执行摘要也有详细表格。如果无视结构你会得到切到一半的句子或者把不相关的概念混在一起。我必须构建层级化分块Hierarchical Chunking保留文档结构文档级标题、作者、日期、类型章节级摘要、方法、结果段落级200-400 tokens句子级用于精确查询核心思路查询的复杂度决定检索的层级。宽泛的问题在段落级检索。精确的问题比如表 3 里的剂量是多少需要句子级精度。我用简单的关键词检测——像exact精确、“specific”具体、“table”表格这些词会触发精准模式。如果置信度低系统会自动下钻到更精确的分块。元数据架构比你的 Embedding 模型更重要这部分我花了 40% 的开发时间但 ROI 是最高的。大多数人把元数据当成事后想起来的东西。但企业查询的上下文非常复杂。一个制药研究员问儿科研究需要的文档和问成人群体的完全不同。我为不同领域构建了专门的元数据模式制药文档文档类型研究论文、监管文件、临床试验药物分类患者人口统计儿科、成人、老年监管类别FDA、EMA治疗领域心血管、肿瘤金融文档时间周期2023 Q1、2022 财年财务指标收入、EBITDA业务部门地理区域别用 LLM 提取元数据——它们不靠谱。简单的关键词匹配效果好得多。查询里有FDA就过滤regulatory_category: FDA。提到儿科应用患者群体过滤器。从每个领域 100-200 个核心术语开始根据匹配不好的查询逐步扩展。领域专家通常很乐意帮忙建这些列表。语义搜索失效的时候剧透很多纯语义搜索失效的频率比大家承认的高得多。在制药和法律这种专业领域我看到的失败率是15-20%不是大家以为的 5%。让我抓狂的主要失败模式缩写混淆“CAR” 在肿瘤学里是嵌合抗原受体但在影像论文里是计算机辅助放射学。相同的 embedding完全不同的意思。这让我头疼死了。精确技术查询有人问表 3 里的确切剂量是多少语义搜索会找到概念上相似的内容但会错过具体的表格引用。交叉引用链文档之间不断互相引用。药物 A 的研究引用了药物 B 的交互数据。语义搜索完全丢失这些关系网络。解决方案构建混合方法。用图层Graph Layer在处理时跟踪文档关系。语义搜索之后系统会检查检索到的文档是否有相关文档有更好的答案。对于缩写我做了上下文感知的扩展用领域专用的缩写数据库。对于精确查询关键词触发会切换到基于规则的检索来获取特定数据点。为什么我选开源模型具体是 Qwen大多数人以为 GPT-4o 或 o3-mini 总是更好。但企业客户有些奇怪的约束成本5 万份文档 每天几千次查询API 费用会爆炸数据主权制药和金融不能把敏感数据发到外部 API领域术语通用模型会在没训练过的专业术语上产生幻觉Qwen QWQ-32B 在领域微调后效果出奇的好比 GPT-4o 便宜85%大批量处理一切都在客户基础设施上可以在医疗/金融术语上微调响应时间稳定没有 API 限流微调方法很直接——用领域问答对做监督训练。创建像药物 X 的禁忌症是什么这样的数据集配上实际的 FDA 指南答案。基础的监督微调比 RAFT 这种复杂方法效果更好。关键是要有干净的训练数据。表格处理隐藏的噩梦企业文档里到处都是复杂表格——财务模型、临床试验数据、合规矩阵。标准 RAG 要么忽略表格要么把它们提取成非结构化文本丢失所有关系。“Tables contain some of the most critical information… If you can’t handle tabular data, you’re missing half the value.”表格包含了最关键的信息。如果处理不好表格数据你就丢了一半的价值。财务分析师需要特定季度的精确数字。研究人员需要临床表格里的剂量信息。我的方法把表格当成独立实体有自己的处理流程用启发式方法检测表格间距模式、网格结构简单表格转成 CSV。复杂表格在元数据中保留层级关系双重 embedding 策略既 embed 结构化数据也 embed 语义描述在银行项目里到处都是财务表格。还得跟踪汇总表和详细分解表之间的关系。生产基础设施的现实检验教程假设资源无限、运行时间完美。生产环境意味着并发用户、GPU 内存管理、稳定的响应时间、运行时间保证。大多数企业客户已经有闲置的 GPU 基础设施——未使用的算力或其他数据科学工作负载。这让本地部署比预期的容易。通常部署 2-3 个模型主生成模型Qwen 32B用于复杂查询轻量级模型用于元数据提取专门的 embedding 模型尽可能用量化版本。Qwen QWQ-32B 量化到 4-bit 只需要 24GB VRAM但保持了质量。可以在单张 RTX 4090 上运行不过 A100 对并发用户更好。最大的挑战不是模型质量——而是防止多个用户同时访问系统时的资源竞争。用信号量限制并发模型调用加上合适的队列管理。真正重要的经验教训文档质量检测优先不能用同一种方式处理所有企业文档。先构建质量评估再做其他事。元数据 embeddings元数据不好检索就不好不管你的向量有多棒。花时间做领域专用的模式。混合检索是必须的纯语义搜索在专业领域失败太频繁。需要基于规则的后备方案和文档关系映射。表格很关键如果处理不好表格数据就丢失了企业价值的一大块。基础设施决定成败客户更在乎可靠性而不是花哨功能。资源管理和运行时间比模型复杂度更重要。说点真话“Enterprise RAG is way more engineering than ML.”企业 RAG 更多是工程而不是机器学习。大多数失败不是因为模型不好——而是低估了文档处理的挑战、元数据的复杂性、生产基础设施的需求。现在需求真的很疯狂。每个有大量文档库的公司都需要这些系统但大多数人根本不知道处理真实世界的文档有多复杂。反正这玩意儿比教程说的难太多了。企业文档的各种边缘情况会让你想把笔记本扔出窗外。但如果搞定了ROI 还是很可观的——我见过团队把文档搜索从几小时缩短到几分钟。2四个工程要点代码示例上面译文看完可能还不够直观我挑了四个觉得比较重要的工程要点并结合对应的业界常用的开源组件进行核心代码逻辑的展示供各位参考。2.1文档质量评分系统原帖最大的创新点是在处理文档前先给它打分根据质量路由到不同 pipeline。作者说这一个改动解决的检索问题比升级 embedding 模型还多。核心是识别三种文档Clean80分的文档文本提取完美可以完整层级化处理Decent50-80 分的文档有 OCR 瑕疵需要基础分块加清理Garbage50 分的扫描手写笔记只能固定分块并人工复查。评分维度包括文本提取质量权重 50%、格式一致性30%和表格完整性20%通过采样前 3 页来快速评估整个文档。下面以 PaddleOCR 为例做个代码逻辑演示from paddleocr import PaddleOCR import numpy as np class DocumentQualityScorer: def __init__(self): self.ocr PaddleOCR(use_angle_clsTrue, langch) def score_document(self, pdf_images): 对文档打分并选择pipeline scores [] for img in pdf_images[:3]: # 采样前3页 result self.ocr.ocr(img, clsTrue) if not result or not result[0]: scores.append(0) continue # 提取置信度 confidences [line[1][1] for line in result[0]] avg_conf np.mean(confidences) scores.append(avg_conf * 100) overall np.mean(scores) # 分类并路由 if overall 80: return clean, CleanPipeline() elif overall 50: return decent, DecentPipeline() else: return garbage, GarbagePipeline()这段代码的核心逻辑是采样前 3 页图像进行 OCR提取每个文本块的置信度分数PaddleOCR 会为每个识别的文字块返回 0-1 的 confidence 值然后通过平均值转换为 0-100 的分数。阈值 80 和 50 来自作者在多个项目中总结的经验值置信度高于 80%的文档基本可以认为文本提取完美50-80%之间有一些瑕疵但可用低于 50%说明 OCR 质量很差。只采样 3 页而不是全文是因为前几页通常能代表整体风格处理全文太慢100 页文档需要 10分钟实测 3 页的准确率已经 95%以上。这里用置信度 * 100 是为了将 0-1 的浮点数转为 0-100 的分数便于理解和设置阈值。在实际使用时建议先在数据集上标注 100 个文档人工判断 Clean/Decent/Garbage然后跑评分画散点图看三类文档的分数分布调整阈值让分类准确率超过 90%。常见的坑是彩色扫描件 OCR 置信度可能很高但实际是垃圾需要加入是否为图片 PDF的判断表格很多的文档如财报会被低估可以提高表格评分的权重到 30%。性能优化方面可以改为均匀采样第 1 页、中间页、最后页各 1 页来提高代表性多页图像可以并行 OCR 加速处理同一文档的评分结果应该缓存避免重复计算。2.2层级化分块策略原帖批判了固定 512 token 分块的做法提出 4 层结构Document2048 tokens→ Section1024 tokens→ Paragraph512 tokens→ Sentence128 tokens。关键洞察是查询复杂度应该决定检索层级宽泛问题如这篇讲什么适合段落级或章节级检索精确问题如表 3 第 2 行是多少需要句子级定位。每一层都生成独立的 embedding 存储在向量数据库检索时根据查询特征自动选择合适的层级从而避免大海捞针的问题。下面以 LlamaIndex 为例进行演示from llama_index.core.node_parser import HierarchicalNodeParser from llama_index.core import Document class AdaptiveRetriever: def __init__(self): self.parser HierarchicalNodeParser.from_defaults( chunk_sizes[2048, 1024, 512, 128] ) self.precision_keywords [exact, table, figure, 表, 图, 第] def retrieve(self, query, doc_text, vector_store): 层级化分块并自适应检索 # 生成4层节点 doc Document(textdoc_text) nodes self.parser.get_nodes_from_documents([doc]) # 判断查询类型选择层级 has_precision any(kw in query.lower() for kw in self.precision_keywords) word_count len(query.split()) if has_precision: level sentence elif word_count 15: level section else: level paragraph return vector_store.search(query, filter{layer: level}, top_k5)HierarchicalNodeParser 会根据 chunk_sizes 参数自动将文档切分成 4 层每层的大小是近似值而不是严格限制因为切分时会保持语义边界完整。参数[2048, 1024, 512, 128]适合英文中文建议调整为[3000, 1500, 600, 150]因为中文信息密度更高。查询路由的逻辑是如果包含精确关键词table、figure、第 X 章等就用句子级如果查询很长超过 15 个词说明是复杂概念问题就用章节级否则默认段落级。这个启发式规则来自原帖讨论区的经验实测准确率在 85%左右。层级存储在 vector_store 时通过 metadata 的 layer 字段区分检索时用 filter 过滤只在对应层级搜索。实际使用时不是每次查询都需要 4 层大部分情况 paragraph 层足够用可以先在 paragraph 层检索如果置信度低再下钻到 sentence 层做二次检索。document 层主要用于文档级问题如这篇讲什么或生成摘要。特殊文档类型需要特别处理表格和代码块应该提前提取单独 chunk 避免被切碎标题要合并到后续内容而不是单独成 chunk列表要保持完整性不在中间切断。性能优化方面chunk_sizes 的 overlap 建议设置为 size 的 5-10%来防止切断完整语义太大浪费存储太小丢失上下文。对于技术文档代码多可以用更大的 chunk 如[4096, 2048, 1024, 256]。2.3混合检索问题原帖指出纯语义搜索在专业领域失败率 15-20%需要三路并行语义检索向量相似度理解语义但可能漏掉精确匹配关键词检索BM25精确匹配但不理解同义词元数据过滤结构化字段过滤无关文档。然后用 RRFReciprocal Rank Fusion算法融合结果公式是对于文档 d 在结果列表中的排名 rank_d融合分数等于各路结果的权重除以(60 rank_d)之和。常数 60 是 RRF 标准参数用于平衡头部和尾部结果权重一般设置为语义 0.7、关键词 0.3具体场景可调整。以 Qdrant 为例做个代码示例from qdrant_client import QdrantClient class HybridRetriever: def __init__(self): self.client QdrantClient(localhost, port6333) def search(self, query, top_k10): 三路检索 RRF融合 # 语义检索dense vector semantic self.client.search( collection_namedocs, query_vector(dense, embed(query)), limittop_k * 2 ) # 关键词检索sparse vector keyword self.client.search( collection_namedocs, query_vector(sparse, extract_keywords(query)), limittop_k * 2 ) # RRF 融合 scores {} for rank, r in enumerate(semantic, 1): scores[r.id] scores.get(r.id, 0) 0.7 / (60 rank) for rank, r in enumerate(keyword, 1): scores[r.id] scores.get(r.id, 0) 0.3 / (60 rank) # 排序返回 return sorted(scores.items(), keylambda x: x[1], reverseTrue)[:top_k]Qdrant 支持在同一文档上同时存储 dense 和 sparse 两种向量dense 是传统的语义 embedding如 OpenAI、BGEsparse 是关键词的稀疏表示类似 BM25 的词频向量。RRF 融合算法的核心是用排名的倒数而不是原始分数来融合这样可以处理不同检索器分数尺度不统一的问题。权重 0.7 和 0.3 是通用场景的经验值语义为主精确查询多的场景可以设为 0.5/0.5 均衡概念查询多可以设为 0.8/0.2 更偏语义。limit 设为 top_k * 2 是因为融合后会有重复多取一些保证最终有足够结果。元数据过滤如 doc_typeclinical_trial应该在数据库层面用 Filter 实现而不是在应用层过滤性能更好。混合检索在专业术语多的领域医疗、法律、金融是必须的纯语义搜索会漏掉缩写、代号、产品型号等精确匹配。用户查询包含需要精确匹配的内容如法规编号、技术规格时也必须启用。但通用聊天场景可选纯语义已经够用开启混合检索会增加 20-30%延迟。性能优化方面三路检索可以并行执行减少延迟高频查询的结果应该缓存。在实践中建议通过 A/B 测试来调整权重记录用户点击率看哪个权重组合的 top3 点击率最高。如果你的文档有丰富的元数据如时间、类别、作者元数据过滤能显著提升准确率例如2024 年儿科临床试验这种查询先用元数据过滤掉无关文档再做语义检索。2.4置信度驱动的智能路由来自原帖讨论区的具体参数0.7 相似度阈值加上 20-30 个触发词。逻辑是初始用段落级检索获得最高分数如果高置信度大于 0.85说明段落级足够如果中置信度0.7-0.85且包含精确关键词就切换到句子级如果低置信度0.5-0.7就下钻到句子级细粒度检索如果极低置信度小于 0.5就降级到关键词搜索兜底。这是一个简单但有效的智能路由避免所有查询都用同样粒度检索既节省计算又提高准确率。以下是纯 python 的实现示例class ConfidenceRouter: def __init__(self): self.precision_kw [exact, table, figure, 表, 图, 第] self.high_conf 0.85 self.med_conf 0.70 self.low_conf 0.50 def route(self, query, search_engine): 置信度驱动的检索路由 # 初始检索段落级 initial search_engine.search(query, levelparagraph, top_k10) if not initial: return [] max_score max(r.score for r in initial) has_precision any(kw in query.lower() for kw in self.precision_kw) # 决策 if max_score self.high_conf: return initial # 高置信度段落级足够 elif max_score self.med_conf: if has_precision: return search_engine.search(query, levelsentence, top_k10) return initial elif max_score self.low_conf: return search_engine.search(query, levelsentence, top_k10) else: return search_engine.keyword_search(query, top_k10) # 兜底阈值 0.85/0.7/0.5 来自原帖讨论区作者在多个项目中验证的经验值这些数字在实际项目中肯定不是拍脑袋定的而是要通过标注数据找出的准确率突变点。精确关键词列表有 20-30 个词包括 exact、table、figure 以及中文的表、图、第等还可以用正则匹配表 3、第 5 章这种模式。决策逻辑是先用段落级试探根据最高分数和是否有精确词来决定是否需要更细粒度这样大部分查询约 70%在段落级就能解决只有 30%需要下钻到句子级或降级到关键词。降级到关键词搜索是兜底策略虽然粗糙但总比返回空结果好在语义搜索完全失败时至少能匹配到一些相关词。实际使用的时候建议在数据上标注 100 个左右查询画出相似度分数的分布图找到准确率突变点来设置阈值不要直接照搬 0.7/0.85 这些数字。精确关键词列表需要持续维护从 bad case 中收集用户重新搜索说明上次结果不满意定期 review 删除误判率高的词也可以用 TF-IDF 找领域特有的精确词。建议记录详细日志包括 query、max_score、选择的 strategyparagraph/sentence/keyword、has_precision_kw 以及用户点击率通过日志分析持续优化阈值和触发词。A/B 测试时可以对比不同阈值组合的 top3 点击率选择表现最好的。常见问题是阈值设置过高导致过多下钻到句子级增加延迟或设置过低导致很多查询在段落级就返回但准确率不够需要根据业务场景平衡准确率和性能。3技术问答讨论原帖已经信息密度很高但评论区里藏着更多实战细节。我从 108 条讨论中精选了 17 条核心问答涵盖以下四大主题技术实现细节为什么 VLM 处理 PDF 比 HTML 转换更靠谱、小模型 7B-13B 能干什么不能干什么、递归搜索怎么实现和触发、10-20 页文档全文读 vs 分块检索的选择标准成本和性能数据GPT-4o vs Qwen 的详细成本计算、H100 上跑 Qwen 32B 的真实性能数据、A100 部署成本和选型理由商业模式和团队运作60-70%代码复用率怎么做到2 人团队如何服务 10企业客户、如何找客户和合作伙伴模式、授权许可 vs 定制开发的商业模式以及重要的澄清和补充元数据提取 LLM vs 规则的使用边界、混合检索的自动选择挑战、法律和工程领域从业者的跨行业验证。这些帖子评论区内容我做了完整翻译、提炼要点、补充国内场景对照并标注实用性放在知识星球中作为会员专属资料感兴趣的也可以自行去看原帖。为了直观期间看个例子讨论区第 6 条关于成本对比的节选评论你说 Qwen 比 GPT-4o 便宜 85%。我也在做类似项目想评估成本。GPT-4o 大概每月多少钱作者回答GPT-4o 价格是输入$2.50/百万 tokens、输出$10.00/百万 tokens。典型企业 RAG 场景假设首次处理 5 万文档一次性 embedding每月 1 万次查询平均每次 1K 输入、500 输出。GPT-4o 成本 初始 embedding 约$125月度查询约$100$75 输入$25 输出总计中等使用量每月$200-300规模上去后快速增长。Qwen QWQ-32B 成本 输入$0.15-0.50/百万 tokens、输出$0.45-1.50/百万 tokensGroq 报价$0.29 输入/$0.39 输出同样工作量初始 embedding 约$15-25月度查询约$15-20总计每月$30-50而不是$200-300。这就是 85%成本节省的来源。作者直接给出了完整的公式和每个环节的费用拆解包括具体的 token 价格、使用量假设和总成本计算这些实际项目中可以直接拿来做预算。类似这样有具体数字、可落地的实战经验在 17 条精华问答里还有很多。4写在最后帖子作者说企业 RAG 是 70% 工程 20% 领域知识 10% 模型我深表认同但想再加一个维度企业 RAG 70% 工程 20% 领域知识 10% 模型 ∞ 耐心。毕竟企业 RAG 不是一个纯技术问题对行业的理解、对脏数据的处理能力、对工程细节的把控都是绕不开的必修课。如何学习大模型 AI 由于新岗位的生产效率要优于被取代岗位的生产效率所以实际上整个社会的生产效率是提升的。但是具体到个人只能说是“最先掌握AI的人将会比较晚掌握AI的人有竞争优势”。这句话放在计算机、互联网、移动互联网的开局时期都是一样的道理。我在一线互联网企业工作十余年里指导过不少同行后辈。帮助很多人得到了学习和成长。我意识到有很多经验和知识值得分享给大家也可以通过我们的能力和经验解答大家在人工智能学习中的很多困惑所以在工作繁忙的情况下还是坚持各种整理和分享。但苦于知识传播途径有限很多互联网行业朋友无法获得正确的资料得到学习提升故此将并将重要的AI大模型资料包括AI大模型入门学习思维导图、精品AI大模型学习书籍手册、视频教程、实战学习等录播视频免费分享出来。第一阶段10天初阶应用该阶段让大家对大模型 AI有一个最前沿的认识对大模型 AI 的理解超过 95% 的人可以在相关讨论时发表高级、不跟风、又接地气的见解别人只会和 AI 聊天而你能调教 AI并能用代码将大模型和业务衔接。大模型 AI 能干什么大模型是怎样获得「智能」的用好 AI 的核心心法大模型应用业务架构大模型应用技术架构代码示例向 GPT-3.5 灌入新知识提示工程的意义和核心思想Prompt 典型构成指令调优方法论思维链和思维树Prompt 攻击和防范…第二阶段30天高阶应用该阶段我们正式进入大模型 AI 进阶实战学习学会构造私有知识库扩展 AI 的能力。快速开发一个完整的基于 agent 对话机器人。掌握功能最强的大模型开发框架抓住最新的技术进展适合 Python 和 JavaScript 程序员。为什么要做 RAG搭建一个简单的 ChatPDF检索的基础概念什么是向量表示Embeddings向量数据库与向量检索基于向量检索的 RAG搭建 RAG 系统的扩展知识混合检索与 RAG-Fusion 简介向量模型本地部署…第三阶段30天模型训练恭喜你如果学到这里你基本可以找到一份大模型 AI相关的工作自己也能训练 GPT 了通过微调训练自己的垂直大模型能独立训练开源多模态大模型掌握更多技术方案。到此为止大概2个月的时间。你已经成为了一名“AI小子”。那么你还想往下探索吗为什么要做 RAG什么是模型什么是模型训练求解器 损失函数简介小实验2手写一个简单的神经网络并训练它什么是训练/预训练/微调/轻量化微调Transformer结构简介轻量化微调实验数据集的构建…第四阶段20天商业闭环对全球大模型从性能、吞吐量、成本等方面有一定的认知可以在云端和本地等多种环境下部署大模型找到适合自己的项目/创业方向做一名被 AI 武装的产品经理。硬件选型带你了解全球大模型使用国产大模型服务搭建 OpenAI 代理热身基于阿里云 PAI 部署 Stable Diffusion在本地计算机运行大模型大模型的私有化部署基于 vLLM 部署大模型案例如何优雅地在阿里云私有部署开源大模型部署一套开源 LLM 项目内容安全互联网信息服务算法备案…学习是一个过程只要学习就会有挑战。天道酬勤你越努力就会成为越优秀的自己。如果你能在15天内完成所有的任务那你堪称天才。然而如果你能完成 60-70% 的内容你就已经开始具备成为一名大模型 AI 的正确特征了。这份完整版的大模型 AI 学习资料已经上传CSDN朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费】