洪山网站建设襄阳网站建设-飞鱼网络

张小明 2026/1/1 10:38:32
洪山网站建设,襄阳网站建设-飞鱼网络,中国新闻最新消息简要,腾讯云 建立wordpress文章详细介绍了RAG#xff08;检索增强生成#xff09;技术#xff0c;解释了其如何解决大模型知识时效性有限、无法访问私有数据、可解释性差等问题。从概念、应用场景、行业案例到实际构建流程进行全面讲解#xff0c;提供完整代码示例#xff0c;帮助个人和小团队低成本…文章详细介绍了RAG检索增强生成技术解释了其如何解决大模型知识时效性有限、无法访问私有数据、可解释性差等问题。从概念、应用场景、行业案例到实际构建流程进行全面讲解提供完整代码示例帮助个人和小团队低成本搭建RAG系统。对比RAG与微调的适用场景强调RAG微调的混合方案优势是AI从业者提升大模型应用能力的实用指南。Part 01**一、WhatRAG到底是什么大白话解释想象一下你正在参加一场重要考试。传统的学习方法是死记硬背教科书的内容传统方式是死记硬背教材答题全靠记忆但如果允许你带资料进考场遇到不确定的问题就可以翻阅相关内容给出更准确的回答。RAG技术正是这样工作的传统 AI仅依赖训练时“记住”的知识如同闭卷考试RAG增强的AI先搜索相关资料再基于搜索结果回答问题就像开卷考试RAGRetrieval-Augmented Generation检索增强生成本质上是一种让大模型“边查资料边回答”的技术。它的核心理念很简单不靠死记硬背而是现查现答。正如 IBM 和 Google 所指出的RAG 通过连接外部知识库使 AI 的回答更准确、及时、可溯源——而这恰恰是通用大模型最欠缺的三大能力。既然 RAG 能补足大模型的短板那它到底解决了哪些实际问题为什么越来越多的团队开始拥抱这项技术Part 02二、Why为什么需要RAG尽管大模型在许多任务上表现卓越但仍存在明显短板而 RAG 正好能有效弥补这些不足。知识时效性有限模型训练完成后知识就“冻结”了。例如ChatGPT 无法回答 2023 年 10 月之后发生的“东方甄选小作文”事件。RAG 通过接入实时知识库轻松突破这一限制。无法访问私有数据企业内部文档、个人笔记等私域信息无法被通用模型学习。本地部署 RAG 系统就能安全地利用这些专属知识。可解析性RAG检索结果提供事实依据减少猜测性回答。同时生成答案可标注来源文档增强可信度。缺乏可解释性传统大模型常“一本正经地胡说八道”。RAG 的答案基于真实文档还能标注来源显著提升可信度。成本更优相比为私有知识微调模型所需的大量标注数据和算力RAG 以极低代价实现了知识的动态注入。综合来看RAG 不仅缓解了大模型的幻觉问题还支持按需定制专业回答在效果与成本之间找到了理想平衡点。看到这里你可能会想RAG 听起来很强大但它是大公司的专利吗普通人能用得上吗Part 03三、Who个人和团队也能玩转RAG虽然企业级 RAG 系统开发复杂但对个人或小团队而言搭建一个轻量级 RAG 知识库完全可行——尤其当你资源有限、目标明确时。需求明确规模可控你可能只需从几份笔记、文档或网页中提取信息根本不需要处理复杂的多源数据集成问题。工具成熟上手门槛低 LangChain、LlamaIndex、FAISS 等开源框架已高度封装即使没有深厚技术背景也能快速入门。成本低灵活性强利用现有电脑或免费云资源即可开发测试功能也可随需求逐步扩展边做边学加深理解亲手搭建过程能让你深入掌握 RAG 的数据流、检索逻辑与优化技巧。当然也要注意几点数据质量确保数据的准确性和完整性避免“垃圾进垃圾出”。模型选择选择合适的预训练模型避免不必要的复杂度。持续优化定期评估系统的性能优化和调整系统。隐私与安全处理敏感数据时要注意加密和访问控制避免信息泄露。Part 04四、When什么时候用RAG什么时候用微调选择 RAG 还是微调关键看三点1、看数据数据更新频繁如新闻、商品信息→ 选 RAG任务高度专业化且有标注数据如法律文书分类→ 选微调2、看预算与资源预算有限用RAG更划算搭建RAG系统的成本可能只有微调的1/5。预算充足可以尝试混合方案。先用RAG处理日常问题再用微调优化复杂任务成本降低效率提升。3、看应用场景需要实时响应如电商客服→ RAG 更合适有案例显示响应时间从 30 秒缩短至 1 秒需要深度专业输出如学术综述→ 微调更可靠某高校医学院微调模型生成的内容被评价为“接近研究生水平”。最佳实践是互补而非二选一用 RAG 保证事实准确性用微调提升表达质量。未来趋势正是“RAG 微调”的组合拳Part 05五、WhereRAG真实行业案例RAG 尤其适用于对准确性高、内容更新快的场景。以下是几个典型应用智能客服客户咨询退换货政策时系统实时检索最新文档确保回答精准无误。企业知识管理摩根士丹利为 16,000 多名顾问部署 GPT-4 助手支持搜索 10 万份内部文档大幅提升新人培训效率。金融合规摩根大通利用 RAG 自动分析 KYC 文件处理效率提升 90%用更少人力完成更多任务同时降低合规风险。医疗辅助某大型医院构建医学知识库医生输入症状后系统自动匹配最新指南与文献辅助诊断并减少误判。教育培训在线平台通过 RAG 为学生提供精准答疑根据学习水平动态调整解释深度显著提升参与度与满意度。这些成功案例背后RAG 系统究竟是如何一步步搭建起来的如果你也想动手试试接下来我们就拆解它的完整构建流程。Part 06六、How如何构建RAG系统RAG 的工作流程可分为两个阶段、五个关键步骤准备阶段提问前1️⃣ 文档分片Document Chunking目的将长文档切分成易于处理的小片段就像整理一本厚厚的百科全书我们需要把它按章节、段落或页面分成小部分按字数分比如每1000字一个片段按段落分一个段落一个片段按章节分一个章节一个片段按主题分相关内容归为一个片段2️⃣ 向量索引Vector Indexing目的将文本转换为计算机能理解的”数字指纹”这个过程包含三个核心概念向量Vector简单理解每个文本片段的”数字指纹”技术表示一串数字如[1.0, 2.3, 5.76, -3.6]重要特性含义相近的文本其向量在数学空间中距离很近嵌入Embedding定义把文本转换为向量的过程举例 - “马克喜欢吃水果” → [1, 2] - “马克爱吃水果” → [1, 1]距离很近 - “天气真好” → [-3, -1]距离较远向量数据库Vector Database作用专门存储这些”数字指纹”的仓库内容文本内容 对应的向量优势可以快速找到相似的内容回答阶段提问后3️⃣ 语义检索Semantic Retrieval目的从海量信息中找到最相关的内容当用户提出问题时问题转向量将用户问题转换为向量相似度计算计算问题向量与所有文档向量的相似度初步筛选选出最相关的Top-10个片段相似度计算方法余弦相似度计算向量夹角夹角越小越相似欧氏距离计算直线距离距离越小越相似点积代数计算方法结果越大越相似4️⃣ 结果重排Re-ranking目的从初选结果中精挑细选最佳答案这就像招聘过程检索阶段简历筛选快速、低成本、准确率一般重排阶段面试评估慢速、高成本、准确率高通过Cross-encoder模型对Top-10结果进行精确评估选出最相关的3-5个片段。5️⃣ 答案生成Answer Generation目的基于精选的参考材料生成最终答案将用户问题 精选的文档片段一起发送给大语言模型如GPT-4o生成准确、有依据的最终答案。逐步构建RAG系统一设置环境构建RAG系统需要使用多个Python库包括langchain、langchain-core、langchain-community、langchain-experimental、pymupdf、langchain-text-splitters、faiss-cpu、langchain-ollama、langchain-openai等。这些库各自承担着不同的功能LangChain提供了构建大语言模型应用的整体框架和组件简化了开发流程。PyMuPDF能够从PDF文档中提取文本支持多种PDF特性的处理。FAISS为向量数据库提供高效的相似性搜索能力。Ollama和OpenAI集成允许使用不同的语言模型为用户提供了更多选择。可以使用pip命令安装这些库pip install langchain langchain-core langchain-community langchain-experimental pymupdf langchain-text-splitters faiss-cpu langchain-ollama langchai二组件1PDF加载器from langchain_community.document_loaders import PyMuPDFLoader class PdfLoader: def __init__(self): pass def read_file(self, file_path): loader PyMuPDFLoader(file_path) docs loader.load() return docs上述代码定义了一个PdfLoader类其read_file方法使用PyMuPDFLoader从指定的PDF文件路径中加载文档。PyMuPDFLoader基于PyMuPDF库也称为fitz能够高效地处理各种PDF特性包括文本、表格甚至通过OCR处理一些图像。load()方法返回一个Document对象列表每个对象代表PDF文件中的一页包含提取的文本内容page_content和元数据metadata如源文件路径和页码。在实际应用中可扩展该类以处理其他文档类型。三组件2文本分块from langchain_text_splitters import RecursiveCharacterTextSplitter from langchain_core.documents import Document class Chunker: def __init__(self, chunk_size1000, chunk_overlap100): self.text_splitter RecursiveCharacterTextSplitter( separators[\n\n, \n, , ., ,, \u200b, \uff0c, \u3001, \uff0e, \u3002, ], chunk_sizechunk_size, chunk_overlapchunk_overlap, length_functionlen, is_separator_regexFalse ) def chunk_docs(self, docs): list_of_docs [] for doc in docs: tmp self.text_splitter.split_text(doc.page_content) for chunk in tmp: list_of_docs.append( Document( page_contentchunk, metadatadoc.metadata ) ) return list_of_docsChunker类负责将加载的文档分割成较小的文本块。在初始化时通过设置chunk_size默认1000个字符和chunk_overlap默认100个字符来控制分块的大小和重叠程度。RecursiveCharacterTextSplitter使用一系列分隔符包括段落分隔符、换行符、空格、标点符号等来分割文本优先在自然边界处分割。chunk_docs方法对输入的文档列表进行处理为每个文本块创建新的Document对象并保留原始文档的元数据。四组件3向量存储import faiss from langchain_community.docstore.in_memory import InMemoryDocstore from langchain_community.vectorstores import FAISS from langchain_ollama import OllamaEmbeddings from uuid import uuid4 class VectorStore: def __init__(self): self.embeddings OllamaEmbeddings(modelllama3.2:3b) self.index faiss.IndexFlatL2(len(self.embeddings.embed_query(hello world))) self.vector_store FAISS( embedding_functionself.embeddings, indexself.index, docstoreInMemoryDocstore(), index_to_docstore_id{} ) def add_docs(self, list_of_docs): uuids [str(uuid4()) for _ in range(len(list_of_docs))] self.vector_store.add_documents(documentslist_of_docs, idsuuids) def search_docs(self, query, k5): results self.vector_store.similarity_search( query, kk ) return resultsVectorStore类是检索系统的核心。在初始化时创建一个OllamaEmbeddings嵌入模型这里使用llama3.2:3b模型并基于FAISS创建一个用于L2距离计算的索引同时初始化一个包含嵌入函数、索引和文档存储的向量存储。add_docs方法为每个文档生成唯一ID并将文档添加到向量存储中向量存储会计算文档内容的嵌入并进行索引。search_docs方法将输入的查询转换为嵌入在向量存储中执行相似性搜索并返回最相似的k个文档。在实际生产中可考虑使用持久化向量存储、添加元数据过滤功能或实现混合搜索。五组件4RAG系统from langchain_core.prompts import PromptTemplate from langchain_openai import OpenAI from langchain_ollama import OllamaLLM from pdf_loader import PdfLoader from vector_store import VectorStore from chunk_text import Chunker class RAG: def __init__(self): self.instructor_prompt Instruction: Youre an expert problem solver you answer questions from context given below. You strictly adhere to the context and never move away from it. Youre honest and if you do not find the answer to the question in the context you politely say I Dont know! So help me answer the user question mentioned below with the help of the context provided User Question: {user_query} Answer Context: {answer_context} self.prompt PromptTemplate.from_template(self.instructor_prompt) self.llm OllamaLLM(modelllama3.2:3b) # OpenAI() self.vectorStore VectorStore() self.pdfloader PdfLoader() self.chunker Chunker() def run(self, filePath, query): docs self.pdfloader.read_file(filePath) list_of_docs self.chunker.chunk_docs(docs) self.vectorStore.add_docs(list_of_docs) results self.vectorStore.search_docs(query) answer_context \n\n for res in results: answer_context answer_context \n\n res.page_content chain self.prompt | self.llm response chain.invoke( { user_query: query, answer_context: answer_context } ) return response if __name__ __main__: rag RAG() filePath investment.pdf query How to invest? response rag.run(filePath, query) print(response)RAG类将前面构建的各个组件整合在一起形成一个完整的RAG系统。在初始化时定义一个指导语言模型的提示模板创建PromptTemplate对象并初始化语言模型、向量存储、PDF加载器和文本分块器。run方法实现了完整的RAG工作流程加载PDF文档分块处理添加到向量存储根据用户查询搜索相关文本块组合检索到的文本块形成上下文将提示模板与语言模型结合生成回答。在主程序中创建RAG实例指定PDF文件路径和查询运行系统并打印结果。​最后我在一线科技企业深耕十二载见证过太多因技术卡位而跃迁的案例。那些率先拥抱 AI 的同事早已在效率与薪资上形成代际优势我意识到有很多经验和知识值得分享给大家也可以通过我们的能力和经验解答大家在大模型的学习中的很多困惑。我整理出这套 AI 大模型突围资料包✅AI大模型学习路线图✅Agent行业报告✅100集大模型视频教程✅大模型书籍PDF✅DeepSeek教程✅AI产品经理入门资料完整的大模型学习和面试资料已经上传带到CSDN的官方了有需要的朋友可以扫描下方二维码免费领取【保证100%免费】​​为什么说现在普通人就业/升职加薪的首选是AI大模型人工智能技术的爆发式增长正以不可逆转之势重塑就业市场版图。从DeepSeek等国产大模型引发的科技圈热议到全国两会关于AI产业发展的政策聚焦再到招聘会上排起的长队AI的热度已从技术领域渗透到就业市场的每一个角落。智联招聘的最新数据给出了最直观的印证2025年2月AI领域求职人数同比增幅突破200%远超其他行业平均水平整个人工智能行业的求职增速达到33.4%位居各行业榜首其中人工智能工程师岗位的求职热度更是飙升69.6%。AI产业的快速扩张也让人才供需矛盾愈发突出。麦肯锡报告明确预测到2030年中国AI专业人才需求将达600万人人才缺口可能高达400万人这一缺口不仅存在于核心技术领域更蔓延至产业应用的各个环节。​​资料包有什么①从入门到精通的全套视频教程⑤⑥包含提示词工程、RAG、Agent等技术点② AI大模型学习路线图还有视频解说全过程AI大模型学习路线③学习电子书籍和技术文档市面上的大模型书籍确实太多了这些是我精选出来的④各大厂大模型面试题目详解⑤ 这些资料真的有用吗?这份资料由我和鲁为民博士共同整理鲁为民博士先后获得了北京清华大学学士和美国加州理工学院博士学位在包括IEEE Transactions等学术期刊和诸多国际会议上发表了超过50篇学术论文、取得了多项美国和中国发明专利同时还斩获了吴文俊人工智能科学技术奖。目前我正在和鲁博士共同进行人工智能的研究。所有的视频教程由智泊AI老师录制且资料与智泊AI共享相互补充。这份学习大礼包应该算是现在最全面的大模型学习资料了。资料内容涵盖了从入门到进阶的各类视频教程和实战项目无论你是小白还是有些技术基础的这份资料都绝对能帮助你提升薪资待遇转行大模型岗位。智泊AI始终秉持着“让每个人平等享受到优质教育资源”的育人理念‌通过动态追踪大模型开发、数据标注伦理等前沿技术趋势‌构建起前沿课程智能实训精准就业的高效培养体系。课堂上不光教理论还带着学员做了十多个真实项目。学员要亲自上手搞数据清洗、模型调优这些硬核操作把课本知识变成真本事‌​​​​如果说你是以下人群中的其中一类都可以来智泊AI学习人工智能找到高薪工作一次小小的“投资”换来的是终身受益应届毕业生‌无工作经验但想要系统学习AI大模型技术期待通过实战项目掌握核心技术。零基础转型‌非技术背景但关注AI应用场景计划通过低代码工具实现“AI行业”跨界‌。业务赋能 ‌突破瓶颈传统开发者Java/前端等学习Transformer架构与LangChain框架向AI全栈工程师转型‌。获取方式有需要的小伙伴可以保存图片到wx扫描二v码免费领取【保证100%免费】**​
版权声明:本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若内容造成侵权/违法违规/事实不符,请联系邮箱:809451989@qq.com进行投诉反馈,一经查实,立即删除!

黑色网站欣赏福建省住建厅网站官网

jQuery UI Tabs(标签页)实例 Tabs 是 jQuery UI 中最常用的布局组件之一,用于在有限空间内组织多个内容面板,通过点击标签切换显示。常用于后台管理页面、商品详情(描述/参数/评价)、设置面板等。 官方演…

张小明 2025/12/26 22:14:46 网站建设

龙岗品牌网站建设网页设计面试常见问题

PaddlePaddle槽位填充实战:构建中文信息抽取系统的高效路径 在智能客服、语音助手和自动化表单填写等场景中,如何从用户一句“我要订明天从北京飞上海的机票”里精准提取出发地、目的地和时间?这背后的核心技术正是槽位填充(Slot…

张小明 2025/12/26 22:14:12 网站建设

网站维护进不去怎么办wordpress怎么上传头像不显示

还在为Linux系统中繁琐的文件查找而烦恼吗?每次使用find命令都要等待漫长的遍历过程?FSearch快速文件搜索工具正是您需要的解决方案!这款基于GTK3的轻量级应用,让您在Linux桌面上享受前所未有的文件搜索体验,彻底告别传…

张小明 2025/12/31 6:50:39 网站建设

网站策划书的撰写流程是什么邢台 网站建设

OmenSuperHub:惠普游戏本硬件控制的终极解决方案 【免费下载链接】OmenSuperHub 项目地址: https://gitcode.com/gh_mirrors/om/OmenSuperHub 还在为官方Omen Gaming Hub的复杂界面和资源占用而烦恼吗?OmenSuperHub提供了一个简洁、高效的替代选…

张小明 2025/12/26 22:13:03 网站建设

个人专属logo设计seo1搬到哪里去了

CogAgent-9B震撼发布:纯视觉交互重塑2025人机协作新范式 【免费下载链接】cogagent-vqa-hf 项目地址: https://ai.gitcode.com/zai-org/cogagent-vqa-hf 导语 清华大学与智谱AI联合推出的CogAgent-9B-20241220版本,以11201120高分辨率视觉输入和…

张小明 2025/12/26 22:11:55 网站建设

wordpress邮件发送附件重庆百度推广优化

Linux软件包管理全解析 在Linux系统中,为了保持系统更新并按需安装或移除应用程序,支持多种方法,其中使用预构建程序包(packages)是常见的方式之一。本文将详细介绍如何使用RPM和YUM工具来管理这些预构建软件包,以及如何在CentOS 7中添加或移除官方和第三方仓库。 RPM包…

张小明 2025/12/31 21:03:30 网站建设