30天网站建设实录视频云盘linux wordpress教程
30天网站建设实录视频云盘,linux wordpress教程,网站keywords重复解决方法,平面设计师必看的网站【入门提示】本文专为大模型初学者和程序员设计#xff0c;无需深厚AI基础即可理解。全文从Agent核心定义出发#xff0c;梳理发展脉络#xff0c;拆解主流架构#xff0c;最终落地代码实战#xff0c;配套可直接运行的案例#xff0c;建议收藏后逐步学习实践。
Agent无需深厚AI基础即可理解。全文从Agent核心定义出发梳理发展脉络拆解主流架构最终落地代码实战配套可直接运行的案例建议收藏后逐步学习实践。Agent智能体的权威定义源自Stuart Russell与Peter Norvig合著的经典教材《Artificial Intelligence: A Modern Approach》1995年中译本《人工智能一种现代方法》。书中给出的核心定义如下An agent is anything that can be viewed as perceiving its environment through sensors and acting upon that environment through actuators.通俗来讲Agent就是能够自主感知外部环境、自主决策并执行动作最终完成特定目标的智能系统。更直白的解释Agent就像一个“智能代理”接收你的指令后不用你一步步指导就能自己想办法推进任务——比如查资料、调用工具最终给出结果而不是被动等待下一步指令。日常类比把Agent想象成你的专属AI助理。你只需交代“写一份某产品的市场调研简报”它会自己拆解任务先搜索产品信息、再收集行业数据、接着分析竞品、最后整合报告全程无需你过多干预。一、Agent发展简史从规则驱动到LLM赋能Agent并非新概念其发展历程伴随人工智能技术的迭代大致可分为三个关键阶段1. 规则驱动时代1950-1990年手工编码的“专家助手”早期AI系统的核心是“手工编写规则”Agent本质是基于if-then逻辑的规则集合。这类系统灵活性极差但在特定细分领域能精准模拟人类专家的决策过程因此被称为“专家系统”。典型代表有20世纪70年代的医学诊断系统MYCIN和更早的化学分析系统DENDRALMYCIN包含数百条传染病治疗规则能根据患者症状、病史给出诊断建议和用药方案还能以自然语言解释推理过程在当时达到了接近人类专家的诊断水平DENDRAL则专注于化学分子结构分析通过预设的化学规则可根据质谱数据推断未知化合物的结构。局限性也十分明显一是知识获取成本极高需要领域专家与程序员协作将经验转化为大量规则二是不具备学习能力遇到规则之外的场景就会“束手无策”无法适应复杂环境。2. 强化学习时代1990-2020年能“试错学习”的智能体随着机器学习技术兴起Agent的决策逻辑从“预设规则”转向“自主学习”强化学习Reinforcement Learning, RL成为核心框架。强化学习的核心逻辑是Agent通过与环境持续交互不断尝试动作根据环境反馈的“奖励”或“惩罚”调整策略经过大量迭代后学会能最大化奖励的行动序列。这一阶段的突破点是2010年代的深度强化学习2016年DeepMind的AlphaGo通过“深度神经网络强化学习”组合击败人类围棋世界冠军让大众首次见识到Agent在复杂决策场景中的潜力。此外强化学习Agent还被应用于机器人控制、雅达利游戏等领域能自主探索出最优策略。局限性需要明确的奖励函数设计否则Agent无法判断行动好坏且需要海量训练数据训练出的策略通用性差比如会玩围棋的AlphaGo无法直接解决其他任务难以落地现实开放场景。3. 大语言模型时代2020年至今通用能力的“超级Agent”2020年后GPT-3、GPT-4等大型语言模型LLM的崛起彻底改变了Agent的发展格局。研究者发现LLM蕴含的海量世界知识和强大推理能力可直接作为Agent的“通用大脑”无需为每个任务单独训练模型。关键里程碑事件2022年链式思考Chain-of-Thought, CoT方法提出让LLM能像人类一样“逐步思考”大幅提升复杂推理能力同年ReAct等“推理-行动”融合架构出现让LLM不仅能“想”还能调用工具与外界交互2023年AutoGPT、BabyAGI等开源项目引爆社区基于GPT-4等模型实现了“自主拆解任务、搜索信息、执行代码”的全流程闭环标志着LLM驱动的自治Agent正式诞生LangChain、LlamaIndex等开发框架崛起为开发者构建LLM Agent提供了开箱即用的工具库降低了开发门槛。LLM时代Agent的核心优势① 通用性强依赖预训练知识无需专项训练② 交互友好以自然语言为接口决策过程人类可读③ 能力拓展可调用网络、数据库等开放工具适配现实复杂任务。二、LLM Agent核心架构两种主流范式详解当前业界主流的LLM Agent架构可分为两类适合轻量任务的ReAct推理-行动交替模式和适合复杂任务的Plan-and-Execute先规划后执行模式。两者各有适配场景初学者可根据任务需求选择。1. ReAct模式边想边做模拟人类解题思路ReAct是Reasoning and Acting的缩写由谷歌大脑团队2022年在论文《ReAct: Synergizing Reasoning and Acting in Language Models》中提出。核心思想是“思考与行动交替进行”让Agent像人类解复杂题一样想一步、做一步根据结果调整思路。ReAct核心工作流程5步闭环Thought思考Agent分析当前问题生成内部推理过程。比如面对“某城市2024年GDP是多少”的问题会思考“我需要先搜索该城市2024年的GDP数据”Action行动基于思考结果输出特定格式的工具调用指令。比如“Action: web_search(某城市2024年GDP)”工具可包括搜索、计算器、数据库查询等Observation观察工具执行后返回结果Agent获取新信息。比如搜索后得到“某城市2024年GDP为1.2万亿元”循环迭代Agent将观察结果纳入上下文再次思考下一步动作。若已获取足够信息则准备输出答案否则继续循环Final Answer最终答案任务完成输出整理后的结果。实战示例计算“中国人口的两倍是多少”Thought用户要计算中国人口的两倍首先需要知道当前中国人口数Actionweb_search(中国当前人口数)Observation搜索结果显示中国2023年人口约14.1亿Thought已知人口数需要计算14.1亿×2Actioncalculator(14.1亿×2)Observation计算结果为28.2亿Thought已获取结果可直接作答Final Answer中国人口的两倍约为28.2亿。适用场景交互性强、步骤较少、需要实时信息的轻量任务如简单查询、短期计算。优势是逻辑直观、调试方便不足是缺乏全局规划效率较低。2. Plan-and-Execute模式先定方案再逐步落地当任务涉及多步骤、长流程如“写一份行业调研报告”时Plan-and-Execute模式更具优势。该模式将Agent分为“规划者Planner”和“执行者Executor”两个模块先制定完整计划再按步骤执行还支持根据执行结果调整计划。核心模块分工Planner规划者由LLM担任负责拆解目标为有序子任务。比如接到“写调研报告”的任务会生成计划① 搜索行业背景② 收集市场数据③ 分析竞品情况④ 撰写并优化报告Executor执行者负责逐条执行子任务可调用工具或内部ReAct Agent完成单步任务执行结果存入共享状态记录任务进度和已获取信息。完整运行流程任务规划Planner接收目标生成详细子任务列表明确步骤顺序和依赖关系任务执行Executor按计划执行子任务每步完成后更新共享状态计划调整可选若某步执行结果不符合预期如搜索不到目标数据Planner重新规划增补或修改子任务生成最终结果所有子任务完成后汇总共享状态信息输出最终成果。适用场景多步骤、长程规划、高精度要求的复杂任务如调研报告撰写、项目方案制定。优势是流程结构化、任务拆解清晰不足是实现复杂、执行耗时存在误差传递风险某一步出错可能影响整体结果。三、代码实战从0实现Agent小白可直接运行本节提供两种实战方案零框架实现ReAct理解核心原理和LangChain实现Plan-and-Execute快速落地均基于Ollama本地大模型无需API密钥适合小白测试。实战准备1. 安装Ollama并下载qwen2.5:7b模型命令ollama pull qwen2.5:7b2. 安装依赖包pip install ollama requests json re duckduckgo-search langchain langchain-community langchain-experimental。1. 零框架实现ReAct理解核心逻辑核心思路通过Prompt控制LLM输出格式解析输出结果调用工具循环完成“思考-行动-观察”闭环。第一步实现核心ReAct类包含Prompt定义、LLM调用、动作解析、工具执行importollamaimportreimportjsonfromtypingimportOptional,TupleclassReActAgent:def__init__(self,model:strqwen2.5:7b,max_steps:int10):self.modelmodel self.max_stepsmax_steps# 最大循环步数避免无限循环# 定义可用工具及描述self.tools{calculator:self.calculator,web_search:self.web_search# 实际使用需补充实现}self.tool_descriptions{calculator:用于计算数学表达式支持加减乘除等基本运算,web_search:用于搜索网络实时信息如人口数据、GDP等}def_get_system_prompt(self)-str:生成系统提示词控制LLM输出格式tools_desc\n.join([f-{name}:{desc}forname,descinself.tool_descriptions.items()])returnf你是基于ReAct模式的智能助手需通过思考-行动-观察循环解决问题。 可用工具{tools_desc}工作规则 1. 先通过Thought分析问题明确下一步需要做什么 2. 若需要调用工具用格式Action: tool_name(parameters) 输出 3. 我会返回工具执行结果Observation你需结合结果继续思考 4. 问题解决后用格式Final Answer: 结果 输出最终答案。 示例 Thought: 我需要计算2517的结果 Action: calculator(2517) Observation: 42 Final Answer: 251742def_call_llm(self,messages:list)-str:调用Ollama大模型responseollama.chat(modelself.model,messagesmessages)returnresponse[message][content]def_parse_action(self,text:str)-Optional[Tuple[str,Any]]:解析LLM输出提取工具名称和参数patternrAction:\s*(\w)\((.*?)\)matchre.search(pattern,text,re.DOTALL)ifnotmatch:returnNonetool_namematch.group(1)params_strmatch.group(2).strip()iftool_namenotinself.tools:returnNone# 解析参数支持字符串和JSON格式try:ifparams_str.startswith({)andparams_str.endswith(}):returntool_name,json.loads(params_str)returntool_name,params_strifparams_strelseNoneexceptjson.JSONDecodeError:returntool_name,params_str# 工具实现计算器defcalculator(self,expr:str)-str:try:# 简单表达式计算实际可扩展更复杂逻辑resulteval(expr)returnf计算结果{result}exceptExceptionase:returnf计算失败{str(e)}# 工具实现网络搜索示例需补充实际搜索逻辑defweb_search(self,query:str)-str:# 此处可集成duckduckgo或其他搜索APImock_data{中国当前人口数:中国2023年人口约14.1亿,某城市2024年GDP:某城市2024年GDP为1.2万亿元}returnmock_data.get(query,f未找到{query}的相关数据)defsolve(self,question:str,verbose:boolTrue)-str:核心解决方法执行ReAct循环messages[{role:system,content:self._get_system_prompt()},{role:user,content:question}]forstepinrange(self.max_steps):ifverbose:print(f\n 第{step1}步 )try:# 调用LLM获取响应llm_responseself._call_llm(messages)ifverbose:print(fAgent思考/动作{llm_response})messages.append({role:assistant,content:llm_response})# 检查是否已输出最终答案ifFinal Answer:inllm_response:final_answerllm_response.split(Final Answer:)[-1].strip()ifverbose:print(f\n✅ 任务完成答案{final_answer})returnfinal_answer# 解析并执行动作actionself._parse_action(llm_response)ifaction:tool_name,paramsaction observationself.tools[tool_name](params)ifverbose:print(f 执行工具{tool_name}参数{params})print(f️ 观察结果{observation})# 将观察结果加入对话上下文messages.append({role:user,content:fObservation:{observation}})else:ifverbose:print(⚠️ 未识别到有效动作继续思考...)exceptExceptionase:error_msgf执行出错{str(e)}ifverbose:print(f❌{error_msg})returnerror_msgreturn❌ 达到最大步数限制任务未完成# 测试运行if__name____main__:agentReActAgent()agent.solve(中国人口的两倍是多少)第二步运行效果说明运行代码后Agent会按以下流程执行思考需要先获取中国人口数调用web_search工具获取模拟搜索结果14.1亿后思考需要计算两倍值调用calculator工具得到计算结果28.2亿输出最终答案。若需真实搜索功能可将web_search方法替换为duckduckgo-search的实际调用逻辑参考后续Plan-and-Execute案例。2. LangChain实现Plan-and-Execute快速落地复杂任务LangChain已封装好Plan-and-Execute的核心逻辑无需手动实现规划和执行循环只需定义工具和LLM即可快速搭建Agent。实战案例调查“气候变化对北极熊种群的影响”并生成总结报告fromlangchain_community.llmsimportOllamafromlangchain.agentsimportToolfromlangchain_experimental.plan_and_executeimportPlanAndExecute,load_chat_planner,load_agent_executorfromduckduckgo_searchimportDDGS# 1. 初始化本地LLMOllama qwen2.5:7bllmOllama(modelqwen2.5:7b,temperature0)# temperature0保证输出稳定# 2. 定义工具DuckDuckGo网络搜索获取实时科学数据defddg_search(query:str)-str:使用DuckDuckGo搜索返回前3条结果摘要results[]withDDGS()asddgs:forresinddgs.text(query,max_results3):results.append(f标题{res[title]}\n内容{res[body]}\n)return\n.join(results)ifresultselse未找到相关信息# 封装为LangChain Toolsearch_toolTool(nameWebSearch,funcddg_search,description用于搜索互联网信息尤其适合获取科学研究数据、种群变化趋势等实时/权威信息)tools[search_tool]# 3. 加载规划者Planner和执行者Executorplannerload_chat_planner(llm)# 负责生成任务计划# 执行者内部集成ReAct Agent可自动调用工具执行子任务executorload_agent_executor(llm,tools,verboseTrue)# 4. 构建Plan-and-Execute AgentagentPlanAndExecute(plannerplanner,executorexecutor,verboseTrue# 打印详细流程规划过程、执行步骤)# 5. 运行Agent执行复杂任务task调查气候变化对北极熊种群的影响并生成一份总结报告包含影响因素、种群变化趋势和保护建议print( 开始执行任务 )resultagent.run(task)# 6. 输出最终报告print(\n*50)print(最终总结报告)print(*50)print(result)运行流程解析规划阶段Planner生成任务计划如① 确定气候变化的主要影响因素② 分析这些因素对北极熊生存的具体影响③ 收集北极熊种群数量变化的科学数据④ 总结影响并提出保护建议执行阶段Executor按计划逐条执行调用WebSearch工具获取科学研究数据如多伦多大学关于海冰萎缩与北极熊种群下降的研究结果生成所有子任务完成后汇总信息生成结构化总结报告。运行效果示例Entering new PlanAndExecute chain... steps[ Step(value确定气候变化影响北极熊生存的主要因素), Step(value分析这些因素如何具体作用于北极熊的栖息地和觅食行为), Step(value收集近期关于北极熊种群数量变化的科学研究数据), Step(value总结气候变化对北极熊种群的核心影响并提出可行的保护建议) ] ...中间执行步骤省略 最终总结报告 气候变化对北极熊种群的核心影响及保护建议 1. 核心影响因素气候变化导致北极海冰萎缩是主要驱动因素海冰是北极熊觅食捕捉海豹、繁殖和休憩的关键栖息地 2. 种群变化趋势多伦多大学士嘉堡分校2025年研究证实哈德逊湾西部北极熊种群数量因海冰减少已显著下降若不干预未来可能面临灭绝风险 3. 保护建议 - 减少温室气体排放减缓全球变暖趋势 - 建立北极保护区保护剩余海冰栖息地 - 加强国际合作制定跨区域北极熊保护政策 - 持续开展科学监测跟踪种群数量变化趋势。注意事项运行时需确保已安装duckduckgo-search库pip install duckduckgo-search若出现网络问题可替换为国内可访问的搜索API。四、总结Agent的核心本质与学习方向大模型就像一个“聪明的大脑”但本身无法主动与外界交互、推进复杂任务而Agent通过“Prompt控制工具调度循环反馈”的机制让大模型具备了“自主行动”的能力——这就是Agent的核心本质将大模型的“思考能力”转化为“解决问题的行动能力”。对于初学者/程序员后续可重点关注以下学习方向提升Agent开发能力Prompt工程设计更精准的提示词提升Agent的思考与决策质量工具扩展集成更多实用工具如数据库操作、文件处理、API调用记忆机制为Agent添加短期/长期记忆支持跨任务上下文关联协同架构探索多Agent协作模式如分工负责不同子任务安全性防范工具滥用、恶意指令等风险提升Agent可靠性。建议先掌握本文的ReAct和Plan-and-Execute两种基础架构通过本地Ollama模型反复调试代码再逐步探索更复杂的Agent应用场景如自动办公、代码生成、智能客服等。如何学习大模型 AI 由于新岗位的生产效率要优于被取代岗位的生产效率所以实际上整个社会的生产效率是提升的。但是具体到个人只能说是“最先掌握AI的人将会比较晚掌握AI的人有竞争优势”。这句话放在计算机、互联网、移动互联网的开局时期都是一样的道理。我在一线互联网企业工作十余年里指导过不少同行后辈。帮助很多人得到了学习和成长。我意识到有很多经验和知识值得分享给大家也可以通过我们的能力和经验解答大家在人工智能学习中的很多困惑所以在工作繁忙的情况下还是坚持各种整理和分享。但苦于知识传播途径有限很多互联网行业朋友无法获得正确的资料得到学习提升故此将并将重要的AI大模型资料包括AI大模型入门学习思维导图、精品AI大模型学习书籍手册、视频教程、实战学习等录播视频免费分享出来。这份完整版的大模型 AI 学习资料已经上传CSDN朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费】为什么要学习大模型我国在A大模型领域面临人才短缺,数量与质量均落后于发达国家。2023年人才缺口已超百万凸显培养不足。随着AI技术飞速发展预计到2025年,这一缺口将急剧扩大至400万,严重制约我国AI产业的创新步伐。加强人才培养,优化教育体系,国际合作并进是破解困局、推动AI发展的关键。大模型入门到实战全套学习大礼包1、大模型系统化学习路线作为学习AI大模型技术的新手方向至关重要。 正确的学习路线可以为你节省时间少走弯路方向不对努力白费。这里我给大家准备了一份最科学最系统的学习成长路线图和学习规划带你从零基础入门到精通2、大模型学习书籍文档学习AI大模型离不开书籍文档我精选了一系列大模型技术的书籍和学习文档电子版它们由领域内的顶尖专家撰写内容全面、深入、详尽为你学习大模型提供坚实的理论基础。3、AI大模型最新行业报告2025最新行业报告针对不同行业的现状、趋势、问题、机会等进行系统地调研和评估以了解哪些行业更适合引入大模型的技术和应用以及在哪些方面可以发挥大模型的优势。4、大模型项目实战配套源码学以致用在项目实战中检验和巩固你所学到的知识同时为你找工作就业和职业发展打下坚实的基础。5、大模型大厂面试真题面试不仅是技术的较量更需要充分的准备。在你已经掌握了大模型技术之后就需要开始准备面试我精心整理了一份大模型面试题库涵盖当前面试中可能遇到的各种技术问题让你在面试中游刃有余。适用人群第一阶段10天初阶应用该阶段让大家对大模型 AI有一个最前沿的认识对大模型 AI 的理解超过 95% 的人可以在相关讨论时发表高级、不跟风、又接地气的见解别人只会和 AI 聊天而你能调教 AI并能用代码将大模型和业务衔接。大模型 AI 能干什么大模型是怎样获得「智能」的用好 AI 的核心心法大模型应用业务架构大模型应用技术架构代码示例向 GPT-3.5 灌入新知识提示工程的意义和核心思想Prompt 典型构成指令调优方法论思维链和思维树Prompt 攻击和防范…第二阶段30天高阶应用该阶段我们正式进入大模型 AI 进阶实战学习学会构造私有知识库扩展 AI 的能力。快速开发一个完整的基于 agent 对话机器人。掌握功能最强的大模型开发框架抓住最新的技术进展适合 Python 和 JavaScript 程序员。为什么要做 RAG搭建一个简单的 ChatPDF检索的基础概念什么是向量表示Embeddings向量数据库与向量检索基于向量检索的 RAG搭建 RAG 系统的扩展知识混合检索与 RAG-Fusion 简介向量模型本地部署…第三阶段30天模型训练恭喜你如果学到这里你基本可以找到一份大模型 AI相关的工作自己也能训练 GPT 了通过微调训练自己的垂直大模型能独立训练开源多模态大模型掌握更多技术方案。到此为止大概2个月的时间。你已经成为了一名“AI小子”。那么你还想往下探索吗为什么要做 RAG什么是模型什么是模型训练求解器 损失函数简介小实验2手写一个简单的神经网络并训练它什么是训练/预训练/微调/轻量化微调Transformer结构简介轻量化微调实验数据集的构建…第四阶段20天商业闭环对全球大模型从性能、吞吐量、成本等方面有一定的认知可以在云端和本地等多种环境下部署大模型找到适合自己的项目/创业方向做一名被 AI 武装的产品经理。硬件选型带你了解全球大模型使用国产大模型服务搭建 OpenAI 代理热身基于阿里云 PAI 部署 Stable Diffusion在本地计算机运行大模型大模型的私有化部署基于 vLLM 部署大模型案例如何优雅地在阿里云私有部署开源大模型部署一套开源 LLM 项目内容安全互联网信息服务算法备案…学习是一个过程只要学习就会有挑战。天道酬勤你越努力就会成为越优秀的自己。如果你能在15天内完成所有的任务那你堪称天才。然而如果你能完成 60-70% 的内容你就已经开始具备成为一名大模型 AI 的正确特征了。这份完整版的大模型 AI 学习资料已经上传CSDN朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费】