完整学习文档
AI 使用基础:从理解原理到业务落地
这份材料采用文档式阅读结构。每一章先解释概念,再用业务语言说明含义,最后给出适用场景、常见误区和使用建议。阅读时不需要关注模型开发细节,重点放在理解能力边界、任务表达和风险控制。
课程说明:学习目标、方法与 AI 在业务中的定位
AI 已经从单一工具功能,逐步变成办公软件、业务系统和知识管理平台中的基础能力。对业务人员而言,关键不是掌握技术实现,而是能够判断 AI 能辅助什么、不能代替什么,以及如何在安全边界内获得稳定结果。
建立共同语言,理解大模型与 Agent 的基本概念,形成可复用的 AI 使用方法,并在业务实践中保持必要的复核和风险意识。
理解 AI、大模型、生成式 AI、知识库、Agent 等概念之间的关系,避免把所有 AI 能力都理解为“聊天”。
把业务目标、背景材料、限制条件和输出格式说明清楚,让 AI 更稳定地辅助整理、起草、总结和分析。
涉及客户、合同、价格、经营数据、制度口径和对外发布时,应遵循公司流程并保留人工复核。
AI 在业务工作中的定位
AI 更适合被定位为“信息处理与内容生成的辅助能力”。它可以帮助人更快整理材料、形成初稿、提出备选思路、生成结构化摘要,也可以嵌入系统中帮助完成检索、问答和流程协作。但 AI 不应被视为最终负责人,也不应绕过组织已有的审批、授权和复核机制。
一个稳妥的使用方式是:先选择低风险、可复核、文本密集的任务进行尝试,例如会议纪要、培训材料、制度问答、邮件草稿和表格摘要。随着团队对能力边界和流程要求更清楚,再逐步探索更复杂的协作方式。
AI 与大模型发展脉络:从规则系统到生成式 AI
理解 AI 的第一步,是把它放回发展脉络中看。AI 并不是突然出现的一项单点技术,而是经历了规则系统、机器学习、深度学习、大模型和生成式 AI 等阶段。
早期系统更多依赖人工规则。例如“满足某些条件就触发某个流程”。这类系统边界清晰、可解释性强,但适应复杂变化的能力有限。
系统开始从历史数据中学习规律,用于分类、预测和推荐。例如销量预测、异常识别、风险评分等。
通过更复杂的模型结构处理图像、语音和语言,使机器在识别、理解和生成方面有明显进展。
模型规模、训练数据和通用能力进一步提升,可以围绕自然语言完成总结、解释、生成、改写、问答和初步规划。
几个容易混淆的概念
人工智能的总称,覆盖感知、预测、生成、决策辅助、自动化等多种能力。
AI 的重要方法之一,强调从数据中学习规律,而不是完全依赖人工写规则。
在大规模数据上训练形成的通用模型,通常具备较强的语言理解、生成和推理辅助能力。
强调生成新内容,包括文本、图片、音频、视频、表格说明和方案草稿等。
业务视角的理解方式
规则系统像一套固定操作手册,适合流程明确的任务;机器学习像从历史数据中总结经验,适合预测和识别;大模型则像一个具备通用语言能力的协作助手,能阅读材料、总结要点、生成内容和解释概念。不同技术形态适合不同场景,业务价值取决于它能否解决真实流程中的效率、质量或知识传递问题。
大模型基本原理:数据、训练、参数、预训练与对齐
大模型的能力来自大规模训练。它通过大量文本、代码、图文说明等材料学习语言结构和知识关联,再通过指令训练、人工反馈和安全规则,让输出更符合人类使用方式。
模型训练需要大量材料。材料越丰富,模型越容易学习语言表达、知识关联和常见问题的回答方式。
训练可以理解为反复练习和调整。模型不断根据样本修正内部规律,使后续生成更接近合理表达。
参数是模型内部保存规律的方式。业务人员可以把它理解为模型学习后形成的复杂连接和权重。
模型先学习通用语言和知识基础,形成理解、总结、续写、改写等基础能力。
通过指令样例、人工反馈和安全规则,让模型更符合人的提问方式、表达规范和风险要求。
用户输入任务后,模型会根据当前上下文逐步生成回应。这里的推理是生成过程,不等同于人类完全可靠的判断。
为什么大模型看起来“理解”语言
大模型不是简单从固定答案表里查找内容。它在训练中学习了词语、句子、段落、主题和任务之间的关系,因此能够根据上下文生成结构完整、语气自然的回答。它能把一段会议记录整理成纪要,把一份制度解释成问答,也能按要求生成邮件、清单或汇报提纲。
但这种能力并不意味着模型掌握了企业内部全部事实。模型生成内容时会根据上下文预测合适表达,如果材料不足、问题不清楚,或涉及最新信息和内部规则,就可能出现不准确内容。因此,语言流畅只是可读性的表现,不等于事实可靠。
建议结合本章和下一章观看,重点理解大模型如何形成语言处理能力,以及为什么输出需要复核。
当 AI 回答涉及制度、价格、合同、客户、法律、经营数据、对外口径时,应回到可信材料和公司流程中复核。
大模型如何处理信息:Token、上下文窗口、系统指令与稳定性
业务使用者不需要掌握模型开发,但理解几个基础概念,可以明显提升 AI 使用的稳定性:Token、上下文窗口、系统指令、输出格式和随机性。
模型处理文本的基本片段,可理解为字、词或词的一部分。文本越长,消耗的 Token 越多。
模型一次能参考的问题、材料和历史对话范围。超出范围的信息可能无法被充分参考。
系统或工具预先设定的规则,例如回答语气、可做事项、禁止事项和安全边界。
明确要求表格、清单、邮件、汇报提纲或行动项,可以提升结果可用性。
上下文窗口可以理解为“当前桌面”
可以把上下文窗口想象成模型当前桌面上能看到的材料。桌面上没有放制度原文,模型就容易根据一般经验回答;桌面上放了大量材料但没有结构,模型又可能抓不到重点。因此,业务材料应尽量清晰分段,标明哪些是背景、哪些是必须遵守的规则、哪些是希望输出的结果。
随机性与稳定性
一些 AI 工具会提供“创造性”“温度”或类似选项。随机性较高时,回答可能更发散,适合头脑风暴、创意方向和备选标题;随机性较低时,回答通常更稳定,适合制度解释、流程说明和标准化文本。业务场景中,若追求一致口径,通常应优先选择更稳定的生成方式。
示例:让 AI 生成汇报提纲
表达较弱:请写一个汇报。
表达更清晰:请基于以下会议记录,面向部门负责人生成一份 5 分钟汇报提纲。请包含背景、关键进展、风险问题、需要协调的事项和下一步安排,使用分点结构,避免补充未经确认的数据。
生成式 AI 与多模态:文本、图片、语音、表格的能力边界
生成式 AI 的核心特征是根据上下文生成新内容。随着多模态能力发展,AI 不再只处理文字,也可以辅助理解图片、语音、表格和图表。
总结、改写、翻译、邮件、方案、通知、制度解释和培训材料初稿。
识别画面内容、解释图表、提取视觉信息、生成视觉创意方向。
会议转写、语音摘要、客服质检、培训回顾和访谈材料整理。
整理字段、形成摘要、发现异常、生成管理层可读说明。
多模态为什么重要
真实业务材料往往不是单一文本。一次会议可能有录音、纪要、PPT 和表格;一次市场活动可能有照片、报名名单、费用明细和反馈表。多模态能力让 AI 能更接近真实办公材料的形态,辅助完成跨材料整理。
使用边界
多模态并不意味着结果可以直接采用。图片识别可能看错细节,表格摘要可能忽略异常值,语音转写可能出现人名、数字或专业词错误。涉及品牌、版权、客户隐私、经营数据和对外发布时,应按照公司要求复核。
幻觉、偏差与事实复核:判断 AI 输出是否可信
AI 输出可能流畅、完整、有条理,但仍可能包含错误信息。理解幻觉、偏差和时效性,是企业安全使用 AI 的基础。
生成看似合理但事实不准确的内容,例如不存在的来源、错误的数据或不准确的结论。
输出受到训练数据、问题表达、材料选择和上下文限制影响,可能呈现片面视角。
模型未必掌握最新政策、价格、组织架构、制度版本和业务变化。
事实、数字、条款、政策、对外口径和承诺事项都需要回到可信来源核对。
为什么会出现幻觉
大模型的生成过程是根据上下文组织可能合适的回答。当它缺少关键材料、无法访问最新信息,或用户要求它给出确定结论时,模型可能会用看似合理的表达补齐空白。这种“补齐”在语言上可能很自然,但事实并不一定成立。
可信度判断清单
- 是否引用了明确来源,来源是否真实可靠。
- 数字、日期、政策名称、合同条款是否可核对。
- 是否符合公司当前制度、授权范围和审批要求。
- 是否把不确定信息标注出来,而不是包装成确定结论。
- 是否涉及对外承诺、客户权益、价格、交期、法律或合规风险。
越是表达流畅、结构完整的输出,越容易让人忽略核对环节。对关键材料,应把“复核来源和责任人”作为固定步骤。
知识库与 RAG:让回答贴近企业资料
企业知识库可以把制度、流程、产品材料和培训资料组织起来。RAG 的核心思路是先检索相关资料,再让模型基于资料生成回答。
经过整理、分组、版本管理和权限控制的企业资料集合。
把文字转成便于计算的表示方式,用来比较语义相似度。
从知识库中找到与问题相关的片段、制度或说明。
模型基于检索到的材料组织回答,并尽量保持可追溯。
RAG 的通俗理解
可以把 RAG 理解为“先查资料,再组织回答”。普通大模型回答时,更多依赖它已有的通用能力和当前输入;RAG 则会先从企业知识库里找到相关材料,再把材料交给模型整理成可读答案。这样可以提升回答与企业资料的一致性,也便于追溯来源。
知识库质量决定效果上限
知识库并不是把所有文件堆在一起。资料是否为最新版本、标题是否清晰、权限是否正确、内容是否重复冲突,都会影响回答质量。一个成熟的企业知识库,需要有人负责资料治理、版本更新、权限管理和反馈闭环。
业务例子
制度问答、产品知识问答、客服知识检索、培训材料查询都适合使用 RAG 思路。但重要回答应附带来源位置,方便业务人员确认是否引用了正确材料。
AI 使用方法:把业务需求转化为清晰任务
AI 输出质量与任务表达密切相关。业务同事需要把目标、背景、材料、限制和格式说明清楚,便于获得更可用的初稿、摘要或建议。
希望 AI 协助完成什么任务,例如总结、改写、分析、起草或生成清单。
任务发生在什么业务场景,面向谁,结果用于什么目的。
需要参考哪些会议记录、制度、数据、邮件、表格或说明。
哪些内容不能编造,哪些口径需要保持,哪些风险需要标注。
希望输出为表格、清单、邮件、汇报提纲、行动项或方案结构。
帮我写一个活动方案。
请为集团内部 AI 培训设计一份 1 小时活动方案,面向业务同事,目标是建立基础认知。请输出活动目标、流程安排、互动环节、准备物料、讲师注意事项和风险提醒。
常见错误
- 任务描述过短,缺少业务背景和使用目的。
- 没有提供材料,却要求 AI 给出确定结论。
- 没有说明输出格式,导致结果不便于使用。
- 没有提醒 AI 标注不确定信息和需要人工确认的部分。
业务场景案例:从日常工作中识别适用任务
AI 更适合从低风险、高重复、文本密集、可复核的任务开始。企业推广时应优先选择价值明确、数据边界清晰、人工复核容易执行的场景。
会议纪要
把录音转写或会议记录整理为讨论要点、行动项、负责人、时间节点和待确认事项。
邮件起草
根据对象、目的、语气和关键信息生成邮件初稿,再由业务人员确认措辞和内容。
制度问答
基于内部制度材料生成解释,并尽量附上依据位置,便于复核。
培训材料
把知识点整理为课程大纲、讲义、练习题、讲师手册和复习材料。
表格摘要
把明细表格转化为管理层可读的摘要,说明趋势、异常和需要关注的问题。
方案初稿
根据目标和材料生成方案结构、行动计划、风险清单和待确认问题。
判断一个场景是否适合 AI 辅助
可以从三个问题判断:原流程是否耗时,输入材料是否清楚,输出是否容易复核。如果三个问题都能得到肯定回答,通常适合作为 AI 应用切入点。若任务涉及高风险审批、敏感数据、法律责任或重大经营决策,则应先明确制度边界和审批流程。
Agent 入门:目标、规划、工具、记忆与人机协作
普通聊天式 AI 主要围绕单次问答提供帮助。Agent 更强调围绕目标拆解步骤、调用工具、记录过程,并输出阶段性结果。
明确最终要完成的任务,例如整理资料、生成报告或完成一组流程动作。
把复杂任务拆解为可执行步骤,并根据中间结果调整顺序。
读取文件、检索资料、调用系统、访问表格或触发流程。
保留上下文、过程信息、用户偏好和任务状态。
重点理解 Agent 如何围绕目标、步骤和工具支持流程协作。
Agent 与普通聊天 AI 的区别
普通聊天 AI 更像“问一句答一句”的助手,Agent 更像“按任务清单推进”的协作者。它可以先理解目标,再规划步骤,再调用工具完成部分动作。例如读取报名表、识别缺席风险、生成提醒邮件草稿、整理跟进清单,并把关键节点交给负责人确认。
Agent 涉及工具调用和流程执行时,更需要权限控制、日志记录、异常处理和人工确认。流程越自动化,越要明确责任边界。
OpenClaw 与开源 Agent:从业务视角理解工具生态
OpenClaw 这类开源 Agent 工具的价值,不在于要求业务同事部署使用,而在于帮助大家理解 Agent 工具如何连接目标、工具、流程和结果。
它解决谁的什么问题?原来需要几步,现在减少了哪些重复动作?
它需要连接哪些系统、文件、账号、网页或数据源?
输出错误谁复核?流程中断谁接手?是否保留过程记录?
谁负责配置、权限、版本、异常处理和持续优化?
重点观察 Agent 工具如何围绕目标、工具和流程组织起来。
业务人员应关注什么
观察开源 Agent 工具时,应重点看它如何拆解任务、如何调用工具、如何处理文件和网页、如何记录过程,以及如何把结果交还给用户确认。演示效果不等于企业落地效果,真正落地还需要考虑数据权限、系统连接、审计记录、运维责任和异常处理。
安全与落地:数据分类、人工复核与企业红线
AI 使用培训既要关注效率,也要关注安全。企业使用 AI 时,需要明确数据分类、敏感信息、人工复核、对外发布和企业红线。
公开资料学习、非敏感文本总结、内部草稿起草、个人学习复盘。
对外文案、经营分析、客户沟通、制度解释、管理汇报。
客户隐私、合同价格、商业秘密、未公开经营数据、账号权限信息。
企业使用红线
- 敏感信息和未公开经营数据不得随意输入外部工具。
- AI 输出不得作为唯一事实来源,关键内容必须复核。
- 审批、授权和关键业务决策必须保留人工判断。
- 对外发布内容需要确认事实、口径、品牌规范和合规要求。
- 涉及系统调用或自动化流程时,需要明确权限、日志和异常处理。
从低风险任务开始,建立示例、模板、复核清单和反馈机制。让 AI 使用逐步进入可管理、可追溯、可复盘的业务流程。
测试中心:集中检查课程理解
本区域集中放置章节理解题和课程综合测验。建议完成全部正文阅读后再作答,提交后会显示得分和回顾建议。
章节理解题
12 道题,覆盖每个章节的关键概念
课程综合测验