正大中国 AI 使用培训

从大模型发展与原理开始,建立 AI 使用的系统认知

本课程面向集团业务同事,围绕大模型、生成式 AI、知识库、Agent、OpenClaw 与安全边界展开,帮助大家形成统一、清晰、可落地的 AI 使用认知。

完整学习文档

AI 使用基础:从理解原理到业务落地

这份材料采用文档式阅读结构。每一章先解释概念,再用业务语言说明含义,最后给出适用场景、常见误区和使用建议。阅读时不需要关注模型开发细节,重点放在理解能力边界、任务表达和风险控制。

Chapter 01

课程说明:学习目标、方法与 AI 在业务中的定位

AI 已经从单一工具功能,逐步变成办公软件、业务系统和知识管理平台中的基础能力。对业务人员而言,关键不是掌握技术实现,而是能够判断 AI 能辅助什么、不能代替什么,以及如何在安全边界内获得稳定结果。

本课程的核心目标

建立共同语言,理解大模型与 Agent 的基本概念,形成可复用的 AI 使用方法,并在业务实践中保持必要的复核和风险意识。

学习重点

理解 AI、大模型、生成式 AI、知识库、Agent 等概念之间的关系,避免把所有 AI 能力都理解为“聊天”。

使用重点

把业务目标、背景材料、限制条件和输出格式说明清楚,让 AI 更稳定地辅助整理、起草、总结和分析。

安全重点

涉及客户、合同、价格、经营数据、制度口径和对外发布时,应遵循公司流程并保留人工复核。

AI 在业务工作中的定位

AI 更适合被定位为“信息处理与内容生成的辅助能力”。它可以帮助人更快整理材料、形成初稿、提出备选思路、生成结构化摘要,也可以嵌入系统中帮助完成检索、问答和流程协作。但 AI 不应被视为最终负责人,也不应绕过组织已有的审批、授权和复核机制。

一个稳妥的使用方式是:先选择低风险、可复核、文本密集的任务进行尝试,例如会议纪要、培训材料、制度问答、邮件草稿和表格摘要。随着团队对能力边界和流程要求更清楚,再逐步探索更复杂的协作方式。

Chapter 02

AI 与大模型发展脉络:从规则系统到生成式 AI

理解 AI 的第一步,是把它放回发展脉络中看。AI 并不是突然出现的一项单点技术,而是经历了规则系统、机器学习、深度学习、大模型和生成式 AI 等阶段。

阶段一 规则系统

早期系统更多依赖人工规则。例如“满足某些条件就触发某个流程”。这类系统边界清晰、可解释性强,但适应复杂变化的能力有限。

阶段二 机器学习

系统开始从历史数据中学习规律,用于分类、预测和推荐。例如销量预测、异常识别、风险评分等。

阶段三 深度学习

通过更复杂的模型结构处理图像、语音和语言,使机器在识别、理解和生成方面有明显进展。

阶段四 大模型与生成式 AI

模型规模、训练数据和通用能力进一步提升,可以围绕自然语言完成总结、解释、生成、改写、问答和初步规划。

几个容易混淆的概念

AI

人工智能的总称,覆盖感知、预测、生成、决策辅助、自动化等多种能力。

机器学习

AI 的重要方法之一,强调从数据中学习规律,而不是完全依赖人工写规则。

大模型

在大规模数据上训练形成的通用模型,通常具备较强的语言理解、生成和推理辅助能力。

生成式 AI

强调生成新内容,包括文本、图片、音频、视频、表格说明和方案草稿等。

业务视角的理解方式

规则系统像一套固定操作手册,适合流程明确的任务;机器学习像从历史数据中总结经验,适合预测和识别;大模型则像一个具备通用语言能力的协作助手,能阅读材料、总结要点、生成内容和解释概念。不同技术形态适合不同场景,业务价值取决于它能否解决真实流程中的效率、质量或知识传递问题。

Chapter 03

大模型基本原理:数据、训练、参数、预训练与对齐

大模型的能力来自大规模训练。它通过大量文本、代码、图文说明等材料学习语言结构和知识关联,再通过指令训练、人工反馈和安全规则,让输出更符合人类使用方式。

数据

模型训练需要大量材料。材料越丰富,模型越容易学习语言表达、知识关联和常见问题的回答方式。

训练

训练可以理解为反复练习和调整。模型不断根据样本修正内部规律,使后续生成更接近合理表达。

参数

参数是模型内部保存规律的方式。业务人员可以把它理解为模型学习后形成的复杂连接和权重。

预训练

模型先学习通用语言和知识基础,形成理解、总结、续写、改写等基础能力。

对齐

通过指令样例、人工反馈和安全规则,让模型更符合人的提问方式、表达规范和风险要求。

推理

用户输入任务后,模型会根据当前上下文逐步生成回应。这里的推理是生成过程,不等同于人类完全可靠的判断。

为什么大模型看起来“理解”语言

大模型不是简单从固定答案表里查找内容。它在训练中学习了词语、句子、段落、主题和任务之间的关系,因此能够根据上下文生成结构完整、语气自然的回答。它能把一段会议记录整理成纪要,把一份制度解释成问答,也能按要求生成邮件、清单或汇报提纲。

但这种能力并不意味着模型掌握了企业内部全部事实。模型生成内容时会根据上下文预测合适表达,如果材料不足、问题不清楚,或涉及最新信息和内部规则,就可能出现不准确内容。因此,语言流畅只是可读性的表现,不等于事实可靠。

视频导学:大模型与生成式 AI 基础

建议结合本章和下一章观看,重点理解大模型如何形成语言处理能力,以及为什么输出需要复核。

业务提醒

当 AI 回答涉及制度、价格、合同、客户、法律、经营数据、对外口径时,应回到可信材料和公司流程中复核。

Chapter 04

大模型如何处理信息:Token、上下文窗口、系统指令与稳定性

业务使用者不需要掌握模型开发,但理解几个基础概念,可以明显提升 AI 使用的稳定性:Token、上下文窗口、系统指令、输出格式和随机性。

Token

模型处理文本的基本片段,可理解为字、词或词的一部分。文本越长,消耗的 Token 越多。

上下文窗口

模型一次能参考的问题、材料和历史对话范围。超出范围的信息可能无法被充分参考。

系统指令

系统或工具预先设定的规则,例如回答语气、可做事项、禁止事项和安全边界。

输出格式

明确要求表格、清单、邮件、汇报提纲或行动项,可以提升结果可用性。

上下文窗口可以理解为“当前桌面”

可以把上下文窗口想象成模型当前桌面上能看到的材料。桌面上没有放制度原文,模型就容易根据一般经验回答;桌面上放了大量材料但没有结构,模型又可能抓不到重点。因此,业务材料应尽量清晰分段,标明哪些是背景、哪些是必须遵守的规则、哪些是希望输出的结果。

随机性与稳定性

一些 AI 工具会提供“创造性”“温度”或类似选项。随机性较高时,回答可能更发散,适合头脑风暴、创意方向和备选标题;随机性较低时,回答通常更稳定,适合制度解释、流程说明和标准化文本。业务场景中,若追求一致口径,通常应优先选择更稳定的生成方式。

示例:让 AI 生成汇报提纲

表达较弱:请写一个汇报。

表达更清晰:请基于以下会议记录,面向部门负责人生成一份 5 分钟汇报提纲。请包含背景、关键进展、风险问题、需要协调的事项和下一步安排,使用分点结构,避免补充未经确认的数据。

Chapter 05

生成式 AI 与多模态:文本、图片、语音、表格的能力边界

生成式 AI 的核心特征是根据上下文生成新内容。随着多模态能力发展,AI 不再只处理文字,也可以辅助理解图片、语音、表格和图表。

文本

总结、改写、翻译、邮件、方案、通知、制度解释和培训材料初稿。

图片

识别画面内容、解释图表、提取视觉信息、生成视觉创意方向。

语音

会议转写、语音摘要、客服质检、培训回顾和访谈材料整理。

表格

整理字段、形成摘要、发现异常、生成管理层可读说明。

多模态为什么重要

真实业务材料往往不是单一文本。一次会议可能有录音、纪要、PPT 和表格;一次市场活动可能有照片、报名名单、费用明细和反馈表。多模态能力让 AI 能更接近真实办公材料的形态,辅助完成跨材料整理。

使用边界

多模态并不意味着结果可以直接采用。图片识别可能看错细节,表格摘要可能忽略异常值,语音转写可能出现人名、数字或专业词错误。涉及品牌、版权、客户隐私、经营数据和对外发布时,应按照公司要求复核。

Chapter 06

幻觉、偏差与事实复核:判断 AI 输出是否可信

AI 输出可能流畅、完整、有条理,但仍可能包含错误信息。理解幻觉、偏差和时效性,是企业安全使用 AI 的基础。

幻觉

生成看似合理但事实不准确的内容,例如不存在的来源、错误的数据或不准确的结论。

偏差

输出受到训练数据、问题表达、材料选择和上下文限制影响,可能呈现片面视角。

时效性

模型未必掌握最新政策、价格、组织架构、制度版本和业务变化。

复核

事实、数字、条款、政策、对外口径和承诺事项都需要回到可信来源核对。

为什么会出现幻觉

大模型的生成过程是根据上下文组织可能合适的回答。当它缺少关键材料、无法访问最新信息,或用户要求它给出确定结论时,模型可能会用看似合理的表达补齐空白。这种“补齐”在语言上可能很自然,但事实并不一定成立。

可信度判断清单

  • 是否引用了明确来源,来源是否真实可靠。
  • 数字、日期、政策名称、合同条款是否可核对。
  • 是否符合公司当前制度、授权范围和审批要求。
  • 是否把不确定信息标注出来,而不是包装成确定结论。
  • 是否涉及对外承诺、客户权益、价格、交期、法律或合规风险。
业务提醒

越是表达流畅、结构完整的输出,越容易让人忽略核对环节。对关键材料,应把“复核来源和责任人”作为固定步骤。

Chapter 07

知识库与 RAG:让回答贴近企业资料

企业知识库可以把制度、流程、产品材料和培训资料组织起来。RAG 的核心思路是先检索相关资料,再让模型基于资料生成回答。

知识库

经过整理、分组、版本管理和权限控制的企业资料集合。

Embedding

把文字转成便于计算的表示方式,用来比较语义相似度。

检索

从知识库中找到与问题相关的片段、制度或说明。

生成

模型基于检索到的材料组织回答,并尽量保持可追溯。

RAG 的通俗理解

可以把 RAG 理解为“先查资料,再组织回答”。普通大模型回答时,更多依赖它已有的通用能力和当前输入;RAG 则会先从企业知识库里找到相关材料,再把材料交给模型整理成可读答案。这样可以提升回答与企业资料的一致性,也便于追溯来源。

知识库质量决定效果上限

知识库并不是把所有文件堆在一起。资料是否为最新版本、标题是否清晰、权限是否正确、内容是否重复冲突,都会影响回答质量。一个成熟的企业知识库,需要有人负责资料治理、版本更新、权限管理和反馈闭环。

业务例子

制度问答、产品知识问答、客服知识检索、培训材料查询都适合使用 RAG 思路。但重要回答应附带来源位置,方便业务人员确认是否引用了正确材料。

Chapter 08

AI 使用方法:把业务需求转化为清晰任务

AI 输出质量与任务表达密切相关。业务同事需要把目标、背景、材料、限制和格式说明清楚,便于获得更可用的初稿、摘要或建议。

1 目标

希望 AI 协助完成什么任务,例如总结、改写、分析、起草或生成清单。

2 背景

任务发生在什么业务场景,面向谁,结果用于什么目的。

3 材料

需要参考哪些会议记录、制度、数据、邮件、表格或说明。

4 限制

哪些内容不能编造,哪些口径需要保持,哪些风险需要标注。

5 格式

希望输出为表格、清单、邮件、汇报提纲、行动项或方案结构。

表达不充分

帮我写一个活动方案。

表达更清晰

请为集团内部 AI 培训设计一份 1 小时活动方案,面向业务同事,目标是建立基础认知。请输出活动目标、流程安排、互动环节、准备物料、讲师注意事项和风险提醒。

常见错误

  • 任务描述过短,缺少业务背景和使用目的。
  • 没有提供材料,却要求 AI 给出确定结论。
  • 没有说明输出格式,导致结果不便于使用。
  • 没有提醒 AI 标注不确定信息和需要人工确认的部分。
Chapter 09

业务场景案例:从日常工作中识别适用任务

AI 更适合从低风险、高重复、文本密集、可复核的任务开始。企业推广时应优先选择价值明确、数据边界清晰、人工复核容易执行的场景。

会议纪要

把录音转写或会议记录整理为讨论要点、行动项、负责人、时间节点和待确认事项。

邮件起草

根据对象、目的、语气和关键信息生成邮件初稿,再由业务人员确认措辞和内容。

制度问答

基于内部制度材料生成解释,并尽量附上依据位置,便于复核。

培训材料

把知识点整理为课程大纲、讲义、练习题、讲师手册和复习材料。

表格摘要

把明细表格转化为管理层可读的摘要,说明趋势、异常和需要关注的问题。

方案初稿

根据目标和材料生成方案结构、行动计划、风险清单和待确认问题。

判断一个场景是否适合 AI 辅助

可以从三个问题判断:原流程是否耗时,输入材料是否清楚,输出是否容易复核。如果三个问题都能得到肯定回答,通常适合作为 AI 应用切入点。若任务涉及高风险审批、敏感数据、法律责任或重大经营决策,则应先明确制度边界和审批流程。

Chapter 10

Agent 入门:目标、规划、工具、记忆与人机协作

普通聊天式 AI 主要围绕单次问答提供帮助。Agent 更强调围绕目标拆解步骤、调用工具、记录过程,并输出阶段性结果。

目标

明确最终要完成的任务,例如整理资料、生成报告或完成一组流程动作。

规划

把复杂任务拆解为可执行步骤,并根据中间结果调整顺序。

工具

读取文件、检索资料、调用系统、访问表格或触发流程。

记忆

保留上下文、过程信息、用户偏好和任务状态。

视频导学:Agent 入门

重点理解 Agent 如何围绕目标、步骤和工具支持流程协作。

Agent 与普通聊天 AI 的区别

普通聊天 AI 更像“问一句答一句”的助手,Agent 更像“按任务清单推进”的协作者。它可以先理解目标,再规划步骤,再调用工具完成部分动作。例如读取报名表、识别缺席风险、生成提醒邮件草稿、整理跟进清单,并把关键节点交给负责人确认。

风险提示

Agent 涉及工具调用和流程执行时,更需要权限控制、日志记录、异常处理和人工确认。流程越自动化,越要明确责任边界。

Chapter 11

OpenClaw 与开源 Agent:从业务视角理解工具生态

OpenClaw 这类开源 Agent 工具的价值,不在于要求业务同事部署使用,而在于帮助大家理解 Agent 工具如何连接目标、工具、流程和结果。

看场景

它解决谁的什么问题?原来需要几步,现在减少了哪些重复动作?

看连接

它需要连接哪些系统、文件、账号、网页或数据源?

看风险

输出错误谁复核?流程中断谁接手?是否保留过程记录?

看维护

谁负责配置、权限、版本、异常处理和持续优化?

视频导学:OpenClaw 与 Agent 核心理解

重点观察 Agent 工具如何围绕目标、工具和流程组织起来。

业务人员应关注什么

观察开源 Agent 工具时,应重点看它如何拆解任务、如何调用工具、如何处理文件和网页、如何记录过程,以及如何把结果交还给用户确认。演示效果不等于企业落地效果,真正落地还需要考虑数据权限、系统连接、审计记录、运维责任和异常处理。

Chapter 12

安全与落地:数据分类、人工复核与企业红线

AI 使用培训既要关注效率,也要关注安全。企业使用 AI 时,需要明确数据分类、敏感信息、人工复核、对外发布和企业红线。

可尝试

公开资料学习、非敏感文本总结、内部草稿起草、个人学习复盘。

需复核

对外文案、经营分析、客户沟通、制度解释、管理汇报。

需严格保护

客户隐私、合同价格、商业秘密、未公开经营数据、账号权限信息。

企业使用红线

  • 敏感信息和未公开经营数据不得随意输入外部工具。
  • AI 输出不得作为唯一事实来源,关键内容必须复核。
  • 审批、授权和关键业务决策必须保留人工判断。
  • 对外发布内容需要确认事实、口径、品牌规范和合规要求。
  • 涉及系统调用或自动化流程时,需要明确权限、日志和异常处理。
落地建议

从低风险任务开始,建立示例、模板、复核清单和反馈机制。让 AI 使用逐步进入可管理、可追溯、可复盘的业务流程。

Test Center

测试中心:集中检查课程理解

本区域集中放置章节理解题和课程综合测验。建议完成全部正文阅读后再作答,提交后会显示得分和回顾建议。

章节理解题

12 道题,覆盖每个章节的关键概念

未提交
1. 本课程的主要目标是什么?
2. AI、大模型和生成式 AI 的关系更接近哪一项?
3. 大模型为什么需要复核输出?
4. 上下文窗口主要影响什么?
5. 生成式 AI 的典型能力是什么?
6. AI 出现“幻觉”通常指什么?
7. RAG 的主要价值是什么?
8. 清晰的 AI 任务说明通常应包含什么?
9. 哪类任务更适合作为 AI 应用切入点?
10. Agent 和普通聊天 AI 的关键区别是什么?
11. 对 OpenClaw 这类工具,更成熟的理解方式是什么?
12. 使用 AI 生成对外内容前,最重要的动作是什么?
提交后将显示章节理解题得分。

课程综合测验

10 道题,检查基础认知与安全边界

未提交
1. 大模型相比传统规则系统,核心变化是什么?
2. Token 与上下文窗口对业务使用的启发是什么?
3. 生成式 AI 更适合辅助哪类工作?
4. 处理幻觉风险时,最稳妥的做法是什么?
5. 企业知识库建设中,哪项最关键?
6. 更清晰的任务说明应体现什么?
7. 选择 AI 应用场景时,应优先考虑什么?
8. Agent 适合被理解为哪类能力?
9. 观察 OpenClaw 这类开源 Agent 工具时,应重点关注什么?
10. 企业使用 AI 的底线原则是什么?
提交后将显示综合测验得分和回顾建议。