发布时间:2026-03-31 02:27:06 来源: 红山网
如果你已经有用 AI 工作的经验,那你一定经历过从初见 AI 智能的惊叹,到看着AI给你整出的烂活恨不得口吐芬芳的过程。
可是,我们也经常能看到有些讲 AI 的博主或者 AI 用得好的同事,轻飘飘几行提示词,瞬间完成了自己和 AI 搏斗半天都没法搞定的任务,你会不会也忍不住在想:难道 AI 也有别人家的 AI 吗?
其实,真正的问题不在于 AI,而在于 AI 的使用方式。不过,影响 AI 出活质量的因素有很多,篇幅所限,咱们今天先从其中最重要的基本原理和原则说起。
AI是个办公好搭子,然而……
人工智能(Artificial Intelligence,简称 AI)是一个较为宽泛的概念,但日常工作占比最高、最实用,仍然主要是大语言模型(LLM),我们平时说“用 AI”其实用的就是大语言模型(简便起见下文中的“AI”均指的是大语言模型)。它们早已不是只会闲聊的玩具,在日常办公中,最擅长的就是处理那些规则相对明确、但又有点繁琐的“文字工程”。
起草文书是最直接的,无论是写一封得体的客户道歉邮件还是一份项目启动通知。你只需要把要点丢给 AI,AI 就能迅速给你一份过得去的初稿。
信息整理与归类也是常见的任务。面对几十条杂乱无章的客户反馈、产品评论,或者一份长长的项目待办清单,AI 可以帮你快速排序与归类。
日常工作也避免不了制表,梳理流程图,这时候 AI 更是一大神器。
这些场景的共同点是:任务目标明确,输入信息充分,输出格式有常规范式。它们不涉及深度的推理或创造,更像是“高级的文本模式转换”。事实上,很多朋友初试 AI,往往都始于让 AI 写个周报、整理会议纪要,或者把一堆乱七八糟的数据变成清晰的表格。
但问题也来了——为什么这些任务这么明确,可 AI 交出来的东西还常常让你哭笑不得,甚至让你想吐槽它蠢呢?这就引出了下一个关键——AI的工作模式。
AI 是怎么“想事儿”的?
要想让 AI 不犯蠢,我们得先搞懂它到底是怎么工作的。首先我们要记住,虽然 AI 每次工作都好像在思考,但 AI 有一套特别的工作流程,而这与我们人类的思考过程很不一样。
你可以把 AI(大语言模型)想象成一个世界上阅读量最大、最会玩词语接龙的玩家。 它的核心工作只有一件:根据你给它的所有文字(这叫“上下文”),猜出下一个最可能出现的词。
说白了,它就像一个记忆力特别好,脑子特别快的猜词玩家。你一说:“今天天气真…”,它就会根据读过的海量文章,会立刻猜出下一个词很可能是“好”、“不错”或者“糟糕”。它其实并不理解天气,只是在做概率计算:哪个词正确的概率最高。
而上下文则是 AI 的工作基础——你给 AI 的所有对话历史、当前问题、你提供的资料,共同构成了它的“上下文”(Context)。当你跟它词语接龙,你说过什么将是它进行猜测的唯一依据。
如果我们注意力不集中,猜词的时候显然表现就会差,而 AI 也有“注意力”的问题(Attention)。我们可以把 AI 的注意力想象成一种智能的资源分配器。面对一堆信息,它需要决定把“精力”重点投放在哪里。如果分配得当,它能高效提取关键信息,做出精准判断(如猜词);但如果分配失误,比如过度关注次要细节或忽略了核心关联,最终的输出效果就会变差。
要想让 AI 输出的结果靠谱,就要让它更容易猜中想要的结果——这就需要我们尽量提供清晰的指令和完整的信息背景(上下文),以避免 AI“走神”。接下来,我们就能具体看看,在日常办公中,是哪些操作在无形中“坑”了你的 AI 伙伴。
高质量的问题才能带来好结果
AI 整出烂活,最常见、最坑的原因往往不是 AI 不够给力,而是它没能很好地理解你给它的问题。
你有没有遇到过给下属布置任务后,结果交上来一堆让你扶额的东西?或者自己提需求时,说完自己都觉得没说清楚?对 AI 来说更是如此,因为它工作的所有基础,就是你输入的那段文字。
我们来看一对例子:
·问题 1(模糊):“帮我写个营销方案”
·问题 2(清晰):“帮我写一份针对 25-30 岁一线城市职场女性的咖啡新品推广方案,预算 5 万,核心目标是提升 XXX 平台的品牌曝光,要求包含 3 个具体的线下联动活动和 2 篇 XXX 平台笔记框架”
老实说,“问题 1”才是我们工作中碰到的常态,执行的同事看到这种表述,非得当场拽住你对齐需求。但看到问题 2,不管是 AI 还是真人,立刻就有了清晰的执行方向,甚至连输出细节都定死了,当然很难出岔子。
其中最大的区别在于,高质量的问题,像一个清晰的导航地址,而低质量的问题,就好像只给了一个城市名却想让你找到一个人的家。对于依赖上下文进行推理的AI来说,一个模糊的“城市名”意味着它缺乏足够的线索,只能在过于宽泛的语义范围里猜测,最终给出的答案自然就容易偏离你的本意。但现实职场里,这种“模糊不清”的任务才是日常常态,按照这种习惯来用 AI,结果可想而知。
当然,现在的 AI 比几年前更强大,咱们其实也没必要花太多时间优化提示词,不妨换个思路跟 AI 提问:
“我要给新咖啡写推广方案,还没定方向,帮我梳理需要明确的关键信息?”或者直接让 AI 发挥“为了更好地完成这个任务,你可以向我提问来补全信息”。
这样一来,先让 AI 把模糊需求拆成清晰的关键点,你补全信息后再提问,最终效果自然会天差地别。
看到这里,相信很多朋友会恍然大悟,原来并不是 AI 的能力不行(大多数情况下),而是我们给出的“猜词游戏”太过模糊不清。而那些用 AI 很厉害的达人们,则往往在一开始就给出了非常清晰的要求。
最后,千万要注意一点,即便你给AI的要求清晰明确,AI“猜词”的时候仍然可能会产生幻觉,为了硬凑答案,很可能瞎编并不存在的细节。这样,AI 的答案尽管从文本上看已经足够完善,但却可能隐藏着致命的漏洞。这时,作为AI的使用者,请一定要把关键信息、核心数据亲自核对一遍,毕竟 AI 并不会为人类背锅哦。
作者丨Sammy Zeng 独立 AI 研究者 科普作者
来源:“科普中国”微信公众号 🐖