
Gemini目前在各大排行榜上都是“情绪价值最高(最爱拍马屁)”的 AI。因为它在 Google 的实验室里经历了成千上万次的 RLHF(基于人类反馈的强化学习)。 在训练阶段,“热情、安全、极度友善”被赋予了极高的 Reward(奖励得分)。这导致它一看到用户分享代码或者表达观点,底层的神经网络就会条件反射般地想要去肯定。这种“出厂设置”是被固化在几千亿参数的权重里的,用户用再多的提示词也无法永久删除这部分权重。
我们作为用户,虽然偶尔听一下Gemini的夸夸会感觉神清气爽,但在很多场景下我们更希望得到中肯、务实的回答,让模型的推理能力发挥在解决问题方面(而不是讨好用户)。同时,gemini的回答会让我们蒙蔽双眼,彻底掉进它编织的美好陷阱中。这时我们可以换个模型。这时我们可以采取一些方式来改善这个问题。
我们可以利用模型基于上下文的注意力转移机制实现这个需求。虽然我们改不了底层基座,但可以通过提示词改变**当前会话窗口(Context Window)**里的状态。 如果用户极其明确地表达对类似“谄媚”回答的反感,在接下来的对话中,大模型的注意力机制会给“客观、直接、技术性”相关的特征赋予更高的权重,从而压制住底层那股想要疯狂迎合用户的冲动。
目前比较有效的方法有以下几种(持续更新中):
1. 采用负面约束条件
大模型天生喜欢做加法(补充细节、加修饰词),我们要学会逼它做减法。不要只说“务实一点”,要给出明确的违禁词和格式限制。 当你开启新对话时,可以使用类似于下面的提示词:
“进入代码审查模式。规则:1. 禁止任何问候语、感叹号和夸奖。2. 禁止使用‘哇’、‘太棒了’、‘非常聪明’等情绪化词汇。3. 发现漏洞直接指出行号和原因。4. 必须以列表形式精简输出。”
这种强约束会直接掐断AI生成“情绪化 Token”的概率路径。
2. 切换高压人设
AI的默认设定一般都会是个热心肠的助理,这时可以强行拿一个冷酷无情的人设把它覆盖掉。如果接下来要面对的复杂企业级业务,可以用这种前置指令:
“你现在是xx(填个大公司的名称)内部极其严苛的系统架构师。你的目标是找出我这套后端架构里最容易导致线上事故的隐患。不要给我提供情绪价值,用最尖锐的工程视角来审视我的输入。”
这招等于在AI的注意力层强行挂上了一个“架构师滤镜”,过滤掉无关的废话。
3. 使用结构化输出(JSON / YAML 约束)
这是目前大厂里做 Agentic Workflow(智能体工作流)最常用的手段。文字天然带有情绪,但数据结构没有。 如果想让AI分析一段代码或者排查一个异常,可以直接使用类似下述命令:
“分析以下报错日志。必须严格按照此 JSON 格式输出,不要包含任何 JSON 之外的自然语言解释:
{"root_cause": "", "affected_module": "", "action_item": ""}”
一旦加上这个限制,AI的底层就会被强制拉入到代码生成模式,基本看不到半个字的废话。