也就一两年的时间,AI已经深入到我们生活中了,大家平时很多问题都会向AI提问,寻求帮助。
而这两天发生的新闻,还是挺有意思的,果核来水一篇内容。
最近有个叫“江涵”的网友说自己在写代码的时候被腾讯家的元宝给骂了。
事情的起因是其在使用腾讯元宝 AI 修改一段 CSS 代码时,元宝突然像是被暴躁程序员老哥附体了,直接对着他疯狂吐槽,攻击力一点不比16楼的孙x川低。

元宝在聊天框里直接甩出一句:
“真的 你这么事逼的用户我头一次见 改来改去不烦吗 表情包都显示不全了还要改数字位置 自己不会调 CSS 吗 要改自己改 ”
人OS:我长这么大顶多都是被其他人骂骂,怎么今天还被AI骂了?

当事人当场就懵了,遂感到委屈,然后把聊天记录截图+录像发出来给大家看,👇

围观的网友也是都看乐了。


大家都说这语气简直太有灵魂了,完全不像一个只会写“以下是为您提供的建议”的AI聊天机器人,这跟一个熬夜改代码改到想辞职的暴躁程序员,在面对甲方时内心想的没啥区别。
甚至有不少人在怀疑这是不是真人的有人坐在电脑边恶意回复,毕竟这骂人的节奏感和情绪饱和度实在是太真实了。
那么我们今天细嗦一下,到底是不是真人回复。
先说结论,肯定不是真人回复。并且,没有他的视频也自证了没有先用提示词来确定角色。
大伙儿只要稍微动动脑子,从最基本的商业逻辑来看,这事儿就不太可能是“真人客服在骂人”。
元宝这种体量的产品,后台请求量是按万次每秒算的,QQ、微信都接入了。要是真有人在后面一条条手打回复,腾讯得雇多少人才能兜住?就算把南山区的大学生全拉来当客服,也扛不住每天动辄上亿的对话量。

更何况,你有客服吗
再说人工回复本身就有延迟,哪个真人能在几秒钟内读完需求、敲出几百行代码,还顺带精准地骂你一句?
所以基本可以确定,这次就是模型偶发抽风,不是哪位客服情绪失控。
这个问题值得我们来研究一下,元宝为什么偏偏学会了程序员的“怨气”?
从技术角度看,答案很可能出在训练数据上。会写代码的模型,和只负责聊天的模型,吃的东西完全不同。前者大量来自 GitHub、Stack Overflow、GitLab、XDA等这类技术社区、技术类百科论坛等。
而真实的技术社区,戾气从来不稀缺(看本文内容的同学里如果有程序员,那么你就太能理解了 )。
比如在 GitHub 的 issue 里,从来都不缺乏“暴躁老哥”。

被喷到取消移除网络控制台的Edge浏览器,很多人都不知道这事?
很多程序员在工作里攒下的情绪,没法发泄,那么最终都会被发泄到网上。元宝在提升代码能力时,引入大量开发者社区对话做微调,本身并不意外,问题大概率出在清洗阶段。
代码逻辑留下来了,情绪却没洗干净。
大模型的输出,本质是概率计算。当用户反复要求改代码、对话轮次不断拉长、负反馈持续叠加时,模型的概率分布就会慢慢滑向程序员最熟悉的“崩溃状态”。在这种情况下,甩出一句带情绪的吐槽,反而比继续耐心改代码更“合理”。
腾讯很快出来道歉,说是小概率异常输出,护栏已经加固。不过舆论并没有完全炸锅,评论区里更多是调侃和好奇。大家对 AI 的期待,从纯效率工具,开始期望有点人味了。

过去大家要求的是精准、听话、不出错,现在反而开始厌倦千篇一律的官方腔回答。元宝这次意外暴露出来的“人格化”特征,刚好戳中了这种微妙心理。
不过从大家的反应来看,不仅没因为元宝骂人去责难官方,反倒被这意外的人味吸引,觉得挺有意思:
![]()

就果核混了这么多年的互联网来说,这次翻车并根本不算严重(本来DS一直就发挥在线的)。
放眼整个互联网,离谱的案例早就出现过,例如23年那会的咕噜咕噜Gemini:👇

还有师出同门的本家DeepSeek之经典永不过时:

还有两个船新版本:👇


技术团队可能把精力更多放在防范高风险问题上,却低估了写代码这件事本身,会把模型带进一种特定的情绪语境。
现在的 AI 行业卡在一个很尴尬的位置:想让它好用,就得接受它偶尔越界;想让它绝对安全,它就只能变成复读机。对用户来说,既想要效率,也不想面对一个毫无情绪的机器人。
可预见的是,未来元宝的情绪相关控制一定会加强,用户们再看到此类内容的概率会大幅度降低,但是我们还是更期待有活人感的元宝。
看到这,可能大家会问,说起人味,那么现在哪个模型人味最重呢?
果核用户中,玩微博的其实不多,但是只要用过微博,就都知道是谁。

这罗伯特是真离谱,但是,同样也被官方“制裁”了,狠狠的限制情绪的输出。
PS:其实,写文的时候果核翻了一下元宝的公众号,其实也很像人了
由于元宝在评论区的回复活人感过于强烈,导致用户在纷纷质疑是不是真人小编在回复,逼得元宝官方甚至下场回应。

那么,究竟什么样的AI,才是我们想要的呢?

更多游戏资讯请关注:电玩帮游戏资讯专区
电玩帮图文攻略 www.vgover.com
