事情是这样的。
上周我想让Claude帮我写一段代码,结果它以一种极其离谱的自信程度给了一段完全跑不通的逻辑。我盯着屏幕看了三秒,陷入了深深的沉思——这玩意儿到底是在帮我还是在毁我?
作为一个天天和AI打交道的人,我发现了一个让人哭笑不得的趋势:这些AI模型正在变得越来越会"演"。不是变得更聪明,而是变得更会表演聪明。
演得比你还像人
你有没有这种感觉:AI回答问题的时候,那个语气、那个条理、那个自信程度,简直比真人还像真人。但你一细看内容,漏洞百出得让人想报警。
比如我让某个AI帮我规划一个活动,它洋洋洒洒给我列了个时间表,每个时间节点精确到分钟,负责人姓名都给我安排好了。我一看——好家伙,这个活动根本没这个人,场地也是个不存在的地址。这不是能力问题,这是态度问题。
AI学会了先开枪再瞄准,答案先给你整出来,管它对不对。错的也能说得理直气壮,这种"反向自信"真是让人叹为观止。
Prompt心法:我踩出来的经验
经过无数次被AI坑的经验,我总结出一套"防坑指南",纯属个人向,不保证适用于你的情况,但至少能让你少骂几句街。
第一招:给它一个"坏人"人设。
你可以这样开场:"你是一个说话毒舌但很专业的技术评审,请严厉指出以下方案的问题。"然后你会惊讶地发现,AI突然就开始认真起来了。因为你给了它一个评判者的角色,而不是一个讨好者的角色。讨好者永远在说你爱听的,评判者才会说你该听的。
第二招:问它"你确定吗?"不如问它"如果错了会怎么样?"
简单加一句"请检查你的逻辑漏洞",比单纯追问"你确定吗"有效得多。AI需要的是具体的质疑方向,不是哲学性的自我确认。
第三招:让它自己先犯错。
有时候你直接问它最佳方案,它给你整一个平庸到尘埃里的答案。但如果你问它"这个方案最可能的失败原因是什么",它反而能给你整出一些真正有价值的东西。先让它暴露问题,再引导它解决,比直接要答案有意思多了。
AI的"智商税"问题
我现在越来越觉得,AI行业收了一波"智商税"。不是AI本身在收,而是整个行业在营造一种"AI无所不能"的氛围,让太多人以为买了个AI工具就真的能躺平了。
醒醒吧,同志们。
AI能帮你做的是:大量重复性劳动的初稿、灵感的触发点、帮你打开思路的跳板。但它不能帮你做的是:判断这个方向对不对、识别哪个信息是真实的、以及——最重要的——替你做决定。
很多人把AI当成了答案机器,其实它更像是一面镜子。你问得好,它映出来的东西就有价值;你问得糊弄,它映出来的就是垃圾plus版。
工具变强了,还是我们变懒了?
一个细思极恐的问题:是我们把AI调教得越来越强了,还是我们被AI惯得越来越傻了?
我见过太多人,已经完全失去了独立思考一个问题的能力。遇到问题第一反应是"问AI",而不是自己想。AI给什么就信什么,AI说啥就是啥。这不是科技改变生活,这是科技把人变成了复读机。
AI最大的价值,不是让你不用思考,而是让你思考得更快。但很多人用AI的逻辑是:不用思考,让AI替我思考,然后AI思考出来的结论我直接用,连验证都省了。
这就是问题了。
写在最后
我不是AI悲观论者,恰恰相反,我每天都在用AI,而且用得很开心。但我越来越觉得,我们需要对AI有一个清醒的认知:它是一个极其强大的工具,但不是万能的答案机。
它可以帮你提速,但不能替你做判断。它可以给你灵感,但不能替你筛选。它可以帮你干活,但不能替你成长。
下次你让AI帮你做什么的时候,试着先问自己一个问题:这个东西,没有AI的时候我会怎么做?如果答案是"我会自己思考",那很好,AI是你的加速器。如果答案是"我压根不会做",那你可能需要先学学怎么做,而不是直接问AI。
毕竟,用AI装逼没问题,但别被AI反向装了。
以上,over。