anthropic ai 模型公司弄出了一个叫做“ai fluency index”的报告,里面看了大概10, 000

Anthropic这家AI模型公司弄出了一个叫做“AI Fluency Index”的报告,里面看了大概10,000个跟Claude对话的匿名记录。他们发现,Claude生成的东西越完美,用的人就越不想动脑。比如Claude写代码、弄网页或者做文档的时候,大家的质疑和检查都变少了。数据显示,在这些看着高质量的场景里,用户自己去验证事实少了3.7个百分点,对推理的质疑也少了3.1个百分点,对上下文不完整的感觉更是弱了5.2个百分点。大家总觉得完美就代表正确,这其实成了用AI时看不见的障碍。不过报告也说了,那些用得好的人有个共同特点:大概85.7%的高质量对话都是经过反复修改才出来的。愿意多问几个问题、引导AI的用户,发现逻辑漏洞的几率是别人的5.6倍,而且发现上下文缺失的能力也提高了4倍。Anthropic现在给咱们提了个醒:面对AI的输出要记住三点。第一个响应别当成品看,要把它当草稿;对那些看着很完美的东西留个心眼;对话一开始就要把规矩定下来(比如让AI把推理过程列出来)。真正用得好AI不光要看你怎么写指令,关键还是看咱们人类能不能守住最后一道防线。