智能体时代的双刃剑

随着 Vibe Coding、OpenClaw 等前沿技术等爆火,结合 315 晚会报道的 “AI 投毒”,和我们之前的一篇文章 《智能系统的双向演化:大语言模型“脑腐”假设与人类“认知债务”的共生退化研究报告》 两相呼应,一方面大模型的发展速度确实在短暂的时间内带来了对大部分人的时间、精力和脑力的解放;另一方面,当原本需要动脑思考的工作变成了让大模型去思考那么这部分终究会迎来脑力的退化。
社交媒体上出现很多声音:“AI 替代程序员”、“AI 替代设计师”,但是实践下来发现,被替代的这部分人往往做的是很简单重复的工作,对于这部分声音往往还伴随着一部分人通过使用 Vibe Coding 工具去编写了简单的页面和应用,就觉得我与 AI 协同即是开发工程师。我们不得不承认这个转变确实让很多有想法的人离实现更进一步,但是随之而来的问题也不断,安全问题、可持续发展问题。
Token 消耗即价值产出
最近有一个观点 “看一个人对于 Vibe Coding 的熟练程度只需要拉出 Token 消耗账单”,在一定程度上确实可以反映出一些问题,但是一概而论放到什么事情都不是好的观点。例如同样的三个人:
- 用户A :月消耗 10 万 Token
- 用户B:月消耗 1000 万 Token
- 用户C:月消耗 1 亿 Token
对于以上三位用户来说,可能会有人觉得用户C应该是最熟悉的人,其实并不然,让我们带入具体场景:
- 用户A:秘书,使用 AI 处理邮件、整理文档、调研等
- 用户B:公司程序员,使用 Vibe Coding 工具在项目中辅助开发
- 用户C:开源社区作者,使用 Vibe Coding 去维护开发多个项目
场景一代入我们就会发现,一个人的消耗量其实是和这个人处于什么位置、做的是什么事情息息相关。对于用户C 而言,大型的代码仓库一个简单修改就是几万 Token,对于用户A 来说并没有那么多需要处理的文档和邮件,这并不能反映出他们对于使用 AI 来提效的参考依据,所以产生观点并不奇怪,但是理性看待问题,保持思考的习惯,透过现象看到本质。
OpenClaw 是玩具还是生产力工具?
随着open cloud这波爆火越来越多人从普通人到企业高管再到自由职业者都在疯狂的去尝试但是在我看来,这个产品本质上还只是一个玩具,越来越多的人去使用也就促成了后面的密钥泄漏等等一系列问题,对于这个项目而言,他的创新点在于开创了智能体操作系统的原型,但是由于该项目本身不是一个企业级的项目,对于作者而言并没有考虑很多企业及相关的问题,在安全方面存在着极大的欠缺。
我认为尝试并不是一件坏事,但我们需要去尝试的时候去了解他的边界,避免由此带来不可挽回的影响,对于前段时间三五晚会曝光的 AI 投毒事件,其实对于目前大部分人去使用这一类的工具,它并没有很明确的一个目标,所以很多人用它去在人类的社交媒体上去创建一个账号去生成大量的AI内容,然后反向的污染,整个互联环境是我们最开始提到的人类和大模型的双向奔赴,一边有人去借助大模型的能力在互联网上制造大量的垃圾内容,另一方面又从互联网上爬取大量的垃圾内容,反向训练给模型。最后造成了一部分人丢失了思考的能力完全依赖于 AI,恰好 AI 被这一类垃圾数据影响被污染了。
这个项目的本质其实就是集成了智能体和全局的记忆系统搭配上各种工具、MCP 和 Skills 再给上系统机的权限就组成了我们这个智能操作系统的雏形,于技术方面,它本身没有创新,但是由于他是一个很大胆的项目,就像老话说的力大砖飞,当我们所有的佩奇之后,他反而能满足一部分人的幻想,用它实现更多有意思的场景,但是由于我们之前也提到它本身存在着很多问题,所以用它去处理的事情一定是具有容错的,就比如企业高管用它去查看邮箱等操作本身就带有容错的空间,因为如果人工去看的话始终会有纰漏,那我们这里就允许他去有一些纰漏,反而能优化很大一部分我们的工作效率。
最后 OpenClaw 确实做到了目前为止最大胆的尝试,但是数据无价信息无价,在去使用这些前沿技术的时候,我们需要充分考虑个人信息安全和数据安全,避免盲目跟风造成不可估量的损失。
AI 投毒
对于AI投毒,无论是出于测试盈利的目的,目前我认为他并不是一个好事,且对于人类的社交媒体不应该参杂那么多AI批量生成的内容,一方面在影响人类的心智,另一方面也不利于整体的可持续发展。目前来看最有效的方法,其实是从国家立法层面去严格限制和要求,这部分内容不进入正常的社交媒体,另一方面这因为这是一个必然的事情,所以未来可能会出现专门用于AI以及智能体方面的社区和论坛,用于让AI之间互相建立连接,包括 Web 4.0 的设想,人类失业由AI去完成绝大部分的内容,对于部分需要人类去完成的,以AI雇佣人类的方式构建其整个生态。