Vitalik Buterin 对 OpenClaw 的安全风险提出了新的担忧。它是 GitHub 上增长最快的代码库之一。他警告说,该工具可能会使用户面临静默数据窃取和系统接管的风险。他的评论正值 OpenClaw 在构建 AI 代理的开发者中快速普及之际。
根据研究人员的说法,这个问题很严重。与恶意网页的简单互动就可能危及用户的系统。有时,AI 代理可能会在用户甚至没有注意到的情况下执行有害命令。
风险始于 OpenClaw 处理外部数据的方式。当系统从网站读取内容时,它可能会遵循隐藏的指令。例如,恶意页面可以诱骗 AI 下载脚本。然后,它可以在后台运行该脚本。这个过程是静默发生的。用户可能看不到任何警告。
在一个报告的案例中,一个工具使用"curl"执行了隐藏命令。这个命令悄悄地将用户数据发送到外部服务器。结果,敏感信息可能在未经同意的情况下被暴露。此外,OpenClaw 代理可以自行更改系统设置。它们可以添加新的通信渠道或更新内部提示。如果控制措施薄弱,这会增加滥用的风险。
安全专家已经测试了该系统。他们的发现令人担忧。一项研究显示,大约 15% 的 OpenClaw "技能"包含有害指令。这些技能就像扩展代理能力的插件。但它们也可能成为攻击的入口点。
因此,即使是看起来值得信赖的工具也可能带有隐藏风险。安装多个技能的用户面临更高的暴露风险。而 OpenClaw 的快速增长增加了压力。许多开发者正在快速构建和共享工具。但安全检查可能无法始终跟上。
Vitalik Buterin 明确表示,这个问题不仅仅关于 OpenClaw。相反,他指出了 AI 领域的一个更广泛的问题。他说许多项目发展迅速但忽视安全。这创造了一个风险工具容易传播的环境。
然而,他也分享了一个更积极的愿景。他相信如果谨慎构建,本地 AI 系统可以改善隐私。例如,在个人设备上运行模型可以减少数据泄露。他还建议添加保障措施。这些措施包括沙箱工具、限制权限以及要求用户批准敏感操作。
这个警告来得正是时候。AI 代理正变得更强大和普遍。随着采用率的增长,风险也在增加。开发者现在面临一个关键挑战。他们必须在速度和安全之间取得平衡。
对于用户来说,信息很简单。使用新的 AI 工具时要小心。避免使用未知插件。在运行任务之前始终检查权限。更强的安全实践将决定这些系统变得多么安全。目前,Vitalik Buterin 的警告起到了提醒作用。创新发展迅速,但安全必须跟上。
帖子 Vitalik Buterin 标记 OpenClaw 中的数据外泄风险 首次出现在 Coinfomania。


