【中新社北京三月十五日电】一款被称为OpenClaw的AI智能体近期在中国走红。它能在现实世界执行文件管理、数据处理等复杂任务,但也出现用户信息泄露等情况,安全风险引发关注。
因图标为「龙虾」,使用这款智能体被网民称为「养龙虾」。随著中国用户快速增多,这款智能体的风险逐渐暴露,例如有网民个人邮箱信息被清空,有公司机密文件被外传。
此外,「龙虾」执行任务要消耗大量token(词元),费用高昂,许多民众「买了虾但养不起」。
连日来,国家互联网应急中心、工业和信息化部网络安全威胁和漏洞信息共享平台、广东省政务服务和数据管理局等中央及地方有关部门纷纷发布「养龙虾」的风险提示,不少高校、业内专家也发布防风险指南。
新华社近日新闻分析文章引述网络安全专家指出,随著AI智能体逐渐能够访问现实世界系统和数据,其潜在风险也在同步扩大。如何在推动技术创新的同时完善安全治理和监管体系,成为人工智能迈向更广泛应用必须面对的重要课题。
极目新闻评论称,「龙虾」能积累记忆、不眠不休,戳中很多人解放双手的需求痛点。但从目前用户反馈来看,使用「龙虾」体验较好的,大多是程序员、AI从业者、企业管理者或数据、市场分析相关工作者。而大多数普通人只是「被『AI焦虑』钳住了」,花钱装「龙虾」赶完时髦,很快就会放在电脑里「落灰」。
澎湃新闻评论指出,面对能够自主行动的AI,事后追责往往为时已晚。人们需要与AI自主能力相匹配的治理,让AI在「学会做事」的同时,也「学会不做甚么」。
目前学术界、产业界和监管层对AI代理技术的讨论仍处在早期阶段,相关法律与治理规则也尚未完全成形。中国青年报评论认为,当智能体逐渐成为人类在赛博世界的代理人,如何为其设立清晰的行动边界,或许比功能创新本身更为关键。
在讨论「养龙虾」风险的同时,也有舆论认为不应「因噎废食」。
人民日报评论认为,尽管应用类似「龙虾」的智能体,会面临更加多样的复杂情况,但我们研究新情况、解决新问题的意识一直没有变。◇


