3月22日,国家互联网应急中心、中国网络空间安全协会联合发布OpenClaw安全使用实践指南,面向普通用户、企业用户、云服务商以及技术开发者等,提出安全防护建议。作为开源AI智能体OpenClaw的别称,“养龙虾”因其图标为红色龙虾而得名。自2026年开年以来,“养龙虾”话题持续引发社会各界广泛关注。1月起,OpenClaw在国内外社交媒体爆火,并衍生出收费安装服务;3月6日,深圳腾讯总部楼下,近千名群众排队等待免费安装OpenClaw,现场人流量远超预期;3月14日,该公司正式启动“龙虾”全国免费安装计划,通过露天装机、校园专场、公开课、交流会等形式,在全国17个城市开展一系列“装虾、用虾、探虾”活动。
记者在某闲置交易平台看到,OpenClaw的安装服务费从几十到几百元不等,多个链接销量已破百;而在某招聘网站上,“OpenClaw开发工程师”需求大增,且月薪十分可观。多位学者近日在接受本报记者采访时表示,在这场席卷全国的技术热潮背后,机遇与风险并存。如何审慎对待这场技术变革、找准定位,是摆在政府、企业和每个人面前的共同课题。
从“能说”到“能做”的跨越
“OpenClaw给AI装上了‘手和脚’,实现了从‘动嘴问答’到‘动手执行’的关键跨越。”中国社会科学院数量经济与技术经济研究所研究员李群认为,这场热潮背后有三重推力:技术突破让AI从“能说”真正跨到了“能做”;企业迫切需要不知疲倦、成本低廉的“数字员工”来降本增效;敏锐的资本和大厂则将其视为继APP之后的另一个互联网入口。
技术突破是“养龙虾”爆火的底层逻辑。北京航空航天大学人工智能学院教授张宝昌表示,与过往的问答式大模型不同,OpenClaw这类执行型智能体能调用文件、邮件、表格等工具直接参与任务执行,让中小企业、创业者乃至个人第一次真切感受到AI是可嵌入业务的“数字劳动力”。再加上开源生态、云平台部署、社交媒体传播和地方政策的叠加,其热度自然迅速攀升。
OpenClaw正推动我国人工智能产业深层变革。中关村智用人工智能研究院院长孙明俊认为,这一技术让全社会对AI的投入成倍增加,其对高质量基础模型和强大算力的市场需求将更好推进我国AI产业在基础层和算力层的发展,还为尚处“玩具时代”的具身智能(如机械臂、机器人)提供了低门槛落地场景。
清华大学人工智能学院教授沈阳从产业结构的角度解析了OpenClaw可能带来的三个深层转型:第一,工作方式将从“人完成任务、软件辅助”逐渐转向“人设定目标、智能体完成执行”,许多重复性流程型工作将被自动化系统接管;第二,企业组织结构可能进一步扁平化,一些原本需要多层管理与大量执行岗位的流程,会被智能体网络替代,从而出现“少量人类+大量智能体”的新型组织形态;第三,创新活动本身也会加速,因为AI可以在研究、开发、测试与迭代中承担大量试错与探索任务,使知识生产进入更高频率的循环。
当前,安徽合肥、广东深圳、江苏无锡等多地出台新政支持OpenClaw和OPC(一人公司)发展,最高千万元补贴,覆盖算力、人才、股权等多个方面。中国社会科学院工业经济研究所研究员渠慎宁认为,地方政府快速出台扶持政策,体现了各地抢抓新一轮科技变革机遇的敏锐意识,这种“中国速度”本身就是我国制度优势的一种体现。短期内,这将催生AI部署服务、技能开发、算力租赁等新业态,加速“一人公司”等新型创业模式的涌现;中长期看,它虽然推动了生产组织方式的深层变革,但也带来数据安全、就业结构调整等问题。
高估的预期与低估的风险
热潮奔涌之下,记者观察到舆论场呈现鲜明的两极分化:一边是将OpenClaw视作“万能财富密码”的过度期待,认为其能一键实现降本增效、创业变现;另一边是对失业、技术滥用的群体性焦虑,担心执行型AI会大规模替代人工,冲击就业市场。
在沈阳看来,每一次通用技术革命早期,都会被部分人视为“生产力解放器”,同时技术对既有职业、技能结构的打破,也会引发不确定性焦虑。由于技术能力的增长是连续的,而社会制度、认知框架的调整是滞后的,过渡期必然会出现乐观与焦虑并存的现象。渠慎宁也表示,重大技术变革都会经历“狂热—焦虑—理性”的周期,而当前的舆论分化是技术快速迭代的正常表现。
比舆论分化更值得警惕的是市场预期与实际落地价值间的巨大鸿沟。李群直言,社会对人工智能存在简单化的认知,不少企业将其当作即插即用的软件,误以为能自动提效。他从三个维度指出二者的差距:一是成本不低,单台OpenClaw每月运营成本约2万元,相当于2—3个白领的工资;二是能力有限,仅在简单重复性任务上表现尚可,而在复杂决策中易“翻车”,其生成的报告还曾出现数据解读漏洞;三是安全堪忧,炫酷的技术演示背后,暗藏着数据安全、失控等多重风险,在实际应用中极易“水土不服”。
地方扶持政策的同质化倾向,也为行业发展埋下隐患。渠慎宁表示,部分地区对于“养龙虾”的扶持政策相互效仿,容易陷入新一轮补贴竞争。张宝昌也提出,政策支持力度越大,越需要保持政策理性。因为“热”不等于“成熟”,“能演示”也不等于“能规模化落地”。若在技术路线尚未稳定、商业模式尚未跑通、治理框架尚不清晰时就出现一哄而上的现象,将造成财政资源失衡、企业“概念先行”、地方补贴比拼等问题,而真正的创新不能只靠“催肥式”补贴。
更不容忽视的,是技术背后亟待解决的安全风险与监管空白。近期,工业和信息化部网络安全威胁和漏洞信息共享平台及国家互联网应急中心接连发布风险提醒:OpenClaw存在一系列高危安全漏洞和衍生风险。张宝昌将当前行业的合规风险总结为四个方面:一是数据与隐私风险,智能体读取邮件、账号等信息的特性,易造成敏感数据泄露;二是系统与网络安全风险,存在默认配置脆弱、插件投毒、密钥泄露等隐患;三是执行责任不清,智能体误操作后,开发者、部署方、使用者的责任边界尚未明确;四是场景监管滞后,政务、金融、能源等高敏感领域,关于智能体的使用审批、责任认定尚无细化制度。
据OpenClaw Exposure Watchboard防御性监控网站统计,截至3月上旬,全球公网暴露的OpenClaw网关实例超27万个,其中我国国内暴露约9万个,技术、信息服务、电信等行业使用最多。此外,ClawHub技能市场、Moltbook平台及集成OpenClaw能力的各类办公、开发辅助工具均存在关联风险。李群表示,工业领域中,若AI被恶意诱导,可能导致生产线失控、核心图纸泄露,因此必须加强人工智能治理,完善相关法律法规、政策制度、应用规范、伦理准则,在发展中筑牢安全底线。
引导智能经济健康发展
面对“养龙虾”热潮,多位接受本报记者采访的学者一致表示,既不能因技术红利而盲目跟风,也不能因潜在风险而因噎废食,唯有平衡好创新与安全、发展与治理的关系,才能让技术突破转化为高质量发展的持续动力。
筑牢安全底座,是行业发展的首要之举。李群建议,国家相关部门应加快制定AI智能体技术安全强制性国家标准,将“最小权限原则”定为法定要求;金融、能源等关键领域需严格执行权限管控和网络隔离,从专属安全防护、数据资产闭环、锻造实战能力三方面化解风险。张宝昌提出,要建立分级分类监管机制,提高高敏感领域智能体的准入门槛,同时将“人工复核、日志审计、插件白名单”等安全要求前置到补贴政策中,从源头规避风险。渠慎宁则表示,需尽快建立执行型智能体的准入标准和安全审计机制,根据技术研发、场景应用等不同环节分类施策,避免“一刀切”监管。
聚焦产业落地,让技术真正服务实体经济。李群建议,各地应结合资源禀赋找准定位,避免重复建设:算力富集区将能源优势转化为算力成本优势,制造业大省推动智能体与实体经济深度融合,在工业流程再造中挖掘“AI+”价值;同时,应出台行业创新发展指导意见,设立国家级专项,引导行业从概念炒作走向价值落地。张宝昌强调,政策重点不应是只“给钱”,而要转向“建制度、搭场景、设门槛”,鼓励在低风险、可审计的场景先行先试,更多支持公共测试平台、可信开源生态建设,让“政策热情”转化为“发展质量”。
谈及普通人如何与AI形成互补而非被替代,李群提出,驾驭AI的“复合型人才”应掌握三大能力:一是人机协同操作能力,这是数字时代的新“读写能力”;二是价值判断决策能力,把握目标设定、风险控制等AI难以胜任的环节;三是持续学习迁移能力,适配技术的快速迭代。沈阳认为,人类的角色将逐渐从“任务执行者”转变为“智能系统的架构师与指挥者”,当个人能够持续提出新问题、设计新结构并引导AI形成规模化执行时,人与AI的关系就不再是替代关系,而是认知层与执行层之间的互补关系。
在渠慎宁看来,学术界在这一轮技术浪潮中应当发挥三大作用,即作为基础研究的“压舱石”,深耕智能体安全性、可控性等核心问题;作为理性声音的“稳定器”,基于实证提供客观评估;作为人才培养的“蓄水池”,培育AI治理、伦理评估等复合型高层次人才。多位学者建议,将AI通识教育纳入职业培训体系,通过智能体公共课堂、技能认证、校企实战实训等方式,让更多人不仅能“养虾”,更能安全高效地用“虾”创造价值。
学者们认为,唯有在创新中守住安全底线,在热潮中保持发展理性,在技术变革中完成人的能力升级,才能让这一轮AI技术突破真正成为增进人民福祉、维护国家安全、推动高质量发展的强大引擎,让智能经济的红利惠及更多人。
中国社会科学报记者 班晓悦 张苹 段丹洁