欢迎光临北京软件和信息服务业协会官方网站
热点观察 │ 具身机器人安全 “暗战”—— 梆梆安全CEO拆解防护之道
发布日期:2026-02-10    来源:梆梆安全    分享到:

当具身机器人从实验室走进工厂车间、家庭养老、医疗手术室,成为重构产业模式与生活方式的核心力量,一场看不见的网络安全“暗战”已然打响。2024-2025年全球相关安全事件激增47%,86%的攻击直接冲击业务运转,AI模型劫持、供应链投毒、隐私数据泄露等风险正沿着“感知-决策-行动-反馈” 的技术闭环渗透蔓延。


本期嘉宾是深耕网络安全领域多年的梆梆安全创始人、董事长兼CEO阚志刚先生。他将聚焦行业核心痛点,从威胁态势、政策标准、隐私防护到全体系构建,深度拆解不同场景下的安全差异与防御关键,为具身机器人产业发展筑起一道“防火墙”。


a9841a7a-8633-468e-ac32-b749e20f38e8.png


[威胁]态势与场景[风险]

行业安全的痛点在哪里?

具身机器人已经形成“感知-决策-行动-反馈”闭环架构,攻击面覆盖物理实体、感知器、无线通讯、软件云端及AI模型五大层面,2024-2025年全球安全事件激增47%,86%的攻击造成直接业务影响。


您认为当前具身机器人最突出的网络安全威胁类型是什么?


从威胁态势来看,AI模型攻击与供应链攻击已成为最具破坏性与隐蔽性的两大威胁类型。

首先,AI模型攻击。攻击者通过对抗样本、数据投毒、模型后门等方式,可在不改变系统代码的情况下,误导机器人的感知与决策。例如,在自动驾驶场景中,通过贴纸干扰交通标志识别,误导车辆将“停止”标志误判为“限速”标志,从而引发闯红灯或超速行驶等危险行为;在工业质检场景中,通过视觉对抗样本导致漏检,致使有缺陷的零件流入产线,最终可能引发批量性质量事故甚至安全事故。此类攻击难以检测,且修复成本非常高,往往需要对模型进行重新训练、数据清洗甚至系统级加固,不仅耗费大量时间和算力资源,还可能因模型迭代引入新的不确定性风险。

第二、供应链攻击。具身智能系统是一个高度复杂的集成体,其“身体”与“大脑”依赖于层层嵌套、来源多样的开源软件、第三方硬件与商业软件库。比如,仿生灵巧手可能集成来自不同供应商的力矩传感器、微型伺服电机及其控制固件等。攻击者可在从芯片设计、零部件制造、到系统集成与软件分发的全链条任一环节中,植入恶意代码或硬件木马。2025年某机器人云服务密钥泄露事件,正是其云端管理平台所依赖的第三方通信组件存在漏洞所致,导致大量用户隐私暴露。供应链攻击因其渗透早、潜伏期长、影响面广的特点,极具隐蔽性与破坏性。它并非针对单一终端,而是污染了整个“数字血脉”的源头,一旦被触发,可能导致依托同款芯片、同一软件库或同一供应商部件的整个机器人产品线面临系统性安全风险,造成大规模物理失序、数据泄露或功能瘫痪。


工业制造、养老服务、家庭使用、特种作业等等,在这些不同场景下的机器人,在安全风险表现上是否存在差异,核心差异在哪里?


的确,不同场景下,具身智能机器人的风险焦点和后果的严重性差异非常显著,要采取场景化的安全思维来看待。

在工业制造场景中,风险核心在于生产安全与业务连续性。攻击者如果通过漏洞篡改机械臂的运动轨迹、干扰视觉定位系统,可能导致装配失误、零件损坏,甚至引发产线停摆。更严重的是,在高速、高负载作业中,一次恶意干扰可能导致机械臂撞击人员或设备,造成严重的物理伤害与生产中断。因此,工业场景对系统的实时性、可靠性与控制安全的要求非常高。

在养老/家庭服务场景中,风险则转向隐私安全与人身安全。这类机器人往往持续采集老人的生理数据、日常行为、语音对话甚至室内影像。一旦这些高度敏感的数据在传输或存储环节被窃取,极有可能导致不法分子针对老人的精准诈骗、财产勒索等。同时,若机器人在执行喂药、辅助行走等物理任务时因攻击导致行为异常,可能直接造成老人身体受伤。安全在这里,直接关乎信任与尊严。

在医疗健康场景中,是完全处于风险等级的顶端。无论是手术机器人、康复辅助机器人还是诊断辅助系统,其安全事件直接关联患者生命安全与医疗伦理责任。攻击可能发生在多个层面:例如,通过干扰手术机器人的力反馈信号与运动精度,可能造成术中误操作;通过篡改影像识别系统的输出,可能误导诊断结论;更严重的是,患者全生命周期的健康数据一旦泄露,不仅涉及隐私,更可能被用于保险欺诈、勒索甚至恶意修改治疗方案。因此,医疗场景对功能安全、数据安全与系统可信的要求,达到了医疗设备级的严格标准。

那么,在巡检、救援、防爆等特种作业场景中,机器人往往在恶劣、危险或非结构化的环境中运行。它们面临的不仅是复杂环境的适应性挑战,还有来自人为的恶意定向干扰。攻击者可能通过GPS/定位信号欺骗,将防爆机器人引导至错误区域;通过通信干扰,阻断灾情画面的回传;甚至通过感知系统欺骗,使巡检机器人对危险隐患“视而不见”。这类场景的风险,往往叠加了环境危险性、任务关键性与恶意对抗性,一次成功的攻击可能导致任务彻底失败,并引发严重的次生灾害。


[政策]与[标准]落地

  急需建立哪些安全规则与监管机制?


“十五五”规划已将具身智能纳入未来产业,中央与地方形成协同政策体系,但行业安全标准仍在完善中。


从网络安全监管角度,您认为当前具身机器人行业最急需建立哪些安全标准?政策层面应如何推动“安全左移”理念在机器人研发、生产、部署全流程落地?


从网络安全监管的角度来看,当前具身机器人行业正处于“技术快跑、标准追赶”的关键阶段。尽管国家已出台《国家人工智能产业综合标准化体系建设指南》《工业和信息化领域人工智能安全治理标准体系建设指南》《人工智能安全标准体系(V1.0)征求意见稿》等顶层设计,并将“具身智能安全”列为关键技术标准方向,但在落地层面,仍存在标准延迟于技术、企业重功能轻安全的现象。因此,当前最急需建立并落实以下几类安全规则与监管机制:

一是全生命周期安全标准。 必须明确覆盖从设计、开发、测试到部署、运维乃至退役的全流程安全要求,尤其在物理安全(如急停机制、运动边界)、数据安全(如采集加密、存储脱敏)、通信安全(如端到端加密、身份鉴权) 以及AI模型安全(如对抗鲁棒性、可解释性) 等方面形成可执行、可检测的具体规范。

二是场景化安全基线。 针对工业制造、医疗健康、养老陪护、安防巡检等不同场景,制定差异化的安全要求与测试用例。例如,医疗机器人需符合医疗设备级的功能安全与数据隐私标准,而工业机器人则需突出高实时性控制与生产连续性保障。

三是伦理与行为边界规则。 明确机器人在自主决策过程中的透明度要求、人类干预介入机制,以及发生事故时的责任认定框架。这不仅是技术问题,更是建立社会信任的制度基础。

在政策推动“安全左移”方面,建议从以下三方面着力:

强化强制性与激励性政策结合。 对医疗、养老、公共交通等高敏感场景的机器人实施安全认证与准入制度,未通过认证不得上市部署;同时对积极投入安全研发、通过认证的企业,给予研发补贴、税收优惠、优先采购等激励,引导企业从“被动合规”转向“主动筑防”。

建设测试验证与攻防靶场平台。 为企业提供仿真环境、合规检测、漏洞挖掘与攻防演练一体化服务,降低安全验证门槛,推动安全能力“前置化”“实战化”。

构建“政产学研用”协同的共治机制。 成立跨部门、跨领域的标准工作组,加快标准迭代速度;鼓励企业、高校、研究机构及用户代表共同参与安全治理,形成持续演进、动态反馈的行业安全生态。


[隐私]与[伦理]安全

  服务型机器人怎么防范数据泄露风险?


具身机器人尤其是服务类、家庭类产品,需采集用户语音、面部特征、日常活动等大量敏感数据,2025年黑客非法获取了宇树科技Go1机器狗所使用的第三方云隧道服务的管理密钥,并利用该密钥以高级权限在用户设备内修改数据和程序,从而获得对用户设备的操作控制权并能够访问视频流,导致用户隐私完全暴露。


您认为这类服务型机器人在数据采集、存储、传输全流程中,最易出现隐私泄露的环节是什么?


服务类机器人在日常陪伴与照护中,会持续接触大量敏感的个人信息,如人脸、语音、活动轨迹等。从数据流转的全流程来看,数据采集端与云端传输与存储环节是最易发生隐私泄露的风险聚集点。

在采集端,机器人通过摄像头、麦克风等传感器实时收集环境与用户信息。如果设备本地计算能力不足或缺乏加密处理,原始数据可能以明文形式直接上传,如同“裸奔”进入网络,极易被截获。而在云端环节,数据在传输过程中可能遭遇“中间人”窃听,存储后也可能因数据库漏洞或内部人员违规访问而导致大规模泄露。近年来已出现多起攻击者利用泄露的人脸、声纹等信息,通过AI伪造技术绕过身份验证,实施精准诈骗的案件,这无疑让隐私泄露从“数据风险”升级为“人身与财产风险”。


您认为企业应采取哪些技术与管理措施,在保障服务功能的同时筑牢用户隐私防护墙?


在实现服务功能的同时,还需要筑牢隐私防护墙。企业应在技术与管理双维度建立体系化的保障措施。

首先,技术上:

贯彻数据最小化原则,在采集阶段即对敏感信息进行脱敏或匿名化处理,例如实时模糊人脸、提取语音特征而非保存完整录音。

强化端侧加密能力,将密钥存储于设备安全区域,并采用国密算法实现数据从设备到云端的端到端加密传输,确保数据即便在传输中被截获也无法解密。

积极部署隐私计算技术,如联邦学习,使数据可以在不离开本地的情况下参与模型训练,实现“数据可用不可见”,从源头降低汇聚性泄露风险。

在者,管理上:

严格执行数据访问权限分级与控制,遵循最小必要授权原则,确保只有授权人员方可接触相应级别的数据。

建立完善的操作日志与审计系统,对所有数据的访问、使用行为进行记录与监控,并配备异常行为实时检测与告警功能。

定期开展隐私影响评估与合规性审计,主动排查潜在风险,并建立与产品迭代同步的数据安全生命周期管理流程。


[构建]安全管理[体系]

  企业与行业如何实现全方位防护?

目前,具身机器人攻击已覆盖到物理层、网络层、AI 模型层等全链路,国产化进程中供应链安全风险也十分突出。


您认为应构建怎样的网络安全管理体系,才能既适配“感知-决策-行动-反馈”的技术架构,又能应对AI模型攻击、开源组件投毒等新型威胁?


面向具身智能“感知-决策-行动-反馈”的闭环特征及AI模型攻击、供应链投毒等新型风险,构建与之匹配的安全体系,已不能仅靠传统的网络防护思维,而必须进行一场从理念到架构的系统性升级。我们认为,应当建立一套“内生免疫、生态协同”的动态防护体系,通过企业自身的闭环管理与行业层面的开放共治,实现覆盖全链路的可持续安全。


在技术防护、流程管控、生态协同等方面,有哪些可以落地的举措呢?


在企业实践中,需从“被动应对”转向“主动规划”,建立覆盖产品全生命周期的纵深防御机制,具体可分三步走:

步:安全基因前置,植入研发源头。 在产品和系统设计初期,就将安全作为核心要素进行建模。例如,在机器人的结构层,为仿生灵巧手设定力矩上限与碰撞急停逻辑;在决策层,为AI模型注入对抗样本训练,提升其抗干扰能力,从源头降低被攻击的可能性。

第二步:构建动态免疫,实现三层联防。 在技术实施阶段,建立覆盖终端、通信与云端的协同防御体系。在终端,通过行为监控防止关节或手爪被恶意指令操控;在通信链路,对传输的数据采用轻量化加密通信与实时入侵检测,保障指令传输的完整与可信,防止指令被窃听或篡改;在云端,部署AI模型安全监测平台,对数据投毒、后门触发等风险进行实时识别与阻断。

第三步:开展持续运营,实现闭环治理。 建立统一安全运营中心(SOC),对机器人的漏洞、事件、状态进行集中管控。通过在靶场环境中开展持续红蓝对抗演练,像“定期体检”一样主动发现和修复系统脆弱点,形成从监测、响应到优化的闭环管理。

在行业协同层面,应推动构建“标准共治、情报共享、生态共创”的联防机制:

共治标准:联合产、学、研、用多方力量,加快研制覆盖硬件安全、数据合规、算法可解释、人机交互伦理等方面的行业标准与测试认证体系,为产品准入设立清晰的安全基线。

共享情报:建设行业级威胁情报共享平台,推动攻击手法、漏洞信息、处置经验的实时互通,实现“一企受攻、全行业预警”,提升整体防御响应速度。

共创生态:推动安全能力产品化、服务化输出,降低中小企业安全门槛。同时加强跨学科人才培养,鼓励高校设立“具身智能安全”相关方向,为行业储备既懂技术又懂安全的复合型人才。

要使这一体系持续运转,关键在于让安全从“成本”转化为“竞争力”。通过政策端的激励(如安全评级与采购挂钩)、市场端的认可(如安全认证提升品牌溢价)、用户端的监督,共同构建“安全即价值”的市场环境。只有让企业在安全上投入获得实实在在的回报,才能推动行业形成“安全驱动创新、创新反哺安全”的良性发展格局,最终让具身智能技术在可靠、可信的基础上真正服务于社会。


你知道你的Internet Explorer是过时了吗?

为了得到我们网站最好的体验效果,我们建议您升级到最新版本的Internet Explorer或选择另一个web浏览器.一个列表最流行的web浏览器在下面可以找到.