2023年9月,习近平总书记在黑龙江考察时指出,要整合科技创新资源,引领发展战略性新兴产业和未来产业,加快形成新质生产力。科技创新能够催生新产业、新模式和新动能,而以人工智能发展为引领的科技创新则是赋能新质生产力的核心引擎。2023年中央经济工作会议明确提出“加快推动人工智能发展”的目标;国家工信部按照中央要求提前布局未来产业,开辟人形机器人等新赛道,发布了《人形机器人创新发展指导意见》,为布局该
内容摘要:人形机器人不仅要求具备人类的智力,还必须拥有类似人类的身体,从而塑造出具有实体形态的通用人工智能。人的身体不仅是生物学意义上的肉体形态,也是人的全部感知和内在精神生发的重要场域,更是社会关系形成的基本节点。身体和精神是人的主体性生成的核心基础。人的身体通过发挥感知能力和运动经验参与认知活动,通过完成有意识的或无意识的行为来进行社会活动。人的身体、与身体相关的非精神要素、人的精神是不可分割
内容摘要:近年来,人工智能的飞速发展极大地推动了人形机器人的商业化进程,人形机器人已经成为产业发展的新风口。相较而言,人形机器人法律地位的研究才刚刚起步。类人外形的具身存在,以涌现方式生成的决策和内容,这两个基本特征引发了人形机器人特有的法律难题。将人形机器人确定为法律主体,既不符合传统法理及其背后演进的逻辑,也违背了立法目的,更会引发人类社会系统性的生存危机。人形机器人是法律风险总体可控的对象,
内容摘要:随着通用人工智能时代(AGI)的开启,AGI 人形机器人正在成为未来科技重点发展方向。鉴于人形机器人搭载的AGI“大脑”具有完成无固定任务能力、适应能力、涌现能力等技术特性以及其“人形”外观使其社会性急剧增强,是否赋予AGI 人形机器人刑事主体资格又重新成为理论热点。前AGI 时代否定说的几种理由并不成立,AGI 时代开启后,AGI 人形机器人与人类的本体论差距正在缩小, 其功能与外观使
内容摘要:人形机器人的应用和普及将产生人形机器人使用致害风险,并引发有关使用者是否应负注意义务的诘问。使用者是人形机器人的直接管控者,应设置与其风险管控能力相匹配的注意义务,以保障智能社会交往安全、维系人的主体性认同和共同体认同、实现动态利益衡平。人形机器人的注意义务包括合理指令义务、合理操作义务和过程管理义务,注意义务的成立则需满足义务履行的必要性、损害可预见性、损害可避免性三个要件。由于使用者
内容摘要:人形机器人在智能水平、静态与动态物理特征方面高度拟人化,其在软硬件互信、脑体协同基础上构造的虚拟人际关系,可提供展现亲密感的增强型信任。但人形机器人服务的增强型信任未在总体上改善消费者的弱势地位,反而还强化了消费者的信任匹配失当、隐性信任定向化、信任扭曲等信任控制风险。传统消费者保护法中的经营者告知义务、基于风险分级的人工智能敏捷治理、产品责任的发展风险抗辩均难以充分保护消费者。为应对信
内容摘要:具身智能体结合了人工智能与机器人技术,单独讨论其中的任何一项技术对隐私的威胁都是片面的。具身智能体所具有的具身性、交互性及涌现性特征展现了其强大的互动和行动能力,给隐私与数据保护带来前所未有的新挑战。一方面,具身智能体能侵入私密空间,记录私密活动并潜移默化收集处理私密信息;另一方面,自主决策和自主行动的结合能造成实害,侵害用户的人身财产权益。既有的隐私和数据保护规则围绕信息控制而展开,具
内容摘要:因人工智能系统的不可解释性、不可预测性和自适应性,人形机器人自主侵权责任面临难以认定的困境。人形机器人自主致人损害属高风险人工智能领域,对此人形机器人提供者应承担产品责任,履行产品安全可控保障义务;大模型提供者仅需履行充分的透明度告知义务,与人形机器人提供者承担共同侵权责任;人形机器人使用者须按照说明正确使用产品,其承担的侵权责任不宜过度偏离原有类型。通过层次化确立信息披露、可反驳的过错
内容摘要:随着人形机器人的日益普及,其引发的事故也不断挑战传统事故责任制度。由于开发主体多元、机器学习算法、人机混控等因素的影响,人形机器人事故的事故成因、行为判定、责任分配、救济措施均变得相当复杂,这给传统事故责任制度带来巨大挑战。通过人形机器人技术分析和事故法律责任制度分析可知, 传统事故责任制度仅能处理小部分过错清晰的事故类型,对于大部分人形机器人事故,传统事故责任制度将很难继续适用。为了应
内容摘要:随着机器人和人工智能技术的快速发展,作为具身智能的人形机器人在应用场景上逐渐拓宽,同时也形成了多元而复杂的安全风险和刑法归责难题。理论上主要存在代理责任、过失责任、严格责任、独立责任四种各有利弊的刑法归责模式。除了严格责任之外,其余模式都可以统合在场景化的刑法归责体系之中。在当前人工智能的发展阶段,传统的刑法教义学原理可以处理绝大部分的机器人刑法归责问题, 不过也应在新的技术条件下对可容
内容摘要:人形机器人具有跨场景的通用性,可以在多种场景中与人类展开合作,可能通过全面的运用形成人机共生社会。在人机共生社会中,法律治理应当超出特定的场景设计,形成更具一般性的架构。跨场景应用的人形机器人在态势感知和情感识别方面的特征,决定了人形机器人的法律治理不同于一般意义上的机器人。以此为出发点对人形机器人的法律治理基本架构进行设计,平衡技术发展与社会风险,形成合理的激励机制。 关键词:人形机
内容摘要:人工智能体由控制端、感知端和行动端组成。在控制端,尽管大模型充当了智能体的“智能引擎”,但仍存在“机器幻觉”,其生成的内容面临时效性和可靠性风险。大模型的算法偏见也可能加剧智能体在决策中的偏见。在感知端,智能体的多模态感知能力加大了个人隐私侵权的风险,对个人信息保护制度构成挑战。多智能体系统间的交互可能导致不可预测的、复杂的和动态的系统性安全风险。在行动端,具身智能体的交互式学习模式可能
内容摘要:人形机器人的出现,使人工智能的输出由虚拟的数字世界开始走向现实的物理世界,由此促进了人机共生状态的演进进程。具备情感代理和行为代理功用的人形机器人突破了传统的人机交互模式,尤其是人机情感交互模糊了人机主体地位的界限,为具身智能体的主体定位提供了现实支撑。新型交互生态颠覆了以往人机交互的技术模式和理论范式,对传统的“以人为中心”的人机交互思路带来了冲击。基于技术层面的人机互嵌与社会层面的情
内容摘要:在人工智能大语言模型技术加持下,具有拟人化外观的人形机器人将具有操纵能力,可能引发限制人的自我成长、误导社会化进程以及扭曲家庭伦理观念等问题。风险管理进路是一种成本效益分析法,存在风险评估与分类困难,并非调整人形机器人活动的良方。人形机器人具有专精科技与赋能科技双重属性, 前者意味着必须借助科技伦理规范研发活动,后者则要求充分关注不同应用场景的复杂治理需求。对人形机器人研发活动的规范,应
内容摘要:人工智能的具身化意味着人工智能产品由代码塑造的虚拟空间进入更为复杂的现实世界,具备强大的环境感知、认知交互、智能决策、行动控制能力,而这一切都依赖规模庞大、类型多样的数据处理活动作支撑,人形机器人研发与应用过程中也催生了数据控制安全风险和数据利用安全风险。刑法作为数据安全治理的重要手段,应当引入前置法确立的数据分类分级保护规则指导数据犯罪立法完善与司法认定,通过将过失泄露个人信息行为以及
内容摘要:人形机器人产业对数据的需求量急剧扩大,使得提前预知处理信息的目的变得更为困难。产业链条更为复杂与场景更为多元也给规制带来新挑战。处理个人信息的目的越来越不具有确定性,个人信息二次使用规则的缺位以及目的原则的判断标准不一,都要求从体系上对目的原则进行重新审视。将法律直接转化为代码面临重重困境。按照人形机器人的不同应用场景先行引入标准,摒弃水土不服的兼容性规则以及维持研究目的的开放性,是在技