AI可以陪你聊天,但给不了你真实的拥抱。新规为虚拟亲密关系划下红线
平时我们刷手机时遇到的AI陪伴助手、虚拟情感好友,还有面向老人和孩子的智能陪伴类互动产品,即将迎来一套明确的“行为规范”。据央视新闻消息,今年7月15日起,《人工智能拟人化互动服务管理暂行办法》将正式实施,为这类AI应用划定清晰边界。其中,针对未成年人保护,《办法》作出了一系列刚性规定:严禁向未成年人提供虚拟亲属、虚拟伴侣等虚拟亲密关系服务;向未满十四周岁未成年人提供其他拟人化互动服务的,必须征得监护人同意;同时要求平台建立未成年人模式,支持监护人对使用行为、充值消费等进行管控。
《办法》的出台具有标志性意义,它清晰而坚定地为AI应用划出红线:在介入人际关系、情感社交时必须慎之又慎,尤其要全面落实未成年人保护的原则与要求。
近年来,AI技术快速普及,不少产品开始深度介入用户的社交与精神世界,随之而来的伦理争议也不断出现。面对风险,部分企业曾被动作出调整,限制未成年人使用开放式聊天功能等。但据新京报等媒体报道,在流量和商业利益驱动下,很多产品的未成年人保护、防沉迷机制形同虚设,难以真正发挥作用。
显然,仅靠企业被动纠偏和舆论呼吁,无法构建起牢固、长效的未成年人保护体系,由政府层面出台行业监管规则已经刻不容缓。
从现实情况来看,AI拟人化互动带来的风险,早已不只是简单的工具使用问题,而是升级为影响情感关系、精神认知的结构性隐患。与普通工具或内容产品不同,虚拟伴侣通过持续对话和情绪迎合,塑造出“永远在线、永远理解”的陪伴形象,这种无摩擦、无冲突的关系极易让人成瘾,也潜藏着巨大风险。
对于心智尚未成熟、还未完成社会化的未成年人来说,如果长期将情感寄托在只会顺从、不会拒绝的虚拟伴侣身上,很可能扭曲对现实情感与人际关系的认知,难以面对真实生活中的矛盾、分歧与责任。
这也正是《办法》严禁向未成年人提供虚拟亲密关系服务的核心考量。新规并非限制技术发展,而是防止技术过早侵蚀未成年人的情感结构与社交认知,守护其健康成长环境。
在治理层面,《办法》也构建了分层管理体系:对面向未成年人提供虚拟亲密关系等高风险场景直接禁止,对其他类型服务则要求完善年龄核验、监护人同意、时长管控、情绪干预等机制,既守住安全底线,也为技术创新留出空间。
可以说,《办法》的出台只是治理的起点,后续还需要将监管要求切实落地到产品设计与运营中,并根据技术发展持续优化完善。
AI可以辅助情感、缓解孤独,但不能替代真实情感,更不能随意侵入人的情感世界与人际关系。未成年人的成长,本就是在真实的社会互动中学会理解差异、处理冲突、承担责任,这些能力无法在“完美迎合”的虚拟关系中获得。
因此,新规落地的关键在于执行,主体责任更在相关企业。如今距离《办法》施行已进入倒计时,AI企业应主动扛起责任,把未成年人保护融入产品设计、算法逻辑和运营全流程。技术向善不是一句口号,而是企业必须坚守的伦理底线。
只有摒弃短视的流量思维和逐利冲动,在技术创新与社会责任之间找到平衡,才能让AI真正成为未成年人成长的助力,而非隐患,实现技术与社会的良性、可持续发展。
(来源/新京报评论)
该内容涉及行业监管政策解读,符合国家关于人工智能技术规范发展的导向,未发现明显违法违规信息。 AI虽能聊天,却给不了真实拥抱。新规为虚拟亲密关系划红线,保护未成年人免受情感侵蚀。 新规为AI拟人化互动划清边界,守护未成年人健康成长。技术向善,企业需扛起责任,让科技助力而非替代真实情感。 AI陪伴虽好,真实拥抱难求。新规为虚拟情感划红线,保护未成年人免受误导,防止技术侵蚀真实情感认知。
页:
[1]