0次浏览 发布时间:2025-04-14 13:24:00
不久前,某机场出现一张由人工智能(以下简称“AI”)生成的广告画面,因人物主体有六根手指引发热议。这一失误看似荒诞,却也揭示出“AI幻觉”的问题。
当算法能够驱动内容生产,AI迅速响应用户指令,生成各类文本、图像和音视频内容,“一键生成”带来的快感,让越来越多的人陷入“技术依赖”,同时也产生了信息混淆和传播误导的风险。
近日,国家互联网信息办公室等四部门联合发布《人工智能生成合成内容标识办法》(以下简称《标识办法》)。《标识办法》聚焦人工智能“生成合成内容标识”关键点,通过标识提醒用户辨别虚假信息,明确相关服务主体的标识责任义务,规范内容制作、传播各环节标识行为。
《标识办法》要求,由人工智能生成的文本、图片、音频以及视频等内容,均需添加显式或隐式的标识。显式标识,如文字、语音提示,能够直观地告知用户内容的生成来源;隐式标识,如元数据、数字水印,则能在不影响用户体验的前提下,暗中标记内容的生成信息。这一举措有效破解了内容溯源的问题,还有助于重建网络空间的信任秩序。
技术的发展同风险挑战,从来都是相伴而生。从实验室里助力前沿探索到医疗影像辅助诊断,从城市交通智慧调度到农业精准种植指导……AI为人们带来了更便捷智能的体验,但也出现了一系列因滥用AI而生的问题:深度伪造技术制造的虚假影像难辨真伪,AI换脸技术催生的身份盗用防不胜防,恶意生成内容更成为网络空间的新型污染源。
既要用好,也要管好。近年来,我国已相继出台《互联网信息服务深度合成管理规定》《生成式人工智能服务管理暂行办法》等政策文件,既为技术创新开辟航道,又为公共利益筑牢堤坝。通过不断对新出现的问题实施针对性治理措施,并与算法备案、安全评估等制度相衔接,科技向善的愿景得以更好地维护和发展。
公众如何使用AI也显得尤为重要。人工智能最终是要为人服务的,需要人来做出选择和判定。我们需要形成批判性使用AI内容的共识,提高人们对AI生成内容的辨识能力和防范意识。只有这样,我们才能让AI为工作和生活赋能,避免被AI“挖坑”。
当前,AI以“周更”速度迭代且更为深入地介入现实生活,生成内容日均亿万量级地井喷,可以预见,相伴而生的AI治理问题还将持续出现。在创新的同时筑牢安全底线,实现动态平衡中的持续优化,将是AI时代长期面临的课题。只有将技术的“快”与人类的“慎”结合起来,才能更好地让技术为人类所用,服务社会发展。
来源:人民日报海外版