真假桃花满天下免费阅读难辨的AI内容该如何监管?
最佳回答
“桃花满天下免费阅读” 真假桃花满天下免费阅读难辨的AI内容该如何监管?
这几天,国内AI大模型都在密集上线新的版本,其中,国内平台进行内测的新一代视频生成模型,就给相关行业带来了巨大的震撼。只要输入简单的文字描述,然后一键点击,这个大模型就能自动生成包含多镜头切换、连贯叙事和同步音效的视频作品,影视制作的门槛大大降低,甚至有人惊呼,以后做一部电影只需要导演一个人就够了。
但惊喜背后,惊吓也随之而来,由该平台生成的明星、演员的视频在网络疯传,真假难辨的程度前所未见。要知道,此前的AI换脸和声音克隆技术,就已经让不少人上当受骗。如今,如果假视频的生成到了电影级别,我们如何能分得清虚拟和现实呢?人们的肖像权、隐私权以及著作权,该如何保护?
临近春节,中国的人工智能领域,迎来了创新“井喷”。去年,还是DeepSeek一枝独秀,今年,却是多款大模型密集升级上线,而且在多个技术赛道,实现重大突破。本周,在智能体编程赛道,智谱推出新一代旗舰模型GLM-5,引爆全球技术圈。更受瞩目的是,在视觉生成赛道上,字节跳动正式上线新一代AI视频生成模型Seedance 2.0,以“可导演的电影级全流程生成引擎”为定位,刷屏国内外的内容创作圈。
只需输入简短描述和参考图即可生成具备多机位运镜、原生音效的高质量视频,还支持多镜头长叙事等功能,Seedance 2.0模型的出现,让知名视频博主潘天鸿感慨,它简直就是万能的视频生成模型。潘天鸿还参与了该模型正式发布前的灰度测试,其测评视频标题为:改变视频行业的AI,快来了,但有点恐怖。
潘天鸿:它永远带给你的是惊喜,不是失望,这就是这个模型“恐怖”的地方。它远超出我的预期,这个AI的特性在于它有导演意识,会做明确分镜,并且所有的人物呈现不会失真,非常真实。
Seedance 2.0与国外最优秀的视频大模型Sora比较,谁更优秀?本周,记者与视频博主合作进行了测试,记者希望大模型生成一个“大熊猫参加冬奥会并完成单板滑雪内转1980度抓板动作”的视频,给两款大模型分别输入了80字的任务提示词。
Sora版的视频,用现场解说可实现如何向专业动作靠拢,而Seedance版视频,似乎更强调炫酷,也更适合传播。
再看看专业人士点评。潘天鸿团队称,Seedance 2.0不是工具升级,而是行业革命;测评人士之外,游戏制作人冯骥评价说:AIGC,也就是人工智能,生成多模态内容的创作方式,其童年期时代,结束了,并表示,该模型是“当前地表最强视频生成模型”;而多位美国导演或影视从业者,在使用之后,更是公开表达诸如“好莱坞要完蛋了”,或“这东西说不定真能搞垮好莱坞”的感慨。
2024年就有数据显示,我国网络视听行业市场规模超1.22万亿元,短视频用户规模达到10.4亿,使用率达93.8%。行业普遍认为,随着AI视频技术的不断迭代,AI将深度参与从创意、拍摄到传播等各个环节,内容生产的产业链将发生重构。
一句话、一个人,就能拍电影,很多媒体用“颠覆”二字来形容Seedance 2.0的性能。它颠覆的不仅仅是整个行业,对个体来说,还在颠覆人的判断力。在Seedance 2.0灰度测试的真人照片生成视频阶段,由于生成的视频过于逼真,有评论就说,其以假乱真的程度,让“眼见为实”四个字,受到更大的挑战。
如今,新一代视频大模型的出现,让仿真能力更强,技术门槛更低,当然也让人更担忧。争议之下,这个大模型内测仅仅两天之后,企业就宣布紧急优化,暂停使用真人图像作为主体参考,在本周四正式上线的版本中,这个功能也依旧不能使用。大家都在问:这个功能会恢复吗?更重要的是:我们该如何为这项强大的技术,划定清晰的边界?
在没有向AI提供任何声音文件的情况下,仅仅上传了一张照片,AI就自动匹配出了本人的声音。Seedance 2.0的爆火,带来的不仅是技术的惊叹,更引发了公众对隐私权的深层担忧。
担心不止于此。在此前Seedance 2.0内测期间,就有网友利用该工具生成与明星的相关视频,导致名人形象被随意使用,“魔改”内容泛滥。相比于此前语言大模型在文本层面的突破,Seedance 2.0所带来的视频生成能力的飞跃,更像是一个被打开的潘多拉魔盒。
短短两天内测,Seedance 2.0已暴露出诸多侵权风险,其中争议最大的是真人素材参考功能。2月9日,相关运营方在内测群内发布通知,进行紧急优化,暂不支持输入真人素材作为主体参考。而在本周四Seedance 2.0正式上线时,真人图像参考功能依然无法使用。
真人素材的参考功能,如何才能合规、安全地使用呢?个人信息保护法中已有明确说法,人脸、声音等生物识别信息,被明确界定为“敏感个人信息”。而法律也明确规定,处理此类信息,应当取得个人的单独同意。
除了真人素材,Seedance 2.0还面临着影视动漫作品版权侵权的隐忧。
AI生成的视频,越来越难辨真假,那些负责生成视频的AI平台,理应是第一责任人,必须建立完善的内部、外部监督机制,防止侵权视频的产生。但除了生成平台,那些发布、传播这些视频的短视频平台、社交媒体,同样责无旁贷。在AI内容海量生成、瞬时传播的今天,单靠个人举报和事后删除已经远远不够。平台是否应该把责任前置,建立更严格的审核机制,从源头上遏制这些侵权视频的发布和传播呢?
根据明星、名人形象合成的视频,充斥在各类短视频平台和社交媒体,有的涉嫌侵权,有的甚至被用来带货,作为传播平台,该负怎样的责任呢?民法典规定,网络用户利用网络服务实施侵权行为的,权利人有权通知网络服务提供者采取删除、屏蔽、断开链接等必要措施,这就是“避风港原则”。在这一原则下,平台只需要按“通知—删除”的原则进行事后补救。专家认为,在海量AI生成内容涌现的当下,这一原则显然已经需要改进。
其实,民法典中已有规定,网络服务提供者知道或者应当知道网络用户利用其网络服务侵害他人民事权益,未采取必要措施的,与该网络用户承担连带责任。其中,“应当知道”四个字,意味着平台要承担起更多的注意义务,专家认为,面对AI侵权视频,网络平台应该从事后删除的被动应对,转向事前识别和审核的主动治理。
目前,各大传播平台已普遍采用一定的过滤和拦截技术,防止侵权视频的传播。在专家看来,相比传播平台,作为内容提供者的AI视频生成平台,在侵权违法内容的审查中,理应承担更高的责任。2023年8月开始施行的《生成式人工智能服务管理暂行办法》中就明确,生成式人工智能服务提供者应当依法承担网络信息内容生产者责任,履行网络信息安全义务。
AI的不断升级,也需要监管的发力。本周四,国家网信办表示,针对发布AI生成信息时不添加标识、传播虚假不实内容等问题,已开展专项整治,已处置账号1.3万余个,清理违法违规信息54.3万条,典型案例中,就包含了AI换脸假冒运动员、售卖AI生成的公众人物“送祝福”视频等情形。
从文字、图片、声音,再到如今愈发逼真的视频生成,AI技术的迭代速度,已经超出了很多人的想象。但AI发展得越快,我们越需要停下来思考一个根本问题:我们发展AI,究竟是为了什么?如果科技进步带来的是一个越来越难以分辨真与假、善与恶、美与丑的世界,这样的“进步”,是我们想要的吗?技术的发展,永远都是一把双刃剑,为了避免技术被滥用,相关的监管和规则的制定,也必须加速跟上。
分享让更多人看到
- 评论
- 关注
































第一时间为您推送权威资讯
报道全球 传播中国
关注人民网,传播正能量