[环球时报驻巴基斯坦特派记者程是颉环球时报记者刘明]大选来临前,印度爆发了一波“深度伪造”视频浪潮,从演员、主持人到企业家和政客,许多名人纷纷“躺枪”。据新加坡《海峡时报》18日报道,随着造假工具变得更加复杂、更易获取,这些虚假内容正在“模糊虚幻与现实之间的界限”,令印度深感担忧。
近几周来,数位家喻户晓的印度新闻主持人“现身”宣传糖尿病药物的“深伪”视频,这在印度社交媒体上广泛传播。印度事实核查网站Boom报告称,这些视频是在公开视频基础上合成的,造假者很可能使用了人工智能(AI)进行篡改,并加上了主持人说印地语的虚假配音。
不久前,还有一段“印度总理莫迪跳传统舞蹈”的视频在网上疯传,莫迪本人亲自辟谣称视频是AI合成的,并对此发出警告。
在商业领域,有人利用AI对一张印度著名企业家拉坦·塔塔的照片进行动画化处理,并加上了虚假音频,用于宣传一个可疑的金融投资机会。此外,亚洲首富、印度信实集团掌门人穆克什·安巴尼的一段公开视频也被虚假配音覆盖,给类似的金融投资项目打广告。
同时,印度还出现了大量换脸知名女星的虚假色情视频。这些视频是在原有色情视频的基础上,通过AI将成人剧演员的脸换成知名女星。11月,一条印度著名女演员拉什米卡·曼丹娜的“深伪”视频在社交媒体上疯传。原视频是英印混血网红扎拉·帕特尔身穿紧身衣进入电梯,而假视频中,她的脸被替换成了曼丹娜。视频出现的第二天,帕特尔回应称自己“深感不安”。曼丹娜也表示这一事件“极其可怕”。
社交媒体平台“LocalCircles”11月30日发布的一项调查显示,30%的受访印度人称,他们看的视频里约有1/4是假的。报道称,放眼全世界,“深伪”视频的生产速度比以往任何时候都快。报告表明,过去一年,全球能检测到的网络“深伪”内容增加了10倍。
尽管印度的互联网用户增长迅速,但“数字文盲”(指无法理解数字内容或使用数字设备的人——编者注)却普遍存在。使用虚假数字内容的信息和金融欺诈案例在网上激增,人们担心这类“深伪”技术可能导致欺诈、损害他人声誉、扰乱金融市场甚至在印度即将举行的大选中左右选举结果。
Boom网站的副主编凯伦·雷贝洛表示,其团队注意到,2023年印度出现了“许多为当地受众量身定制的本土化‘深伪’视频”,部分假视频中的人物能流畅地使用印地语,嘴部动作逼真,这是此前的“深伪”技术无法实现的。有专家认为,最新的“深伪”技术通过AI进行语言学习,随之催生出的“深伪”视频带来的风险也越来越难以预料,尤其是在政治领域,一条广为传播的假视频将“可能对选举结果带来不可逆的改变”。
今年4月,泰米尔纳德邦的一名印度人民党政客发布了两段音频,其中一名反对派领导人指责自己党内成员腐败并赞扬对手。相关专家分析称,其中一条音频是真的,另一条则可能被篡改。早在2020年印度地方选举期间,就出现了两条支持印度人民党的“深伪”视频,引发人们对AI技术被滥用的担忧。
印度缺乏解决“深伪”和AI相关犯罪的具体立法。今年11月,印度政府表示将推出一项“明确、可操作的计划”,制定一项法规草案,以阻止“深伪”内容的传播,可能会对此类内容的创作者、上传者以及平台进行处罚。
报道称,印度政府此举的部分原因是曼丹娜的换脸视频引发众怒。“我真心希望印度选举委员会能够出台规定,禁止所有政党在竞选活动中使用任何形式的‘深伪’或AI合成的内容。”雷贝洛说,“这并非难事,但我怀疑类似的事情仍会上演。”
对于更有效地监管“深伪”内容而言,新的立法非常重要。印度大学国立法学院网络法和取证学研究、发展和培训高级中心主任纳加拉特纳表示,此类法律必须同时采取预防性和惩罚性措施。预防性措施可以让平台标记可能的虚假内容,惩罚性措施需要明确滥用“深伪”内容相关犯罪行为的定义,并规定谁应承担责任以及责任范围。
纳加拉特纳也表示,目前立法还存在一些挑战,包括针对无国界网络空间管辖权的问题,对执法机构进行相关培训,以及收集和分析滥用此类技术的相关证据。
责任编辑:祝加贝