论Sora的伦理风险与我国治理因应——也谈我国参与人工智能算法伦理全球治理的基本路径OA北大核心CHSSCDCSSCICSTPCD
以Sora为代表的文生视频模型触发多重伦理风险,亟须探索复归理路。Sora替代应用诱发弱化人类主体性风险,“绝对”失业潮恶化贫富差距,可能引发“新卢德运动”,影响人类社会稳定;Sora接受偏见视频数据“浸润”,刻画对特定群体或观点的刻板印象,其生成内容欠缺价值多样性与包容性,诱发高度隐蔽性的社会歧视风险,影响人类社会公平;Sora生成的虚假视频具有高度违法性风险,致使诈骗视频信息大行其道,诈骗犯罪高发,影响社会和谐。我国生成式人工智能伦理监管规范体系阙如,存在具体应用场景中的算法监管细则语焉不详、使用行为监管规则欠缺和算法伦理安全规则缺位等问题;视频数据使用者行为监管失衡,既有过度重视数据保护而阻碍数据要素丰富的宏观治理问题,也存在数据生产者行为规范缺位、部分法条可适用性不强的微观治理问题。应建立基于场景化的分类分级审查制度,纵向细化平台数据使用行为规则,进行算法听证,确保多元主体参与算法设计;从制度和技术维度强化视频数据使用者的行为监管,推动训练Sora的数据实现透明化和价值多样性。此外,我国应把握全球视野,参与生成式人工智能算法底层模型技术标准的制定与全球共享,致力于推动科技创新人才培养和域外专业人才引进;积极推动我国参与人工智能算法伦理治理的南北对话和南南合作,为人工智能全球伦理治理贡献中国智慧。
刘祖兵;
同济大学法学院,上海200092
政治法律
Sora伦理风险分类分级审查数据透明算法民主南北对话
《河海大学学报(哲学社会科学版)》 2024 (005)
P.99-112 / 14
教育部人文社会科学规划基金项目(21YJA820032);上海市2022年度软科学研究项目(22692104400)。
评论