电子标准院毕思文:算法向上向善重点在确保透明性和可解释性
算法的尺度
算法为各行各业带来了无限可能,然而我们也时常被“困”:“信息茧房”困住了屏幕前的人,“大数据杀熟”困住了钱包,送餐系统困住了骑手,AIGC(生成式人工智能)又带来了新“困境”。
11月底,国家网信办等四部门联合开展“清朗·网络平台算法典型问题治理”专项行动,进一步深化互联网信息服务算法综合治理。南方都市报、南都大数据研究院即日起推出系列访谈报道,专访算法领域的实践者、研究者,描摹发展现状,考量应用实效,研判问题风险,探索长效治理,助力塑造更加健康、透明和公平的算法生态环境,推动算法技术发展秉持科技伦理,向上、向善。
系列访谈第7期,专访中国电子技术标准化研究院华南分院网络安全中心主任毕思文,从算法治理的评价维度出发,解析算法向上向善的实践要求。
《关于开展“清朗·网络平台算法典型问题治理”专项行动的通知》中,多处提及算法应该向上向善。这在技术实践中意味着什么,互联网平台、开发者如何践行这一要求?中国电子技术标准化研究院华南分院网络安全中心主任毕思文介绍,向上向善是算法的底色、根本价值观所在;我国对互联网算法管理的多份政策文件均反复强调过此要求。
在毕思文看来,透明性和可解释性是算法实现向上向善的关键点:透明性使公众了解算法如何处理输入数据并产生输出结果,可解释性能增强用户对算法结果的信任。
01
向上向善是算法的根本价值观要求
南都:国家网信办等四部门发布的《关于开展“清朗·网络平台算法典型问题治理”专项行动的通知》中,多处提及算法应该向上向善。我们应该如何理解这一要求?
毕思文:从技术角度出发,算法本身并无好坏之分,关键在于人类如何使用它。这也是人们常说的“技术中立论”。但同时,我们必须看到,算法可能因偏见、不透明或缺乏监管而导致有害后果,即“算法作恶”。我们认为,算法的影响取决于其应用环境和监管机制,需综合考虑技术中立性与人为因素,以推动负责任的技术应用。从这个层面来看,向上向善是我们对算法的底色、根本价值观要求。
因此,算法向上向善,强调在设计和应用过程中注重伦理、透明和公平,旨在提升社会福利和减少潜在的负面影响。在技术实践中,这意味着开发者需遵循道德准则,确保算法决策的透明性和可解释性,避免偏见和歧视,同时加强隐私保护和数据安全。此外,还需建立多方监督机制,确保算法应用符合社会价值和法律法规,实现技术进步与社会责任的平衡。
南都:在算法治理的过程中,有哪些方法或指标可以衡量其成效?
毕思文:对算法治理的成效评价,应该涵盖多个维度,包括公平性、透明度、可解释性、隐私保护和问责机制。
从技术层面出发,具体指标可以包括:偏差检测指标(如统计差异)、透明度评分(如模型可解释性程度)、隐私保护指标(如差分隐私参数)、错误率和准确性等。此外,平台或者监管部门还可以通过用户满意度调查、监管合规性检查和第三方审计报告等数据,综合评估算法治理的全面效果,确保其在实际应用中达到预期目标。
南都:算法决策的透明性和可解释性是您反复强调的关键点,这两个指标意味着什么?
毕思文:算法的透明性,指的是算法运作过程、数据来源、模型结构及其决策逻辑对外公开,使相关方能够了解算法如何处理输入数据并产生输出结果。例如,某电商平台的推荐算法应该公开其使用的主要数据,包括用户浏览历史、购买记录等,让用户知道为何会收到特定的商品推荐。
可解释性则强调算法能够清晰地解释其决策过程,使非专业人士也能理解算法为何做出特定的判断或预测。比如,在医疗诊断中,使用可解释的机器学习模型,可以详细说明某个诊断结果是基于哪些具体的症状和测试数据得出的,从而增强医生和患者对诊断结果的信任。
02
AI可助力检测算法偏见、优化伦理标准
南都:您认为应该如何建立算法治理的长效机制,以确保算法应用的持续合规?
毕思文:建立算法治理的长效机制需要多方面协同努力。首先,应制定和完善相关法律法规,明确算法应用的合规标准和责任划分。其次,建立持续的监督和审计体系,定期评估算法的性能和伦理影响。然后,推动行业自律和标准化,促进最佳实践的共享和推广。此外,培养跨学科专业人才,增强伦理意识和技术能力,也是关键措施。最后,促进公众参与和透明沟通,确保治理过程的公开性和社会认可度,从而实现算法应用的持续合规与优化。
南都:近几年AI(人工智能)应用盛行,AI能否为算法治理提供帮助?如果可以,具体从哪些方面入手?
毕思文:AI和传统算法在本质上都是通过一系列规定的步骤来处理和分析数据,以解决特定问题。两者都依赖于逻辑和数学模型来实现功能。然而,AI,特别是机器学习算法,具有自我学习和适应能力,能够从大量数据中提取模式和规律,在处理复杂、非结构化数据和动态环境中展现出更强的灵活性和效率。
所以,AI也可以显著提升算法治理的效率和效果,具体体现在以下几个方面:首先,利用AI技术进行算法审计和监控,实时检测潜在的偏见和不公;其次,通过自然语言处理和机器学习提升法规和政策的执行力度,确保算法符合合规要求;第三,AI可以帮助提升透明度,通过可解释性模型让用户更好地理解算法决策过程;最后,AI还可支持自动化的反馈和改进机制,持续优化算法性能和伦理标准,确保治理措施的动态适应性和有效性。
03
多份政策已对算法向上向善提出具体做法
南都:目前,国内有哪些关于算法合规的标准或者规定,可以指导开发者实现算法向上向善?
毕思文:向上向善是我国对互联网算法的一贯要求。近年来,我国先后出台了《关于加强互联网信息服务算法综合治理的指导意见》《互联网信息服务算法推荐管理规定》《互联网信息服务深度合成管理规定》等政策文件,其中都提出了算法向上向善的要求。在这些文件的基础上,我国建立了互联网信息服务算法备案系统,具有舆论属性或者社会动员能力的算法推荐服务提供者都应当履行备案手续。
针对AI这种“更强大”的算法,我国出台了《生成式人工智能服务管理暂行办法》等政策文件,以及《网络安全技术 生成式人工智能服务安全基本要求》《网络安全技术 人工智能生成合成内容标识方法》等标准文件。具有舆论属性或者社会动员能力的生成式人工智能服务也应当履行备案手续。
此外,2023年10月,我国在第三届“一带一路”国际合作高峰论坛上宣布提出《全球人工智能治理倡议》。这份倡议围绕人工智能发展、安全、治理三方面系统阐述了人工智能治理的中国方案。基于此倡议,全国网安标委制定了《人工智能安全治理框架》,并于2024年9月在国家网络安全宣传周正式发布,其中提到了人工智能的安全风险、技术应对措施、开发指引等。
南都:国外有没有算法治理的类似经验可供参考?
毕思文:在算法治理领域,我国应该是走在全球前列的。国际范围来看,2021年11月,联合国教科文组织发布《人工智能伦理问题建议书》,作为全球首个针对人工智能伦理制定的规范框架。2024年9月,联合国人工智能高级咨询机构发布《为人类治理人工智能》(Governing AI for Humanity)正式报告,围绕建立国际科学小组、开展新的AI治理政策对话等七方面,提出了更具体的建议和行动方案。
此外,2023年10月,美国颁布《关于安全、可靠、值得信赖地开发和使用人工智能的行政命令》,该行政令明确了美国政府对待人工智能的政策法制框架。2024年8月,欧盟正式发布《人工智能法案》,对AI技术实施全面监管。对有出海需求的平台和企业,相关法案要求也是必须重视的一环。
出品:南都大数据研究院
采写:南都记者 李伟锋
设计:罗锐
扫描二维码推送至手机访问。
版权声明:本文由0538资讯网整理发布,内容均来自互联网,如有侵权联系8641340@qq.com删除。