生成式AI在知产领域“砸碗造碗” 本质是产业变革中的利益重组
人大教授刘永谋
文著协张洪波
“AI治理是自上而下与自下而上相融合,是社会共治的过程。制度和技术的互促共进,是未来AI治理不能回避的命题。”在18日的第八届啄木鸟数据治理论坛上,中国科学院科技战略咨询研究院肖尤丹教授谈及国内语境下的AI治理时,直言“治理”的“治”是三点水,应该优先强调的是多方共建共治的公平性。
论坛圆桌交流中,南都数字经济治理研究中心负责人李玲对话多位来自AI产研一线的嘉宾,从多维度碰撞智慧火花,为AI治理合规发展建言献策。肖尤丹之外,还有来自清华大学智能法治研究院的刘云研究员、知名网安企业赛博昆仑创始人郑文彬、金山办公安全中心负责人刘振全等多位大咖齐聚一堂,热议AI浪潮下的数据治理新趋势。
“不要指望靠一个技术手段就能解决所有的问题。”谈及如何应对诸如深度伪造等AI风险时,刘振全的观点亦与肖尤丹不谋而合。他同样指出,纯靠技术一招鲜去应对AI衍生的安全漏洞远远不够,“更重要的是完善合规制度建立行业规范、引入落实惩罚机制等手段多管齐下,方能共谋智能向善。”
●AI产业化应用
AI带给知识产权制度的挑战凸显 要重视AIGC语料库合理使用
回顾2024年AI治理领域的行业热点事件,嘉宾的关注点各有侧重。在肖尤丹看来,算力配给和数据可得性等困境,已成为影响AIGC未来产业化应用的明显障碍。
刘云的目光则投向AI训练数据,2024年全球涉AI的知产维权案例频发,如OpenAI被诉、META在各国预训练数据授权困境,以及国内知网的争议等,都成为AI圈舆论焦点。“一直说到2026年可训练高质量数据会枯竭,包括现在合成数据、模仿学习等技术新趋势也备受关注,可以看到,如何在技术和规则上为AI提供高质量数据,已经成为行业亟待破局的关键。”刘云说。
AI版权之争也是讨论热点。伴随一起起版权诉讼案件,AI带给现有知识产权制度的挑战日益凸显,AIGC语料库的合理使用问题持续受到关注。在今年4月的中关村论坛上,肖尤丹就曾提到,相比前几次技术革命,今天的生成式AI采取的是一种“砸碗造碗”的方式,这必然会引发与既有知识产权权利人之间的冲突。
不管是从输入输出的角度来讨论是否侵权,抑或是产业链条上利益博弈等问题都备受关注,“最终仅仅聚焦在知识产权上是一个很狭窄的点。坦率地讲,这在一定程度上掩盖了问题本身的复杂程度,实质上还是要落在产业变革中利益重组趋势上。”肖尤丹直言。他还提到中国著作权制度引入较晚,其包含的中国内生文化因素较少,且未经过产业化进程的充分讨论,“能看到我国在涉AIGC版权的司法判决上具有较高确定性,这一方面是中国AIGC产业化落地较好,另一方面也体现出我国著作权制度内生文化的抵抗相对其他国家并不强,‘砸碗造碗’的进度看来在加快。”
“旧产业和新产业的利益之争是一直存在的。在AI迅猛发展中,要注意保障传统著作权人的基本利益。”刘云直言,当下在知产领域,各方利益博弈谈判的成本较高,如何在博弈过程中让合约达成更高效,让作者更信任,让经费流转更顺畅,就需要不断建构完善撮合交易机制,发挥集体管理组织的透明作用,以解决数据采集者与著作权人之间谈判成本高的难题。
●数据隐私保护
企业拿用户数据训练模型 明确告知同意是法律义务
AI产业化中的用户数据隐私保护,也是对话中的高关注度议题。
郑文彬在发言中强调,2024年是AI安全问题的爆发年,像Hugging Face平台的漏洞事件以及国内AI头部公司出现的类似漏洞问题,都凸显了内生安全问题的全球性和严重性。刘振全从办公安全服务角度出发,重点关注生成式AI落地商用场景中的用户隐私保护问题,特别是其中数据的全生命周期合规治理。
“AI应用落地中隐私保护的国际共识越来越强,这是趋势所在,中国必须紧紧跟随。”刘振全在交流中指出,企业将用户个人数据用于模型训练优化,明确地告知同意是法律义务所在;从业务发展角度,提供退出机制可增加用户信任度和平台透明度。同时,要加大技术研发,确保用户数据安全匿名化存储。不过刘振全也坦言,目前国内在用户数据撤回机制上仍存技术卡点。
“个保法最大的意义就是让个人信息自主可控、可知情。”刘云指出,在当下大模型技术发展阶段,可通过平台设置通知删除规则等机制,“以保障遇到信息能够及时处置,及时删除,及时响应,让用户在信息保护上知情可控。”
“AI在各行业落地中,它的性能、边界到底在哪儿?都要对消费者明确告知。”刘云也强调了企业在AI训练数据中保障用户知情权的重要性,“目前国内外对AI治理最大的共识就是透明度监管。不论是欧洲AI法案还是美国加州AI法案,包括我国AI监管法规,都要求明确训练数据来源、算法决策逻辑。”
●网络安全问题
顶尖领域还要靠“人类之光” AI短期依旧无法替代
作为网络安全领域的“双刃剑”,生成式AI在网安领域的正面应用有哪些?
交流中,刘振全提到三类正向的赋能场景:一是通过生成式AI生成攻击规则和数据来校验防护策略的有效性;二是利用AI分析攻击日志,获取攻击原理和路径等信息;三是辅助程序员写代码,提高代码质量。他同时强调,随着生成式AI技术的普及,大语言模型在训练过程中可能会受到对抗性攻击,导致模型生成有害或误导性内容。因此在他看来,提升模型的安全性,确保其在面对恶意攻击时的鲁棒性,是当前最为紧迫的任务。
郑文彬则提到,在网安领域,生成式AI已然在降本增效上显示出商用前景,如能进行初级代码辅助的AI码农,就是职业替代中初具雏形的一类例子。但他同时也直言,其实早在AIGC技术浪潮出现之前网安行业就已有过数轮职业焦虑。虽然部分基础工种可能被AI替代,但行业内一些高级别人员,尤其是那些相对顶级的科研人员,依然可以被认为是“人类之光”,他们身上所体现出的人类创新与思维能力,短期内还是无法被AI替代的。
“机器一直在解决的是事实判断层面的问题,‘是和否’的问题;但作为法律学人,我们比较重视的是‘是与非’的问题,即如何从事实判断向价值判断转化,这一点哲学家休谟在200年前就提过,所谓的价值陷阱。目前看来在这一命题上机器仍是无法逾越的。”对于郑文彬提到的“人类之光”,肖尤丹也颇有感受。他相信人类独有的人文精神依旧是目前的AI所无法替代的价值,机器是冰冷的,而情感才是有温度的。他同时强调,需要兼顾人机之间、东西方之间等多维度的价值对齐,避免人工智能成为人类的敌人。
肖尤丹毫不讳言地指出,当下总谈软治理,事实上AI治理就是硬治理,只能以魔法打败魔法。“如果技术手段解决不了,单纯靠制度工具大概率也是很难实现有效治理的。”
人大教授刘永谋谈AI伴侣风险
AI比人更能给情绪价值?
从今年清明节前后掀起的“AI复活热”,到10月一起与AI陪伴产品有关的美国少年自杀诉讼案出现,AI陪伴服务走进日常生活的同时,也引发了一系列有关法律伦理问题的探讨。当天,在会上,中国人民大学哲学院教授刘永谋以“机器情感与AI陪伴的人文审度”为主题发表主旨演讲。
刘永谋首先指出,主打AI陪伴的伴侣型机器人今后或成为人工智能领域最赚钱的赛道之一。随着技术发展,未来的伴侣机器人不仅能在外型上以人类想象中的完美形象呈现,功能齐全,还能提供足够的情绪价值满足人类情感需求。当人类逐渐与机器产生更深度的情感交流,从人文视角看可能会带来一系列问题。
具体而言,首先是人身安全和隐私风险。刘永谋认为,伴侣机器人可能对人类造成伤害,比如一旦程序设置失控,人类可能因机器人拥抱力度过大而受伤等。此外,如果机器人被黑客入侵操控,可能侵犯主人隐私,甚至控制主人的行为。
其次是孤独和恐惧情绪的增长。人与机器人的交往一旦取代人与人的交往,人类会减少社交和户外活动,不断滋生孤独情绪,甚至对原有的社会关系产生抵触和抗拒心理。
依赖和成瘾问题同样值得重视,这一问题已经在当前的手机成瘾现象中有所体现,那么将来“百依百顺”的伴侣机器人也会极大程度地加深这种感觉。“有人说以后也许会出现‘夫妻加一个机器人’的家庭组合模式,(我认为)这是不可能的,这种模式会引发第三者插足等一系列婚姻矛盾和家庭矛盾。”
此外刘永谋认为,某些情况下,AI陪伴服务还可能对人类的性道德带来挑战。与绝对服从命令的机器人相处时间过久,人与机器人之间形成的交往模式可能影响人类的基本道德判断,比如制作一个与追求的人类对象外型一模一样的机器人,出卖自己的机器人和别人恋爱……这些极端情形或引发十分复杂的法律和伦理问题。
在生育率下降的现阶段,AI陪伴服务发展还可能影响人类生育。刘永谋认为机器人伴侣的普及或进一步降低人类的生育意愿,甚至进入“不爱不婚不孕”的状态。
不过,刘永谋在会上强调,从人文视角探讨机器情感与AI陪伴的潜在风险,并不意味着反对新一代人工智能发展,而是在为科技发展保驾护航。在他看来,广大科技从业者致力于实现技术迭代的同时,也应思考探寻一条符合现有价值观念和伦理观念的人工智能发展道路。
文著协张洪波谈版权保护
将数据投喂AI,须明确“合理使用”范围
当天,中国文字著作权协会常务副会长兼总干事张洪波分享了他对生成式人工智能数据使用的版权边界与利益平衡的看法。“我们呼吁关注版权保护的重要性,人工智能要高质量发展必须得有版权内容,没有版权内容成了无源之水。”他认为,在AI时代,既要保护创作者和内容生产者的合法权益,又要激发全社会的创新创造活力。二者共同作用,才能推动产业高质量发展。
在人工智能时代,数据被比作“养料”,尤其对于生成式AI和深度学习系统来说,高质量数据至关重要。张洪波指出,生成式AI的发展离不开大规模的数据训练,而这些数据的质量直接影响到AI输出效果和专业性。
他进一步区分了两类数据:一类是普遍的网络爬取数据,虽然有一定价值,但缺乏专业性和精确度;另一类是高质量数据,这类数据对专业领域尤其重要,通常需要通过合法合规的方式获取。张洪波强调,在AI技术的发展过程中,高质量数据是竞争力的源泉,能够为人工智能提供更准确、更专业的训练材料,这使得数据获取和使用成为推动AI技术发展的关键因素。
紧接着,张洪波重点讨论了AI在使用数据进行训练时可能面临的版权问题。他强调,AI技术的应用必须遵循现有的法律框架,特别是要确保数据来源的合法性和合规性。例如,在生成式AI的语料库建设、大模型训练和应用中,AI开发者应确保所使用的数据已经获得授权,而非简单依赖“合理使用”的概念。
“合理使用”原则是指在特定条件下,法律允许他人使用受著作权保护的作品,无需征得权利人同意,也无需支付报酬。该原则旨在平衡版权人和公众的利益,促进知识传播。
“将AI应用一概视为‘合理使用’是武断的,需要更为细致的法律规定和审查。”为此,张洪波建议,国家有关部门在修改完善著作权法律法规、制定相关政策和司法解释时,应当在现行著作权法第24条框架下,明确人工智能适用“合理使用”的应用场景、范围和条件。
A04-05版
采写:南都记者 吕虹 樊文扬 黄莉玲 李玲
图片由豆包AI生成
扫描二维码推送至手机访问。
版权声明:本文由0538资讯网整理发布,内容均来自互联网,如有侵权联系8641340@qq.com删除。