《科创板日报》9月6日讯(记者 张洋洋)根据今年发布的《全球数字经济白皮书(2024)》数据显示,全球目前有 3 万家人工智能核心企业以及超过 1300 个人工智能基础大模型。当前,以大模型为代表的人工智能技术飞速发展,正在以令人难以想象的速度重塑我们生活的世界,推动人类迈向智能时代。而新的科技变革带来新场景、新业务、新市场的同时,也在科技伦理层面带来了前所未有的风险和挑战。
在由信百会研究院和蚂蚁集团科技伦理委员会共同主办的 2024 Inclusion·外滩大会“以善治促‘善智’,让 AI 更负责任”见解论坛上,人工智能产、学、研、用各界学者嘉宾,共同探讨如何让 AI 更负责任、更好地造福人类社会。
▍AI 治理刻不容缓,中国正在为全球人工智能治理贡献“中国智慧”
工业和信息化部原副部长杨学山在致辞中表示,当前人工智能带来了巨大的发展潜力,也引发了诸多方面的风险和挑战。如何在促进人工智能技术快速发展和应用的同时,又确保其安全性、可靠性和可控性,显得尤为关键。从全球范围来看,美国、中国、欧盟等主要经济体正在探索人工智能治理的模式,制定了一批法律法规、政策制度、标准指南,用治理的主动权谋求发展的主导权、抢占人工智能国际竞争的战略制高点。中国作为负责任的人工智能大国,在国内逐步建立健全治理体系的同时,也主动为全球人工智能治理贡献“中国智慧”。他表示,期望通过政策界、产业界、学术界的沟通与联动,共同探索人工智能治理的有效路径。
在中国工程院院士吴世忠看来,AI 治理可以“以史为鉴”。他认为,我们已经逼近了那个 AI 发展的“奥本海默时刻”,“当一个科学技术能够改变人类命运的时候,我们就必须要有忧患意识”,他从人类过去核控和疾控出发,分别对比了核控、疾控和 AI 治理的异同,他表示:“人工智能的治理和过去的核控、疾控都是人类发展历程中的‘奥本海默时刻’。在这个过程中,我们作为人类命运共同体,能够借鉴的经验很多,比如国际合作和多边协议以及透明度和信任机制的建设等。但与此同时,我们也要根据人工智能的特点,更加科学地进行治理。”
面对如此严峻的风险和挑战,有时学界也会有另外一种声音,我们是不是应该用更加谨慎的态度,给技术的发展“踩踩刹车”?清华大学公共管理学院教授、清华大学人工智能国际治理研究院副院长梁正则认为,我们可能要在更宏大的视角和时间尺度下看待 AI 技术的发展。他以飞机和汽车的发展历程为例,证明了任何一种技术,随着技术能力的发展和科学的治理,这种技术带给人们的好处是要远远超过我们想象的。“人工智能技术处于产业化应用的初期阶段,从技术发展来看,其他技术在发展中同样经历过类似的问题。发展是硬道理,治理要为发展服务。”
而同样面对人工智能治理和发展的关系这个问题,联合国人工智能高层顾问机构专家、北京人工智能安全与治理实验室主任、中国科学院自动化研究所研究员曾毅认为,安全和治理是人工智能的核心能力,将加速人工智能稳健发展及应用。“人工智能的安全和能力不是正交,更不是相互掣肘的关系,提升安全性,加强治理,并不意味着能力的减弱和发展速度的减缓,系统的鲁棒、自适应与安全也是人工智能的能力。人工智能系统风险防范也要从被动式转变为主动式,从防御性转变为建设性。此外,人工智能需要从合乎伦理到具有道德。”他认为人类需要用善智慧把人类自身带向追求本真的道路,人类一生在不断完善自我的道路上探索,永远不会被人工智能替代。
联合国人工智能高层顾问机构专家、北京人工智能安全与治理实验室主任、中国科学院自动化研究所研究员 曾毅
防止大模型在落地应用过程中的滥用、误用是大模型相关企业对社会负责任的表现
AI 大模型现在已经广泛应用在各个领域。在产业界全力发展 AI 的战略中,科技伦理也是核心组成部分,防范大模型的误用、滥用,是企业对客户、对行业乃至对社会负责的最好体现。在论坛上,企业界代表也分享了各自在大模型应用与安全伦理层面的探索和思考。
早在 2016 年,微软首席执行官萨提亚·纳德拉(Satya Nadella)就曾指出:“或许我们最需要进行的讨论并非是关于善恶,而是应该向创造这项技术的人或组织传递怎样的价值观。”
微软(中国)有限公司首席技术官韦青表示,微软致力于从设计之初就打造安全、保障和值得信赖的 AI 系统,并分享了微软在打造“负责任”的 AI 大模型历程中的具体实践。
To C 产品每天要面对不同国家、不同文化的用户每天产生的海量数据,作为一家拥有近 1 亿 C 端用户的公司,Minimax 海外业务总经理盛静远在分享中展示了其多模态通用大模型以及通用应用生态,并分享了 Minimax 在大模型的治理领域的实战经验。
▍AI大模型在严谨行业应用的核心:准确专业、真实严谨、可控透明及安全可靠
人工智能大模型目前正在各行各业加快落地,特别是对医疗、金融这些严谨行业的重塑力度是前所未有的。与此同时,这些严谨行业也是对伦理规范要求最高、伦理关系最复杂的领域。
讯飞医疗研究院副院长赵景鹤分享了讯飞星火医疗大大模型目前的应用进展以及安全伦理探索,对于大模型在医疗场景应用面临的问题,他讲到,“主要是数据隐私、知识产权和道德责任三大问题,从解法上,企业需要采取措施加强数据保护、获得必要的版权授权、确保模型的公正性和合规性,同时提高透明度以及加强公众教育。”
蚂蚁集团一直致力于构建专业智能体,促进 AI 大模型落地严谨行业。据了解,蚂蚁依托自研的百灵大模型,对应生活、金融和医疗场景,分别打造了 AI 生活管家“支小宝”、金融管家和医疗健康管家。蚂蚁集团资深副总裁、科技伦理委员会联席主席周志峰认为,AI 的伦理建设需要适应三大趋势,“一是 AI 提供服务需要更加重视‘人情味’;二是 AI 伦理风险防控需要从‘显性风险’的被动防控向‘隐性风险’的主动防控过渡,三是 AI 服务要从提供对话交互升级到有效协同。”
周志峰介绍到,为了应对这三大趋势,蚂蚁建立了一套识别用户意图及全链路风险的工具,能够准确捕捉提问者的真实动机,并构建了持续优化大模型输出的攻防体系;蚂蚁开发了 X Sense 体系,及时对网络舆情、社会热点、越狱 prompt 攻击等因素做探查和归集,提升对“隐性风险”的主动感知和防控能力;打造覆盖数据集构建到模型应用全链路的负责任研发体系,并开放合作共建,广泛邀请各领域权威专家、知名学者组建科技伦理顾问委员会,与高校、科研机构开展伦理共建计划。
“AI 伦理是一个系统性的、开放性课题,我们希望能和大家一起共同探索 AI 伦理的系统解决方案,始终保持AI的发展处于人类良善价值的轨道上。”周志峰表示。
在论坛的最后,来自中国政法大学、北京协和医学院、复旦大学和上海交通大学的学者与来自华为和腾讯的产业专家也就如何应对 AI 大模型在严谨行业落地的伦理挑战这一议题进行了探讨,专家认为,大模型在严谨行业落地的挑战分为“真、善、美”三个维度:大模型回复内容的真实性准确性、大模型要符合人类的价值观,以及大模型的终极目的是帮助人类和社会创造更美好的生活。
如何引导 AI 向善、确保 AI 服务始终以人类福祉最大化为目标,是社会各界必须重视的重要议题。虽然各自的领域不同,但是几乎所有的学界专家和企业界代表都有一个共识:人工智能的伦理治理体系的完善不能仅靠一家公司、一个主体闭门造车,它需要我们打破国界以及领域的限制,需要政、产、学、研、用多边、多方共同努力,以善治促“善智”,才能打造更有责任感的 AI 更好地为人类服务。