人工智能治理体系如何平衡包容?中外专家把脉建言******
中新网北京12月4日电(记者 孙自法)作为有望引领人类未来变革的一项战略性技术,人工智能(AI)近年来在快速发展并赋能千行百业的同时,也带来安全、隐私、公平等系列问题和挑战,人工智能治理概念应运而生,备受关注。
由清华大学主办、联合国开发计划署支持的2021人工智能合作与治理国际论坛12月4日在北京开幕,中国科技部副部长李萌致辞时形象表示,“我们现在正站在智能化社会的门槛上,人工智能这条大船正载着我们向智能化世界驶去,而治理正是随时校正大船航向,确保大船行稳致远”。
在随后举行的“如何构建一个平衡包容的人工智能治理体系”主论坛上,中外专家学者线上线下对话,把脉人工智能发展,聚焦治理体系构建。
中国国家新一代人工智能治理专业委员会主任、清华大学人工智能国际治理研究院院长薛澜提出,人工智能治理直面数据、算法、算力、场景等四大要素挑战,价值导向上要坚持人工智能技术安全可控的底线思维、维护个人权益尊严与平等的人本思维、人工智能赋能经济社会发展的发展思维和人工智能促进可持续发展的全球思维,遵循“和谐友好、公平公正、包容共享、尊重隐私、安全可控、共同责任、开放协作、敏捷治理”的治理原则,着重从“包容、共享、审慎、负责”价值原则来平衡人工智能治理中的发展和安全需求,形成人工智能治理机制的价值共识,推动实现全球协同治理。
关于“审慎”价值原则,薛澜强调,要对人工智能治理给出明确的安全底线,既不能放任不管,任其野蛮生长,也不能出现“一管就死”,避免矫枉过正。
世界工程组织联合会主席、中国新一代人工智能发展战略研究院执行院长龚克表示,人工智能是第四次工业革命的代表性技术,人工智能治理旨在促进具有人类价值的人工智能创新发展,以造福人类和地球,因此,人工智能治理应遵循人工智能发展规律,具有开放的多利益相关者共治的结构,应综合运用技术、规则、教育等多种工具,并有效植入到人工智能应用平台之中。他还特别强调,不仅要发展人工智能各式各样的应用技术,还要发展一批保护隐私和公平、加强监管的人工智能治理支撑技术。
联合国助理秘书长、联合国开发计划署政策与方案支助局局长徐浩良指出,人工智能不是万能灵药,它的好坏取决于使用人工智能的人及数据基础、治理标准。“我们需要全面地看待人工智能,需要跨越国界、跨行业和跨代际的合作,来制定必要的治理框架”。他说,国际机构和国家间的合作至关重要,联合国教科文组织最近通过有关人工智能伦理的提案,得到许多成员国的支持,这是积极的一步。联合国开发计划署已做好准备,为政府和其他利益攸关方构建人工智能治理框架提供支持,让人工智能成为推动可持续发展的重要力量。
“为什么我们需要一种新的、21世纪国际合作方式来治理人工智能?”卡内基理事会资深研究员、人工智能与平等倡议联席主任温德尔·瓦拉赫认为,首先是以数字和生物革命为代表的新兴技术正在重新定义人类的意义,并且重塑世界和未来前景;二是技术速度远远快于道德和法律监督到位的速度,新的人工智能部署的绝对普遍性和速度,颠覆了行业政府、传统机构以及与人们生活息息相关的社会技术结构;三是人工智能和机器学习存在基本控制问题,作为关键系统组建部署时会构成潜在危险。
他说,建立一个合作的人工智能国际治理机制,应该是敏捷的、适应性的、预见性的、响应性的、包容性的,“但是我们应该很清楚,如果没有中国和美国的参与,所有人工智能国际治理方案都只能是幻想。如果不大力转向国际合作,我们将无法成功度过未来几十年”。
“今天社会不仅仅是外卖小哥被困在算法里,我们每个人都被困在各式各样的算法里。”清华大学智库中心主任、智能社会治理研究院院长苏竣认为,人类即将从工业社会迈向以科技进步和智能技术为基础的智能社会,人工智能技术在颠覆性地重组人类社会的同时,也给人类社会的法律隐私、道德伦理、公共治理带来诸多严峻挑战。
他说,技术是中性的,算法是无辜的,在这场人工智能掀起的人类社会巨变中,需要科学的方法研究和应对科技发展带来的种种风险、问题和挑战。“开展人工智能社会实验、探索智能社会治理的中国道路”的倡议自2019年发起以来,经过两年多努力,已在全国有序展开,实现智能技术治理与智能社会治理齐头并举,将为构建有人文温度的智能社会作贡献。
加拿大国际治理创新中心总裁罗欣顿·麦德拉指出,人工智能治理体系在数据领域,要有全球所有国家都接受的数据伦理方面的标准,包括如何搜集数据、收集谁的数据、如何储存数据、如何整合数据、如何分析数据、如何加密、如何保证数据安全、如何使用数据等,“在全球层面共同创建普遍性的标准,它需要很多很多的努力,这就是我们这个世纪的治理挑战”。针对现在越来越多的全球价值链当中,因为机器的替代,很多工作机会被失去的问题,他建议由来自不同社会、不同文化或宗教背景的哲学家组建一个全球性委员会,来思考应对和解决之策。
清华大学人工智能国际治理研究院副院长梁正表示,当前,中国人工智能发展水平已跻身世界第一梯队,也肩负着参与国际治理规则制定的职责。因此,如何助力全球社会共同构建一个平衡包容的人工智能治理体系,需要进行系统思考,开展国际对话。(完)
报告显示:超六成受访者认为应强制企业公开算法******
光明网讯(记者 李政葳)“当前,国内对于算法治理的基本思路和框架都是清晰的,而分级分类精准治理的模式应当可以解决如何落实的问题。”在日前举办的“2022啄木鸟数据治理论坛”上,谈及算法治理的现状,清华大学人工智能国际治理研究院副院长、人工智能治理研究中心主任梁正表示,算法分级分类本身不是目标,而是要针对不同风险场景配备不同监管规则。
论坛由南都个人信息保护研究中心联合清华大学人工智能国际治理研究院、人工智能治理研究中心(清华大学)主办。其间,南都个人信息保护研究中心发布《算法应用与治理观察报告》《个人信息安全年度报告》《平台经济反垄断观察报告》。
记者了解到,《算法应用与治理观察报告(2022)》,梳理了国内外的多项法规,结合热点事件及应用场景呈现了算法治理现状,并发布千份算法治理调查问卷了解公众对算法公开和算法治理的了解程度和基本态度,最后基于多方调查分析,给出了当前算法趋势观察以及未来治理方向建议。
报告发现,目前国内算法治理仍处于早期探索阶段,企业的算法公开主要依靠官方的互联网信息服务算法备案系统,或在舆情事件发生之后。调查问卷结果显示,近半受访者承认算法让自己的使用体验更好,但仅一成受访者认为企业算法公开做得很好,逾六成的受访者称曾遭遇“大数据杀熟”;超过六成的受访者认为应该强制企业公开算法。
“在数据、算法方面治理政策进展显著,在平台与应用方面的政策和落地尚需加紧。”中国科学院人工智能伦理与治理研究中心主任、国家新一代人工智能治理专委会委员曾毅认为,目前人工智能伦理有三个相当紧迫的问题需要被正视:首先,人工智能应当被适度使用;其次,目前人工智能服务知情同意落地艰难,被迫知情同意普遍存在;最后,目前用户数据的授权撤销在人工智能服务中存在巨大挑战,需要监管和更高层的网络服务提供方联合提出更合理的政策与解决方案。
针对日前发布的《互联网信息服务深度合成管理规定》,中国政法大学数据法治研究院教授张凌寒表示,从算法治理角度来说,深度合成管理规定与之前的算法推荐管理规定的思路有所不同,前者采用了一种“三位一体由的数据与技术规范。
具体来讲,由于深度合成技术的门槛较高,技术支持者也被纳入了监管范围内。比如,深度合成服务提供者提供智能对话、合成人声、人脸生成、沉浸式拟真场景等服务,应当进行显著标识,这就将更重的责任落在了服务提供者身上。
中国社科院科技和社会研究中心主任段伟文提到,算法治理需要构建可信任的算法认知,而这需要产业和消费者的共同努力:产业要努力提升算法精准性、透明度,减少偏见,减少歧视;消费者则需要提高数字素养,提升算法意识,加强在人机互动中自主性、控制感和协同意识。