涉及(jí)高层次伦理问(wèn)题的三项人工智能标准(zhǔn)
IEEE(美国电气和电子工程(chéng)师协会)最新(xīn)宣布了三项新的人(rén)工(gōng)智能发展标准(zhǔn)。IEEE 号称(chēng)为“世界(jiè)上最大的先(xiān)进技术专业组织”。根据最近发布的一(yī)份报告,他(tā)们的人工智能标准(zhǔn)将(jiāng)优(yōu)先考虑人类,因(yīn)为(wéi)他们承诺要(yào)跟上AI领域不断发(fā)展的脚步。
在发(fā)布的《合乎伦理(lǐ)的设计(jì):将人(rén)类福祉与人工智能和自主系统优先考虑(lǜ)的愿景》报告(gào)中,共分为八个部部分阐(chǎn)述了新(xīn)的(de)人(rén)工智能(néng)发展(zhǎn)问题(tí)。分别是:一般原(yuán)则,人工(gōng)智能系统(tǒng)赋值;指导伦理学研(yán)究(jiū)和设(shè)计(jì)的方(fāng)法学(xué);通用人工智能和(hé)超级人工智能的安全与福祉;个人(rén)数据和(hé)个人访问控(kòng)制;重新构造自动武器系统;经济/人道主义问题;法律。
一般(bān)原则涉及高层次伦理问题,适用于所有类型的人工智(zhì)能和自主(zhǔ)系统。在确定一(yī)般(bān)原则(zé)时,主要(yào)考虑(lǜ)三(sān)大因素(sù):体(tǐ)现人权;优先考(kǎo)虑最(zuì)大化对(duì)人类和自然环境的好处;削弱(ruò)人工智能(néng)的(de)风险和(hé)负面影响。
人类利益原则要求考虑如何确保AI不侵犯人权。责任原则涉及如(rú)何确保(bǎo)AI是(shì)可以被问责的(de)。为了解决过错问题,避免公众困(kùn)惑(huò),AI系统必须在程序层面具(jù)有可责性,证明其为什么以特定方式运作。透明性原则意味着自主系统的运作必须是透明的。AI是透明(míng)的(de)意味着(zhe)人(rén)们能够发现其如何以(yǐ)及为何做出特定决(jué)定。
在(zài)关于如(rú)何将人类规范和道德(dé)价(jià)值观(guān)嵌入(rù)AI系统中(zhōng),报告中(zhōng)表示由于AI系统在(zài)做决定、操纵其所处(chù)环境等方(fāng)面越(yuè)来越(yuè)具(jù)有自(zì)主性,让其(qí)采纳(nà)、学习并遵守其所服务的(de)社会和团体的规范和(hé)价(jià)值是至关重(chóng)要的。可以分三步来实现(xiàn)将价值嵌入AI系统的目(mù)的:第一,识(shí)别特(tè)定(dìng)社会或(huò)团体的(de)规范和价值;第二,将这些规范和价值编写(xiě)进(jìn)AI系统;第三,评估被写进(jìn)AI系统的规范和价值的有效性,即其是否和现实的规范和价(jià)值相一致、相兼容。
虽然上述的相关研究一直在持续,这些研究(jiū)领(lǐng)域(yù)包括机器道(dào)德(dé)(Machine Morality)、机器伦(lún)理(lǐ)学(xué)(Machine Ethics)、道德机器(Moral Machine)、价值一致论(Value Alignment)、人工道德(Artificial Morality)、安全AI、友好AI等,但开发能(néng)够意识到并理解人类规范和价值的计算机系统,并让(ràng)其在做决策时考虑这些问题,一直困扰着人们。当前主要存在两种(zhǒng)路径(jìng):自上而下的路径和自下而上的路径(jìng)。这一领域的研究需要加强。
报告中还(hái)指出需要指导伦(lún)理研究和设计的(de)方法论,通用人工智能和超级人工智能的安全与(yǔ)福祉,重构自主(zhǔ)武器系统(tǒng),以及经济(jì)/人道主义问题等八个人(rén)工智能(néng)发展面临的问题。报告中收集了超过一百(bǎi)位来自人工智(zhì)能领(lǐng)域(yù)学术界,科学界,以及政府(fǔ)相关部门(mén)的思想领袖的(de)意见,整合了人(rén)工智能、伦理学、哲(zhé)学和政策等多个领域专(zhuān)业(yè)知识。它的修订版EAD(Ethically Aligned Design) 版本将会在2017年底推出,报告(gào)增至(zhì)为十三(sān)个章节,含二百五十多个(gè)全球思想领(lǐng)袖的精华分享。
IEEE 机器人和(hé)自动化协(xié)会的(de)主席(xí)Satoshi Tadokoro 解释(shì)了他们为什(shí)么想要制定这样的标准:“机器人和自动系统将(jiāng)为社会带来重大创新(xīn)。最近,公众越来越关注可能发生的(de)社会问题,以及(jí)可(kě)能产生的巨大潜(qián)在利益。不幸的是(shì),在这些(xiē)讨论中,可能会出现一些来自虚构(gòu)和想象(xiàng)的错误信息。”
Tadokoro 继续说道:“IEEE 将基于科(kē)学和技术的公(gōng)认(rèn)事(shì)实来引入知识和智(zhì)慧,以帮助达成公共决策,使人类(lèi)的(de)整体利益最大化。”除了AI伦理标准外,还有其他两(liǎng)个人工智能标准也(yě)被引入报告中,每个项目都由领域专(zhuān)家(jiā)领导。
第一个标准是:“机器(qì)化系统(tǒng)、智能系统(tǒng)和自动系(xì)统的(de)伦(lún)理推动标准(zhǔn)”。这个标准探讨了“推动”,在人工智能世界里,它指的(de)是AI会影响人类行为的微妙行动。第二个标准是“自动和(hé)半自动系统的故障安全设计标准”。它包含了自动技术(shù),如果它们发生故障(zhàng),可能会对人(rén)类造成危(wēi)害。就目(mù)前而言,最明(míng)显(xiǎn)的问题是自动驾驶汽车。第三个(gè)标准是“道德化的人工(gōng)智能和(hé)自动系统(tǒng)的福祉衡量标(biāo)准”。它阐述了进步的人工(gōng)智能技术(shù)如何有益于人类的益处(chù)。
这些(xiē)标(biāo)准的实施可能(néng)比我(wǒ)们想象的要早,因为像 OpenAI 和 DeepMind 这样(yàng)的公司越来(lái)越快(kuài)地推进人工智能的发展,甚至创造(zào)出能够自(zì)我学习又扩大“智(zhì)能”领域的人工智(zhì)能系统(tǒng)。专家们认为,这样的(de)人工(gōng)智能会破坏世界(jiè)稳定,导致(zhì)大规模的失(shī)业和战争,甚至转向创(chuàng)造“杀人武器(qì)”。最近,联合(hé)国的重要讨论促使人们开始认真思考,需对将人工智能技(jì)术当作(zuò)武(wǔ)器使用进行更(gèng)严格的监管。