乐动网页版_乐动(中国)


    咨询热线(xiàn):021-80392549

    乐动网页版_乐动(中国) QQ在线 乐动网页版_乐动(中国) 企业微信
    乐动网页版_乐动(中国)
    乐动网页版_乐动(中国) 资讯 > 人工智能 > 正文

    涉及高层次(cì)伦(lún)理问题的(de)三项人工(gōng)智能标准

    2020/05/19雷锋网282

    涉及(jí)高层次伦理问(wèn)题的三项人工智能标准(zhǔn)

    IEEE(美国电气和电子工程(chéng)师协会)最新(xīn)宣布了三项新的人(rén)工(gōng)智能发展标准(zhǔn)。IEEE 号称(chēng)为“世界(jiè)上最大的先(xiān)进技术专业组织”。根据最近发布的一(yī)份报告,他(tā)们的人工智能标准(zhǔn)将(jiāng)优(yōu)先考虑人类,因(yīn)为(wéi)他们承诺要(yào)跟上AI领域不断发(fā)展的脚步。

    在发(fā)布的《合乎伦理(lǐ)的设计(jì):将人(rén)类福祉与人工智能和自主系统优先考虑(lǜ)的愿景》报告(gào)中,共分为八个部部分阐(chǎn)述了新(xīn)的(de)人(rén)工智能(néng)发展(zhǎn)问题(tí)。分别是:一般原(yuán)则,人工(gōng)智能系统(tǒng)赋值;指导伦理学研(yán)究(jiū)和设(shè)计(jì)的方(fāng)法学(xué);通用人工智能和(hé)超级人工智能的安全与福祉;个人(rén)数据和(hé)个人访问控(kòng)制;重新构造自动武器系统;经济/人道主义问题;法律。

    一般(bān)原则涉及高层次伦理问题,适用于所有类型的人工智(zhì)能和自主(zhǔ)系统。在确定一(yī)般(bān)原则(zé)时,主要(yào)考虑(lǜ)三(sān)大因素(sù):体(tǐ)现人权;优先考(kǎo)虑最(zuì)大化对(duì)人类和自然环境的好处;削弱(ruò)人工智能(néng)的(de)风险和(hé)负面影响。

    人类利益原则要求考虑如何确保AI不侵犯人权。责任原则涉及如(rú)何确保(bǎo)AI是(shì)可以被问责的(de)。为了解决过错问题,避免公众困(kùn)惑(huò),AI系统必须在程序层面具(jù)有可责性,证明其为什么以特定方式运作。透明性原则意味着自主系统的运作必须是透明的。AI是透明(míng)的(de)意味着(zhe)人(rén)们能够发现其如何以(yǐ)及为何做出特定决(jué)定。

    涉及高层次伦理问题的三项人工智能标准

    在(zài)关于如(rú)何将人类规范和道德(dé)价(jià)值观(guān)嵌入(rù)AI系统中(zhōng),报告中(zhōng)表示由于AI系统在(zài)做决定、操纵其所处(chù)环境等方(fāng)面越(yuè)来越(yuè)具(jù)有自(zì)主性,让其(qí)采纳(nà)、学习并遵守其所服务的(de)社会和团体的规范和(hé)价(jià)值是至关重(chóng)要的。可以分三步来实现(xiàn)将价值嵌入AI系统的目(mù)的:第一,识(shí)别特(tè)定(dìng)社会或(huò)团体的(de)规范和价值;第二,将这些规范和价值编写(xiě)进(jìn)AI系统;第三,评估被写进(jìn)AI系统的规范和价值的有效性,即其是否和现实的规范和价(jià)值相一致、相兼容。

    虽然上述的相关研究一直在持续,这些研究(jiū)领(lǐng)域(yù)包括机器道(dào)德(dé)(Machine Morality)、机器伦(lún)理(lǐ)学(xué)(Machine Ethics)、道德机器(Moral Machine)、价值一致论(Value Alignment)、人工道德(Artificial Morality)、安全AI、友好AI等,但开发能(néng)够意识到并理解人类规范和价值的计算机系统,并让(ràng)其在做决策时考虑这些问题,一直困扰着人们。当前主要存在两种(zhǒng)路径(jìng):自上而下的路径和自下而上的路径(jìng)。这一领域的研究需要加强。

    报告中还(hái)指出需要指导伦(lún)理研究和设计的(de)方法论,通用人工智能和超级人工智能的安全与(yǔ)福祉,重构自主(zhǔ)武器系统(tǒng),以及经济(jì)/人道主义问题等八个人(rén)工智能(néng)发展面临的问题。报告中收集了超过一百(bǎi)位来自人工智(zhì)能领(lǐng)域(yù)学术界,科学界,以及政府(fǔ)相关部门(mén)的思想领袖的(de)意见,整合了人(rén)工智能、伦理学、哲(zhé)学和政策等多个领域专(zhuān)业(yè)知识。它的修订版EAD(Ethically Aligned Design) 版本将会在2017年底推出,报告(gào)增至(zhì)为十三(sān)个章节,含二百五十多个(gè)全球思想领(lǐng)袖的精华分享。

    IEEE 机器人和(hé)自动化协(xié)会的(de)主席(xí)Satoshi Tadokoro 解释(shì)了他们为什(shí)么想要制定这样的标准:“机器人和自动系统将(jiāng)为社会带来重大创新(xīn)。最近,公众越来越关注可能发生的(de)社会问题,以及(jí)可(kě)能产生的巨大潜(qián)在利益。不幸的是(shì),在这些(xiē)讨论中,可能会出现一些来自虚构(gòu)和想象(xiàng)的错误信息。”

    Tadokoro 继续说道:“IEEE 将基于科(kē)学和技术的公(gōng)认(rèn)事(shì)实来引入知识和智(zhì)慧,以帮助达成公共决策,使人类(lèi)的(de)整体利益最大化。”除了AI伦理标准外,还有其他两(liǎng)个人工智能标准也(yě)被引入报告中,每个项目都由领域专(zhuān)家(jiā)领导。

    第一个标准是:“机器(qì)化系统(tǒng)、智能系统(tǒng)和自动系(xì)统的(de)伦(lún)理推动标准(zhǔn)”。这个标准探讨了“推动”,在人工智能世界里,它指的(de)是AI会影响人类行为的微妙行动。第二个标准是“自动和(hé)半自动系统的故障安全设计标准”。它包含了自动技术(shù),如果它们发生故障(zhàng),可能会对人(rén)类造成危(wēi)害。就目(mù)前而言,最明(míng)显(xiǎn)的问题是自动驾驶汽车。第三个(gè)标准是“道德化的人工(gōng)智能和(hé)自动系统(tǒng)的福祉衡量标(biāo)准”。它阐述了进步的人工(gōng)智能技术(shù)如何有益于人类的益处(chù)。

    这些(xiē)标(biāo)准的实施可能(néng)比我(wǒ)们想象的要早,因为像 OpenAI 和 DeepMind 这样(yàng)的公司越来(lái)越快(kuài)地推进人工智能的发展,甚至创造(zào)出能够自(zì)我学习又扩大“智(zhì)能”领域的人工智(zhì)能系统(tǒng)。专家们认为,这样的(de)人工(gōng)智能会破坏世界(jiè)稳定,导致(zhì)大规模的失(shī)业和战争,甚至转向创(chuàng)造“杀人武器(qì)”。最近,联合(hé)国的重要讨论促使人们开始认真思考,需对将人工智能技(jì)术当作(zuò)武(wǔ)器使用进行更(gèng)严格的监管。

    关键词(cí): 人工(gōng)智能(néng)




    AI人工智能(néng)网声(shēng)明:

    凡资(zī)讯来源注明(míng)为其(qí)他媒体来源的(de)信息,均为转载自其他媒(méi)体,并不代表本网站赞同其观点,也不(bú)代表本网站对其真实性(xìng)负责。您若对该(gāi)文章内(nèi)容有(yǒu)任何疑问或质疑,请立即与网站(zhàn)(www.bz.xinxiang.zz.pingliang.ww38.viennacitytours.com)联系,本网站将迅速给您回应并做(zuò)处理(lǐ)。


    联系电(diàn)话:021-31666777   新闻、技术文(wén)章投稿QQ:3267146135   投稿邮箱:syy@gongboshi.com

    精(jīng)选资讯更(gèng)多

    相(xiàng)关(guān)资讯更(gèng)多

    热(rè)门搜索(suǒ)

    工博士人工(gōng)智(zhì)能(néng)网(wǎng)
    乐动网页版_乐动(中国)
    扫描二维码关注微信
    扫码(mǎ)反馈

    扫一(yī)扫,反(fǎn)馈当前页面

    咨询反馈
    扫码关(guān)注(zhù)

    微信公众号

    返回顶部

    乐动网页版_乐动(中国)

    乐动网页版_乐动(中国)