AI正以相(xiàng)当(dāng)显眼得(dé)方式重塑着我(wǒ)们的(de)世界,数据驱(qū)动着全球数字生态系统(tǒng),AI技术(shù)则揭(jiē)示了数据中的模式。智能手(shǒu)机,智能家(jiā)居以及智慧城市(shì)在影响着我们生(shēng)活和交(jiāo)互方式,AI系(xì)统越(yuè)来越多(duō)用于公司招聘、医疗(liáo)诊断和司法裁决。这是一个(gè)乌托邦时代还是反乌托邦时代,全(quán)看你怎么(me)看。
AI的潜在威(wēi)胁早(zǎo)已(yǐ)被人说烂(làn)了,杀人(rén)机器人以及大规模失业,甚至还有人担心人类灭绝(jué)。而(ér)乐观(guān)主义者预(yù)测AI到2030年将会为全球经济带来15万(wàn)亿(yì)美元的价值。
我们(men)当然需要考虑AI对我们(men)社会所带来(lái)的影响。其中一(yī)个引人(rén)注目的点是,AI系统加剧了现有的社会歧视。先进(jìn)的机器翻译(yì)系(xì)统会产(chǎn)生性别歧视的输出,图像识(shí)别系统把黑人归分为大猩猩。
之所以会出现这些问题是因为,AI系统会采用类似于神经网络的数字模(mó)型(xíng)来识别训练时候的数据(jù)。如果(guǒ)数据本身就是歪(wāi)曲(qǔ)的,那么它固(gù)有的偏见就会自然地(dì)被(bèi)训练过的AI系统学习和复制。这种带有偏见的自主技术是有问题(tí)的,因为他们(men)会(huì)边缘化女性(xìng)、少数民(mín)族以(yǐ)及老(lǎo)年(nián)人(rén),从而加剧社(shè)会失(shī)衡。
如经(jīng)典电影X战警(jǐng),X战警(jǐng)在英文里是X MEN,用的(de)是男性的(de)单词,还有黑衣人Man in Black,同(tóng)样也是用(yòng)的男性的单词。尽管电影方已(yǐ)经开始意识到性别歧视问(wèn)题,在电影中新增女性角色,或(huò)直接由女性演员接替成为(wéi)主角(jiǎo),如Iron Man钢铁侠,虽然漫威宣布下一任钢铁侠是一位女性,但其名(míng)字(zì)仍然为Man而不是Woman。
要减少AI系统的偏见,我们本身就得减(jiǎn)少这些偏见用(yòng)词,虽然很不幸,我们不能完全消灭这(zhè)些偏见,但我们必须要朝着这个(gè)方向前(qián)进,就像电影(yǐng)方一样。