在形容那些向世界释放毁灭性技术的人时,人工智能的创造者们往往会用“弗兰肯斯坦博士”的形象来形容,“弗兰肯斯坦”是小说《弗兰肯斯坦》中那个疯狂科学家的名字,他用碎尸块拼接成一个“人”,并用电激活。在真实的生活中,人工智能创造者们却试图为一些大问题寻找答案,例如正义对抗邪恶,机器人的浪潮的影响,机器大脑对人类工人的影响等问题。
如何防止人工智能毁灭人类?
最大的挑战在于它对就业的影响科学家知道自己的成果正在走出实验室,应用于真实的世界。12月10日,科学家在Montreal开了一天的会,讨论了一些伦理问题,比如如何防止比人类聪明的电脑将人类的工作夺走,它会为法律带来怎样的困扰,或者是他会对社会构成什么伤害。今天的人工智能技术可以播放视频游戏、自动回复邮件、在特定条件下驾车。人们开始担心它对劳动者的影响。
百度首席科学家吴恩达说:“我认为最大的挑战在于它对就业的影响。”他认为人工智能技术的快速发展可能会改变工作环境,许多人在20多岁、40多岁、50多岁时需要重新接受训练,而训练的方式是之前没有过的。
麻省理工学院经济学家埃里克•布吕诺尔夫松(ErikBrynjolfsson)认为:“毫无疑问的是有些工种现在可以自动化了,以前它们是不能的。”例如负责电子取证的初级律师、自助结帐超市里负责结帐过道管理的人。
“希望在这些行业中能出现一些新的职位。”他说,“企业家和管理者在开创新职位方面是极有创造力的,现有的一些职位已经自动化了。”
Facebook人工智能研发主管伊恩•勒坤(Yann LeCun)并不担忧,他说社会在过去已经适应变化。勒坤说:“技术已经发展到了另一个阶段,过程不容易,但我们必须面对。”
机器人可能最终不会臣服于人类可能还会出现其它的一些困扰,例如,随着人工智能独立于人类操作者自己做出更多的决定,它会对法律界产生什么样的影响。渥太华大学法学院专门研究伦理道德的教授伊恩•科尔(Ian Ker)说:“在当前的法律环境中,要在一些领域将算法摆在优先位置是很困难的。我觉得这面临极大的挑战。”
一些科学家看得更远,他们开始分析人工智能在哪些地方的影响可能会超过人类。去年谷歌收购了DeepMind,这是一家人工智能公司,它关注基础研究,目标是开发比人类聪明的机器。DeepMind联合创始人杰米斯•哈萨比斯(Demis Hassabis)称它为人工智能发展中的“阿波罗项目”。
尽管这些科学家认为出现邪恶超级智力的机率很小,一些人还是在研究,看它能对人类构成何种重大威胁。
《超级智能:方法、危险、策略》(Superintelligence:Paths, dangers, strategies)的作者、牛津大学人类未来研究院院长、哲学教授尼克•博斯特罗姆(Nick Bostrom)认为:“我觉得世界的最终结局不会像现在一样,那些服务机器人不会端着盛满食物的盘子来伺候你。最后的结果可能是完全不同的,跟我们熟悉的完全不同。”
剑桥大学存在风险研究中心研究员沙哈•艾文(Shahar Avin)认为,如何防止邪恶人工智能成形,现在的人工智能研究还没有找到好办法。艾文还说:“我们需要建立一个机构,它不能也不会修改自己的价值系统。”他还说,大家面临的共同难题是如何做。将更多的资金和更多的争论结合,可以将更多的研究者吸引到问题上来,一起寻找办法确保人工智能的安全。
机器没有伤害人的动机特斯拉CEO马斯克和其它一些科技名人正是先行者,他们于12月11日创立了OpenAI,这是一个非盈利机构,它可以尽可能公开地开发新的人工智能技术。
百度科学家吴恩达的看法不太一样,他认为过度关注“人工智能的邪恶智力”可能会分散精力,它更可能带来消极影响,恰如失业一样。Facebook人工智能研发主管伊恩•勒坤(Yann LeCun)则说:“机器的智力会是完全不同的,人有做坏事伤害他人的动机,机器没有。”
加拿大总督戴维•约翰斯顿(David Johnston)曾经在多伦多的会议上说过一番话,这些话可能反映了我们的共同心声。约翰斯顿说:“我们越来越意识到机器学习和人工智能很可能马上就会出现,当它们真的出现时,我们清楚它的影响是很大的。既然这样,我们能扮演什么角色呢?我们如何从人工智能技术中获得最大的机会呢?如何将它带来的挑战最小化呢?”
(来源:凤凰科技)