研发&设计善意的机器

 

就像IBM的深蓝战胜卡斯帕罗夫的2007年5月一样,2016年3月注定也要载入人工智能的发展史册:来自Goo...

恶意人工智能对人类构成严重威胁的可能性已经成为了当下一个热点争论话题。从物理学家史蒂芬·霍金到科技企业家伊隆·马斯克,许多影响力巨大的杰出人物都对人工智能的危险发出过警告。

这就是人工智能安全正成为一个重要学科的原因。计算机科学家开始分析设计糟糕的人工智能系统可能带来的意想不到的后果——有的人工智能系统使用了错误的道德框架,有的拥有与人类不同的价值观……

但这一领域还存在着一个重要的漏洞,肯塔基州路易斯维尔大学独立研究者 Federico Pistono 和 Roman Yampolskiy 说:“就我们所知,在如何设计恶意机器的方面还没任何东西发表。”

这是一个显著的问题,因为在计算机安全专家在有希望打败恶意的机器之前,他们必须先了解它们。

Pistono 和 Yampolskiy 现在决定填补这一空白——至少是部分填补:他们开发的关键点是在某些特定的环境中最有可能出现的恶意人工智能。因此,他们预设了恶意人工智能系统可能出现的条件。而他们的结论对某一两家公司来说不是好新闻。

所以哪些迹象表明有可能会开发出恶意的人工智能系统?Pistono 和 Yampolskiy 说可能会有一些明显的迹象。

其中最明显的一个是人工智能系统开发过程中监督的缺乏

“如果一个团队决定开发一个恶意人工智能,它会阻止一个全局性监督委员会的存在,从而增加自己成功的可能性。”



为了做到这一点,这样一个团队会通过散布混乱的信息淡化其工作所带来的影响和危险。“策略是传播相互矛盾的信息,使之在公众的想象中创造关于通用人工智能研究的危险和机遇的疑问。”

另一个重要的迹象是人工智能系统背后闭源代码的存在。Pistono 和 Yampolskiy 说:

“密码技术和计算机安全的专家都很清楚闭源软件和算法没有它们自由且开源的竞争对手那样安全。非自由软件和硬件的存在将人类置于了更大的危险中。”



事实上,他们说尽管人工智能也可以使用开源软件开发,但这是否更安全仍然是未知的。开源过程可以让更多人寻找和修复漏洞,但也将这些软件的权限赋予了罪犯、恐怖分子等可能将其用于邪恶目的的人。

目前,这两种方式开发的人工智能都存在。其中闭源系统已经取得了一些广为人知的成就。

比如,谷歌的人工智能系统最近在古老的围棋游戏中击败了人类。Facebook 也拥有一个有很高知名度的人工智能研究团队,尽管该团队公开的成果要少一些。

两家公司都没有明确公开其研究的管理方式。比如,谷歌的子公司 DeepMind 声称其拥有一个人工智能伦理委员会,但却一直拒绝披露谁在管理这个机构。Facebook 只是说对人工智能的担忧被夸大了。

开源人工智能的发展没有那么先进;但至少部分在对商业对手的恐惧的驱动下,开源人工智能也开始获得发展的势头。

其中最引人注目的是 OpenAI,这是一个创立于 2015 年的非营利性人工智能组织,其目标是“以利于人类整体福祉的方式推进数字智能的发展,而不受到经济回报需求的限制。”

该组织目前已经获得了多达 10 亿美元的资助,其中包括一再警告人工智能的危险的科技企业家伊隆·马斯克。(Musk 也是本文提到的研究的作者之一 Roman Yampolskiy 的资助者之一。)

OpenAI 是否将增加或减少恶意人工智能系统出现的可能性仍尚不明朗。但其目标至少是确保一切发展都处在公众的视野之中。

人工智能安全上还存在一个短板:用于人工智能系统的网络安全应用的发展没有用于普通软件的好。计算机安全专家早就认识到恶意软件是现代社会的一个显著威胁。

许多重在安全的应用——核电站、空中交通管制、生命支持系统等——的设计最多不过是避免灾难而已。这种情况会因恶意软件(病毒和木马等)的设计者有意寻找和利用这些应用的漏洞而加剧。

为了解决这个问题,安全专家已经开发出了一个强有力的生态系统,以在漏洞被利用之前就将其识别出来并进行修复。他们研究恶意软件并寻找中和它们的方法。

他们也有一个用于仅在圈内传播这种信息的通信系统,这可以使漏洞在被传播开之前就迅速得到纠正。

但在人工智能研究方面却并不存在一个类似的系统。在目前人工智能系统还相对良性时,这可能并不重要——目前的人工智能关注的主题大都是自然语言处理、对象识别和驾驶等任务。但在未来几年内,这种情况可能会迅速改变,总会有人开始主动研发恶意人工智能。

人类应该怎样应对可能给人类带来可怕后果的恶意人工智能?这是一个很重要的问题,这是一个值得我们现在就开始深入思考的问题。
在2015年10月14日,特斯拉为Model S推出了半自动驾驶系统。一天之内,车主开始纷纷上传该系统载着自己兜风的视频。

当前面的车减速或Model S自动变换车道的时候,你可以看到人们脸上充满了恐惧。他们已经准备迎接冲击,开始祈祷。

你可以看出他们想把双手放在方向盘上,并接管。

但是慢慢的,随着汽车开得越来越稳,人们终于慢慢地放松下来享受体验。其中一些甚至忘记了,是半自动驾驶系统在开车:在几个小时前还是不可能的事情。

这个旅程从惊讶,恐惧,到生活一切照旧,我们都将一遍又一遍地经验,当软件算法接管了我们以前认为只有人类才可以做的决定。我们称之为惊喜恐惧接受曲线(surprise-fear-embrace curve)。

作为公司,企业家和高管如何操纵这个曲线将会对我们事业的成功产生重大影响。

阻止领导者进入兴旺的人工智能世界的障碍

可以说,操纵曲线最大的障碍是学习如何不信任我们的直觉。

想象一下,你花了整个职业生涯学习的技能,然后成为世界级高手。比方说,你能在招聘过程中发现明星员工。

几十年来,雇佣了数百名员工后,你建立了敏感的直觉。现在,几分钟之内你就可以知道,面试者是否适合。

人们都称赞你这个技能。你也因此出名了,升职了。你的事业都依赖于它。

现在,假设算法变成了招聘过程的一部分,而它的决策和你的直觉背道而驰。

起初,你可能会喊:“这是什么鬼!”但随后,随着招聘结果出来,你会发现通过原来令人费解的算法做出的决定是正确的。

届时,这段代码已经胜过你花了几十年时间来学习和几十万美元的学费。

我们不是在谈论假设。这实际上对Xerox(施乐:美国办公设备制造公司)、沃尔玛而言,已经成为现实,越来越多的公司也将如此。

Xerox的情况是,其HR算法了解到,传统观念是错误的。对在其呼叫中心工作的人员而言,经验对最终成功的影响非常小,真正重要的是个性。

在过去,我们经常想,“这可以发生在我的领域吗?”

今天,我们要问,“它会发生在什么时候?”

毫无疑问,在做很多决定上,算法比人的直觉更胜一筹。

著名研究员Paul Meehl在2003年去世之前不久,总结了对于直觉与算法决策的研究,他发现,在几乎所有情况下,算法的决策表现较好。

这里是Meehl的原话:

当你进行了100多项调查,预测一切,从足球比赛的胜负到肝脏疾病的诊断,其中连几项研究对人类直觉有利的结果都拿不出手,那就是时候得出一个实用的结论了。

在Superforecasters公司,主要研究者David Ferrucci领导IBM团队开发Watson,赢得Jeopardy,预测专业知识大师模式的消亡。“我会用我的Niall Ferguson反击你的Paul Krugman论战,并用我的Bret Stephens博客反驳你的Tom Friedman专栏。” 这些将变得过时。

他补充说,“我认为人们听从专家的意见将变得越来越奇怪,只能这些意见是由他们的主观判断生成的。人的思维因心理缺陷而困扰,在过去的十几二十年,已成为广泛认可的事实。”

那么,我们应该如何以及何时学会更加信任算法决策,更少信任直觉?

我们需要正确理解人工智能

在过去的十年中,我的团队和我一直在期待人工智能火起来。 2009年,得克萨斯州的投资使我们的研究商业化。

从那时起,我们已经用人工智能软件来帮助石油、天然气、高科技等行业的世界500强企业提高关键任务流程了。企业家和作家Michael,曾在福布斯,哈佛商业评论,和时代写过领导专题。

在我们的经验相结合的基础上,大多数企业高管在他们对人工智能的未来思考,有一定的漏洞。

你可以采取以下这些措施来补救漏洞,并让自己和你的组织蓬勃发展:

  1. 问一个简单的问题,“谷歌会如何做呢?”

如果汽车制造商在十年前问这个问题,他们也不会在今天奋力追赶自动驾驶汽车了。未来的二十年,自动驾驶汽车将重塑他们的整个产业。谷歌会如何开采呢?谷歌会如何种植呢?等等。

2.在现有的数据查找隐藏的见解。

许多关键任务的流程生成的隐藏洞察力的数据,可以改变你的业务。

以石油和天然气作为一个例子。业界资深人士会告诉你,“这是所有关于岩石的资料。”这是事实:关于岩石的信息——地质学,地球物理学,岩石学,等等是非常重要的。

但同样重要的还有在水力压裂过程中光纤传感器捕捉到的声音信息。这些声音中隐藏的往往是帮助经营者安全和经济地提取物碳氢化合物的关键信息。

水力压裂过程中已经制造这些声音。收集和分析这些信息是可能的,但许多人甚至从来没有想到。在其他行业同理。

3.展开你对于数据的定义。

当大多数人听到“数据”这个词,他们会想到数字。然而,数据不仅仅是数字。据IBM称,世界上80%的数据是非结构化的(例如,视频,图片,声音和文字)。

如果没有数据,就没有人工智能。同样,如果没有收集数据的感官,就没有人类的智慧——眼睛,耳朵,皮肤,舌等,只要有一个大脑是不够的。

通过增加你收集的数据种类,你可以经常放大智力和改造决策。这就像给了某人互联网,而他以前只能通过书本来学习。

4.探索开源算法的世界。

算法在跨越不同的人工智能学科内迅速提高。由于谷歌,Facebook,微软,麻省理工学院,斯坦福大学,卡内基·梅隆和其他顶级科技公司和学术机构,在大多数学科里最好的AI算法可对任何人开放:开源、使用和修改都是免费的。这些算法都是珍品。

问问你的团队,为什么他们是在顾问、解决数据科学问题的打包软件上花钱,而不是先考虑免费的解决方案。你的工作就是要确保他们有很好的理由。

5.算法的心思你不要猜。

我们生活在人工智能击败世界顶尖围棋棋手的世界。要理解这个壮举,首先要知道围棋走法的可能性比宇宙中的原子还要多!

算法可产生可操作的见解,即使它可能还没有能够解释这些观点背后的原因。一旦AI开始持续产生改善的成果建议,人们应该开始使用这些算法和调查到底为什么这些建议能成功。

6.避免落入“算法不应该这样做”的陷阱

由于算法承担更多的决策,我们对只有人类应该做出的决定更加着急。把我们宁愿人为判断的区域开放给算法很重要。财富高级编辑Geoff Colvin,在他的文章Humans Are Underrated指出,这些领域包括:法官和陪审团的决定,领导和管理,目标设定。

惊喜恐惧接受曲线

最近一次惊喜恐惧接受曲线的例子是顶级棋手李世石,和谷歌的AI AlphaGo之间历史性的五场围棋赛。

在第二场比赛中AI玩家的一个惊人之举后,一位评论员说李世石“走出去洗脸才能冷静下来”。

他最终输掉了比赛,他说了一句很能说明问题的话:“昨天,我很惊讶。但今天我很无语。”AI赢了之后,谷歌在其官方博客中写的也很有意思。AlphaGo已经能够“就人类不会考虑的走法想到解决方案。”

这对于使用AlphaGo般的技术,找到人类想不到的解决办法有巨大的潜力。

在我们的日常生活并在企业中,从人类的智慧到机器智能的过渡将是凌乱的。

这将挑战我们的身份。

这将违背我们已经花了多年培养的专家的直觉。

这本身将要求我们给予信任和控制权,即使我们不明白这些决定。

这将创造更大和更多样化的机会,比我们今天可以预计的多太多。

这就是为什么我们把它叫做惊喜恐惧接受曲线,这就是为什么我们会认为,我们可以学到的最重要的技能之一是如何驾驭它。

声明:如有侵权,请联系邮箱删除

登硕电气官方微信:(ID: DEN-SHO)

联系邮箱:densho@densho-electric.com

喜欢此文,欢迎转发和赏赞支持登硕君!

苏州登硕电气有限公司(Suzhou Densho Electric Co.,Ltd 简称:登硕电气/登硕)是一家自动化系统集成(机器人系统系统集成)的专业供应商,从事工业机器人、非标自动化设备、装配自动化设备、检测自动化设备、自动化成套设备及自动化工厂等的研发、设计和生产。


    关注 登硕电气


微信扫一扫关注公众号

0 个评论

要回复文章请先登录注册