RELATEED CONSULTING
相关咨询
选择下列产品马上在线沟通
服务时间:9:30-18:00
你可能遇到了下面的问题
关闭右侧工具栏
我们可以让人工智能免于流氓吗?
  • 作者:点我
  • 发表时间:2018-12-19 10:58
  • 来源:点我科技

盖蒂盖蒂

技术世界目前迷恋于人工智能(AI)及其重塑世界的巨大潜力,正如我们所知。远远超出友好的家庭数字助理的能力,有远见的技术专家致力于利用人工智能的力量提供令人难以置信的商业生产力,纠正社会弊病,并通常提升人类的经验。不那么热情的观察者们对人工智能的可能缺点提出了质疑,我们可能会在10年前将其视为疯子妄想,但今天值得认真讨论。我已经看到了企业对速度更感兴趣而牺牲安全性的担忧。鉴于围绕社交网络的当前问题及其对某些人在那里发表的事实与虚构的明显确认,这尤其相关。

一些最受尊敬的科学和工业领导者 - 最着名的是已故斯蒂芬霍金 - 表达了对超智能机器可能对人类本身构成长期威胁的担忧。由于对可能“邪恶的人工智能”的恐惧已经合法化,这场谈话正在走出好莱坞作家的房间,进入大公司的董事会。虽然企业往往渴望利用人工智能提供的所有优势,但如果人工智能转向黑暗面,他们也可能会对可能发生的事情感到焦虑。不管怎么可能,这是一个现在值得讨论的问题。

最大的问题是:我们应该担心吗?

尽管少数有影响力的人物(以及其他有很多关于人工智能的好话)的人士都非常关注这一问题,但该领域的绝大多数专家似乎认为人工智能是人类的积极发展。好处简直令人震惊。我已经看到人工智能已被用来个性化我们的新闻,创造一流的曲调,并引导我们去看我们喜欢的电影,据报道美国国防部投资于人工智能研究。长期有远见的组织可以利用它来解决世界上最棘手的问题,例如开发可再生能源和遏制世界饥饿。2017年  自然  文章(付费专区)展示了AI如何帮助医生快速查看皮肤标记,并确定哪些更可能是癌症,需要进行活组织检查。

 

 

AI霸主的崛起真的是一个似是而非的故事情节吗?在我看来,只有我们的技术社区真的,真的搞砸了。最可能的威胁(至少在可预见的未来)不如世界末日那么戏剧化,但仍值得为之做好准备。可以想象,人工智能的行为可能是人类在编程时没有计划的。它可能会误解其目标,犯下弊大于利的错误,在极端情况下,甚至可能危及其本应服务的人。

事实上,就在最近,据路透社报道,亚马逊的工程师不得不拔掉人工智能程序的插件,该程序旨在通过简历和其他数据来自动化招聘流程并确定最合格的求职者。他们发现人工智能系统地歧视女性申请人。我相信这次事故实际上是用于训练软件的有缺陷或有限数据集的结果。这是人工智能的主要风险之一:如果你输入了不好的数据,那么非生产性的答案就会出现。尽管如此,像这样的实例可以让我们看到当我们误解AI时可能会发生什么后果。

我们应该谨慎行事。保持AI控制的最明显的一步是更多地了解技术的工作原理以及它的真正能力。本文不适用于AI编码教程,但足以说明开发人员必须提前几步,以确保AI在现实世界中投入使用时负责任地完成工作。这可能需要从过去二十年来我所看到的技术行业主导的“早期发布和迭代”思维转变。

所有这一切最重要的对策可能是关闭AI的能力 - 如果简单的修复失败,将杀手开关作为最后的手段。如果所有这些仍然听起来有点过于危言耸听,那么可以认为已经有大型组织将资源用于开发类似的保护措施。加州大学伯克利分校的人类兼容人工智能中心  和牛津大学人类未来研究所等人表示,他们正在研究超智能机器的复杂社会影响,以确保我们能够获得人工智能的积极效益并避免任何灾难性的副作用。此外,我听说世界各国政府正在考虑更具体的法规,以确保人工智能不会继续不受限制地扩散。

我们不应该害怕未来。

如果过去教给我们任何东西,那就是人们历来一直害怕他们不完全理解的技术进步。我听说当19世纪初第一辆蒸汽火车首次亮相时,人们担心人类不能在没有身体融化的情况下以如此惊人的速度行驶。后来,他们担心电话会造成个人隐私的全部损失,并让每个人都变得絮絮叨叨。对电力,汽车,广播,电视,电脑和互联网的引入也有类似的悲观情绪预测。

虽然认为人工智能可能会出现一些意想不到的问题并不令人发疯,但加速反乌托邦未来的到来可能不会是其中之一。相反,如果你相信它有可能以指数方式增加人类解决全球变暖或癌症等问题的能力,那么人工智能可能只是我们的救赎。