毕业之后:
在2017年,Alphabet旗下的围棋冠军软件迅速发展。今年5月,一个更强大的版本击败了在中国的冠军。它的创造者,研究单位DeepMind,后来建立了一个版本,AlphaGo Zero,在不学习人类游戏的情况下学习了游戏。去年12月,另一项升级努力诞生了AlphaZero,它可以学习下棋和日本棋牌游戏Shogi(虽然不是同时学习)。
大量引人注目的结果令人印象深刻——但也提醒了我们人工智能软件的局限性。象棋、幕府和围棋都是复杂的,但它们都有相对简单的规则,对双方都可见。它们是计算机在许多可能的未来位置快速脱机的良好匹配。但是,生活中的大多数情况和问题都不是那么井然有序。
这就是DeepMind和Facebook在2017年开始研发多人游戏星际争霸的原因。两人都没有走得太远。现在,业余爱好者制造的最好的机器人,甚至都比不上那些技术精湛的玩家。DeepMind研究人员Oriol Vinyals在今年早些时候告诉《连线》杂志,他的软件目前缺乏精心组装和指挥军队所需的计划和记忆能力,同时对对手的移动进行预测和反应。并非巧合的是,这些技能也能让软件更好地帮助处理现实世界的任务,比如办公室工作或实际的军事行动。2018年星际争霸或类似游戏的大进展可能预示着一些强大的人工智能新应用。
教人工智能辨别是非
即使没有上述领域的新进展,如果现有的人工智能技术被广泛采用,经济和社会的许多方面也会发生巨大的变化。由于公司和政府急于这样做,一些人担心人工智能和机器学习造成的意外和故意伤害。
如何在安全和道德的范围内保持技术,是本月NIPS机器学习会议上一个重要的讨论话题。研究人员发现,机器学习系统可以接收令人讨厌的或不受欢迎的行为,比如在我们远离完美世界的数据上进行培训,从而使性别刻板印象永久化。现在,一些人正在研究可以用来审计人工智能系统内部工作的技术,并确保他们在从事金融或医疗等行业时做出公平的决策。
明年,科技公司将会提出如何让人工智能保持在人性的正确一面的想法。谷歌,Facebook,微软和其他一些公司已经开始讨论这个问题,并且是一个新的非营利组织,名为“伙伴关系”(Partnership on AI),它将研究并试图塑造人工智能的社会影响。压力也来自更独立的地区。一个名为“人工智能基金的伦理与治理”的慈善项目正在支持麻省理工学院(MIT)、哈佛大学(Harvard)以及其他研究人工智能和公共利益的机构。现在,纽约大学的一个新的研究机构,也有一个类似的任务。在最近的一份报告中,它呼吁各国政府放弃使用“黑匣子”算法,而不是在刑事司法或福利等领域对公众进行检查。
免责声明:科技狗对文中陈述、观点判断保持中立,不对所包含内容的准确性、可靠性或完整性提供任何明示或暗示的保证。请读者仅作参考,并请自行承担全部责任。 本网站转载图片、文字之类版权申明,本网站无法鉴别所上传图片或文字的知识版权,如果侵犯,请及时通知我们,本网站将在第一时间及时删除:yzl_300@126.com