• 最新论文
  • 有望代替人类抢险救灾机器人被寄予厚望 不能遗忘袁隆平,“暂时”也不行 多位大学校长从政央行证监会接连“调兵遣将” 有望代替人类抢险救灾机器人被寄予厚望 勇敢活下去!寒武纪化石揭示泛甲壳类动物祖先 勇敢活下去!寒武纪化石揭示泛甲壳类动物祖先 伯明翰亚拉巴马州立大学的迈克尔·涅德维斯改良了细菌 家长担心高中生选修大学课程异化为课业负担 探月工程三期再入返回飞行试验获圆满成功 多位大学校长从政央行证监会接连“调兵遣将” 如何看待霍金对人工智能的警告 家长担心高中生选修大学课程异化为课业负担 多位大学校长从政央行证监会接连“调兵遣将”
  • 推荐论文
  • 有望代替人类抢险救灾机器人被寄予厚望 不能遗忘袁隆平,“暂时”也不行 多位大学校长从政央行证监会接连“调兵遣将” 有望代替人类抢险救灾机器人被寄予厚望 勇敢活下去!寒武纪化石揭示泛甲壳类动物祖先 勇敢活下去!寒武纪化石揭示泛甲壳类动物祖先 伯明翰亚拉巴马州立大学的迈克尔·涅德维斯改良了细菌 家长担心高中生选修大学课程异化为课业负担 探月工程三期再入返回飞行试验获圆满成功 多位大学校长从政央行证监会接连“调兵遣将” 如何看待霍金对人工智能的警告 家长担心高中生选修大学课程异化为课业负担 多位大学校长从政央行证监会接连“调兵遣将”
  • 热门标签
  • 日期归档
  • 如何看待霍金对人工智能的警告

    来源:www.shuoshisheng.net 发布时间:2020-03-26

    作者:黄植诚来源:中国青年报发布日期:2017/6/5 103333333610

    Select Font Size:Small Medium

    Large

    How to View霍金的人工智能警告

    今年3月8日,着名物理学家斯蒂芬霍金(Stephen Hawking)告诉英国《独立报》,人类必须尽快建立有效机制识别威胁,防止新技术(人工智能)对人类的威胁进一步上升。 霍金警告说,未来人工智能可能会以生化战争或核战争的形式摧毁人类 事实上,霍金早在2015年9月就发出了类似的警告:智能和有能力的人工智能将毁灭人类 霍金说:超级智能人工智能可以很好地实现它的目标。如果这些目标与我们人类不一致,我们人类就会有麻烦。

    我们如何处理霍金的警告?首先,霍金本人也是人工智能技术的支持者。霍金认为人工智能现在似乎已经渗透到所有领域。 人工智能甚至可以帮助消除疾病和贫困等长期存在的社会挑战。

    人工智能技术是当今新技术革命的领导者。 事实上,人工智能技术的发展经历了三次浪潮。 第一波以“手工知识”为特征,典型的例子有智能手机应用等。 第二波以“统计学习”为特征,典型例子如人工神经网络系统,并在无人驾驶汽车等领域取得了进展。 虽然这些人工智能技术对确定的问题有很强的推理和判断能力,但它们没有学习能力。 第三波的特点是“适应环境”。人工智能可以理解环境,发现逻辑规则,从而进行自我训练,建立自己的决策过程。 今年早些时候,谷歌阿尔法围棋升级版大师赛以60: 0的成绩击败了世界顶尖围棋选手。5月25日,阿尔法围棋连续两轮击败中国职业九级围棋选手柯杰。我认为这些都是第三波人工智能的迹象。

    其次,人工智能也是一把双刃剑。 一方面,通过人工智能技术实现自动化将大大提高生产率,节约劳动力成本;通过优化行业现有产品和服务,我们将开拓更广阔的市场空 正是因为人工智能在促进社会经济发展中发挥着不可替代的作用,人工智能才被写进了我国两届政府工作报告。

    另一方面,人工智能技术也给社会带来了短期和长期的风险。 在不久的将来,那些重复性的、耗时的、无聊的工作;在快速变化的复杂环境中进行的工作和超出人类极限的工作可能会被人工智能系统取代,从而影响劳动力市场。 可以预测,由于人工智能的发展,大多数人的智能将低于或接近人工智能的水平。如果没有对政策的有效控制,财富将集中在智力超过人工智能的少数人手中,这将进一步扩大社会贫富差距,造成社会撕裂。

    至于霍金警告的人工智能给人类带来的生存风险,也就是说,人工智能在未来将超越人类整体智能,对此仍有不同的理解。 许多自然科学家认为人工智能仍远未达到上述水平,其危险也远未被考虑。然而,一些社会科学家担心,随着技术变革的深入,人工智能引发的连锁反应将导致无法控制的局面。 上述知识的差异恰恰反映了人类智力知识的多样性。 从这个角度来看,科学家完全理解并复制人类智能只是时间问题。 鉴于人工智能有可能超越人类智能,并由此产生非常严重的后果,再加上科学技术发展中固有的不确定性,充分说明了研究人工智能安全问题的必要性。

    早在1950年,在美国着名科幻作家艾萨克阿西莫夫的《我,机器人》小说中,他就提出了着名的“机器人三定律”:第一定律,机器人不得伤害个人或袖手旁观,目睹对个人的危险;根据第二定律,机器人必须服从人类给它们的命令,除非这些命令与第一定律相冲突。第三条法律要求机器人在不违反第一条和第二条法律的情况下尽可能保护自己的生存。 从那时起,这“三定律”不断激发人们对人工智能安全性的新思考。 因为人工智能最终将具有自主意识,那么人类和人工智能系统之间的关系必须遵守普遍和可靠的标准。 特别是在军事领域,我们应该更加小心,否则科幻电影中很有可能出现人机大战的场景。

    因此,在开发人工智能系统的同时,我们也应该确保它在相关的预先设定的标准下工作,以防止它违反规定。

    Read More

    Hawking:人工智能可能是人类文明的终结者

    特别声明:这篇文章的重印只是为了传播信息,并不意味着代表本网站的观点或确认其内容的真实性;如果其他媒体、网站或个人转载本网站,他们必须保留本网站上注明的“来源”,并承担版权等法律责任。如果作者不希望再版或联系再版费,请联系我们。

    友情链接: