开启左侧

[国际新闻] 霍金警告人工智能危险性 称其若失控很难被阻止

[复制链接]
分享到:
发表于 2016-6-29 15:40 | 显示全部楼层 |阅读模式

马上注册,结交更多好友,享用更多功能,让你轻松玩转社区。

您需要 登录 才可以下载或查看,没有帐号?注册

x
  6月29日电 据外媒报道,著名天体物理学家史蒂芬·霍金认为,人工智能应该在符合伦理道德和安全措施要求的情况下开发,因为脱离人类控制之下的机器很难被阻止住。
1 v9 g6 Z+ ?0 Y: R# g: H1 K% Y) J* `9 Y  美国知名记者拉里·金对霍金进行了采访。霍金在采访中承认,他不认为发展人工智能一定能让人类朝好的方向发展。# f/ q( ^- o0 A& A
  霍金表示:“当机器发展到能自己演化的重要阶段之时,它们的目标与人类愿望之间的相符程度就很难预料了。”
( f" ~* E- X* \  w. j' v+ C  {6 X  他指出,人工智能可以比人类的智慧发展得更快。; ?/ v2 \  h3 O9 m1 o
7 U8 u% B$ _8 e
资料图:著名天体物理学家霍金。. `8 F8 m- ^% B6 I. v4 \' J6 b6 B- C
  他说:“有益的人工智能可以与人类共存,并扩大人类的可能性。但失控的人工智能很难被阻止。在开发人工智能时必须保证符合道德伦理与安全措施的要求。”
: Z/ x6 n* Z6 U2 m( I  他认为,有益的人工智能将出现在人类生活的各方面。
; Z/ \. o) ^3 r! t3 i% V5 U9 o  霍金说:“想象一下那些可以对科学家想法迅速作出评价、更早地查出癌症、并预测证券市场走势的人工智能!它们将影响到我们的经济,影响到我们的决策,并在整体上影响我们的生活。”
6 P0 o& w# u8 G5 A, @' N8 u$ W

  ?. Q9 E  ^  D: I: j3 ?3 ^$ T- c% l  h

7 k! E* `: c* \) n# A( f% ^; y! e- j3 T, U# G$ o; q& W" R

4 \' F) {' h3 R: K% C1 ?内容采编自网络, 不代表北美生活网观点, 除新闻外如有著作权争议, 请联系本站编辑,将立即处理。
; M# U4 _$ D8 o$ E3 e( d. M; q) F0 G3 \# e! K, w
谢谢欣赏,开放注册,欢迎加入北美生活网。

转载请保留当前帖子的链接:http://www.beimeilife.com/thread-18073-1-1.html 谢谢!

使用高级回帖 (可批量传图、插入视频等)快速回复

您需要登录后才可以回帖 登录 | 注册

本版积分规则   Ctrl + Enter 快速发布  

发帖时请遵守我国法律,网站会将有关你发帖内容、时间以及发帖IP地址等记录保留,只要接到合法请求,即会将信息提供给有关政府机构。
快速回复 返回顶部 返回列表