直通屏山|福建|时评|大学城|台海|娱乐|体育|国内|国际|专题|网事|福州|厦门|莆田|泉州|漳州|龙岩|宁德|南平|三明
您所在的位置:东南网 > 国际> 探索发现 > 正文

霍金:人类应建立有效机制 防范人工智能威胁

2017-03-14 13:11:55  来源:人民网  责任编辑:房小奇   我来说两句

资料图:霍金。

据外媒报道,英国剑桥大学物理学家霍金日前在接受媒体采访时,再次强调人类建立有效机制,防止人工智能(AI)对人类的威胁进一步上升。

据报道,霍金在接受采访时表示,包括AI在内的新科技若持续发展,可能会通过核战争或生物战争摧毁人类;人类则需要利用逻辑和理性去控制未来可能出现的威胁。

霍金还就应对AI的威胁建议称,人类可以组成某种形式的联合政府来防范AI可能带来的威胁。

数年前霍金已经表示,发展全面的人工智能可能导致人类的毁灭。

霍金说,人工智能的发展可能帮助人类消除疾病,消除贫困,阻止气候变化,但是也可能产生人们不愿意看到的种种后果,包括产生自主武器,造成经济灾难,以及发展出同人类发生冲突时拥有自己意愿的机器。

“简言之,强大人工智能的崛起可能是人类遇到的最好的事情,也可能是最坏的事情,但我们还不知道答案。”

打印 | 收藏 | 发给好友 【字号
今日热词
更多>>福建今日重点
更多>>国际国内热点
  • 新闻图片
更多>>娱 乐
  • 点击排行
  • 三天
  • 一周
  • 一月
关于我们 | 广告服务 | 网站地图 | 网站公告 |
国新办发函[2001]232号 闽ICP备案号(闽ICP备05022042号) 互联网新闻信息服务许可证 编号:35120170001 网络文化经营许可证 闽网文〔2019〕3630-217号
信息网络传播视听节目许可(互联网视听节目服务/移动互联网视听节目服务)证号:1310572 广播电视节目制作经营许可证(闽)字第085号
网络出版服务许可证 (署)网出证(闽)字第018号 增值电信业务经营许可证 闽B2-20100029 互联网药品信息服务(闽)-经营性-2015-0001
福建日报报业集团拥有东南网采编人员所创作作品之版权,未经报业集团书面授权,不得转载、摘编或以其他方式使用和传播
职业道德监督、违法和不良信息举报电话:0591-87095151 举报邮箱:jubao@fjsen.com 福建省新闻道德委举报电话:0591-87275327
全国非法网络公关工商部门举报:010-88650507(白)010-68022771(夜)