不少科幻电影中,一些人工智能机器拒绝服从人类指挥,甚至杀死或控制人类,最终统治世界。为避免这类情况出现,包括英国理论物理学家斯蒂芬·霍金在内,数百名科学家和企业家联合发表一封公开信,敦促人们重视人工智能安全,确保这类研究对人类有益。 近年来,人工智能技术高速发展,在给人们生活带来便利的同时,可能存在危险性。一些科学家认为,人工智能可能比核武器更具威胁。 公开信说: 人工智能技术存在潜在危险 英、法等国媒体12日报道,这封信由非营利机构“未来生活研究所”发布。除霍金外,在信上签名的还有美国机器人和智能机械研究中心主任卢克·米尔豪泽、2004年诺贝尔物理学奖获得者弗兰克·维尔切克、美国网络通讯软件Skype创始人之一扬·塔利英、美国太空探索技术公司和美国特斯拉汽车公司首席执行官埃隆·马斯克,以及一些来自美国哈佛大学、斯坦福大学等知名高校的顶尖学者和一些来自谷歌公司、微软公司等高科技企业的工作人员。 这封公开信说,人工智能技术稳定发展已获“广泛共识”,而且未来能够给人类带来巨大益处。信中说,人工智能已经为人类生活提供便利,包括语音识别技术、图像分析技术、无人驾驶汽车和翻译工具。 公开信说:“由于人工智能的巨大潜力,有必要研究如何在从其获益的同时避免潜在的危险。” 霍金提醒: 防止人工智能科技失控 信中写道,人工智能技术发展良好,但给社会带来的冲击逐渐增加。如果没有针对人工智能的安全防护措施,可能导致人类的未来变得黯淡,甚至让人类灭亡。 短期而言,人工智能可能导致数以百万计人失业;长期而言,可能出现一些科幻电影中的情况,人工智能的智力水平超过人类,开始“政变”。按人工智能的发展进度,在不久的将来,机器可能以不断加快的速度重新设计自己,超越受制于生物进化速度的人类,最终摆脱人类的控制。 这封公开信说:“我们的人工智能系统必须按照我们的要求工作。” 今年早些时候,霍金提醒,需警惕人工智能科技过度发展,防止人工智能科技失控并超越人类智慧,最终破坏整个星球。他说,成功创造人工智能科技“将是人类历史上最伟大的成就,但不幸的是,有可能也是最后一项(成就)”。 去年10月,太空探索技术公司和特斯拉汽车公司首席执行官马斯克在美国麻省理工学院参加一场活动时说:“我认为对待人工智能我们必须非常谨慎。按照我的猜想,人工智能可能是我们面临的最大灭绝风险。” 马斯克说,创造人工智能犹如“召唤一只恶魔”,“在一些故事中,有人拥有五星阵法和圣水……他确信自己可以控制这只恶魔,不过事实并非如此”。 为确保人工智能不被误用,美国谷歌公司不久前成立一个伦理委员会,监督这家企业的人工智能技术研发。 据新华社
本网页所有文字内容由 imapbox邮箱云存储,邮箱网盘, iurlBox网页地址收藏管理器 下载并得到。
ImapBox 邮箱网盘 工具地址: https://www.imapbox.com/download/ImapBox.5.5.1_Build20141205_CHS_Bit32.exe
PC6下载站地址:PC6下载站分流下载
本网页所有视频内容由 imoviebox边看边下-网页视频下载, iurlBox网页地址收藏管理器 下载并得到。
ImovieBox 网页视频 工具地址: https://www.imapbox.com/download/ImovieBox4.7.0_Build20141115_CHS.exe
本文章由: imapbox邮箱云存储,邮箱网盘,ImageBox 图片批量下载器,网页图片批量下载专家,网页图片批量下载器,获取到文章图片,imoviebox网页视频批量下载器,下载视频内容,为您提供.
阅读和此文章类似的: 全球报导