加入收藏 | 设为首页 | 会员中心 | 我要投稿 | RSS
您当前的位置:首页 > 大数据 > 大数据技术

千名西方学者联名警告:世界将毁于人工智能军备赛

时间:2017-11-16 16:31:44  来源:  作者:
您的位置:主页 > 业界动态 >

业界动态 千名西方学者联名警告:世界将毁于人工智能军备赛

2015-08-03作者:人工智能机器来源:未知次阅读

千名西方学者联名警告:世界将毁于人工智能军备赛
近日,物理学家斯蒂芬?霍金(Stephen Hawking)、哲学家诺姆?乔姆斯基(NoamChomsky)、科技专家伊隆·马斯克(ElonMusk)和数千名知识份子在一封联名公开信中警告:必须取缔“机器人杀手”的研发和应用,人工智能方面的军备竞赛可能是人类的灾难,它将助长战争和恐怖主义,加剧世界动荡局势。
 
英国《独立报》(TheIndependent)进行了跟踪报导,澎湃新闻对此进行了编译。自主性武器已被描述为继火药和核武器之后的第三次军事革命千余名机器人专家和人工智能(AI)研究人员包括物理学家斯蒂芬·霍金、科技专家伊隆·马斯克和哲学家诺姆·乔姆斯基,近日签署了一封公开信,呼吁禁止使用“具有攻击性的自主武器”
 
“机器人杀手”。签署该公开信的还有苹果公司的联合创始人史蒂夫·沃兹尼亚克(SteveWozniak),以及数以百计的人工智能和机器人科技研究员,他们均来自世界一流大学和实验室。这封公开信由未来生活研究所(Future of LifeInstitute)发起,这个团体致力于缓解“人类面临的生存风险”,警告人们启动“人工智能军备竞赛”的危险。
 
这些机器人武器可能包括根据自身程式蒐索并杀死特定目标的军用无人机,这种新一代的无人机可以通过远程操控对几千里外的地区发动攻击。公开信中谈到“人工智能科技已经达到了这样一个地步:如果没有法律限制,那么这种系统的部署在未来几年中就可以实现,并不需要等待几十年。”它补充说,自主性武器已被描述为继火药和核武器之后的第三次军事革命。
 
未来生活所相信人工智能的巨大潜力在很多方面会造福人类,但是机器人武器的发展并不会,它很有可能被恐怖分子、残酷的独裁者和那些热衷种族清洗的人所利用。这种武器虽然还没有真正研制出来,但是科技的推进使得他们的诞生并不遥远。
 
该武器的反对者,就像这封信的签署者一样,相信通过消除人类死亡的危险,机器人武器(这项科技在未来几年内会变得无处不在,价格低廉)将会降低战争的门槛,使得战争更加频发。制造机器人武器,使人担忧人工智能的滥用去年,韩国推出了类似的武器--武装哨兵机器人,它们现时被安装在朝鲜边境。
 
通过相机和热感测器,它们能够检测并自动追迹人类,但是该机器需要人工操作才能射击。公开信警告说,对人工智能的和平使用,将会给人类带来潜在的益处。但如果用它来制造机器人武器,便会滋长公众的不满,削减了人工智能真正的好处。
 
这种说法听起来很有未来感,但是在这块领域科技的确正在以极快的速度推进,与此同时人们对人工智能暴力使用的反对呼声也越来越强烈。“封锁机器人杀手”的运动率先呼吁禁止机器人武器2012年,由一系列非政府组织,其中包括人权观察(Human RightsWatch)发起的“封锁机器人杀手”运动率先呼吁禁止机器人武器。
 
现时他们正努力在《特定常规武器公约》(Convention ofConventionalWeapons)的框架内处理机器人武器的问题,该公约在日内瓦联合国大会上通过,旨在禁止使用某些常规武器,如地雷和镭射武器在1995年已经被禁止使用,这场运动希望自主性武器也可以同样被禁止。这项运动试图通过该公约,设立一个以禁止这种武器为目的政府专家小组来处理相关事件。
 
今年初,英国在联合国会议上反对禁止机器人杀手,其外交部官员告诉《卫报》(TheGuardian),他们并不认为有必要对自主性武器实施禁止,并且声称英国并没有研制类似的武器。
来顶一下
返回首页
返回首页
发表评论 共有条评论
用户名: 密码:
验证码: 匿名发表
在线客服
推荐资讯
相关文章
    无相关信息
栏目更新