您现在的位置:

散文精选 >

预防人工智能伦理缺失学界新闻www.hlmsw.cn,1000种死法第一季

  7月25―31日,2015年国际人工智能联合会议(IJCAI-15)在阿根廷首都布宜诺斯艾利斯举行。27日的开幕式上,美国生命未来研究所(Future of Life Institute)发布了一封呼吁禁止自主武器的公开信,这封信由来自多国的2500多名人工智能与机器人学科学家联合签名,得到了15000多名其他领域人士的支持,其中包括英国科学家霍金、美国语言学家乔姆斯基、美国太空探索技术公司(SpaceX)和特斯拉(Tesla)汽车公司首席执行官伊龙・马斯克(Elon Musk)、美国苹果公司联合创始人斯蒂夫・沃兹尼亚克(Steve Wozniak)等名人,掀起了关于人工智能技术前景和风险的新一轮讨论。

  学者对禁止自主武器态度不一

  公开信提出,从人工智能技术现状来看,可不依靠人类而独自搜索并消灭目标的自主武器系统在若干年内可能被制造出来,并将引发继火药和核武器后的“第三次战争革命”。如果军事大国推进自动化武器研发,全球军备竞赛几乎将不可避免。这类武器是破坏社会稳定、控制大众的理想工具,且无需昂贵或难以获取的原材料,易于大规模生产,迟早会出现在黑市,落入恐怖分子、军阀等手中。因此,超出人类有效控制范围的攻击性自动化济南正规专业癫痫医院武器应被禁止。对此,英国牛津大学哲学与信息伦理学教授卢恰诺・弗洛里迪(Luciano Floridi)表示,“各国在智能武器上的军备竞赛已经开始,如无人机,但科幻电影中‘终结者’式的超级人工智能还很遥远,当前最先进的机器人甚至无法自如地扭开门把手。这封公开信无可争议,但我希望它不是没有任何真正影响力的懒人行动主义(slacktivism,以签署公开信、‘点赞’或转发社交媒体内容、加入特定的网络社群等简单方式对政治或社会问题呼吁表态,但没有付诸切实努力,也不会产生实质性的影响,只是令参与者自我感觉作出了贡献)的体现。”

  美国佐治亚理工学院机器人伦理学专家罗纳德・阿尔金(Ronald Arkin)对记者说,“人工智能武器潜在的风险有很多,我认为,全球军备竞赛并不是最主要的,更令人担忧的是这种技术在未经充分验证时就被过快地用于作战或扩散。近两年,联合国《特定常规武器公约》(CCW)会议就致命性自主武器系统(LAWS)展开了讨论,我建议在我们能确定究竟该禁止什么之前,针对自主武器出台暂禁令而非彻底禁止,并观察这种技术能带来多大的人道主义益处”。

  美国哈特福德大学计算机科学教授迈克尔・安德森(Michael Anderson)说,“贵阳公立癫痫病医院人工智能不应被应用于相关伦理规范尚不清晰的领域,自主武器显然也在此列,但我没有签署公开信。当自主武器代替人类战斗人员以减少人类伤亡的设想可实现时,禁令可能难以广受欢迎。未来我们弄清楚与自主武器有关的伦理问题时,我愿意重新审视其应用的可能性”。

  “伦理机器人”研发初起步

  人们对人工智能不放心的一个重要原因是,尽管它们在某些方面的智能水平或将赶超人类,如海量数据计算、金融分析、棋牌类游戏、简单的多语言翻译等,但他们并不具备伦理道德观念,其自主程度越高,给人类造成伤害的潜力就越大。科学家越发感到,公众对人工智能的接受度将取决于它们能否被设定为以“尽可能保障人类安全、符合人类社会规范、增进‘人机互信’”的方式行事。加拿大温莎大学哲学系教授马尔塞罗・瓜里尼(Marcello Guarini)说,“如何使人工智能在涉及伦理判断的情境下正确推理,这是亟待研究的一个课题”。那么,有没有可能设计出遵循伦理原则的机器人?英国西英格兰大学科学传播中心主任、机器人伦理学研究者阿兰・温菲尔德(Alan Winfield)表示,现在主要有两种研发“伦理机器人”(ethical robot)的途径。

  一种途径是机器学习,简单来说怎样治疗老年人癫痫病效果好就是让计算机从经验中学习,以形成无需明确指令即可解决问题的能力。安德森等人正从这个角度出发研制用于老年人护理的“伦理机器人”。从理论上讲,随着所学的伦理问题案例增加,机器人将作出更好的伦理决策,但很多人担心这种风险太大。美国斯坦福大学计算机科学系客座讲师杰瑞・开普兰(Jerry Kaplan)说,“由于机器学习生成的伦理原则不是被预先写入代码中的,我们无法知道机器人会基于什么原则判断一种解决方案在伦理上是正确或错误的”。

  另一种途径是直接为计算机设定明确严格的规则,这样就能清楚地知道机器人为何做出某一决策。这在军事科技中尤为关键。在美国国防部的支持下,阿尔金正在研发一个用以确保军用机器人在行动时遵守国际约定的交战规则的程序,“我们最不希望看到的就是派一个机器人执行军事任务,让其在过程中自行思考应遵守哪些伦理原则”。但这种途径也有其限制,例如,计算机编程使用的逻辑语言在面对假设场景时难以得出结论,而某些伦理困境的解决恰恰需要能够预见不同的情形并分别分析。

  多位学者谈到,“伦理机器人”的研发是一个非常新的领域,基于严密规则的机器人或许更令公众安心,而学习型机器人可能更灵活、效用更大,今后研究的最佳方向是将两种途径结合起来。福建治癫痫到哪个医院p>

  加强监管人工智能研究

  随着科技发展日新月异,不免令人担心人工智能可能逐渐对人类构成多种威胁。弗洛里迪说,无论现在还是将来,人工智能风险问题的根本在于人类自身。如果有朝一日机器人能自主行动、比人类更强大,那也是因为有人决定赋予其这种能力。单纯批评人工智能技术本身,无异于批评汽车的发明导致了交通堵塞和环境污染。当前的关键问题是,技术成熟的速度快于人类做好准备的速度,因此,从现在起,相关领域的研究人员应该加强责任感,制定人工智能研究伦理准则,国家应出台相应的法律法规。阿尔金表示,“我支持国际社会和科对人工智能研究进行管理,但不赞成颁布先发制人的禁令”。

  澳大利亚莫纳什大学哲学系副教授罗伯特・斯帕罗(Robert Sparrow)接受本报记者采访时说,在可预见的未来,人工智能还难以“进化”到可以自主思考并从自身利益出发进行活动的程度,但如果这一天真的来临,人类可能无法理解它们,更不用说控制它们,我们不能等到那时再去思考超级人工智能究竟会如何对待人类。因此,有必要通过立法、签署国际公约等方式引导和监督人工智能技术研发。另外,还应警惕不道德的商业或政治团体利用人工智能来为自己谋取财富和权力。

© wx.kqoyz.com  读爱文学网    版权所有  京ICP备12007688号