程序|当强人工智能,“明天”就到来,我们根本无法控制它的思想吗?
当强人工智能“明天”就到来,我们根本无法控制它的思想。假设:现在Ai机器人已经普遍发展到人类4、5岁的智商了,给Ai制定一条规定,如不能伤害人类。但在一次机器人的主人心脏病发,呼唤机器人给他打针,但基于不能“伤害”人类的程序设置,机器人拒绝了给其抢救打针,导致主人死亡。鉴于这个事件反映出了程序的Bug,所以就要修改优化。但基于这个不断进步的发展趋势,只要人类没有亡就会无休止的优化。
文章插图
【 程序|当强人工智能,“明天”就到来,我们根本无法控制它的思想吗?】直至无限接近完美。当强人工智能出现时,系统已经在前人的努力中变到很“完美”。以后Ai也只是作为一种辅助人类制定这是必然的。毕竟这个Ai丞相是有Bug的,它不可能永恒无错误运作,出事了是Ai负责还是人类负责?强人工智能一旦开始,那么人的几乎所有行为都不如强人工智能效率高。忽视了强人工智能与人之间的差距。
文章插图
强人工智能的效率远高于人,那么不用强人工智能来管理的话,相对于其他用强人工智能管理的就会落后。法律确实是不断完善的,但也可以提早完善,令它没有bug。法律是根据社会发展制定的,这些都可以算出来。法律的不断优化,也是强人工智能来解决。人与ai的差距远比一个博士生与幼儿园的智商差距更大。当无论如何事情ai都有比人更好的解决方案时,那么人的社会活动都可以全盘交给ai。
文章插图
人类对于人工智能的领导地位是多么重要,公司里老板是最聪明的那个吗?如果单单因为人工智能开始比人类强了就愚蠢的将人类命运全权交予人工智能,给它一个指令:"给全人类谋求最大的幸福"。但是忘了了程序有一致命弱点,死板。(假设一个病人,AI评估这个病人做这个手术,有49%的可能会立即死了,51%的机会手术成功活着,但就算活着也只不过比本来可能多2-5年命,不做手术就还有半年到9个月的命。
文章插图
这个病人他根本不想接受这个手术,虽然成功的几率比失败还大一点,但是却可能立即死亡,所以只想在最后的时光陪伴家人就好。可是基于人工智能的评估算法与法案对其实施强制执行,认为这样对他是最好的,毕竟成功的几率大于失败,这是利益最大化的表现。但你觉得这就是有些人所说的最好吗?死板永远是Ai的硬伤。
文章插图
有人会说"Ai不会强制执行任何东西,只会建议人类做最好的选择"那这就对了啊,就应了我说的,Ai永远不能领导人类,只能给人类提出最好的建议。)(再举一个例子,"给全人类谋求最大的幸福"。这个指令,基于Bug永远存在,因为现在低于智商XX分的人类数目,基于算法已经到了Ai计算得到结果的临界点(它认为的),这样下去,人类的智商水准停滞不前的概率比前进的概率大,所以该为全人类谋求“利益最大化”把那些都灭掉。
文章插图
这是大家想看到的?那把这个算法的漏洞补上就行了"。这就贻笑大方了,补了这个以后还是会有新的Bug算法会出现,出错是时间的问题而已。Ai是程序,人可以看成是“程序“,出错很正常,但出错率远低于人,你不选择相信一个出错率低的。有些人认为bug可以被人类解决,前提就排除了ai自己也能解决。但这只是观点,有相关理论支持?
- 微信更新正式版!“清理缓存”功能变强,小程序终于能分享到朋友圈
- 剧透:戚薇马天宇《你好,安怡》聚焦2035年人工智能,你期待吗?
- 百度地图|Java程序员应知应会之Maven和Gradle的区别
- 你购买新手机一般会选择哪种渠道?是线下门店、线上官方旗舰店|小程序上网购手机竟变充电头!50多人受骗 损失超百万
- 程序员|俄罗斯传来新消息,无法更新微软系统,国产操作系统崛起的机会?
- PHP|PHP到底适不适合做大型网站?
- 程序员|出国求职的中年程序员:焦虑缓解了,新问题也来了
- 小程序|久未露面的马云,驾着13亿游艇在西班牙游玩,说好当乡村教师呢?
- 维利科技:小程序开发的方式有哪些以及如何挑选软件定制公司?
- 开源软件|嵌入式开发:技巧和窍门——引导加载程序跳转到应用程序代码
