第333章 人工智能的伦理道德问题(第 3/4 页)
但我不太明白为什么发展人工智能会跟电车难题这种问题联系到一起。」
乔喻解释道:「还是以自动驾驶为例,如果我们充许自动驾驶可以出现一定的事故概率,那么如果要定一个标准,大概是只要比人类自己开车事故率更低,似乎就是可以接受的,对吧?」
郑希文点了点头。
乔喻继续说道:「但是对于人类社会环境来说,开车技术好,驾驶习惯好,且足够谨慎守规矩的司机事故率往往远低于那些习惯野蛮驾驶的司机。
但如果把方向盘交给人工智能来掌控,对于不同类型的司机来说他们出事故的概率是平等的。守规矩的跟不守规矩的都一样,这算不算进阶版的电车难题?
最关键的是,一个人本身没有犯任何错误,结果因为人工智能的失误没了,人工智能的失误会被社会放到多大?
看吧,这就是你都能理解的困境。如果通用人工智能走类人思考模式的路子,就注定了要允许它犯错。
但如果要允许一个人工智能犯错,造成了损失,却会被全体人类社会排斥。都是人我们还讲一个非我族类,其心必异呢。更别提机器了。
而且这还是小事。如果是大事就更可怕了。比如未来把天机防御系统交给人工智能来决策,结果发生误判,把一架飞机给打下来了。你猜会发生什么?
所以我非常清楚,这个项目田导挂帅,说白了就是未来万一出了问题,田导跟即将组建的伦理审查委员会来帮我背锅。我安心把活干好就行。也是用心良苦了,我怎么可能不知好岁?」
郑希文默然,太多的弯弯绕绕了,他都没想明白的东西乔喻心里却是门清儿的。
「但是现阶段这东西又是真有用啊。月球建设多方论证了好几套方案,最后发现还是得把具备一定思维能力的机器送上去搞建设最合适。
而且在对月球环境改造完成之前,人工智能是管理月球基地,保证月球基地正常运行的最好选择。
上面的基地生命维持系统可不是开玩笑的。现在人少万一出问题还能赶紧穿上航空服直接进飞船。
如果未来人多了,这东西出问题,那可就是一基地几十甚至几百人同时玩完。容错率超低的高压岗位啊。
你要是再往前看,如果要做宇宙开拓动辑几个月甚至一年在飞船上航行,靠人类当船长很难抵御那种高压的。
地球海洋上航行,每隔一段时间起码会有港口补给。哪怕是初代的大航海冒险家,起码隔一段时间总能看到陆地。
但对于第一代的星际旅行者可没这么好的待遇。在航行时根本没有补给点,甚至导航都不准确,反而是地球需要他们传回的资料去绘制星图,建设星际旅行补给点。
这种高压环境下,人类被长时间压抑的情绪很可能引发不可预知且无法挽回的错误。
所以也的确需要人工智能技术辅助。
不过其实我觉得大佬们都想多了,这些都是正常的。每次人类工业革命都会有血腥的一面。
蒸汽机发明之后,人家是用来造战舰,然后到处打砸抢掠,开拓殖民地,当时因为蒸汽机挂了多少人?
到了之后的电气跟内燃机时代,飞机能上天了,战争又导致多少人丧生?
至于第三代工业革命,核力量登上历史舞台。只需要两枚炸弹能让两个城市的人都熟了啊!看吧,人类的科技发展从来都是这样的。」
乔喻摊了摊手,说道。
这番说辞也让郑希文不太懂乔喻是什么意思了。沉吟片刻后,说道:「其实你完全没必要勉强,如果你不愿意做一件事,肯定没人会为难你。」
这句话让乔喻笑了,还笑的很开心。
-->>(第 3/4 页)(本章未完,请点击下一页继续阅读)