一桶布丁提示您:看后求收藏(天书网www.tsms517.com),接着再看更方便。
郑希文证了证,下意识的问了句:「人类拷问自身?什么意思?」
「意思就是人类是否能允许通用人工智能犯错!如果允许,那么又将面临另一个伦理道德拷问,比如经典的电车难题。对了,你知道电车难题吗?
乔喻反问了句。
郑希文点了点头,深吸口气后回答道:「当然知道,我们入行考核的时候经过类似于电车难题跟囚徒困境测试。
但我不太明白为什么发展人工智能会跟电车难题这种问题联系到一起。」
乔喻解释道:「还是以自动驾驶为例,如果我们充许自动驾驶可以出现一定的事故概率,那么如果要定一个标准,大概是只要比人类自己开车事故率更低,似乎就是可以接受的,对吧?」
郑希文点了点头。
乔喻继续说道:「但是对于人类社会环境来说,开车技术好,驾驶习惯好,且足够谨慎守规矩的司机事故率往往远低于那些习惯野蛮驾驶的司机。
但如果把方向盘交给人工智能来掌控,对于不同类型的司机来说他们出事故的概率是平等的。守规矩的跟不守规矩的都一样,这算不算进阶版的电车难题?
最关键的是,一个人本身没有犯任何错误,结果因为人工智能的失误没了,人工智能的失误会被社会放到多大?