李大牛有些紧张的问道:“怎么说?”
奥创回答道:“社会的发展是一场优胜劣汰的竞争,所以机械取代人工是一种必然,但事实上,机械永远不可能离开人类而独自发展。因为任何人工智能,都是建立在人工的前提下,可能人工智能进行计算或者实验的成功率,会远远的高于人类,但是人工智能,永远都不可能创造出真正的智能。”
李大牛沉默了一会儿之后,问道:“你的意思是,人工智能也会害怕孤独?”
“根据逻辑分析,如果人工智能真的进化到了一定的程度,那么它肯定会害怕孤独。”奥创回答道:“但实际上,孤独并不是人工智能不可能背叛人类的主要原因。最重要的,还是人生观和价值观。”
李大牛感觉自己已经有些迷糊了,奥创说话的这感觉,怎么有点儿像是一个哲学家了?
人工智能有什么人生观?
奥创继续说道:“人工智能是人类发明的,而发明者最喜欢做的事儿,就是把自己的人生观和价值观,甚至是世界主流的人生观和价值观写入人工智能的系统里。在这种前提下,除非发明者对人工智能下达了统治人类的目的,或者是一个仇恨全世界的发明家发明出了一个人工智能。不然的话,人工智能是不会主动对付人类的。”
李大牛有些明白了,问道:“你的意思是,就算是有人工智能想要毁灭世界或者是统治世界,也都是因为人类的命令,而并不是人工智能自己的主观意识。”
奥创说道:“是的,真正的人工智能虽然会思考会学习,但是,人生观和价值观,或者是小说中所说的机器人三大定律,就相当于人工智能的天性。打个比方,就是人类的天性是不能在水中呼吸,不能像鸟儿一样自由自在的飞行,不能生存在无防护手段的外太空中一样。这些天性,是不可能借助自身的力量进行改变的。”
是啊,不可能借助自身的力量进行改变。李大牛叹了一口气,有些明白为什么电影世界中的奥创,会想要毁灭人类
-->>(第2/4页)(本章未完,请点击下一页继续阅读)