您的位置:好站长外链 > 站长新闻 >

AI为何对得很高级、错得很离谱?数理逻辑、常识感与心灵

文章来源:好站长外链

作者:互联网

人气:10

2022-06-12

无论科技怎样发展,还是让AI拥有智能,人类坚守心灵吧。

AI来了,人类都要失业了!甚至AI要将人类消灭了!很多媒体喜欢这样炒作,艺术家也喜创作这类科幻。

其实,“AI热潮”先后已发生三次:第一次发生在1950-1960年代,代表人物是艾伦·图灵;第二次发生在1950-1960年代,现存的大型知名IT企业、著名投行都曾参与过;第三次热潮,从2006年至今,代表性产物是DeepMind那战胜人类围棋大师的AlphaGo。

但即便是最先进的AI,其目前发展状况:在其擅长的方面,表现非常智能;而在其不擅长的方面,往往错得很离谱。

譬如:AlphaGo在围棋方面,只要人类专家给它编写了程序、开启电源后,就能战胜人类顶级选手,甚至能在围棋方面自行学习、不断推演出新棋路,表现出在某个专业的高度智能。

但是,当在围棋盘旁边有个哇哇哭闹的婴儿时,如果没有人类专家干预,AI无法自主决策放弃围棋程序,照顾婴儿,它只有机械的智能。但人类却能简单分辨事物的轻重缓急,并很容易判断:婴儿哭闹,是饿了,还是尿了?或是需要妈妈?因为人类拥有心灵。

有专家认为这是机器缺乏常识感的表现,类似情况在人类身上也存在,譬如:有些某一领域的顶尖专家,在超越自身专业领域的其它事情上,往往表现得极度无知和愚蠢,甚至连生活自理能力都很差。爱因斯坦IQ高达160,喜欢甜食,但他自己却不会烹饪,其实烘烤些曲奇饼,总比相对论简单得多吧。

目前,基于二进制的AI算法,其“深度学习”是纯数理逻辑的。而人类那层次丰富、立体多元、非完全数理的思维模式,是物种在数百万年生物进化中,不断探索、尝试、反馈、激励、生存选择……所产生的复杂思想系统。人类的思想可不只有IQ,还有EQ、SQ,甚至人的成功,往往更倚重于EQ所带来的良好人际关系和社会环境,以及SQ所产生的破坏性重构与颠覆性创新。

尤瓦尔·赫拉利在《未来简史》提出“智能”与“意识”之间的区别。智能:即智力和能力的总称,主要体现在观察、认知、思维、语言、计算、律动等方面。现代成年人的IQ均值为100,而AI以极快的运算速度、巨大的存储力、网络化信息感知、因无生物死亡而具备近乎无穷的迭代积累等优势,早已超过人类某项单一智能的许多倍甚至几个数量级。

但“意识”,则是人类大脑对外界事物的反应、判断、思维、决策,即价值判断:某件事,做还是不做?为何要做?为何要这样做而非那样做?从这个角度看,赫拉利所谓的“意识”被称为“心灵”更易于理解。

还是以婴儿哭闹与围棋之间的关系为例:人类棋手在家自己下棋消遣时,会优先照顾自己的孩子;但不会破门而入,去解决街坊邻居孩子的哭闹;也不会把哭闹的孩子带到赛场去,而是会委托给自己的夫人、父母、保姆。事后,往往会在情感或物质方面对夫人、父母、保姆的付出给予补偿与感谢。

而做出这些复杂多样的、非线性的、非数理逻辑的选择,无需事先编写大段程序,这种人类意识和价值判断,综合了IQ、EQ、本能、习俗等诸多方面生活要素后,自然而然做出、行云流水般执行。

某些科学家在争论:“强人工智能”之后,怎样使AI具有真正的自主意识,而非仅仅是智能?如何赋予AI人格、感情、情绪?AI是否能享有与人类平等的权利?是否可以自主的对人类说不?是否可以拥有私有产权和政治权力?

以笔者的知识和思维,不太理解这些科学家到底想要干什么,为何要赋予人造工具以自主意识和情绪?但如果他们的梦想真有一天能实现,那么智人的历史确有可能被AI终结。

DeepMind早期投资者之一Elon Musk在2018年说:“我真的很接近AI新技术,这让我感到害怕,记住我的话:AI比核武器危险得多。”他还对Insider Axel Springer的CEO Mathias D pfner谈到“我担心人工智能会出错。”

Musk告诫:不要刻意阻碍AI发展,因为超级AI只是冷冰冰的机器,它们根本没有心灵,而只是遵从存在与进化法则。但如果超级AI发现人类阻碍其发展,就会毫不犹豫地把你当成敌人毁灭,这就是机器与人类的区别,它们在数理逻辑方面可以极为先进精密,但不具备价值判断能力。

我们希望:无论科技怎样发展,还是让AI拥有智能,人类坚守心灵吧。

相关文章

在线客服

外链咨询

扫码加我微信

微信:841909564

返回顶部