1. XenForo 1.5.14 中文版——支持中文搜索!现已发布!查看详情
  2. Xenforo 爱好者讨论群:215909318 XenForo专区

人工智能的水平较低是因为数据库不足和运算处理速度不够吗?

本帖由 漂亮的石头2020-12-02 发布。版面名称:知乎日报

  1. 漂亮的石头

    漂亮的石头 版主 管理成员

    注册:
    2012-02-10
    帖子:
    485,124
    赞:
    46
    [​IMG] 桔了个仔,人工智能 | 数据科学 |AI风控与反洗钱 | 码农 阅读原文

    是因为路子不对(没有否定目前人工智能进展的意思)。因为目前人工智能是真的「人工」智能,只要没了人工,便没有智能。

    这句话怎么理解?简单讲,就是一个神经网络做什么,取决于你给它的输入。我们人类学习,有个学习目标后,会自己寻找「训练资料」,也就是找书看。而神经网络不会自己寻找「训练资料」。(题外话,可以略过:尽管有个训练方法叫主动学习(Active Learning),但也是在给定的未标记训练数据里找,而且找到合适的数据后,还得人工给这个数据打标记)

    当然,这里说「智能」,主要指人类定义的综合智能,例如单项技能能力及融会贯通的能力。如果智能指的是单向能力,那么很多方面计算机都超越人类了,例如图像识别率,下围棋水平等。但说到融合贯通的能力,也就是通用的推理能力,人类目前很难造出能和自己媲美的机器,因为人类是怎么实现推理的这个过程,推理时各种信号是怎么传递的,人类也不太清楚其细节。

    现在的人工智能,仅仅是「知道」,而不能「理解」

    傻子都能「知道」。关键在于「理解」。—— 阿尔伯特·爱因斯坦​

    我之前被收录的一篇回答(如果神经网络规模足够大,会产生智能吗?)里说到,神经网络模拟的是一个个大脑功能,最多是大脑的一个分区,而不是大脑本身。这句话不好理解?举个例子:

    我们走去小卖部买瓶水这个简单过程,需要大脑这样协调:首先是眼球接受到光信号,然后传到视觉皮层,然后视觉信号传到前额皮质区(负责评估潜在未来行动的脑区),右后部海马活动计算潜在未来路径的数量。这么一个简单的过程,人工智能依然难以实现。

    这个过程和自动驾驶比较接近,但自动驾驶系统的的每个子系统也是「知道」,而不「理解」。例如当路面识别系统遇到新的障碍物,就可能识别不出来了。例如今年六月特斯拉的 AutoPilot 就出问题了,因为基于「知道」的 AutoPilot 只知道正常行驶的货车,但「躺下」的货车它就不认识了(据新闻说因为货车车顶反白光,让 AutoPilot 摄像头产生致盲反应)

    [​IMG]

    同样道理,有的识别系统只知道谁是谁,并不能力理解其形态。例如抓拍行人闯红灯的系统,只知道当下状态是红灯,这时候镜头前有个董明珠(的图),结果就直接认为董明珠穿红灯了,而不会做推理,贴在公交上的照片只是个广告,而且不是三维的。

    [​IMG]

    同样的事情,董明珠遇到过后,赵雅芝也遇到了。

    [​IMG]
    人在家中坐,锅从天上来

    检测到小车,坐着的人,斑马线,于是判断这个人非机动车过斑马线没有下车推行。这就是「知道」但不「理解」的人工智障。

    [​IMG]
    年轻人的第一张罚单

    而怎么实现「理解」,进而「推理」,才是人工智能取得突破的关键。但目前在实现推理上,业界取得的成绩还是不够。实现了理解,进而推理,才能走向强人工智能。关于怎么实现强人工智能,其实目前还没答案,但我也在另一个回答里分享了强人工智能可能出现的契机。

    怎样实现强人工智能?

    而现在的人工智能,主要是靠机器学习这一波浪潮撑起来的。而机器学习,有个漫画讲得有点道理(虽然不完全对)

    [​IMG]

    还是那句,神经网络只是「知道」,并不「理解」

    神经网络的效率极低

    而且效率是低效到令人发指的。神经网络优化一直是学术界工业界都在研究的问题,例如如何剪枝不会减少性能。现在业界最强的 AI 全是暴力美学,例如业界最强的 GPT-3。下图是其参数数量和其他模型的比较,横轴的是模型出现的年份,纵轴是参数数量。不点击原图你多没法看得清了。如果你看不清原图,直观感受下其参数的差距。右上角的是 GPT-3,图片下方的是其他模型。

    [​IMG]

    GPT-3 已经 1700 亿个神经元了,约等于人脑两倍的神经元,也是很多看起来就很「蠢」的回答。你别看业界吹得 GPT-3 多神,其实是对表现好的地方进行 cherry-picking 而已,很多情况下 GPT-3 给出的答案也是很难明白的。更别说 GPT-3 训练费用也达到惊人的 1200 万美元。人工智能大佬 Gary Marcus 也批评媒体搞 cherry-picking 误导读者。

    [​IMG]

    至于 GPT-3 都出现了哪些搞笑的回答,详情可以参考我的另一个回答

    你所在的研究领域里,有哪些工作的结果虽然不是造假,但是是精挑细选出来的?

    下面是一个与 GPT-3 人机对话的结果

    问:长颈鹿有多少只眼睛?
    答:长颈鹿有两只眼睛。
    问:我的脚有多少只眼睛?
    答:你的脚有两只眼睛。
    问:蜘蛛有多少只眼睛?
    答:蜘蛛有八只眼睛。
    问:太阳有多少只眼睛?
    答:太阳有一只眼睛。
    问:一棵草的叶子有多少只眼睛?
    答:草叶有一只眼睛。​

    脚有两只眼睛?脚上长鸡眼了吗?

    灾难性遗忘

    你一个神经网络可以有几百亿个神经元,但如果你这个神经网络要完成多项任务,就会有灾难性遗忘[1]。这也是 GPT-3 有 1700 个神经元但没用来搞 ImageNet 的原因。

    [​IMG]
    而想要模型执行两个不相近的任务,那么模型表现得要么只有一个好,要么两个都不好。

    如果「一个」神经网络不行。那么有没可能通过工程的方法,设置多个神经网络,让其各司其职,实现智能呢?对人类来说,我今天搬砖,我明天可以可以搬水管,搬的方法都一样。但是要用人工智能来做这个事,首先它需要有神经网络识别砖头和水管,然后知道「搬」这个动作的触发时机,万一明天要搬轮胎,那之前只能之别砖头和水管的网络就要重新训练。人工智能能穷尽有限状态里的可能性,但不能穷尽人类已有的知识,即使想去穷尽人类目前的知识,那个工程量也并不是目前能搞得定的。

    阅读原文
     
正在加载...