20 May 2018 13:03
标签 人工智能 小火花 设计
《人工智能简史》中有一段话:
学习机有一个重要的特点,它的老师通常不关心机器内部发生了什么变化,尽管在一定程度上能预测学生的行为。在设计精良的儿童计算机(或程序)的后期教育上更应该如此。这和机器计算时使用的常规操作程序形成了鲜明的对比,计算时的目的是对机器在任意时刻的状态有清晰的了解。这个目标很难达到。“机器只能按我们的指令行动”8的观点在这里就说不过去了。我们输入机器的大部分程序将导致机器执行一些我们无法完全理解的事,或者在我们看来完全随机的事。智能行为和计算中完全服从命令的行为可能有些不同,但这种区别不大,不至于产生随机行为或是无意义的循环。另外还有一点非常重要,当我们的机器通过教与学的方式“备战”模仿游戏时,“人类不靠谱”的特点很可能被自然地忽略,也就是不再需要专门的“辅导”。(读者应该将此与本文第24、25页上描述的观点调和一下。)学到的方法很难产生百分之百确定的结果;如果可以的话,那么这些方法就不会被遗忘了。
“机器只能按照我们的指令行动”,如果这是给机器的定义,那么模仿游戏中数字机器我们给它添加一些缺陷,如随机数,在训练的时候当随机产生了错误或者说训练者认为不合理的因素,则会对机器进行修正,而机器在训练者修正的过程中通过类似“遗传算法”的程序,在版本更替中将训练者修正的数据保存下来,这应该就是“深度学习”的过程。那是否可以表示它会出现自我意识呢。
建筑机器人,医学机器人强调精确无误的完成这样的设计是否改变一下,我们给它一份图纸,但是同时也给他添加了“随机因子”,在成品被监督可控的前提下,允许建筑机器人依据“随机因子”表达“自己”的想法,而这种想法使用类似“AlphaGo”自己和自己对战的学习形式积累经验,最后产生所谓“意识”的东西。
不完美的、不精确的缺陷人工智能加上自我学习的进化是否会产生真正的智能,值得思考。
帖文预览:
关闭预览