大量的炒作源于最新技术的最新标题抢占式发展:神经网络。这个名字说明了一切:它抓住了计算机科学家正在建造相当于人类大脑的硅的诱人可能性,从而吸引了大众的想象。尽管这可能是最初的灵感,但即使是领先的研究人员也经常警告不要将隐喻过分理解。尽管航空工程师可以从鸟类身上汲取灵感来设计飞机,但两种飞行方式仍然大不相同。同样,虽然神经网络的起源可能是脑科学,但认知隐喻的有用性却有其局限性。

那么我们应该如何看待AI?一种方法是技术上的:要避免自己陷入这种妄想中,请记住神经网络和现代AI是线性回归的真正理想版本。是的,您在统计课上学到的东西真无聊。(实际上是逻辑回归,但您可能在那堂课之前就睡着了)。所有最新的机器学习算法实际上只是一个花哨的方程式和代码汤,尽管它是一个经过精心调校的汤。没什么好性感的。

没有理解力

从概念上讲,我发现的最好的比喻是借用丹尼尔·丹内特(Daniel Dennette)的“无须理解的能力”。Dennette使用该表达式描述了演化,但它很好地描述了现代人工智能的算法。如果进化是在不可能的大基因空间中随机行走而迈向改善的进化适应性的过程,那么AI算法就会盲目地走过指数级的超参数空间(如果可以的话,我们模型的“基因”),以便能够更好地适应数据。原则上的区别在于,可以加快AI的“演变”过程,从而可以对AI模型进行足够快速的训练,以使数据科学家能够收集薪水。但是这个过程的愚蠢之举令人震惊。

我们发现很难接受的是,一套无意识的方程式可以复制这种能力而没有大量的人类理解,至少在古典的人本主义意义上没有。我们经常使用积极的声音来形容这两者,这似乎在赋予代理人一种能力,就好像过程了解它在做什么一样。例如,我们读到“达尔文的雀已经进化成……”(《科学日报》),就好像鸟类实际上了解进化并选择它们各自传给下一代的基因一样。当然,进化论的重点是他们不会这么做-自然选择会为他们照顾。同样,当我们读到“人工智能已经学习”(《科学》杂志),我们被真正理解机器的想法所吸引。但是这些方程式汤并没有真正理解-它们只是为了执行特定任务而经过高度调整。

AI的局限性

有时,我们有偏见地认为,如果一台计算机能够比我们做得更好,那么它必须能够比我们做得更好,从而引发潜在的毫无根据的恐惧。例如,盖洛普(Gallup)最近的一项民意调查发现,即使世界经济论坛(World Economic Forum)的研究表明,到2022年,机器将创造5800万个净新工作,但仍有73%的受访者认为,人工智能将消除比创造的工作更多的就业机会。人工智能不仅使我们更容易受到终结者式恐惧的干扰,而且还使人不现实地冒犯了人工智能。例如,Beauty.AI希望通过利用算法的“偏见”来消除选美比赛中的“偏见”。由计算机选择的获奖者偏向​​白色,表明AI在从我们最卑鄙的偏见中学习方面有多出色。AI的性诉求使我们看不到AI可以做和不能做的事情。

郑重声明:本文版权归原作者所有,转载文章仅为传播更多信息之目的,如有侵权行为,请第一时间联系我们修改或删除,多谢。