“人工智能可以思考吗”
科幻和科学在思考人工智能的方法上似乎没有达成一致。 SF想把人工智能代理描绘成思维机器,但今天的企业将人工智能用于更常见的任务,如使用机器人流程填写表格、驾驶汽车等。 在目前的ai技术水平下与这些人工智能接口进行对话时,我们倾向于把它们当做自动售货机来对待,而不是像人类一样对待。 为什么? 因为像人类一样考虑人工智能(拟人化)很快就会失望。 今天的ai非常窄。 跨越这些系统能做什么和不能做什么之间的无形界线,引起我不明白,或者我还不能等的普遍反应。 技术很酷,但没有按照你和我的想法去想。
看看思维过程是怎么从事的。 让我们来讨论一下ai系统内部是如何进行不同类型的思考的。
首先,说服思维是真正的事件吧。 有一个非常有趣的哲学论点是,无视关于意识的整个讨论,思考只是在你的脑海中被计算出来。 事实表明,我们已经研究过这个,我们不仅能想象真实的想法,还能得出一点结论。 诺奖获得者丹尼尔·卡尼曼( daniel kahneman )在《快速思考和慢速思考》一书中,论述了我们大脑中思考的两个系统。 是快速的自动思考系统(系统1 )和缓慢、深思熟虑的思考系统(系统2 )。 就像我们的左脑和右脑充斥在我们的脑海里一样,我们也把这两种思维系统放在脑海里,相互对话,形成了我们看世界的方法。 因为,思考不仅是正确的,还在于决定的两种方法。 今天的ai系统学会了像系统1一样迅速自动地思考,但是人工智能作为科学,没能很好地解决从系统2中慢慢思考的方法。 与系统1相同的错误,在学习过程中将偏见、捷径和归纳法纳入思维机器。 关于今天的ai,没有慎重考虑的阶段性思考过程。 例如,如果思维的第一个拷贝没有准备好,人工智能会怎么想?
现在,我们对思考有了越来越多的定义。 怎样才能制造出人类一样的人工智能? 表示反馈循环的话,可能会进入system 2这样的思考机器。 事实表明,我们还没有了解这一点。 ai模型中不包含有关世界的常识。 例如,我记得yann lecun是现代ai的创始人。 举一个例子,他走进房子,指出现在的ai模型不能决定这意味着什么。 有愚蠢的说明。 我们可以得出像超级英雄一样身体从门上撞了下来,变成了碎片的结论。 另一种解释是门是开着的,还是人开门经过门的路。 遗憾的是,在没有常识的情况下,实际上不知道发生什么情况的可能性很高。 这表明,通过采用我们今天可以使用的工具,即使迅速考虑也可能没有效果。
我们生活在以快速思考的ai为基准的世界里,同时用大量的数据慢慢地训练模型。 无法提供比谷歌更好的搜索引擎。 这不是他们搜索算法的秘密。 相反,从优秀的网络爬虫到周围邻居开车的摄像头,都拥有你没有的数据。 目前,人工智能的价值在于数据,算法大多是免费开源的。 收集大量数据不足以保证功能正常工作。 一般在人力方面需要很大的努力。 未来,自学的思维算法可能可以自己表示ai系统的大部分价值,但现在仍然需要数据来构成ai系统,数据是项目中最有价值的部分。
思维和人的处境不容易分开,但我们也离完美还很远。 平均来说,我们可能很聪明,但作为个人并不能进行统计。 虽然有一点证据表明人群的智慧,但是拿着干草叉和火炬的人可能会改变你的想法。 事实上,这表明我们适应了几代人,不让狮子吞噬,不适应微积分。 我们人类也有很多偏见和捷径嵌入在硬件中。 有需要调查的证据。 例如,虽然关联性不是因果关系,但我们经常把它们混淆。 我的同事用她所尊敬的大学本科数学学位发表了感兴趣的故事。 于是学生们玩了一个叫stats chicken的游戏,在那里他们将统计学课推迟到四年级。
鉴于人类思维的诸多局限,我们常常对结论感到困惑,但我们的机器同行对此感到困惑。 我们认为彼此不一样。 当我们真正看到相关电影和产品的推荐时,这个精彩的推荐魔术给我们留下了深刻的印象,但我们看不到魔术表演的方法。 人们容易得出结论,基于机器的思维比我们杂乱的生物学过程要好或更干净。 这是因为它基于这么多真理和数学。 大多数情况下,这是正确的,但事实却蕴藏着阴暗的潜在秘密。 很多情况下,人工智能为什么这么好还不清楚。 工程技术引领着科学,我们采用的是我们完全不了解的工具。 我们知道它们比较有效,可以同时测试它们,但是我们没有一个很好的系统来解释事件为什么会起作用。 其实,甚至备受尊敬的学术界也有指责的(这里是幻灯片24 ),人工智能没有被严格定义为科学行业的基本理论。 不仅仅是数学家对工程师的号召和嫉妒。 人工智能是一个多行业,这些行业之间确实有联系,在那个行业里,为了说明事件如何正常发挥作用,为什么比较有效,确实没有联系。 因此,思维和ai相关的问题也是知识相关的问题。 如果不知道车内部的运行原理,可以开车。 即使不知道自己的思考为什么可能,也能思考。
如果人工智能行业没有具体的理论,工程师是如何做什么工作的? 好了,测试和训练ai模型的好方法有很多。 这对今天的经济来说足够了。 ai有监督学习、无监督学习、强化学习等多种类型。 工程师不倾向于听后思考吗? 不是等问题,而是问是否坏了。 考试分数是多少? 是这样的问题。
监督学习是非常受欢迎的人工智能类型,在稍微狭窄的行业中可以迅速预测。 用于监控和学习大型数据集的最新技术是前馈深度神经网络。 这种类型的系统真的没有被考虑过。 相反,要学习根据一系列的注意结果选择标签(用于分类)或数字(用于回归)。 没有强有力的验证步骤,决定在学习中烘焙到神经互联网的方法还不清楚。 更透明的ai模型已经存在很久了,比如军事计划的博弈论等行业。 决策树等显式模型是开发可解释的ai系统的常用方法,正在学习定义预测路径的一组规则,它们分别遵循从书本到结论的路径。
人工智能的另一种类型叫做强化学习,根据环境中发生的事件和过去发生的事件,学习从一种决策过渡到另一种决策。 我们知道,如果没有更好的世界环境模型,这些方法的学习速度会非常慢,可以执行最基本的任务。 学习用这种方法处理问题的系统在很大程度上依赖于世界运营方式的正确模式。 要解决有关人的问题,他们需要大量有关这些人的行为、喜欢的数据或想法的数据。 例如,如果没有人类喜欢听的数据,就不能创作出令人惊讶的音乐。 在游戏模拟器中,ai模型可以非常迅速地与自己对战,变得聪明,但在人类和相关的应用中,数据收集的速度会加快项目的速度。 因此,从广义上讲,我们在其中插入了很多东西,而且,ai行业还在建设中。
无论基本的技术手段如何,在当前大部分实用应用中与熟练的人工智能模型进行交互时,该模型都是事先训练好的,无法马上学习。 这是为了提高你体验的稳定性,但也隐藏了基础技术的混乱。 学习倾向于发生在可以测试事物的安全空之间。 另外,作为ai系统的顾客只能体验预测(也称为推理)。 。
尽管炒菜,艾认为在各方面都超过人类,就像我们做不到的那样。 真正有思考力的机器绝对值得研究,但现在还没有。 ,人工智能模型和人类分解员并肩工作,分解员发表意见,得到人工智能模型的帮助。 考虑降雨估算和主权信用风险模型等更普遍的数学模型,考虑人类如何仔细设计数学模型,将许多经过仔细思考的人类思维编码,是很有用的。 构建ai系统的实践涉及许多浏览和创造性。 不仅仅是用键盘编码。
我想ai软件开发者逐渐认识到如何思考ai模型是做什么的,但这并不是在思考。 我想从人工智能行业与我无关的某人那里得到一些意见,看看他们是否有同样的感觉。 通过dta的首席执行官,我和kurt manninen谈了他在ai产品astralaunch的工作。 你问了库特很多技术问题,最后问了系统是否像人一样思考?
astralaunch是一个相当先进的产品,涉及到没有监控和监控的学习,在技术上可以符合企业的诉求。 这么多庞杂的技术是思考的好地方。 该系统进入流程,进入文件收集阶段,输出分类后的相关文件和技术的图表。 我想从kurt那里知道的是他对匹配技术的看法。 系统是否认为,系统会将nasa的诉求映射到企业的技术能力上? 在诊断错误的预测时,你觉得模型错了吗? 还是你认为这是模型制作者和数据错误的根源?
kurt的回答确实接近我的经验所期待的。 astralaunch等技术包括人类和ai模型,协助利用强度新闻的解决方案。 但正如我所做的,库尔特相信ai模型的错误是人类的错,不是模型的错。 ai开发人员可以看到未正确配置语言和词汇培训的地方,以及数据集收集错误的地方等。
回到关于人工智能和思维的原始问题上,我认为我们确实可以得出结论。 这些系统完全没有考虑。 如果只能采用高速、自动化的(系统1 )人工智能,是否可以将ai模型视为对世界有不同看法的有才能的员工? 是的,不。 如果训练不受控制,ai可能作弊,因为他是懒惰和欺诈的员工。 不管方法是愚蠢还是错误,用简单的方法每次测试都获得最高分。 当我们试图建立系统2,就像我们的思维时,我们必须记住思维不会通过测试。 相反,我们将考虑以下报价。
考试会继续你的人生。 其中包括数百万个决策,这些决策将共同使你的生活变为现实。 一切都在上面。
约翰·格林
免责声明:亚洲报业网是一个完全人工审核编辑的开放式分类目录网站,本篇文章是在网络上转载的,本站不为其真实性负责,只为传播网络信息为目的,非商业用途,如有异议请及时联系btr2031@163.com,本站将予以删除。