“新的AI计算机视觉系统模仿人类怎么可视化和识别物体”
加州大学洛杉矶分校的samueli工程学院和斯坦福大学的研究人员展示了一种计算机系统,根据人类采用的同样的视觉学习方法,可以发现和识别真实世界的物体。
这个系统是被称为计算机视觉的技术的进步,计算机可以读取视觉图像进行识别。 这是迈向常规人工智能系统的重要一步,计算机可以独立学习,直观地根据推理做出决定,以更人性化的方式与人类进行对话。 现在的ai计算机视觉系统更强大,更有能力,但任务特定。 也就是说,识别可见副本的能力受到人类训练和编程程度的限制。
即使是当今最好的计算机视觉系统,也不能只在看到对象的一部分之后制作对象的完整图像。 另外,系统可能会被陌生配置的对象看到而被骗。 工程师的目标是使计算机系统具备这些能力。 为了能理解人类在看狗,即使动物躲在椅子后面,也只能看到爪子和尾巴。 当然,人类也可以很容易地直观狗头和身体的其他部分,但这种能力仍然无法避免很多人工智能系统。
现在的计算机视觉系统不是为了自己学习而设计的。 他们必须接受学习文案方面的培训,一般通过审查千万张图片,在这些图片中,他们要识别的对象都被做了标记。
当然,计算机不能解释为什么要明确照片中的物体代表什么。 基于人工智能的系统没有像人类一样建立内部图像和学习对象的常识模型。
美国国家科学院纪要( proceeding Softhenation Alacademy of Sciences )中记载的工程师新方法展示了处理这些缺点的方法。
这个方法由三个主要步骤组成。 首先,系统将图像分成小块,研究者将其称为小窗口。 接下来,计算机学习这些视图是如何组合起来成为讨论对象的。 最后,检查周围地区的其他对象以及有关这些对象的新闻是否与说明和识别的主要对象相关联。
为了学习新系统更像人类,工程师决定将其浸入人类生活环境的网络拷贝中。
幸运的是,互联网提供了两个有助于大脑启发的计算机视觉系统以与人类相同的方式学习。 加州大学洛杉矶分校的电气计算机工程教授和该研究的主任研究员vwani roychowdhury说。 一个是丰富的图像和视频,描绘着同一类型的物体。 第二,这些物体从多个角度展示。 模糊,鸟瞰,近距离,置于不同的环境中。
为了开发框架,研究者从认识心理学和神经科学那里得到了见解。
从婴儿那里,我们知道什么是什么。 因为我们经常看到不止一个例子。 roychowdhury说。 这种情况学习是我们大脑的重要特征,有助于我们建立强大的对象模型。 这些模式是一体化世界观的一部分,其中都有功能联系。
研究人员用约9,000张图像对系统进行了测试,在每张图像上展示了人和其他物体。 这个平台没有外部指导,不需要标记图像就可以制作人体的详细模型。
工程师们用摩托车、汽车和飞机的图像进行了同样的测试。 无论如何,他们的系统表现得更好,或者至少和多年培训开发出来的以前传到计算机视觉系统一样好。
上一篇:“人工飞脑可以分辨谁是谁”
免责声明:亚洲报业网是一个完全人工审核编辑的开放式分类目录网站,本篇文章是在网络上转载的,本站不为其真实性负责,只为传播网络信息为目的,非商业用途,如有异议请及时联系btr2031@163.com,本站将予以删除。