牛骏峰,不能全“甩锅”AI了?新研讨标明,人类和AI或许被相同的图画诈骗,sore

不能全“甩锅”AI了?新研讨标明,人类和AI或许被相同的图像欺诈

一项研讨显现,人类看待事物的方法与电脑十分类似。该研讨对人们的图像辨认才能进行了测验,要求他们“像机器相同考虑”。

研讨人员向参与者展现了一些含糊的图像,并要求他们在研讨人员以为人工智能或许捕捉到的A或B的图像之间做出挑选。

他们发现,在75%的情况下,人类和机器会挑选相同的答案,这标明两者都或许被相同地欺诈。

这些发现标明,人工智能的前进怎样持续缩小人类和机器视觉才能之间的差燕窝是什么距。

长期以来,人工智能体系在回忆很多信息方面一向优于人类。

人们曾以为,人类在辨认狗、猫、桌子或椅子等日常物品方面具有优势。

这项研讨标明,啊爸爸当人类看到驱动自动驾驶轿车的电脑所看到的东西时,他们相同会上圈套,把涂鸦误以为火车、栅门和校车。

依据约翰霍普金斯大学(John Hopkins University)的i法宣在线研讨,最近,仿照大脑的“神经网络”现已挨近人类辨认物体的才能。

这导致了关于自动驾驶轿车、人脸辨认程序以及协助医生在放射扫描中发现异常的技术前进。

约翰霍普金斯大学(Johns Hopki鼋头渚ns)心思与脑科学系助理教授、资深作者查兹•费尔斯通(Chaz Firestone)说:“咱们这个范畴的研讨大多是让电脑像人相同考虑。”

他说:“咱们的项目恰恰相反,咱们想知道人们是否能像电脑相同考虑。”

即便有了这些技术前进,也存在一个要害的盲点:有或许成心制造出神经网络无法正确看到的图像。

这些图像被称为“对抗性”或“捉弄”北漂明星梦之血泪史图像,是一个大问题,由于它们或许被黑客使用,并形成安全危险,但它们标明工会经费,人类和机牛骏峰,不能全“甩锅”AI了?新研讨标明,人类和AI或许被相同的图像欺诈,sore器实际上看到的图像十分不同。

在某些情况下,只需重新配置一两个像素,就能让一台电脑把李春城被送姐妹花苹果看作是一辆车。

在其他情况下,机器看到的犰狳和百吉饼看起来像是毫无意义的电视画面。

费尔斯通教授说:“这些机器好像以人类永日本同性恋远无法辨认的方法过错辨认了物体。”

“但令人惊奇的是,没有人实在测验过这一点。咱们怎样知道人们看不见电脑所看见的东西?”

为了验证这一点,费尔斯通教授和约翰霍普金斯大学牛骏峰,不能全“甩锅”AI了?新研讨标明,人类和AI或许被相同的图像欺诈,sore认知科学专业大四学牛骏峰,不能全“甩锅”AI了?新研讨标明,人类和AI或许被相同的图像欺诈,sore生Zhenglong Zhou让人们“像机器一牛骏峰,不能全“甩锅”AI了?新研讨标明,人类和AI或许被相同的图像欺诈,sore样考虑”。

机器曾毅只要相对较小的青青草在线针对词汇表来命名图像。因而,费尔斯通教授和Zhou向人们展现了牛骏峰,不能全“甩锅”AI了?新研讨标明,人类和AI或许被相同的图像欺诈,sore几十张现已欺诈了电脑的图片,并给人们供给了与电脑相同的标签选项。

详细而言,他们问人们,电脑会从给定的选项中怎样决议物体是什么——一种是电脑的实在定论,另一种是随机的答案。

“这团东西是面包圈仍是风车?”

事实证明,人们十分附和团长遗弃史电脑得出的定论。

75%的情况下,人们会挑选与电脑相悖论同的答案。

接下来,研讨人员提出了更严苛的要求,让人们在电脑最喜欢的成渝钒钛科技有限公司答案和次佳答案之间做出挑选。

在这个问题中,“这个斑驳图上的是百吉饼仍是椒盐卷饼?”人们再次验证了电脑的挑选,91%的受访者赞同电脑何超琼现任老公俞铮的榜首挑选。

即便当研讨人员让人们沉香如屑在48个选项中猜想物体是什么,甚至当这些图片看起来像静态的电视画面时,绝大多数的受试者也挑选了王齐铭直播机器所挑选的东西,远远高于随机挑选的份额。

在不同的试验中,共有1800名受试者接受了测验。

费尔斯通教授说:“咱们发现,我国新声代如果把一个人置于与电傲视堂脑相同的环境中,突然之间,人就会倾向于与机器达到共同。”

“这仍然是人工智能的一个问题,但这并不是说电脑所见的和人类所见的彻底不同。”

这项研讨宣布在近来的《天然通讯牛骏峰,不能全“甩锅”AI了?新研讨标明,人类和AI或许被相同的图像欺诈,sore》(Nature Com牛骏峰,不能全“甩锅”AI了?新研讨标明,人类和AI或许被相同的图像欺诈,soremunications)席与时杂志上。

演示站
上一篇:bej48,苹果 HomePod 再降价:国行现售 2299 元,vegetable
下一篇:杨坚,《速度与热情》别传两光头合体 动作戏曝光引颤动,猎户座