No menu items!

    人工智能用于交通安全监控 研究指易增道路使用者风险(图)


    人工智能不能完全取代人脑。

    多伦多约克大学昨(16)日发表的一项研究指出,人工智能并非无坚不摧,万试万能,在某些情况下会撞板。

    有份参与这项调查的约克大学詹姆斯·埃尔德教授(Professor James Elder)说,即使是深度卷积神经网络 (DCNN),都不能像人类那样看待物体——使用配置形状感知——这在现实世界的人工智能应用中可能是危险的。

    发表在Cell Press期刊iScience上的文章指出,人工智能的深度学习模型,未能捕捉到人体形状感知的配置性质。

    埃尔德教授指出:「我们的调查结果解释了,为什么深度AI模型在某些条件下会失败,并指出需要考虑物体识别之外的任务,以了解大脑中的视觉处理。」

    他说:「这些深度模型在解决复杂的识别任务时往往会走‘捷径’。虽然这些捷径可能在许多情况下都有效,但在我们目前与行业和政府合作伙伴合作的一些现实世界,人工智能应用程序中,它们可能是危险的。」此类应用之一是包括交通视频安全系统:「在繁忙交通场景中的物体,如车辆、单车和行人——相互阻碍,并以杂乱无章的零碎片段形式,去到司机的眼睛。」

    他解释说:「大脑需要正确地对这些片段进行分组,能识别物体的正确类别和位置。反观AI只能单独感知片段式,用于交通安全监控的人工智能系统,将无法完成这项任务,这些可能会有误解,容易增加道路使用者的风险。」

    热点

    发表评论