纽约市交通摄像头众多,每日拍摄大量视频,但分析这些视频以发现安全问题并改进,常需大量资源,多数交通机构难以承担。如今,纽约大学坦顿工程学院研究人员开发出一种人工智能系统——SeeUnsafe,该系统融合语言推理与视觉智能,能自动识别现有交通视频中的碰撞及险些碰撞事故,有望改变城市改善道路安全的方式,无需大量新投资。此研究发表于《事故分析与预防》期刊,还荣获纽约市“零愿景研究奖”。

这项工作是跨学科合作的成果,体现了计算机视觉专家与交通安全研究人员的协作。SeeUnsafe系统通过自动识别碰撞和险些碰撞的地点与时间,可助交通部门精准定位危险路口和路况,提前干预。它利用预训练的人工智能模型,能理解图像和文本,是多模态大型语言模型在分析长篇交通视频方面的首批应用之一。奥兹贝教授称,纽约市摄像头众多,人工检查分析录像不现实,SeeUnsafe为市政官员提供了高效利用现有投资的方式。陈峰副教授表示,各机构无需成为计算机视觉专家,也能使用该技术。
SeeUnsafe在丰田Woven交通安全数据集上测试表现优异,能以高准确率分类视频,识别道路使用者卷入重大事件的成功率也很高。传统交通安全干预措施多在事故后实施,而该系统通过分析险些事故模式,可主动识别危险区域,提前采取预防措施。此外,系统还能生成“道路安全报告”,虽存在一些局限性,但为利用人工智能理解道路安全状况奠定了基础,未来有望推广到车载行车记录仪,实现实时风险评估。
更多信息: Ruixuan Zhang 等人,《当语言和视觉遇上道路安全:利用多模态大型语言模型进行基于视频的交通事故分析》,《事故分析与预防》(2025)。













京公网安备 11010802043282号