새로운 AI 시스템, 도시 전역 카메라 영상 활용해 교통 안전 강화

NYU 탠던 공과대학의 연구원들은 교통 카메라 영상을 분석하여 충돌과 위험 상황을 파악함으로써 도로 안전을 개선하는 AI 시스템인 SeeUnsafe를 개발했습니다.

뉴욕시의 광대한 교통 카메라 네트워크는 매일 수없이 많은 영상을 촬영하며, 지금까지 제대로 활용하기 어려웠던 귀중한 데이터를 축적하고 있습니다. 뉴욕대학교(NYU) 탠던 공과대학 연구진의 획기적인 개발로 이러한 상황이 바뀔 것입니다. 새로운 인공지능 시스템인 SeeUnsafe는 방대한 교통 영상에서 충돌과 아차 사고를 자동으로 식별하여 도로 안전을 강화하는 것을 목표로 합니다.

게재 사고 분석 및 예방 저널에 발표된 이 혁신적인 연구는 이미 뉴욕시의 비전 제로 연구상을 수상했으며, 이는 도시의 도로 안전 우선순위와 일치합니다.

토목 및 도시 공학과 교수이자 NYU Tandon의 C2SMART 센터 소장인 수석 저자 Kaan Ozbay는 올해의 연구에서 연구를 발표했습니다. 도로 연구 심포지엄 11 월 19.

SeeUnsafe는 사전 훈련된 AI 모델을 활용하여 시각적 데이터와 텍스트를 모두 이해하며, 장문 교통 비디오를 분석하기 위한 다중 모드 대규모 언어 모델의 최초 응용 프로그램 중 하나입니다.

"뉴욕시에는 24시간 내내 수천 대의 카메라가 작동하고 있습니다. 사람들이 그 모든 영상을 수동으로 검사하고 분석하는 것은 불가능합니다."라고 오즈베이는 보도자료에서 말했습니다. "SeeUnsafe는 시 공무원들에게 기존 투자를 최대한 활용할 수 있는 매우 효과적인 방법을 제공합니다."

AI 시스템은 교통 안전 관리의 심각한 허점, 즉 방대한 영상 분석에 필요한 자원의 한계를 해결합니다. SeeUnsafe는 사고 발생 장소와 시기를 파악하여 교통 기관이 심각한 사고 발생 전에 개입이 필요한 위험한 교차로와 상황을 정확히 파악할 수 있도록 지원합니다.

"기관들은 컴퓨터 비전 전문가일 필요는 없습니다. AI 기반 비디오 분석 모델을 훈련하기 위해 자체 데이터를 수집하고 분류할 필요 없이 이 기술을 사용할 수 있습니다."라고 공동 저자이자 NYU 탠던(Tandon)의 부교수이자 로봇공학 및 체현 지능 센터(Center for Robotics and Embodied Intelligence)의 공동 창립 이사인 첸 펭(Chen Feng)은 덧붙였습니다.

Toyota Woven Traffic Safety 데이터세트에서 테스트한 결과, SeeUnsafe는 다른 모델보다 우수한 성능을 보였으며, 교통사고를 76.71%의 확률로 정확하게 분류하고, 관련 도로 이용자를 식별하는 성공률은 최대 87.5%에 달했습니다.

이처럼 정확도가 높기 때문에 시스템은 교통 안전에 대한 실행 가능한 통찰력을 제공하고, 사고가 발생할 때까지 기다리지 않고도 위험 신호와 충돌 패턴을 기반으로 개선된 표지판, 더 나은 신호 타이밍, 도로 레이아웃 재설계와 같은 시기적절한 개입을 알려 사고를 예방할 수 있습니다.

이 시스템은 자연어 설명과 함께 도로 안전 보고서를 생성할 수 있는 기능을 갖추고 있어 날씨 상황, 교통량, 위험 상황이나 충돌로 이어지는 특정 움직임과 같은 요소를 설명할 수 있습니다.

물체 추적 정확도에 대한 민감성과 저조도 환경에서의 어려움 등 몇 가지 한계에도 불구하고, 연구진은 SeeUnsafe가 도로 안전 분야에서 AI가 더욱 발전할 수 있는 중요한 기반을 마련했다고 믿고 있습니다.

출처: NYU 탄돈 공학부