August 11, 2025

2025년, SEPTA의 AI 기반 버스 통행 위반 단속 시스템 전면 시행

1 min read

2023년 필라델피아에서 SEPTA는 AI 기반 카메라를 장착한 7개의 버스를 통해 새로운 단속 도구를 시험 운영했다. 70일 만에 이 카메라는 36,000대 이상의 자동차가 버스 전용 차선을 막고 있다는 사실을 적발했다.

이 파일럿 프로젝트의 결과는 교통 당국에게 버스 노선 방해에 대한 귀중한 데이터를 제공했으며, 이러한 문제를 해결하는 기술의 역할에 대한 통찰력을 얻었다.

2025년 5월, SEPTA와 필라델피아 주차 관리국은 이 프로그램을 전면 시행했다. 이제 150대 이상의 버스와 38대의 트롤리가 유사한 AI 시스템을 장착하고 있으며, 이 시스템은 전용 차선을 막는 차량을 감지하고 차량 등록 번호판을 스캔하여 위반 차량을 식별한다.

이 시스템이 위반사항을 감지하면, 인간 검토자가 이를 확인한 후에야 벌금이 부과된다. 중심 도시에서는 $76, 그 외 지역에서는 $51의 벌금이 부과된다.

이러한 단속 시스템의 출시 시점은 SEPTA가 2억 1천 3백만 달러의 예산 적자를 직면하고 있어 서비스 축소와 요금 인상이 불가피한 상황에서 이루어진 것이다.

드렉셀 대학교의 LeBow College of Business-의 응용 AI 및 비즈니스 분석 센터의 학술 책임자인 정보 시스템 교수로서, 내가 연구하는 센터는 조직이 AI를 어떻게 사용하는지와 그것이 신뢰, 공정성 및 책임감에 대해 의미하는 바에 초점을 맞추고 있다.

우리 센터가 최근 실시한 조사에 따르면, 454명의 비즈니스 리더가 응답했다. 응답자는 기술, 금융, 의료, 제조 및 정부를 포함한 여러 산업에서 왔으며, AI의 사용이 공정하고 투명하게 작동하도록 하는 거버넌스 개발보다 빠르게 전개되는 경우가 많다는 사실을 발견했다.

효율성과 감독 간의 이 격차는 공공 부문의 조직에서 특히 흔하다.

이러한 이유로 SEPTA는 공공 신뢰를 얻고 위험을 최소화하기 위해 AI 단속 시스템을 신중하게 관리하는 것이 중요하다.

버스 전용 차선이 막히면 교통 정체를 유발한다. 그로 인해 발생하는 지연은 사람들의 하루를 망칠 수 있으며, 환승을 놓치거나 근무에 늦어지는 결과를 초래할 수 있다. 이로 인해 승객들은 대중교통 시스템을 신뢰할 수 없다는 느낌을 받을 수 있다.

따라서 AI 단속이 이러한 차선을 깨끗하게 유지하는 데 도움이 된다면 그것은 긍정적인 결과이다. 버스는 더 빨리 움직이고, 출근 시간이 단축된다.

하지만 문제는 ‘좋은 의도’가 시스템이 불공정하게 느껴지거나 신뢰할 수 없을 경우 통하지 않는다는 것이다. 우리 조사에서도 70% 이상의 응답자가 자신의 데이터를 완전히 신뢰하지 않는다고 보고했다.

대중 단속의 맥락에서, 대중 교통 기관이나 주차 당국과 같은 조직의 경우 이는 경고 신호이다.

신뢰할 수 없는 데이터가 없으면, AI 기반 단속 시스템이 효율성을 비용이 많이 드는 실수로 전환될 수 있다. 그 결과 잘못된 고지서 발급, 오류 수정에 소요되는 직원 시간 손실, 심지어 법적 문제들까지 발생할 수 있다.

사람들은 과정을 정확하고 투명하게 볼 수 있을 때 규칙을 따르고 처벌을 받아들이는 경향이 있다.

또한 우리 조사에서 주목할 만한 한 가지 발견은 단 28%의 조직만이 잘 확립된 AI 거버넌스 모델을 보유하고 있다고 보고했다는 사실이다. 이 거버넌스 모델은 AI 시스템이 신뢰할 수 있고 인간의 가치에 부합하도록 하는 안전선을 제공한다.

이것은 민간 기업이 AI를 사용할 때는 문제가 덜할 수 있지만, SEPTA와 같은 공공 기관이 운전자의 면허 번호판을 살펴보고 운전자에게 티켓을 발부하는 경우에는 훨씬 더 높은 공정성과 투명성을 요구한다.

AI 기반 단속 시스템은 단속을 감지하고, 인적 검토 후 고지서를 발부하는 절차가 이루어진다.

하지만 기술을 ‘AI’라고 언급하는 것만으로도 그 인식 방식이 바뀌게 된다. 이를 프레이밍 효과라고 한다.

AI가 언급될 때 사람들은 더 적은 신뢰를 보인다. 연구에 따르면, 결과에 따라 사람들이 느끼는 신뢰가 달라지며, AI가 언급되었을 때 더 많은 결점이 보이게 된다.

따라서 공공 기관은 AI 기반 단속을 투명성과 가시적인 안전 장치, 오류를 확인할 수 있는 쉬운 방법으로 정렬할 필요가 있다. 이러한 조치는 AI 기반 단속에 대한 신뢰를 높일 수 있다.

우리는 AI 기반 단속 시스템이 오작동할 경우 어떤 결과가 발생할 수 있는지를 잘 알고 있다. 2024년 말, 뉴욕시의 메트로폴리탄 교통 당국의 AI 카메라는 잘못된 주차 티켓을 수천 장 발부했으며, 그 중 거의 900건은 운전자가 실제로 규칙을 준수하고 법적으로 주차했음을 나타낸다.

설령 그러한 오류가 드물더라도, 이는 시스템에 대한 공공의 신뢰를 손상시킬 수 있다.

경제협력개발기구(OECD)는 수십 개 국가에서 AI 정책 기준을 설정하는 국제 기관으로, 사람들은 이러한 결정이 어떻게 이루어지는지를 이해하고 실수를 도전할 수 있는 명확하고 접근 가능한 방법이 있을 때 AI 기반 결정 수용 가능성이 높아진다고 밝혔다.

결론적으로, AI 단속 도구는 사람을 위해 작동해야 하며, 단순히 규칙을 강요해서는 안 된다. SEPTA가 이를 위해 할 수 있는 방법은 다음과 같다.

– 명확한 버스 전용 차선 규칙 및 예외사항을 게시하여 사람들이 무엇이 허용되는지를 알 수 있도록 한다.

– 모든 버스 카메라 위반사항이 티켓이 발급되기 전에 필라델피아 주차 관리국 직원에 의해 검토된다는 사실과 같은 안전 장치를 설명한다.

– 관리 검토 및 항소 권리를 포함한 간단한 항소 절차를 제공한다.

– 얼마나 많은 위반사항과 항소가 처리되었는지와 같은 집행 데이터를 공유한다.

이러한 조치는 시스템이 공정하고 책임감 있다는 신호를 보내, 티켓 발급 기계처럼 느껴지기보다는 신뢰할 수 있는 공공 서비스로 인식될 수 있게 한다.

이미지 출처:metrophiladelphia