전기차 충전소 화재 사고 대응 위한 컴퓨터 비전 기반 모니터링 시스템 개발
Development of Enhanced Computer Vision-based Monitoring Technology to Respond to Fire Accidents at Electric Vehicle Charging Stations
Article information
Abstract
최근 전기차의 보급 증가로 인하여 전기차 충전시설에 대한 수요가 높아지면서, 빌딩과 아파트 등에 신재생에너지로 생산된 전기로 전기차 충전기에 활용하는 충전스테이션이 확산되고 있다. 이로 인한, 전기차 배터리 및 부품 결함으로 화재가 발생하여 대형 화재로 번져 피해를 유발하고 있다. 그러나 현재 국내외의 연구에서는 이러한 전기차 보급에 대한 신재생에너지 공급이나 화재 절감대책은 제시되지 않고 있다. 따라서, 본 연구에서는 전기차 충전기 화재사례, 친환경 신재생충전스테이션, 가스 질식 화재 감시시스템을 포함한 도시방재 신재생에너지 전기차 충전스테이션을 제안하였다. 특히, 딥러닝과 컴퓨터비전 기술을 활용하여 전기차 충전 스테이션에서의 화재 발생을 실시간으로 모니터링하고 예방하는 방법에 중점을 둔다. 본 연구의 화재 예방 시스템을 통해 보다 안전한 친환경 에너지 공급 시스템을 구축하는 새로운 접근 방식을 제시할 것으로 기대된다. 이를 통해, 도시 환경에서의 전기차 충전 인프라의 안전성과 지속 가능성을 강화하는 동시에, 신재생에너지의 효율적 활용을 증진시킬 수 있을 것으로 예상된다.
Trans Abstract
Owing to the recent popularity of electric vehicles (EVs), EV charging facilities have become mandatory, and charging stations that use electricity produced from renewable energy sources are being actively installed in buildings and apartments. As the number of these charging stations increases, the possibility of EV batteries overheating and causing a fire, which may spread and cause damage, also rises. However, current domestic and foreign studies do not suggest new and renewable energy supply or fire reduction measures for the supply of EVs. Therefore, to propose new-renewable energy EV charging stations for urban disaster prevention, in this study, we review EV charger installation cases, eco-friendly new renewable energy-based charging stations, and AI-based fire monitoring systems and analyze their characteristics through optimal operation. Through the fire prevention system developed in this study, we anticipate a novel approach for building a safer and more sustainable green energy supply system.
1. 서 론
전기차는 정부의 구매 보조금 지원 및 세금 감면 등의 혜택으로 2023년 5월 기준 누적 등록대 수가 45만 대를 돌파하고, 전체 차량에서 차지하는 비율이 1.8%에 이르며 빠르게 성장하고 있다. 이에 정부는 전기차 충전시설을 신축 건물 주차 면수의 5%에서 2025년까지 10%로 의무 설치 비율을 확대하는 친환경 자동차법을 시행 중이다. 환경부 무공해차 통합누리집에 따르면, 국내 전기차 충전기의 보급은 2017년 13,676대에서 2022년 194,081대로 급증했으며, 특히 급속 충전기는 3,343대에서 20,641대로, 완속 충전기는 10,333대에서 173,440대로 크게 증가했다.
그러나 충전소의 확대는 새로운 안전 문제를 야기하고 있다. 전기차의 핵심인 리튬이온 배터리는 과열될 경우 최고 온도가 1,000 °C 이상으로 상승하고, 이는 짧은 시간 내에 폭발하거나 화재로 이어질 수 있다(Zhu et al., 2020). 최근 5년간 전기차 화재는 약 60건에 달하며, 이중 대다수는 전기적 요인으로 인한 것으로 나타났다(Kwak, 2023). 전기차 충전소는 일반적으로 지하에 밀폐된 공간에 구축되고 있지만, 화재 대비책은 전무한 상태이다(Choi et al., 2021; Chae, 2024). 따라서 전기차 충전소에서 실시간으로 화재를 감지하는 것이 매우 중요하다. 전통적인 화재 감지 방식은 주로 온도 및 연기 센서를 기반으로 화재 경보를 발령하는 데 초점을 맞추고 있다. 그러나 온도와 연기 센서는 초기 비용이 높고, 성능이 주변 환경 영향을 크게 받기 떄문에 오경보율이 높다는 단점이 있다(Park et al., 2022; Mahmoud and Ren, 2018).
이에 본 연구는 고급 영상 처리 기술을 활용하여 전기차 충전소에서의 화재 감지 효율을 개선하고자 한다. 구체적으로, 객체 탐지 및 포즈 추정 기법을 통해 화재 발생 시 주변 인물의 위치와 거리를 신속하게 파악하고, 이를 통해 보다 정확하고 신속한 대응이 가능한 화재 감지 및 경보 시스템을 개발하였다. 이러한 시스템은 기존의 센서 기반 접근 방식의 오탐지 한계를 극복하고, 전기차 충전소에서의 안전을 대폭 향상시킬 것으로 기대한다.
2. 관련 연구
인공지능 및 정보통신 기술의 급속한 발전은 영상처리 기술의 혁신을 촉진하고 있으며, 고도화된 화재 감지 방법에 대한 연구가 활발히 이루어지고 있다. 하지만, 이러한 기술들이 유사 대상체에 대한 오류 감지, 그리고 카메라로부터 멀리 떨어져 있거나, 작은 불꽃 감지 등 실용화되기에는 많은 문제점이 있다. 이러한 문제에 대응하기 위해, Park et al. (2020)은 Convolutional Neural Networks (CNN)을 기반으로 YOLOv5 모델에 SE (Squeeze-and-Excitation) block과 CIoU (Complete Intersection over Union) 기법을 통합한 화재 탐지 모델을 제안하였다. 이 접근법은 실시간 탐지 속도를 유지하면서도 중요한 특징을 효과적으로 추출하여 화재 모니터링의 정확도를 상당히 향상시켰다(Park et al., 2020). 그러나 일반 화재 이미지 도메인과 자동차 화재 이미지 도메인은 서로 상이하기 때문에(Zhang et al., 2022), 화재 도메인에서 학습된 모델을 전기차 충전소 화재 감지 모니터링 모델로 사용하는 것은 어려움이 있다. 이러한 문제를 해결하기 위해, Ju는 직접 구축한 전기차 충전소 화재 데이터셋을 활용하고, YOLOX-tiny 모델을 개선하여 전기차 충전소 화재 탐지 모델을 제안하였다(Ju et al., 2023). 하지만 이 모델의 FPS (Frame Per Second)은 20으로, 실시간 모니터링에는 충분하지 않다.
EV 충전소 화재 대응 연구에 대한 문제점은 위험 지역의 구체적인 지역화(localization) 기능이 부족하다는 것이다(Choi et al., 2023). 이는 피해를 최소화하고 실질적인 대응을 가능하게 하는 실용적인 모니터링 기술의 발전을 제한한다(Kulinan et al., 2024). Kang et al. (2024)은 다중 CCTV를 이용하여 화재 위치를 3D 좌표상에 추정 하는 기술을 개발하였다(Kang et al., 2024). 하지만, 이 기술은 카메라가 이동하거나 설치 각도가 변경되는 경우 공간 동기화를 설정해주어야 한다는 문제점이 있다.
이러한 배경을 바탕으로, 본 연구는 단일 영상 처리 기법의 한계를 극복하고 보다 포괄적이고 정확한 모니터링을 달성하기 위해 멀티모달 접근 방식을 탐색한다.
단순 재난 요소 탐지뿐만 아니라, 재난 및 안전 사고 대응을 위해 다수의 모델을 결합하여 한 개의 대응 정보를 제공하는 연구도 꾸준히 진행되어왔다. 인간의 안전과 생명 보존을 우선 시 하기 위해 재난 요소뿐만 아니라, pose estimation과 같은 기술을 통해 재난과 인명(사람)의 관계를 통해 위험 상황을 시각화하거나 화재 상황을 알리는 연구가 수행되었다(Park et al., 2023; Dang et al., 2024).
한편, Vision Transformer (ViT)는 이미지를 작은 패치로 분할하고 이들 간의 관계를 학습함으로써 이미지 전체의 문맥(global context)을 이해하는 최신 컴퓨터 비전 기술이다(Dosovitskiy et al., 2020). CNN이 주로 지역적 특징에 집중하는 것과 대비 전역적 문맥 이해로 인하여 ViT는 이미지 전체의 패턴과 관계를 더 잘 파악할 수 있다. 이것은 즉 오탐지율을 낮춰 탐지 정확도를 높이게 된다. 이렇게 영상처리 분야에 transformer가 도입됨에 따라, Wu et al. (2021) 이 소개한 Convolutional Vision Transformer (CvT)는 컴퓨터 비전 분야에서 ViT의 전역 문맥 이해 능력과 CNN의 지역 특징 인식 능력을 통합함으로써 중요한 발전을 나타낸다(Wu et al., 2021).이 결합은 이미지 분석의 정확도를 향상시킬 뿐만 아니라 계산 효율성도 최적화한다. ViT가 더 많은 파라미터에 의존하는 것과 달리, CvT는 줄어든 파라미터 세트를 사용함으로써 처리 속도를 가속화한다. 이 특성은 실시간 이미지 처리와 같이 빠른 성능이 요구되는 화재 탐지 및 재난 대응과 같은 상황에서 CvT가 더 우수한 성능 효율성을 보여주는 데 특히 유리하다는 것을 의미한다.
선행 연구 분석을 통해 최신 EV 충전소 화재 사고 연구의 한계점과 이를 해결할수 있는 최신 컴퓨터비전 기술을 결합하여 인명피해를 최소화하기위한 EV 충전소 화재 대응 시스템 프레임 워크를 제안하고자 한다.
3. 연구 방법
3.1 데이터 취득 및 CvT를 적용한 화재 탐지 모델
본 연구의 실험적 화재 탐지 모델은 대한민국 한국 지능정보사회진흥원(NIA)의 “화재 발생 예측 영상” 데이터를 활용하여 개발하였다. 중복된 배경이 포함된 이미지 데이터는 모델의 과적합 문제를 방지하기 위해 제외하고, 1,550개의 이미지 데이터를 확보하여 데이터셋을 구성하였다. 이 데이터셋은 학습, 검증, 테스트 용도로 3:1:1의 비율로 나누었다.
제안하는 화재 탐지 모델은(Wang et al., 2023)에 의해 개발된 YOLOv7 객체 탐지 아키텍처를 기반으로 하며, 복잡한 배경에서도 초기 화재 또는 연기와 같은 작은 객체의 정확한 인식 기능을 향상시켰다. 아키텍처의 주요 구성 요소로는 Convolution Layer, Batch Normalization Layer, 및 SiLU Activation Function을 포함하는 CBS가 있으며, 추가적으로 Edge-preserving Local Attention Network (ELAN)이 도입되어 이미지의 경계를 보존하면서 지역적 주의를 적용한다. 특히, ELAN은 특징 맵에서 중요한 영역에 집중하고, 불필요한 정보를 제거하여 탐지 성능을 향상시킨다. 이러한 특징이 다른 YOLO 기반의 모델보다 더욱 초기 대응에 효과적이고, 이 모델은 전기차 충전소에서 화재를 효과적으로 탐지하는데 필수적인 기능을 제공하며, 복잡한 배경에서의 성능 우수성을 더욱 강조한다. 본 모델의 구조는 논문의 Fig. 1에서 상세히 묘사되어 있다.
3.2 Pose estimation
Pose estimation은 주로 인체의 관절이나 부위를 추정하면서 동시에 사람을 감지하는 컴퓨터 비전의 접근방식이다. YOLO-Pose (Maji et al., 2022) YOLOv5 프레임워크를 기반으로 자세를 추정하는 방법으로 Fig. 2와 같이 인체를 총 17개의 연관된 키포인트의 위치를 시각화할 뿐만아니라, 각 keypoint의 2D 좌표에서의 위치와 추정 신뢰도(conf)도 함께 출력한다.
출력되는 결과는 각 키포인트에 대해 {x,y,conf} 형태로, 사람 한명에 대해 총 51개의 출력 결과값이 있으며 아래와 같이 각 키포인트당 한쌍으로 구성된다.
여기에서 우리는 사람의 위치값을 추정하기 위해서 L-Ankle 값과 R-Ankle 값 즉, {x15, y15}와{x16, y16}의 중심점을 사람의 위치값으로 추정한다. 본 연구에서는 YOLO-Pose의 backbone을 YOLOv7으로 치환한 모델을 사용하여 화재 또는 초기 연기 주위에 사람 유무 및 화재로부터의 거리를 확인할 수 있다.
3.3 Monocular depth estimation
연구에 사용된 MiDaS (Ranftl et al., 2020; Birkl et al., 2023) Monocular depth estimation은 단일 카메라 이미지로부터 장면의 깊이 정보를 추정하는 컴퓨터 비전 기술이다. 2D 이미지에서 대상과 대상 간의 상대적 거리나 깊이를 추정하여 실제환경에서 3차원 구조를 모델링한다. 앞서 확보한 위치값을 MiDaS를 통해 3D로 확장하여 3차원 상에서 사람과 화재 간의 거리를 계산하였다.
3.4 데이터 확보
객체탐지 모델 학습을 위한 데이터셋은 차량 화재에 특화된 공공 데이터셋의 부재로 인해, 연구진이 직접 이미지를 수집하여 데이터셋을 구축하였다. 수집된 데이터는 총 1,550장이며, 이 중 930장은 훈련용 데이터(training set), 310장은 검증용 데이터(validation set), 그리고 나머지 310장은 테스트용 데이터(test set)로 구분하여 사용하였다. 데이터 분할은 3:1:1 비율로 진행되었으며, 이는 모델의 학습 및 평가 과정에서 균형 잡힌 데이터 사용을 보장하기 위함이다.
3.5 EV 충전소 화재사고 대응 프레임워크
EV 충전소의 화재 사고를 빠르고 정확하게 탐지하고, 화재 발생 지점과 주변 대상들 간의 거리를 추정하여 재난발생 지역으로부터 주위 사람들의 피해를 최소화하기 위한 프레임워크는 Fig. 3과 같다.
본 연구에서 제안된 시스템은 입력으로 주어진 비디오의 각 프레임을 처리하여, CvT를 통해 화재를 정확하게 감지한다. 또한, Pose estimation을 활용하여 화재에 의해 가려진 사람들까지 탐지하며, 그들의 2차원 위치 좌표를 얻는다. 이어서, Monocular depth estimation을 적용하여 이러한 2차원 좌표를 3차원 공간 좌표로 변환함으로써, 재난 현장과 개별 사람 간의 거리를 정밀하게 추정한다. 이 고도화된 데이터 통합 접근 방식은 재난 발생 시 주변 사람들의 위치와 위험을 실시간으로 인지하고, 그에 따른 신속한 대응이 가능하게 한다.
4. 실험 결과 및 토론
실험은 두 개의 48 GB 그래픽 메모리로 구성된 NVIDIA RTX A6000 GPU에서 Python 버전 3.9.13인 소프트웨어 환경에서 구현되었다. 모델은 총 150 epoch 동안 훈련되었으며, 추론에서 NMS (non-maximum suppression) 및 IoU (Intersection over Union) 임계값은 각각 0.65 및 0.5로 설정하였다.
정의한 schema로부터 연기와 화재 탐지 정확도는 Table 1과 같이, SE (Squeeze-and-Excitation) (Hu et al., 2018), CA (Coordinate Attention) (Hou et al., 2021)를 활용한 기타 모델과 화재 감지 성능을 비교 분석하였다. 기본 YOLOv7 모델 대비 각각의 추가 모듈이 성능에 미치는 영향을 AP50, F1-Score, FPS 지표를 통해 평가하였다. SE와 CA 모듈을 추가한 모델들은 AP50과 F1-Score에서 소폭의 성능 향상을 보였으며, FPS는 각각 149.25와 109.89를 기록하였다. 반면, CvT 모듈을 통합한 모델은AP50에서 0.7739, F1-Score에서 0.7753을 달성하여 가장 뛰어난 성능을 보였고, 121.95 FPS로 높은 처리 속도를 여전히 유지하였다. 이 결과는 CvT 통합이 화재 감지의 정확성과 실시간 처리에 있어서 효과적임을 보여주었다.
Fig. 4와 같이 PR 커브 분석 결과, 본 연구에서 제안한 CvT 모델은 SE 또는 CA 모델에 비하여 전체적으로 높은 정밀도와 재현율을 동시에 달성하는 것을 볼 수 있다. 특히 재현율이 높은 구간에서도 높은 정밀도를 유지함으로써, CvT 모델은 실제 화재 상황에서 False Alarms의 수를 최소화하면서도 화재를 감지하는 데 놓치는 경우가 적음을 보여준다. 이는 CvT 모델이 실제 화재를 정확히 식별하고, 잘못된 경보로 인한 잠재적 혼란을 줄이는 데 효과적임을 의미한다.
Fig. 5에 전기차 충전소 화재 이미지 추론 결과를 분석하였다. Baseline과 SE를 적용한 모델은 Confidence Value가 0.5보다 낮아, 화재를 탐지하는 실패하였다. 이러한 결과는 SE 모듈이 모델의 일반화 능력을 개선하는데에 한계가 있음을 시사한다. 반면, CA 모듈을 적용한 모델과 우리가 제안하는 모델은 각각 0.58과 0.67 Confience로 화재를 탐지하였다. 이러한 높은 Confidence 값은 제안하는 모델이 탐지한 화재 결과의 신뢰도가 높음을 의미하며, 실제 화재 상황에서도 높은 정확성과 신뢰성을 기대할 수 있다.
5. 결론
본 연구에서 개발한 CvT 기반 시스템은 비디오 프레임 내 화재 탐지와 함께 가려진 인물까지 식별하는 능력을 통해, 실시간으로 재난 상황을 정밀하게 모니터링하고 위험을 평가한다. 2차원 좌표에서 3차원으로의 변환을 통해 화재와 인물 간 거리를 추정함으로써, 재난 발생 시 안전 관리 및 신속한 대응에 결정적인 정보를 제공한다. 이는 화재 감지 시스템의 신뢰성과 반응 속도를 향상시켜, 최종적으로 인명과 재산 피해를 줄이는 데 기여할 것으로 기대된다.
감사의 글
본 연구는 행정안전부 취약계층⋅시설 등 안전사고 예방 기술개발사업의 지원(RS-2022-ND630021) 및 과학기술정보통신부의 재원으로 한국연구재단의 지원(RS-2024-00336270, RS-2024-00351179) 을 받아 수행된 연구입니다.