J. Korean Soc. Hazard Mitig Search

CLOSE


J. Korean Soc. Hazard Mitig. > Volume 24(6); 2024 > Article
실제 옹벽 변위를 모니터링하기 위한 자연 특징 탐지 및 매칭 기법 개발

Abstract

The detection and monitoring of key points on a retaining-wall surface using a vision camera is crucial for measuring displacement. Researchers have previously proposed adding several artificial makers to a retaining wall to monitor displacement. However, the use of artificial markers presents several disadvantages. Additionally, vision-based displacement monitoring under field conditions are typically affected by problems such as illumination variation and strong wind-induced nonstationary cameras. Therefore, this study proposes a natural-target-based feature-matching method to extract natural features from retaining walls, thus enabling displacement calculation without artificial targets. Histogram equalization and homography algorithms are used to enhance the performance of the feature-matching algorithms and improve the accuracy of displacement calculation. An image dataset from a monitoring camera installed on an actual retaining wall at Seobu Mountain, Busan, Korea, is used to evaluate the performance of natural-feature extraction and displacement calculation. The results show that the feature-matching algorithm performed well in extracting and matching the natural features of the retaining wall compared with artificial markers. Additionally, the calculated horizontal displacement, settlement, and facing displacement of the actual retaining wall based on the single-camera and natural-feature-based methods indicate a maximum overall error of 3.8 mm.

요지

카메라를 통해 옹벽 표면의 중요한 점을 탐지하고 추적하는 것은 옹벽 거동을 예측하기 위한 필수 기술이다. 옹벽 모니터링을 위해 인공 표적을 사용하는 여러 방법이 제안되었지만 단점이 존재한다. 또한 현장의 옹벽은 모니터링 할 때 조도에 따른 영상 품질 저하와 바람으로 인한 카메라 움직임과 같은 문제가 발생하게 된다. 따라서 본 연구에서는 옹벽의 자연 특징을 추출하여 인공 표적 없이 변위를 계산하는 특징 매칭 및 자연 영상 특징 검출방법을 제안하였다. 특징 매칭 알고리즘의 성능과 변위 계산의 정확도를 향상시키기 위해 히스토그램 균등화 및 호모그래피 알고리즘이 사용되었다. 이와 같은 기술을 실제 옹벽 현장에 적용하여 자연 특징 추출 및 변위 계산의 성능을 평가하였다. 그리고 인공 표적 대신 옹벽의 자연 특징을 추출하고 매칭한 결과 특징 매칭 알고리즘의 우수한 성능을 나타내는 것을 확인하였다. 개발된 기술을 실제 옹벽 현장에 적용한 결과 옹벽의 수평 변위, 침하 및 표면 변위의 최대 오차는 3.8 mm 범위로 분석되었다.

1. 서 론

옹벽은 경사진 지형에서 지반의 붕괴나 낙석을 방지하기 위해 필수적으로 설치되는 구조물로, 도시 및 농촌 지역 모두에서 널리 사용되고 있다. 이러한 구조물은 도로, 철도, 주택 등 인프라를 보호하고 토지 활용을 극대화하는 데 중요한 역할을 한다. 옹벽은 경사지의 안정성을 유지하는 데 신뢰성 있고 효과적인 해결책으로 오랫동안 활용되어 왔지만, 다양한 원인으로 인해 변위 발생과 그로 인한 구조적 손상 및 붕괴 사례가 빈번하게 보고되고 있다(Collin, 2001; Ling et al., 2001; Hossain et al., 2009; Allen and Bathurst, 2014).
국내에서도 옹벽 붕괴 문제는 심각한 사회적, 경제적 영향을 미치고 있다. 최근 보고된 옹벽 붕괴 사례에 따르면, Fig. 1과 같이 2010년부터 2022년까지 총 96건의 옹벽 붕괴가 발생했다(Park and Lee, 2012; Kim et al., 2013; Rahardjo et al., 2020). 이 중 44건은 보강토 옹벽, 34건은 석축 옹벽, 18건은 콘크리트 옹벽으로 분류되었다. 강우로 인한 붕괴가 82건으로 전체 붕괴의 85%를 차지하고 있다. 이러한 통계는 강우가 옹벽 붕괴의 주요 원인임을 시사한다. 특히 기후 변화로 인해 집중호우가 빈번해짐에 따라 옹벽의 안정성 문제가 더욱 부각되고 있다.
Fig. 1
The Statistic of Collapsed Retaining Wall in Korea from 2010 to 2022
kosham-2024-24-6-337gf1.jpg
따라서 옹벽의 안정성을 확보하기 위해 다양한 모니터링 기술이 개발되고 있다. 이를 위해 가속도계, 응력계, 광섬유 센서, 초음파 센서와 같은 센서 기반의 접촉식 모니터링 방법이 옹벽 모니터링에 사용되어 왔다(Riccio et al., 2014; Admassu et al., 2019; Rebhan et al., 2019; Rahardjo et al., 2020; Nicotera and Russo, 2021). 또한, 라이다와 광학 카메라 시스템을 적용하여 옹벽의 상태를 평가하고 3차원 포인트 클라우드 모델을 구축한 사례도 존재한다(Lienhart, 2017; Lin et al., 2019; McGuire et al., 2017; Kalenjuk et al., 2021). 이러한 기술들은 높은 신뢰도를 제공하지만, 설치, 운영, 유지보수 비용이 높으며, 생성된 영상 데이터를 처리하는 데 시간이 오래 걸리고 높은 계산 자원이 필요하다는 단점이 있다.
최근에는 인공 표적(artificial target)을 활용하여 옹벽 및 지반 변위를 2차원 및 3차원으로 측정하는 영상 처리 기반 모니터링 기술이 활발히 연구되고 있다(Tung et al., 2013; Oats et al., 2017; Pham and Kim, 2022; Ha et al., 2023; Pham, Song et al., 2023; Pham, Ha et al., 2023; Pham et al., 2024). 그러나 이러한 기존 연구들은 실제 환경에 적용하여 구조물을 모니터링할 때 몇 가지 한계를 가지고 있다. 첫째, 인공 표적 기반 방법은 픽셀에서 특징을 검출하고 그 변화를 추적하여 변위를 계산하는데, 실제 옹벽 구조물에 적용할 경우 인공 표적을 부착하는 과정이 번거롭고, 구조물의 미관을 저해하며 시간이 지남에 따라 표적이 떨어지거나 색이 변하는 문제점이 있다. 둘째, 라이다와 광학 카메라 시스템은 좋은 조도 조건에서만 높은 성능을 발휘한다. 그러나 하루 중 조도 변화나 나무 그늘, 태양의 위치 변화로 인한 밝기 및 영상 품질 저하로 인해 모델이 정상적으로 작동하지 않거나 큰 측정 오류가 발생할 수 있다. 셋째, 카메라를 고정된 위치에 설치하더라도 강풍 등의 외부 요인으로 인해 미세한 진동이 발생할 수 있다. 이러한 비정지(non-stationary) 카메라 움직임은 변위 계산 시 상당한 오차를 유발할 수 있다.
따라서 이러한 한계를 극복하기 위해, 본 연구에서는 조도 변화 및 카메라 움직임과 같은 다양한 조건에서도 영상(image) 품질을 향상시킬 수 있는 자연 특징(natural feature) 기반 접근법과 영상 처리 기술을 결합한 방법을 제안하였다. 그리고 카메라 움직임으로 인해 변형된 영상을 보정하는 알고리즘을 사용하여 정확한 변위 계산이 가능하도록 하였다.

2. 연구지역

Fig. 2는 부산에 위치한 높이 약 5.1 m, 길이 200 m의 콘크리트 옹벽을 나타낸다. 급경사지 붕괴와 같은 자연재해에 선제적으로 대응하기 위해 2002년에 설치되었다. 따라서 연구지역으로 선정된 옹벽의 모니터링을 수행하기 위해 카메라 시스템을 설치하였고 카메라 사양은 Fig. 3과 같다. 해상도가 1980 × 1080픽셀인 카메라로, 보강토 옹벽 앞에 설치되어 있으며 적외선 LED가 장착되어서 24시간동안 자동으로 비디오를 녹화할 수 있다. Smart viewer 프로그램을 연결하여 영상을 실시간으로 다운 받을 수 있다. 연구를 위해 두 개의 카메라로부터 수집된 영상 데이터를 활용하여 자연 특징 감지 및 변위 계산의 성능을 평가하였다.
Fig. 2
Location of Retaining Wall at Seobu Mountain, Busan, Korea
kosham-2024-24-6-337gf2.jpg
Fig. 3
The Specification of Vision Camera
kosham-2024-24-6-337gf3.jpg

3. 방법론

Fig. 4는 영상 처리 기법과 특징 매칭 알고리즘을 사용하여 자연 특징 검출 및 변위 계산을 위한 방법론이다. 먼저 영상 왜곡 제거를 통해 촬영 장비나 환경에 의해 발생한 왜곡을 보정하고, 영상을 보다 정밀하게 분석할 수 있도록 한다. 비정상 영상 보정을 통해 비정지 카메라 움직임이나 환경 변화로 인해 발생한 영상의 불안정성을 교정하여 안정적인 데이터를 확보한다. 또한, 히스토그램 균등화를 이용하여 영상의 품질을 향상시켜 보다 선명한 영상 처리를 가능하게 한다. 이러한 전처리 과정이 완료된 후, 특징 매칭 알고리즘을 사용하여 입력된 영상 내의 자연 특징을 검출 및 추적한다. 이를 통해 영상 내의 고유한 자연 특징을 찾아내고, 각 영상 사이에서 해당 특징들을 추적하여 옹벽의 변위나 변형을 분석할 수 있는 데이터를 생성한다. 마지막 단계로 이상치(outlier) 매칭 제거과정을 통해 검출된 특징들 중 오류나 부정확한 매칭을 제거하여 최종적으로 정확한 변위 계산을 수행한다.
Fig. 4
Flowchart of Natural Feature Detection and Displacement Calculation
kosham-2024-24-6-337gf4.jpg

3.1 영상 전처리 기술

3.1.1 영상 왜곡 제거

영상 왜곡은 비전 카메라를 사용하여 구조물 모니터링을 수행할 때 발생하는 문제이다. 영상 왜곡은 영상의 직선이 비 자연스럽게 변형되거나 곡선으로 보일 때 발생한다. 영상 왜곡 수준은 사용된 카메라 렌즈의 특성에 따라 다르므로 변위 계산의 정확도를 높이기 위해 카메라에 의해 촬영된 원본 영상은 영상 왜곡 제거를 수행해야 한다. 이러한 왜곡은 주로 렌즈의 곡률, 초점 거리, 그리고 빛의 비선형적인 굴절로 인해 발생한다. 특히 광각 렌즈는 배럴 왜곡(직선이 바깥으로 굽는 현상)을, 망원 렌즈는 핀쿠션 왜곡(직선이 안쪽으로 굽는 현상)을 유발하며, 렌즈와 센서의 정렬이 완벽하지 않을 경우 왜곡이 더욱 심해질 수 있다. 따라서 영상 왜곡 모델은 Eqs. (1), (2), (3)를 사용한다.
(1)
[uv]=[fxx+cxfyy+cy]
(2)
[xy]=[x(1+k1r2+k2r4)+2p1xy+p2(r2+2x2)y(1+k1r2+k2r4)+p1(r2+2y2)+2p2xy]
(3)
r2=x2+y2,[xy]=[Xc/ZcYc/ZC]
여기서(cx.cy)는 영상의 주요 지점 좌표이고, (fx,fy)는 초점 길이, (u,v)는 픽셀 단위로 투영 지점 좌표, (XcYc.Zc,)는 카메라 좌표계의 투영 지점 좌표, k1k2 방사 왜곡 계수를 나타내며, p1p2 접선 왜곡 계수를 나타낸다. 이러한 계수들은 스테레오 카메라의 보정 과정을 통해 결정된다. 실험에서 사용된 카메라 보정 절차는 Zhengyou의 방법(Zhengyou, 1998)을 사용하였다.

3.1.2 비정지 영상 교정

모니터링 카메라는 영상 녹화를 위해 옹벽 앞에 항상 고정되어 있었지만, 실제 상황에서는 강한 바람과 비 등 외부 자연 요인의 영향으로 인해 카메라의 시야가 이동하고 회전할 수 있다. 따라서 변위를 계산하기 전에 비정지 영상의 정렬이 필요하다. 이를 위해 서로 다른 시점에서 동일한 평면 표면을 촬영한 두 영상을 변환하는 호모그래피 알고리즘(Fig. 5)이 사용되었다(Hartley and Zisserman, 2003). 하지만 시야 이동이 이미지 크기의 20~30%를 초과하거나, 회전 각도가 수평± 45°, 수직± 30° 이상일 경우 매칭 정확도가 떨어질 수 있다.
Fig. 5
Image Perspective Transformation Using Homography Matrix
kosham-2024-24-6-337gf5.jpg
이 알고리즘은 한 영상의 점을 다른 영상의 해당 점에 매핑하여 카메라 움직임으로 인한 영상 이동을 제거할 수 있으며, Eq. (4)를 통해 구현된다.
(4)
[u0v01]=H[uivi1]=[h11h12h13h21h22h23h31h32h33][uivi1]
여기서, (u0,v0)는 초기 영상의 점 좌표, (ui,vi)는 보정된 영상의 점 좌표, H는 호모그래피 행렬이다.

3.1.3 히스토그램 균등화를 사용한 영상 개선

히스토그램은 디지털 영상에서 픽셀의 강도 분포를 나타내며, 영상 전체에서 각 강도 값에 해당하는 픽셀 수를 시각적으로 표현한다. 히스토그램은 밝기 수준별(검정부터 흰색까지) 픽셀 수를 나타내며, 특정 밝기 수준에서 픽셀 수가 많을수록 해당 밝기에서의 피크가 더 높아진다. 히스토그램 균등화는 영상 대비(image contrast)를 향상시키기 위한 컴퓨터 영상 처리 기법이다. 영상 대비가 높을수록 명암의 차이가 크고, 대비가 낮을수록 명암의 차이가 적다. 영상의 유용한 데이터가 비슷한 대비 값으로 표현될 때 전체적인 대비를 높여준다. 이 방법을 통해 국부적인 대비가 낮은 영역도 더 높은 대비를 얻을 수 있게 된다. 예를 들어, 명암이 비슷한 구간에 집중되어 있던 픽셀 값이 균등화 과정을 거치며 영상의 전역적 대비가 향상되고, 실제 환경에서 측정된 것과 유사한 형태로 영상 데이터를 재현할 수 있게 된다. 이러한 과정은 어두운 부분과 밝은 부분이 모두 선명해지면서 실제 현장의 측정값과 더 가까운 이미지를 생성한다(Hum et al., 2014).
이와 같이 히스토그램 균등화 적용 전후 옹벽 영상의 픽셀 강도 분포를 비교하는 그림을 Fig. 6와 같이 나타내었다. 가로축은 회색 강도 값을, 세로축은 영상 내 픽셀 수를 나타낸다. 하지만 원본 이미지의 픽셀 분포가 특정 intensity 값에 편향되어 있다면, 균등화 후에도 완벽하게 균등한 분포를 얻기 어려운 한계가 있다.
Fig. 6
Histogram Distribution of the Retaining Wall Image Before and After Applying the Histogram Equalization Technique
kosham-2024-24-6-337gf6.jpg

3.2 AKAZE 알고리즘을 이용한 옹벽의 자연 특징 탐지 및 매칭

자연 특징은 옹벽 표면의 관심점 또는 키포인트라고도 불린다. 이러한 특징은 일반적으로 비전 영상에서 모서리, 얼룩, 가장자리, 교차점, 선 등에서 식별된다. 본 연구에서는 이러한 특징을 검출하고 매칭하기 위해 AKAZE 기반 특징 검출기를 적용하였다. AKAZE 알고리즘은 비선형 확산 필터링을 통해 노이즈를 제거하면서도 영상 경계를 효과적으로 유지하며, 회전 및 스케일 변화에 대한 불변성을 제공하는 것으로 잘 알려져 있다(Ha et al., 2022). 이를 통해 다양한 각도와 거리에서도 일관된 특징 매칭이 가능하며, 실제 환경에서 발생하는 카메라 위치나 시각 변화에도 대응할 수 있다. 또한, 다중 스케일 분석을 통해 서로 다른 크기의 객체를 처리할 수 있으며, 계산 시간이 다소 증가하더라도 더 높은 차별성을 제공한다(Ha et al., 2023).
AKAZE 검출기는 여러 스케일 수준에서 계산된 헤시안 행렬(Hessian Matrix)의 스케일 정규화된 결정을 기반으로 하여, 검출기 반응의 최대값을 이동 윈도우(moving window)로 추출해 특징 점으로 선택한다. 각 특징 주변의 원형 영역에서 지배적인 방향을 찾아 회전 불변성을 적용하며, 이는 국부적 적응성을 통해 영상 처리에서 더욱 높은 정확도를 제공한다. 이러한 특성 덕분에 AKAZE는 옹벽의 자연 특징을 기반으로 한 변위 분석에 적합하다. Eq. (5)는 표준 비선형 확산 공식을 나타낸다.
(5)
Lt=div(c(x,y,t).L)
여기서 c는 전도도 함수(conductivity function), div는 발산, ∇는 기울기 연산자이며, L은 영상 조도이다.
각 영상에서 검출된 특징은 인 라이어(inlier)와 아웃라이어(outlier) 매칭으로 나뉘기 때문에, 신뢰할 수 있는 변위 계산을 위해 아웃라이어 매칭을 제거해야 한다. 본 연구에서는 브루트 포스(brute-force) 탐색 알고리즘을 이용하여 최근접 이웃 거리 비율(nearest neighbor distance ratio)을 특징 매칭 전략으로 적용하였으며, RANSAC 알고리즘을 통해 아웃라이어를 제거하였다. 구체적으로, 각 특징 디스크립터(descriptor)에 대해 첫 번째 최근접 이웃과 두 번째 최근접 이웃 간의 비율을 계산하고, 설정된 임계값을 기준으로 선호되는 매칭을 필터링하였다. 본 연구에서는 임계값 비율을 실험적으로 널리 사용되는 0.7로 설정하여 최적의 매칭 결과를 도출하였다.

3.3 자연 특징 및 단일 카메라 기반의 변위 측정

옹벽의 변위를 모니터링하기 위해, 옹벽 표면의 세 개의 관심 영역(region of interest, ROI)을 선택하였다(ROI-01, ROI-02, ROI-03). 이는 Fig. 7(a)에 나타난 것처럼 시간에 따른 연속 프레임을 통해 선택되었다. 선택된 ROI를 기준으로, AKAZE 기반 특징 매칭 기법을 사용하여 ROI 영역에서 자연 특징을 자동으로 검출한 후, 다음 프레임에서 해당하는 점을 찾는다. 연속된 프레임 간에 동일한 영상 평면에서의 수평 변위(OY 방향)와 침하(OX 변위)는 Eq. (6)에 제시된 유클리드 거리 공식을 사용하여 픽셀 단위로 계산된다.
Fig. 7
Procedure of Calculating the Displacement Using a Natural Target: (a) Feature Matching in the Selected ROI for Displacement Calculation; (b) Pinhole Camera Model and Calculation Model of the Distance form the Camera to the Retaining Wall
kosham-2024-24-6-337gf7.jpg
(6)
Δx=i1n(xi0xik)n;Δy=i=1n(yi0yik)n
여기서 ΔxΔy 수평 변위 및 침하, xi0yik 연속된 두 프레임의 계산된 특징점 i의 좌표이고, n은 ROI 영역 내의 특징 갯수이다.
픽셀 단위의 특징 좌표를 실제 단위로 전환하기 위해 핀홀 카메라 모델(pinhole camera model)의 투영 변환을 사용하였으며 Eq. (7)과 같다.
(7)
Z[xy1]=[fx0cx0fycy001][XYZ]
여기서 (X,Y)는 실제 공간에서의 좌표, (x,y)는 픽셀 단위의 투영 지점 좌표, Z는 카메라에서 보강토 옹벽까지의 거리(Z 방향)이다.
Fig. 7(b)는 핀홀 카메라 모델과 카메라에서 옹벽까지의 거리를 계산한 모델을 보여준다. 단일 카메라를 옹벽 앞에 설치하여 사용함으로써, 옹벽이 이동하기 전후의 카메라와 옹벽 사이의 거리는 Eq. (8)을 사용하여 계산되었다. 이후, 옹벽의 정면 변위(OZ 방향)는 Eq. (9)를 통해 계산되었다.
(8)
tanθ1tanθ2=ZiZ0=H0HiZi=Z0H0Hi
(9)
Δz=ZiZ0=Z0(H0Hi1)
여기서, H0, Hi3는 옹벽 이동 전 후 영상의 ROI 높이(픽셀), Z0, Zi는 옹벽 이동 전후의 카메라에서 보강토 옹벽까지 거리이다.
위에서 설명한 절차를 바탕으로, 시간에 따른 변위를 자동으로 계산할 수 있는 프로그램을 Python으로 개발하였다

4. 데이터 셋(data set)

옹벽의 자연 표적을 검출하고, 선택된 모니터링 구역의 시간에 따른 변위 측정을 위해 Camera-01과 Camera-02로부터 기록된 영상 데이터 셋(data set)을 활용하였다. 두 카메라는 옹벽 좌우측에 각각 설치되었으다. 1920 × 1080 해상도의 RGB 영상이 7일 동안(2024년 1월 5일~2024년 1월 12일) 연속으로 기록되었다. 실제 옹벽의 거동에 큰 변화가 없기 때문에 시간에 하나의 영상을 선택하여 하루에 총 24장의 영상을 분석 대상으로 사용하였다. 특징 매칭 알고리즘의 성능을 평가하기 위해 사용된 영상 데이터 셋은 조도 조건, 태양 위치 변화, 강우 상태, 그리고 나무 그늘이 영상에 미치는 영향 등 다양한 현장 조건의 변화를 포함하고 있다.
Fig. 8은 각 카메라의 영상에서 자연 특징을 추출하고 옹벽의 변위를 계산하기 위해 선택된 세 개의 모니터링 영역(ROI)을 보여준다.
Fig. 8
Three Natural Targets (NT-01, NT-02, and NT-03) Corresponding to Three Monitoring Areas (ROI) on Surface of the Retaining Wall at the Monitoring Area of Camera-01
kosham-2024-24-6-337gf8.jpg

5. 연구 결과

5.1 영상에서 자연 특징 감지의 성능

Fig. 9는 두 대의 모니터링 카메라에서 24시간 동안 촬영한 옹벽 영상의 인라이어 매칭 특징 갯수를 비교한 결과를 나타낸다. 8시부터 17시까지의 낮 시간 동안 촬영된 원본 영상에서는 474개에서 16,746개의 특징이 검출되었다. 그러나 히스토그램 균등화를 통해 영상 품질이 향상된 영상에서 검출된 인라이어 매칭 특징 갯수는 1,230개에서 35,098개로 분포하였다. 이는 히스토그램 균등화를 통해 영상의 대비가 향상됨으로써, 특징 매칭 성능이 크게 개선되었음을 의미한다.
Fig. 9
The Performance of AKZE-Based Feature Detection Algorithm Before and After Using Histogram Equalization
kosham-2024-24-6-337gf9.jpg
Fig. 9는 두 대의 모니터링 카메라에서 24시간 동안 촬영한 옹벽 영상의 인라이어 매칭 특징 갯수를 비교한 결과를 나타낸다. 8시부터 17시까지의 낮 시간 동안 촬영된 원본 영상에서는 474개에서 16,746개의 특징이 검출되었다. 그러나 히스토그램 균등화를 통해 영상 품질이 향상된 영상에서 검출된 인라이어 매칭 특징 갯수는 1,230개에서 35,098개로 분포하였다. 이는 히스토그램 균등화를 통해 영상의 대비가 향상됨으로써, 특징 매칭 성능이 크게 개선되었음을 의미한다.
또한, Fig. 10은 영상의 매칭 점수(검출된 특징 갯수 대비 인라이어 특징 갯수의 비율)를 보여준다. Camera-01의 모니터링 영상에서는 매칭 점수가 0.92에서 1.0 사이로, Camera-02에서는 0.78에서 1.0 사이로 분포하였다. 이는 영상 개선이 전반적인 매칭 성능을 크게 향상시켰음을 나타내며, 두 카메라에서 모두 일관된 성능 향상을 확인할 수 있다.
Fig. 10
The Matching Score of Feature Matching Algorithm of Monitoring Image from Camera- 01 and Camera- 02 view
kosham-2024-24-6-337gf10.jpg
그러나 저조도 환경인 18시부터 7시까지의 시간대에는 히스토그램 균등화 알고리즘을 적용한 영상에서도 모델이 효과적으로 작동하지 않는 한계가 있었다. 이는 조도가 부족한 환경에서 특징 검출과 매칭 성능이 감소하는 현상으로, 영상 개선 기법이 주로 낮 시간 동안 효과적임을 시사한다. 특히, 12시부터 16시 사이에는 태양광의 위치 변화로 인해 검출된 특징 갯수가 감소하는 경향이 관찰되었으며, 이로 인해 인라이어 매칭 특징 갯수가 고르지 않게 분포하는 패턴을 나타냈다.
결론적으로, 히스토그램 균등화는 낮 시간 동안 옹벽의 특징 매칭 성능을 크게 향상시키는 데 효과적이었지만, 저조도 환경에서는 여전히 성능 저하가 발생하며, 태양 위치에 따라 변동성이 존재한다는 점을 확인하였다. 이러한 결과는 향후 영상 처리 및 분석 시 저조도 및 태양 입사각 변화와 같은 요소를 고려한 추가적인 개선이 필요하다.

5.2 인공 표적과 자연 표적에 대한 특징 매칭 성능 비교

Fig. 11은 인공 표적(AT-01에서 AT-20) 20장의 영상을 나타낸다. 자연 표적과 기존에 제안된 인공 표적 간의 특징 매칭 성능을 비교하기 위해 20가지 유형의 인공 표적을 선정하여 특징 매칭 기법을 적용하였다. 옹벽 표면의 자연 표적은 Fig. 8에 제시된 세 개의 관심 영역(ROI-01, ROI-02, ROI-03)으로 선택되었으며, 각 ROI의 크기는 170 × 170 픽셀이다. Fig. 12는 인공 표적과 자연 표적에서의 다양한 특징 검출 및 매칭 결과를 시각적으로 보여준다.
Fig. 11
The Most Notable Marker Systems
kosham-2024-24-6-337gf11.jpg
Fig. 12
Example of Implementing Feature Matching
kosham-2024-24-6-337gf12.jpg
Fig. 13은 20개의 인공 표적과 세 개의 자연 표적에서 특징 매칭 알고리즘을 통해 검출된 특징 갯수를 보여준다. 인공 표적에서 검출된 인라이어 매칭 특징 갯수는 0에서 1,717개로 분포되었고, 자연 표적에서는 214에서 276개의 특징이 검출되었다. 이 결과는 자연 표적에서 검출된 매칭 특징 갯수가 인공 표적에서 검출된 특징 갯수의 범위 내에 있음을 나타낸다. 이는 자연 표적이 인공 표적과 비교해서 변위 측정 및 표면 변화 추적에 충분한 특징을 제공할 수 있음을 나타낸다. 특히, 자연 표적의 경우 환경 변화(조도 변화, 그림자, 비 등)에도 불구하고 안정적인 특징 매칭을 제공하는 것으로 나타났다. 이는 자연 표적을 기반으로 한 변위 추적이 인공 표적에 의존하지 않고도 충분히 신뢰할 수 있음을 보여준다.
Fig. 13
The Performance of the Feature-matching Algorithm on Artificial and Natural Targets
kosham-2024-24-6-337gf13.jpg
따라서 자연 표적 기반 특징 매칭 방법은 인공 표적을 부착하거나 관리할 필요 없이 옹벽 변위 측정에 충분한 정확도를 제공하며, 실제 현장에서 보다 효율적이고 경제적인 모니터링 수단으로 활용될 수 있을것으로 분석된다.

5.3 옹벽의 변위 측정 결과

7일 동안 두 대의 카메라를 이용해 옹벽 표면을 촬영하고, 세 개의 관심 영역(Region of Interest, ROI)을 설정하여 분석을 진행하였다. 각 관심 영역에서는 특징 매칭 알고리즘을 사용해 자연적인 특징을 추출하였고, 이를 바탕으로 히스토그램 균등화를 적용하기 전후의 영상에서 수평 변위, 침하, 정면 변위를 계산하였다(Figs. 14~15). 각 그림에서 (a)는 수평 변위, (b)는 침하, (c)는 정면 변위, (d)는 계산된 변위의 전체 오차를 나타낸다. 총 336장의 영상을 분석하여 시간 경과에 따른 변위를 계산한 결과, 옹벽에서는 실제 변위가 관찰되지 않았다. 따라서 본 연구에서 계산된 변위 값은 옹벽의 물리적인 변위가 아니라, 제안된 변위 계산 방법의 오차로 해석된다.
Fig. 14는 Camera-01을 분석한 결과를 나타낸다. ROI 1에서 히스토그램 균등화를 적용함으로써 수평 변위 오차가 64.93% 감소하고, 침하 오차가 66.86%, 정면 변위 오차가 72.29% 감소하였다. ROI-02는 수평 변위 오차가 62.52%, 침하 오차가 70.9%, 정면 변위 오차가 55.01% 감소하였다. ROI-03에서는 수평 변위 오차가 62.52%, 침하 오차가 70.9%, 정면 변위 오차가 55.01% 감소하는 경향을 나타냈다. 그리고 Fig. 15은 Camera-02로 분석한 결과로, ROI-01에서는 수평 변위 오차가 67.51% 감소하고, 침하 오차가 66.41%, 정면 변위 오차가 70.91% 감소하였다. ROI-02에서는 수평 변위 오차가 64.87% 줄어들고, 침하 오차가 55.51%, 정면 변위 오차가 58.54% 감소하였다. 마지막으로, ROI-03은 수평 변위 오차는 69.43% 감소, 침하 오차는 55.7%, 정면 변위 오차는 65.63% 감소하는 것을 확인하였다. 이와 같은 결과는 히스토그램 균등화가 영상의 변위 측정에서 발생하는 오차를 상당히 줄이는 데 효과적임을 입증한다. 즉 각 관심 영역에서의 변위 오차를 크게 개선하여 더욱 일관된 변위 측정 결과를 제공할 수 있음을 나타낸다. 특히 히스토그램 균등화는 수평 변위뿐만 아니라 침하와 정면 변위에서도 유사한 오차 감소 효과를 나타내며, 다양한 영상 환경에서 활용할 수 있다는 것을 보여준다.
Fig. 14
The Result of Calculated Horizontal Displacement, Settlement, and Facing Displacement in the Retaining Wall’s OX, OY, and OZ Directions Before and After Histogram Equalization (Camera-01)
kosham-2024-24-6-337gf14.jpg
Fig. 15
The Result of Calculated Horizontal Displacement, Settlement, and Facing Displacement in the Retaining Wall’s OX, OY, and OZ Directions Before and After Histogram Equalization (Camera-02)
kosham-2024-24-6-337gf15.jpg
히스토그램 균등화를 적용한 영상의 전체 오차 분석 결과를 분석하면 Camera-01에서 측정된 변위의 최대 오차는 3.7 mm (Fig. 14(b)), Camera-02에서는 3.8 mm (Fig. 15(b))로 분석되었다. 이러한 오차는 카메라의 미세한 진동, 조도 변화 및 환경적 요인에 의해 발생한 것으로 분석되었다. 다양한 보정 기술을 적용했음에도 불구하고 약간의 오차는 여전히 존재하는 것으로 확인되었다. 접촉식 모니터링의 경우 오차는 일반적으로 1 mm 미만이고, 비접촉식 모니터링에서는 0.5 mm에서 5 mm 범위의 오차는 허용된다(Fathi et al., 2015; Pan, 2018; Yoneyama et al., 2007; Choi et al., 2011).
따라서 본 연구에서 발생한 오차는 옹벽과 같은 대형 구조물의 변위를 감지하는 데 허용될 수 있는 수준이다. 그러나 다양한 요인에 의해 발생하는 오차를 줄이고 신뢰성을 높이기 위해서는 실내시험을 통해 추가적인 연구가 필요하며, 다중 카메라 시스템을 도입하면 정확도를 더욱 향상시킬 수 있을 것으로 판단된다.

6. 결 론

본 연구는 실제 옹벽을 대상으로 AKAZE 기반 특징 매칭 알고리즘과 영상 처리 기법을 적용하여 자연 특징을 활용한 변위 모니터링을 수행하였으며, 다음과 같은 주요 결론을 얻었다.
  • 1) 히스토그램 균등화 알고리즘이 적용된 영상에서 특징 매칭의 성능이 원본 영상보다 현저히 뛰어났으며, 낮 시간 동안 검출된 자연 특징 갯수가 원본 영상에 비해 크게 증가하였다. 예로서 히스토그램 균등화 알고리즘이 적용된 영상에서는 1,230개에서 35,098개 사이의 특징이 검출된 반면, 원본 영상에서는 474개에서 16,746개의 특징이 검출되었다. 이는 영상 개선이 옹벽 변위 모니터링에 있어 정확도를 크게 향상시킬 수 있음을 나타낸다.

  • 2) AKAZE 기반 특징 매칭 알고리즘의 성능이 인공 표적을 사용하는 방식만큼 우수하다는 결과가 도출되었다. 인공 표적과 자연 표적 간의 비교에서, 인공 표적의 인라이어 매칭 특징 갯수는 0개에서 1,717개로 나타났으나, 자연 특징 기반 방식에서는 214개에서 276개 사이로 안정적인 매칭 성능을 보였다. 이는 자연 표적이 인공 표적을 대신하여 옹벽 표면의 변화를 추적하고 변위를 측정하는 데 충분한 신뢰성을 제공한다는 것을 의미한다.

  • 3) 연구 지역에 제안된 모니터링 기법을 적용하여 히스토그램 균등화 기법이 옹벽 표면의 변위 측정에서 발생하는 오차를 줄이는 데 효과적임을 입증하였다. 두 대의 카메라를 통해 수집된 영상에서 세 개의 관심 영역(ROI)에 대해 분석한 결과, 히스토그램 균등화 적용 후 수평 변위, 침하, 정면 변위의 오차가 각 영역에서 55% 이상 감소하였다. 최대 오차는 Camera-01의 경우 3.7 mm, Camera-02의 경우 3.8 mm로 분석되었다. 이러한 수준의 오차는 비접촉식 모니터링 방식에서 허용 가능한 범위에 해당하며, 특히 옹벽과 같은 대형 구조물의 변위를 감지하는 데 적합하다고 판단된다. 다만, 카메라 진동, 조도 변화와 같은 환경적 요인으로 인한 오차를 최소화하기 위해 추가적인 보정 기법의 적용이 필요하다. 향후 다중 카메라 시스템을 통한 정확도 향상 방안이 제안될 수 있으며, 이를 통해 장기적인 구조물 모니터링 시스템의 신뢰성을 더욱 높일 수 있을 것으로 기대된다.

  • 4) 제안된 방법은 실제 옹벽의 변위를 모니터링할 수 있으며, 현장 환경에서 성공적인 검증을 통해 실무적 적용 가능성을 입증하였다. 하지만 저조도 환경에서는 IR LED를 장착한 카메라를 사용하더라도 성능 저하가 발생하였으며, 야간 모니터링에서 한계가 있다. 이는 향후 연구에서 개선이 필요한 부분으로, 개선된 알고리즘을 도입하여 저조도 환경에서도 안정적인 변위 측정이 가능하도록 하는 것이 중요하다.

감사의 글

본 연구는 정부(과학기술정보통신부)의 재원으로 한국연구재단의 지원(RS-2024-00347170)을 받아 수행되었고, 또한 행정안전부의 재원으로 한국산업기술평가관리원(No. K_G012001951201) 및 2024학년도 국립부경대학교 4단계 BK21 대학원혁신사업 지원을 받아 수행되었으며, 이에 깊은 감사를 드립니다.

References

1. Admassu, K.A, Lynch, J.P, Athanasopoulos-Zekkos, A, and Zekkos, D (2019) Long-term wireless monitoring solution for the risk management of highway retaining walls. In Nondestructive Characterization and Monitoring of Advanced Materials, Aerospace, Civil Infrastructure, and Transportation XIII. SPIE, Vol. 10971, pp. 1097103.

2. Allen, T.M, and Bathurst, R.J (2014) Design and performance of 6.3-m-high, block-faced geogrid wall designed using K-stiffness method. Journal of Geotechnical and Geoenvironmental Engineering, Vol. 140, No. 2, pp. 04013016.
crossref
3. Atcheson, B, Heide, F, and Heidrich, W (2010) CALTag:High precision fiducial markers for camera calibration. VMV 2010 - Vision, Modeling and Visualization, pp. 41-48 https://doi.org/10.2312/PE/VMV/VMV10/041-048.

4. Bergamasco, F, Albarelli, A, and Torsello, A (2011) Pi-Tag:A fast image-space marker design based on projective invariants. Machine Vision and Applications, Vol. 24, pp. 6-1295 https://doi.org/10.1007/s00138-012-0469-6.
crossref pdf
5. Chandler, D.G, Batterman, E.P, and and Shah, G (1989). U.S. Patent No. 4,874,936. Washington, DC: U.S. Patent and Trademark Office.

6. Cho, Y.K, and and Neumann, U (2001) Multiring Fiducial Systems for Scalable Fiducial-Tracking Augmented Reality. Presence, Vol. 10, pp. 6-599 https://doi:10.1162/105474601753272853.
crossref
7. Choi, H.S, Cheung, J.H, Kim, S.H, and Ahn, J.H (2011) Structural dynamic displacement vision system using digital image processing. NDT &E International, Vol. 44, pp. 7-597.
crossref
8. Claus, D, and Fitzgibbon, A.W (2004) Reliable fiducial detection in natural scenes. Lecture Notes in Computer Science (Including Subseries Lecture Notes in Artificial Intelligence and Lecture Notes in Bioinformatics), Vol. 3024, pp. 469-480 https://doi.org/10.1007/978-3-540-24673-2_38.
crossref pmid
9. Collin, J.G (2001) Lessons learned from a segmental retaining wall failure. Geotextiles and Geomembranes, Vol. 19, pp. 7-445 https://doi.org/10.1016/S0266-1144(01)00016-4.
crossref
10. De Ipiña, D.L, Mendonça, P.R.S, and Hopper, A (2002) TRIP:A low-cost vision-based location system for ubiquitous computing. Personal and Ubiquitous Computing, Vol. 6, pp. 3-206 https://doi.org/10.1007/s007790200020.

11. Dell'Acqua, A, Ferrari, M, Marcon, M, Sarti, A, and Tubaro, S (2005) Colored visual tags:A robust approach for augmented reality. IEEE International Conference on Advanced Video and Signal Based Surveillance - Proceedings of AVSS 2005, pp. 423-427 https://doi.org/10.1109/AVSS.2005.1577306.
crossref
12. Fathi, H, Dai, F, and Lourakis, M (2015) Automated as-built 3D reconstruction of civil infrastructure using computer vision:achievements, opportunities, and challenges. Advanced Engineering Informatics, Vol. 29, No. 2, pp. 149-161 https://doi.org/10.1016/j.aei.2015.01.012.
crossref
13. Fiala, M (2005) ARTag, a fiducial marker system using digital techniques. Proceedings - 2005 IEEE Computer Society Conference on Computer Vision and Pattern Recognition, CVPR 2005, II, pp. 590-596 https://doi.org/10.1109/CVPR.2005.74.
crossref
14. Ha, Y.S, Lee, J, Yun, D.H, and Kim, Y.T (2023) Targetless displacement measurement of RSW based on monocular vision and feature matching. Smart Structures and Systems, Vol. 32, pp. 4-207 https://doi:10.12989/sss.2023.32.4.207.

15. Ha, Y.S, Lee, J, and Kim, Y.T (2022) Performance Evaluation of Feature Matching Techniques for Detecting Reinforced Soil Retaining Wall Displacement. Remote Sensing, Vol. 14, No. 7, pp. 1697 https://doi.org/10.3390/rs14071697.
crossref
16. Hartley, R, and and Zisserman, A (2003) Multiple view geometry in computer vision. Cambridge university press.
crossref
17. Hossain, S, Omelchenko, V, and Mahmood, T (2009) Case history of geosynthetic reinforced segmental retaining wall failure. Electronic Journal of Geotechnical Engineering, Vol. 4 C, No. 12, pp. 1538-1548 https://doi.org/10.1061/(ASCE)1090-0241(2006)132.

18. Hum, Y.C, Lai, K.W, and Mohamad Salim, M.I (2014) Multiobjectives bihistogram equalization for image contrast enhancement. Complexity, Vol. 20, pp. 2-22 https://doi.org/10.1002/cplx.21499.
crossref
19. Kalenjuk, S, Lienhart, W, and Rebhan, M.J (2021) Processing of mobile laser scanning data for large-scale deformation monitoring of anchored retaining structures along highways. Computer-Aided Civil and Infrastructure Engineering, Vol. 36, pp. 6-678 https://doi.org/10.1111/mice.12656.
crossref pdf
20. Kaltenbrunner, M, and Bencina, R ((2007, February). ReacTIVision:A computer-vision framework for table-based tangible interaction. In Proceedings of the 1st international conference on Tangible and embedded interaction, pp. 69-74.

21. Kato, H, and Billinghurst, M (1999) Marker tracking and HMD calibration for a video-based augmented reality conferencing system. Proceedings - 2nd IEEE and ACM International Workshop on Augmented Reality, IWAR 1999, pp. 85-94 https://doi.org/10.1109/IWAR.1999.803809.
crossref
22. Kim, B.-I, Yoo, W.-K, Kim, K.-M, and Lee, B.-Y (2013) A Case Study on Collapsed Geosynthetic Reinforced Segmental Retaining Wall. Journal of the Korea Academia-Industrial Cooperation Society, Vol. 14, pp. 4-2006 https://doi.org/10.5762/kais.2013.14.4.2006.
crossref
23. Li, Y, Chen, Y, Lu, R, Ma, D, and Li, Q (2012) A novel marker system in augmented reality. Proceedings of 2nd International Conference on Computer Science and Network Technology, ICCSNT 2012, pp. 1413-1417 https://doi.org/10.1109/ICCSNT.2012.6526185.
crossref
24. Lienhart, W (2017) Geotechnical monitoring using total stations and laser scanners:critical aspects and solutions. Journal of Civil Structural Health Monitoring, Vol. 7, pp. 3-315 https://doi.org/10.1007/s13349-017-0228-5.
crossref pdf
25. Lin, Y.-J, Habib, A, Bullock, D, and Prezzi, M (2019) Application of High-Resolution Terrestrial Laser Scanning to Monitor the Performance of Mechanically Stabilized Earth Walls with Precast Concrete Panels. Journal of Performance of Constructed Facilities, Vol. 33, No. 5, pp. 04019054 https://doi.org/10.1061/(asce)cf.1943-5509.0001321.
crossref
26. Ling, H.I, Leshchinsky, D, and Chou, N.N.S (2001) Post- earthquake investigation on several geosynthetic-reinforced soil retaining walls and slopes during the ji-ji earthquake of Taiwan. Soil Dynamics and Earthquake Engineering, Vol. 21, pp. 4-297 https://doi.org/10.1016/S0267-7261(01)00011-2.
crossref
27. McGuire, M.P, Yust, M.B, and Shippee, B.J (2017) Application of terrestrial lidar and photogrammetry to the as-built verification and displacement monitoring of a segmental retaining wall. In Geotechnical Frontiers 2017, pp. 461-471.
crossref
28. Naimark, L, and Foxlin, E (2002) Circular data matrix fiducial system and robust image processing for a wearable vision-inertial self-tracker. Proceedings - International Symposium on Mixed and Augmented Reality, ISMAR 2002, pp. 27-36 https://doi.org/10.1109/ISMAR.2002.1115065.
crossref
29. Nicotera, M.V, and Russo, G (2021) Monitoring a deep excavation in pyroclastic soil and soft rock. Tunnelling and Underground Space Technology, Vol. 117, pp. 104130 https://doi.org/10.1016/j.tust.2021.104130.
crossref
30. Oats, R.C, Escobar-Wolf, R, and Oommen, T (2017) A novel application of photogrammetry for retaining wall assessment. Infrastructures, Vol. 2, No. 3, pp. 10 https://doi.org/10.3390/infrastructures2030010.
crossref
31. Olson, E (2011) AprilTag:A robust and flexible visual fiducial system. Proceedings - IEEE International Conference on Robotics and Automation, pp. 3400-3407 https://doi.org/10.1109/ICRA.2011.5979561.
crossref
32. Pan, B (2018) Digital image correlation for surface deformation measurement:Historical developments, recent advances and future goals. Measurement Science and Technology, Vol. 29, No. 8, pp. 082001.
crossref pdf
33. Park, J.-K, and Lee, K.-W (2012) A Study on Practices and Troubles of Reinforced Soil Wall. Journal of the Korean Geosynthetic Society, Vol. 11, pp. 1-65 https://doi.org/10.12814/jkgss.2012.11.1.065.
crossref
34. Pham, M.V, and Kim, Y.T (2022) Debris flow detection and velocity estimation using deep convolutional neural network and image processing. Landslides, Vol. 19, pp. 10-2473 https://doi.org/10.1007/S10346-022-01931-6/METRICS.
crossref pdf
35. Pham, M.V, Ha, Y.S, and Kim, Y.T (2023) Automatic detection and measurement of ground crack propagation using deep learning networks and an image processing technique. Measurement:Journal of the International Measurement Confederation, Vol. 215, pp. 112832 https://doi.org/10.1016/j.measurement.2023.112832.
crossref
36. Pham, M.V, Kim, Y.T, and Ha, Y.S (2024) Displacement Measurement and 3D Reconstruction of Segmental Retaining Wall Using Deep Convolutional Neural Networks and Binocular Stereovision. Structural Control and Health Monitoring, Vol. 2024, No. 1, pp. 9912238.
crossref
37. Pham, M.V, Song, C.H, Nguyen, T.N, Lee, J.S, and Kim, Y.T (2023) Real-time debris flow detection using deep convolutional neural network and Jetson Nano. In E3S Web of Conferences, EDP Sciences, Vol. 415, pp. 03021.
crossref
38. Rahardjo, H, Kim, Y, Gofar, N, and Satyanaga, A (2020) Analyses and design of steep slope with GeoBarrier system (GBS) under heavy rainfall. Geotextiles and Geomembranes, Vol. 48, No. 2, pp. 157-169 https://doi.org/10.1016/j.geotexmem.2019.11.010.
crossref
39. Rebhan, M.J, Marte, R, Tschuchnigg, F, Vorwagner, A, and Kwapisz, M (2019) Safety assessment of existing retaining structures. 17th European Conference on Soil Mechanics and Geotechnical Engineering, ECSMGE 2019 - Proceedings, pp. 1-8 https://doi.org/10.32075/17ECSMGE-2019-0203.
crossref pdf
40. Rekimoto, J (1998) Matrix :A Realtime Object Identication and Registration Method for Augmented Reality. Proceedings of Asia Pacific Computer Human Interaction 1998 (APCHI'98), pp. 63-68.

41. Reuter, A, Seidel, H, Ihrke, I, Reuter, A, Seidel, H, Ihrke, I, et al (2012) BlurTags:Spatially varying PSF estimation with out-of-focus patterns. WSCG2012 International Conference on Computer Graphics, Visualization and Computer Vision 2012, pp. 239-247.

42. Riccio, M, Ehrlich, M, and Dias, D (2014) Field monitoring and analyses of the response of a block-faced geogrid wall using fine-grained tropical soils. Geotextiles and Geomembranes, Vol. 42, pp. 2-127 ttps://doi.org/10.1016/j.geotexmem.2014.01.006.
crossref
43. Sattar, J, Bourque, E, Giguère, P, and Dudek, G (2007) Fourier tags:Smoothly degradable fiducial markers for use in human-robot interaction. Proceedings - Fourth Canadian Conference on Computer and Robot Vision, CRV 2007, pp. 165-171 https://doi.org/10.1109/CRV.2007.34.
crossref
44. Schweiger, F, Zeisl, B, Georgel, P, Schroth, G, Steinbach, E, and Navab, N (2009) Maximum detector Response markers for SIFT and SURF. VMV 2009 - Proceedings of the Vision, Modeling, and Visualization Workshop 2009, pp. 145-154.

45. Tiwari, S (2016) An introduction to QR code technology. In 2016 international conference on information technology (ICIT), pp. 9-44 https://doi.org/10.1109/ICIT.2016.021.
crossref
46. Tung, S.H, Weng, M.C, and Shih, M.H (2013) Measuring the in situ deformation of retaining walls by the digital image correlation method. Engineering Geology, Vol. 166, pp. 116-126 https://doi.org/10.1016/j.enggeo.2013.09.008.
crossref
47. Yoneyama, S, Kitagawa, A, Iwata, S, Tani, K, and &Kikuta, H (2007) Bridge deflection measurement using digital image correlation. Experimental Techniques, Vol. 31, pp. 1-34.
crossref
48. Zhengyou, Z (1998) A flexible new technique for camera calibration. Microsoft Research Technical Report, pp. 1-21.



ABOUT
ARTICLE CATEGORY

Browse all articles >

BROWSE ARTICLES
AUTHOR INFORMATION
Editorial Office
1010 New Bldg., The Korea Science Technology Center, 22 Teheran-ro 7-gil(635-4 Yeoksam-dong), Gangnam-gu, Seoul 06130, Korea
Tel: +82-2-567-6311    Fax: +82-2-567-6313    E-mail: master@kosham.or.kr                

Copyright © 2025 by The Korean Society of Hazard Mitigation.

Developed in M2PI

Close layer
prev next