J. Korean Soc. Hazard Mitig Search

CLOSE


J. Korean Soc. Hazard Mitig. > Volume 21(5); 2021 > Article
드론 영상을 이용한 산불연료량 추정기법 연구

Abstract

A method of estimating forest-fire fuel loads was developed using drones to collect information about the height and diameter-at-breast-height (DBH) of individual trees. It was conducted for forest fire prevention monitoring (Control, 20% thinned, and 40% thinned area) located in Goseong-gun, Gangwon-do. Object-based images and 3D-model red/green/blue band characteristics were superimposed to select and extract individual trees. A digital crown height model was developed based on the difference between the heights of digital surface and terrain models. In addition, the DBH was estimated based on the crown area. The 40%-thinned area exhibited the highest accuracy (95%) for extracting individual trees, and the difference between the field-survey and drone-image heights was in the range of 0.64-2.02 m. The goodness-of-fit of the DBH-crown area model was 0.61. The difference between the image- and field-survey-based forest-fire fuel loads ranged from -1.20 to 0.40 ton/ha.

요지

본 연구에서는 정사영상을 이용하여 임목개체의 수고와 흉고직경의 정보를 수집하고, 이를 통해 산불연료량을 추정할 수 있는 방법론을 제시하고자 하였다. 강원도 고성군에 위치한 대형산불방지 소나무숲 시험구(대조구, 간벌 20%, 간벌 40%)를 대상으로 수행하였다. RGB 밴드특성별 객체기반 영상을 이용하여 개체목을 선별하였으며, 수치표면모델(Digital Surface Model, DSM)과 수치지형표고모델(Digital Terrain Model, DTM)의 높이차를 이용하여 수고모델(Digital Crown Height Model, DCHM)을 추출하였다. 또한, 선별된 개체목의 수관면적을 이용하여 현장에서 측정된 흉고직경과의 상관성을 파악하였다. 본 연구 결과에 의하면, 시험구별 현장에서 직접 측정한 수고와 영상 추출 수고의 차이는 0.64 m~2.02 m로 나타났으며, 개체목 추출의 정확도는 간벌 40% 시험구가 95%로 가장 높았다. 흉고직경-수관면적 추정식은 적합도(R²) 0.61 수준을 보였으며, 드론영상 기반 산불연료량 추정치와 현장조사 기반 관측치는 최소 0.40 ton/ha - 최대 1.20 ton/ha의 차이를 보였다.

1. 서 론

2019년 4월 4일 고성⋅속초에서 발생한 대형산불로 1,757 ha의 산림과 주택 916채 소실 등 이로 인한 피해액은 약 1,291억 원에 달했다(KFS, 2019). 이와 같이 국내외적으로 도심형 산불 발생이 급증함에 따라 산림인접지 주변을 대상 으로 산불 피해 저감을 위한 산림 내 연료관리기술 개발의 필요성이 높아지고 있다(Hussam and Akshat, 2018). 산림인 접지 주변의 산림을 효율적으로 관리하기 위해서는 임분 단위(Stand level)의 조방적 연료관리 체계를 넘어 제거 임목 까지 선별가능한 수준인 소규모 정밀 연료관리체계 마련이 요구된다(Cruz et al., 2004; Cruz et al., 2005). 소규모 개체목 단위(Tree level)의 정밀분석을 실현하기 위해서는 다양한 형태의 영상을 이용하여 손쉽게 임분밀도(Stand density), 수고(Tree height), 흉고직경(Diameter at breast height) 등 산림정보를 추정할 수 있어야 하며, 이러한 산림정보로 산림 내 탈 수 있는 물질의 양과 특성을 파악하는 기술이 개발되어 야 한다(Chen et al., 2006; Kwak et al., 2007; Strigul, 2012).
산림 분야에서는 위성영상, 항공사진, LiDAR 등을 이용 하여 산림자원 정보를 간접 추정하는 원격탐사 기술이 활용 되고 있다(Hyyppa et al., 2001; Andersen et al., 2004). 위성과 항공기에만 의존하던 영상 정보 수집은 최근 드론(UAV) 기술이 발전함에 따라 자유자재로 영상 정보를 취득할 수 있는 체계가 마련되었다. 드론은 사용자가 쉽게 조종할 수 있으며, 기존 항공영상이나 위성영상과 달리 높은 고해상도 영상을 저비용으로 얻을 수 있는 장점이 있다(Tian et al., 2017). 과거에는 촬영 영상을 분석에 활용하려면 고품질의 정확도 높은 이미지 생성은 필수적이였다(Dimitrios et al., 2016). 그러나 최근 Structure from Motion에서 파생된 다중 각도 이미지를 추출하는 초고해상도 디지털 모델 기술이 발전함에 따라 일반 영상으로도 얼마든지 정보를 가공하고 분석할 수 있는 체계가 마련되었다(Fritz et al., 2013; James and Robson, 2012; Ota et al., 2015).
최근 많은 연구진은 드론 영상자료를 기반으로 시계열 산림구조 변화, 장기모니터링 연구와 탄소저장량, 임목재적 및 수확량 추정 등에 이용하고 있으며, 연구 영역을 지속적으 로 확대하고 있다(Diaz-Varela et al., 2014; Gini et al., 2014; Edson and Wing, 2011; Zarco-Tejada et al., 2014), 산불분야 에서도 드론을 이용한 연구가 추진되고 있다. 드론영상과 인공지능학습을 이용한 산불연료 모니터링 연구가 대표적 이며, 제거목 공간 분석 및 선별 등 산불피해저감을 위한 산불연료관리 의사결정시스템 개발 연구가 이루어지고 있 다(Cruz et al., 2002; David, 2010). 한편, 국내에서는 산림공 간분석, 수종분류 등 산림정보 자료 구축을 위한 기초적인 연구는 간헐적으로 수행되고 있으나(Lim et al., 2016; Park and Jang, 2018; Kim and Kwon, 2020), 산불학 관점에서 수행한 연구는 전무한 실정이다.
본 연구에서는 드론 정사영상을 활용하여 개체목을 분류 하고 수고를 추출하여 추출률 및 적합도를 평가하였다. 또한, 추출된 수고와 수관면적에 따른 흉고직경 정보를 이용하여 해당 산림 내에서 산불로 인해 탈 수 있는 가연물질의 양을 분석하는 방법론을 제시하고자 한다.

2. 재료 및 방법

2.1 연구대상지

연구대상지는 강원도 고성군 죽왕면 일대 국유림 내 위치 한 소나무림으로 2000년 동해안 산불피해 후 소나무 수종을 조림한 지역이다. 임령은 24년생 Ⅲ영급 임분으로 평균 흉고 직경 14.0 cm, 평균 수고 9.5 m, 지하고 4.1 m의 특성을 보이는 임분이다(Fig. 1).
Fig. 1
The Location of Study Sites
kosham-2021-21-5-123-g001.jpg
본 시험구는 수관화 확산 방지를 위한 적정임분밀도 기준 으로 숲가꾸기를 진행한 임분(간벌 40%), 목재생산용 본수 대비 기준에 의해 숲가꾸기를 진행한 임분(간벌 20%), 숲가 꾸기를 진행하지 않은 대조구 임분으로 나누어 각 3반복으로 처리한 임분이다(KFS, 2012; 2016).

2.2 자료수집 및 분석방법

2.2.1 드론촬영 및 영상처리 방법

DJI사에서 개발한 Mavic Pro 장비에 Hasselblad L1D-20c 카메라(2,000만 Pixel)를 탑재한 드론을 이용하여 2021년 3월 20일에 대상지를 촬영하였다. 촬영고도는 해상도와 주 변 지형지물 특성을 고려하여 200 m로 설정하였으며, 내중 첩율(End lap)과 옆중첩율(Side lap)을 80% 이상으로 설정 비행하였다. 영상촬영범위는 실제 연구대상지 면적 3.70 ha보다 넓은 37.93 ha로 설정하여 가장자리의 왜곡에 의한 분석오류를 방지하였으며, DJI사에서 제공하는 DJI GO 앱 을 이용하여 자동비행모드로 촬영하였다.
Pix 4D Mapper 소프트웨어를 이용하여 촬영 과정에서 발생한 드론의 흔들림, 카메라의 각도, 렌즈의 왜곡 등 불완전 요소들에 대한 후처리를 진행하였다(Table 1). GNSS/IMU 정보를 이용하여 영상의 위치, 고도 등 위치보정을 수행한 자료를 기반으로 영상을 정합하였으며, 이후 Point Cloud를 통해 수치표면모델(Digital Surface Model, DSM)를 생성하 였다. DSM은 중첩사진을 자동적으로 매칭시켜 얻은 결과로 매칭오류에 대한 보정을 위해 필터링을 수행하였다(Chang et al., 2006). 처리과정에서의 오류와 수관층 영역의 경계를 부드럽게 보정하기 위해 Noise filtering과 Smoothing filtering 을 실시하였다. 또한 인공구조물과 수목 등 지표피복물에 대한 높이를 제거한 순수 고도모형인 수치지형표고모델(Digital Terrain Model, DTM)을 추출하기 위해 역거리가중법(Inverse distance weighted)를 이용해 보간작업을 진행하였다.
Table 1
Internal Camera Parameters
Focal length (mm) Principal point (mm) Lens distortion (Radiation direction) Lens distortion (Tangent direction)
X Y R1 R2 R3 T1 T2
Initial values 1,513 8.94 6.33 -0.004 -0.043 0.087 -0.003 0.004
Optimized values 1,520 8.70 6.45 -0.005 0.011 -0.007 -0.001 0.000

2.2.2 산림현장조사

대형산불방지 소나무숲 시험구 내 설치된 간벌강도(대조 구, 간벌 40%, 간벌 20%) 방형구를 대상으로 산림현장조사 를 수행하였다. 20 m × 20 m 크기의 방형구 내 생육하고 있는 흉고직경 6 cm 이상 개체목을 대상으로 Vertex Ⅳ를 이용하여 수고를 측정하였으며, 흉고직경 측정은 직경테이 프를 이용하였다. 개체목의 위치정보는 산림 내 인공위성과 GPS간의 송신이 원활하지 않은 점을 감안하여 표준지 내 중심에 위치하는 개체목(중심점)을 기준으로 거리와 방위각 을 측정하여 위치정보를 추정하였다. 그 후 현장에서 얻은 실제 임목위치정보와 영상위치정보를 일치시키는 후처리 작업을 수행하였다.

2.2.3 개체목 분할 및 수고추출 방법

2.2.3.1 객체지향 영상분할(Object-oriented image seg-mentation)
영상분석을 위해 System for Automated Geoscientific Alaysis (SAGA) 프로그램과 오픈소스인 QGIS 3.20을 이용 하였다. 본 연구에서는 저해상도 영상에 이용되는 픽셀기반 영상분석이 아닌 객체기반 영상분석 기술을 사용하였다. 사용한 객체지향영상분할이란 영상분할 시 분광정보와 공간 정보를 동시에 이용하여 모양이나 분광정보가 균일한 영역인 영상객체를 만드는 기술로서 영상분할(Image segmentation) 에 기초하여 공간해상도가 높은 영상분석에 선호되고 있다 (Carleer et al., 2005; Edson and Wing, 2011).
객체지향 영상분할은 분할 과정에서 Band의 크기, 공간특 성, 공간위치, 임계값에 대한 가중치에 따라 분류 정확도가 달라질 수 있기 때문에(Lee et al., 2007), 개체목 추출에 적합한 수치 설정을 위한 반복 분석을 실시하였다. 객체 분할을 실시한 영상은 RGB 밴드특성을 고려하여 Red 밴드 는 임목구역, Blue 밴드는 지면구역, Gray 밴드는 그림자구역 으로 나누었다. 지면위에 쌓인 눈은 분석자 판단하에 표본값 을 직접 지정하여 분류하였다. 최종적으로 각각의 영상에서 표본과 피분류 대상에 대한 표본값을 설정하였으며, 표본의 값과 유사한 특징을 갖는 개체들을 자동선택하고, 그룹화하 는 감독분류(Supervised classfication)를 실시하였다.
2.2.3.2 개체목 수고추정 방법
DSM과 DTM의 수치정보 차이를 통해 지면에 존재하는 객체의 높이값을 의미하는 수고모델(Digital Crown Height Model, DCHM)을 추출하였다(Cho and Kim, 2010). 이후 객체기반 영상분석을 통해 분할된 폴리곤과 DCHM을 중첩시 켜 높이 값을 개체목에 적용하였다. 생성된 영상을 Watershed segmentation 기능을 이용하여 개체목 단위로 분할하였으며, 결과물을 이용해 간벌강도별 개체목 추출률(Extaction rate) 과 추출정확도(Extraction accuracy)를 분석하였다.
(1)
DCHM=DSMDTM

2.2.4 흉고직경 추정 및 산불연료량 추정방법

산불연료량을 추정하기 위해 수관면적을 변수로 하는 흉고직경 추정식을 개발하였다. 수관면적은 객체기반 영상 분석을 통해 임목의 수관영역을 추출한 결과값에 단면적을 산출하여 추정하였다. 수관면적과 흉고직경과의 상관관계 분석을 위해 피어슨 상관관계 방법을 이용하여 두 변수 사이의 유의수준을 산출하였다.
Kim (2015)이 연구를 통해 개발한 흉고직경을 변수로 하는 소나무 산불연료량 대수회귀식(Eq. (2))에서 β0 :-2.380, β1:1.637을 이용하여 실제 현장조사를 통해 추정된 산불연 료량과 영상분석을 통해 추정된 산불연료량간의 차이를 비교⋅분석하였다.
(2)
lnWt=β0+β1lnD

3. 결 과

3.1 정사영상과 수고모델 추출

드론에 탑재된 GNSS/IMU 센서를 통해 취득한 외부표정 요소와 특징점 추출 방식을 이용하여 영상을 정합하였다. 정합과정에서 낱장마다 해상도가 차이가 발생하는데, 총 1,227매 촬영 사진 중 해상도가 낮아 보정이 되지 않은 48매의 사진을 비활성화 처리하고, 내부표정요소에 의해 보정된 1,179매만을 사용하였다. 생성된 영상에서 본 연구대 상지가 위치한 부분을 임의의 Shpfile을 생성하여 별도로 추출하였다. 추출한 정사영상의 면적은 약 3.7 ha이었으며 약 2.42 cm의 고해상도 영상을 획득할 수 있었다.
DSM의 해상도는 2.42 cm급 이었고, DTM의 해상도는 약 30 cm급이 추출되었다. DSM과 DTM의 차를 이용하여 수관부 높이에 대한 모델인 DCHM을 생성한 결과, 영상에서 가장 밝은 영역은 23.75 m, 가장 어두운 영역은 -4.03 m이었 다. DCHM은 지면 위 구조물에 대한 높이를 나타내기 때문에 이론적으로 0 이하의 수치를 가질 수 없으나, 본 연구에서는 -4.03 m까지 오차가 발생하였다. 이런 결과는 DTM을 생성할 때 Point Cloud가 없는 임의의 지점에 대한 값을 예측할 때 발생한 오차로 판단된다.
분석을 통해 추출한 정사영상, DSM, DTM, DCHM 모델 은 다음과 같다(Fig. 2).
Fig. 2
Graphical Image of the (a) Orthophoto, (b) Digital Surface Model, (c) Digital Terrain Model, (d) Digital Crown Height Model
kosham-2021-21-5-123-g002.jpg

3.2 개체목 분할 및 수고추출

3.2.1 객체지향 영상분할 결과

Grays 영상에서 140 미만으로 나타난 객체는 ‘그림자’, Red 영상에서 140 이상 210 이하로 나타난 객체는 ‘임목’, Blue 영상에서 165 이상으로 나타난 객체는 토양 또는 암석 을 의미하는 ‘기타지역’이라고 설정하였다. 지표면 위에 쌓여진 눈은 표본값을 직접 부여하였으며, 각각의 영상에 대한 결과물을 생성하였다(Fig. 3).
Fig. 3
. (a) Blue Image, (b) Snow, (c) Red Image, (d) Gray Image
kosham-2021-21-5-123-g003.jpg
객체분류된 영상자료에서 그림자와 기타지역을 제거하 여 최종적으로 개체목을 분할할 임목지역을 생성하였다(Fig. 4). 생성된 임목지역 영상과 DCHM 자료를 중첩시킨 후 높이에 대한 속성정보를 입력하고, Watershed segmentation algorithm을 이용하여 최종적으로 개체목 단위로 분할하였 다. 해당 임분 내 평균 수고(9.5 m)보다 낮을 경우 관목, 수간 등으로 오인식하여 영상분류 정확도가 낮아질 수 있기 때문에 수고 높이 5 m 이하는 임의로 제거 하였다.
Fig. 4
Results of the Watershed Segmentation Method for Delineating the Individual Canopy Area
kosham-2021-21-5-123-g004.jpg

3.2.2 간벌강도에 따른 수고추출결과

간벌강도에 따라 실제 현장조사와 영상내 수고추출 결과 를 비교한 결과는 다음과 같다(Table 2).
Table 2
Tree Extraction and Tree Height Extraction Results According to Thinning type
Thinning type Surveyed tree Number of extraction tree Extraction rate (%) Extraction accuracy (%) (A) Surveyed tree height (m) (B) Image extraction tree height (m) (A) - (B) Mean (±S.E.)
Control 83.074.092.0 52.049.055.0 63 58 8.926.0012.80 6.905.6011.50 2.02(±0.11)
Thinning 20% 52.050.054.0 53.345.058.0 107 85 9.086.8011.70 7.976.012.50 1.12 (±0.24)
Thinning 40% 33.332.034.0 33.731.037.0 101 95 9.847.6012.30 9.216.1013.20 0.64 (±0.15)

* Note : MeanMin.-Max., S.E. = Standard error

대조구의 경우 실제 개체목 본수는 83본이었으나, 영상분 석을 통해 추출한 개체목 52본으로 추출율은 63%, 추출정확 도는 약 58% 수준이었다. 간벌 20% 시험구의 실제 개체목 본수는 52본, 영상분석을 통해 추출한 개체목은 53.3본으로 107%의 과대추정되었으며, 85% 수준의 추출정확도를 보였 다. 간벌 40% 시험구의 실제 개체목 본수는 33.3본, 영상분석 을 통해 추출한 개체목은 33.7본으로 추출정확도는 95%인 높은 수준을 보여 해당 공간 내 임목이 넓게 분포할수록 추출 정확도가 높아지는 경향을 보였다. 일반적으로 산림관 리가 수행되지 않은 임분에서는 드론영상 내 개체목을 선별 하는 것이 어려운 것으로 알려져 있으나(Diaz-Varela et al., 2015), 간벌이 시행된 시험구에서는 약 85% 이상 수준의 개체목을 추출할 수 있는 가능성을 보여주었다. 다만 간벌이 시행된 시험구에서 과대추출율을 보였는데, 이는 영상분할 단계에서 수관중첩률이 낮음으로 인해 그림자영역, 관목층 등 기타영역에 대한 개체목 식별이 오인식된 것으로 보인다 (Paproki et al., 2012; Song, 2020). 추후 셀크기 조절 등을 통해 수관중첩률을 올린다면 정확도가 높은 개체목 수고 추출이 가능할 것으로 보인다.
간벌 강도에 따른 개체목의 수고를 추출한 결과, 대조구의 경우 영상에서 추출한 수고가 6.90 m로 현장에서 직접 측정 한 수고 8.92 m보다 약 2.02 m 낮게 추정되었다. 간벌 20% 시험구는 영상에서 추출한 수고인 7.97 m이 현장에서 직접 측정한 수고 값인 9.08 m보다 약 1.12 m 낮게 추정되었으며, 간벌 40% 시험구는 현장에서 직접 측정한 수고와 영상 추출 수고의 차이가 0.64 m에 불과하여 간벌강도가 높을수 록 측정 오차가 점차 작아지는 경향을 보였다. 영상분류 기반한 주요 침엽수종 수고 추출 관련 선행연구결과에서 제시한 평균 수고 오차는 약 1.28 m~1.89 m이였다(Jan et al., 2017; Pabi et al., 2020; Kim et al., 2021). 본 연구결과와 비교해 봤을 때, 대조구 임분은 기존 선행연구결과 평균 수고 오차 대비 최대 157% 높은 오차율을 보인 반면, 간벌 40% 시험구는 기존 선행연구결과 대비 최대 50% 낮은 오차 율을 보였다.

3.3 흉고직경 추정 및 산불연료량 추정

영상에서 분류된 수관면적 추정치와 흉고직경 관측치간 의 상관성을 분석한 결과, 수관면적이 넓어질수록 흉고직경 또한 증가하는 양의 상관성을 보였다. 두 변수 간의 상관분석 을 실시한 결과 유의수준에서 높은 상관성을 보였으며 (P < 0.01), 흉고직경-수관면적 추정식은 적합도() 0.61수 준을 보였다(Fig. 5).
Fig. 5
The Relationship between Observed DBH and Crown area (m2)
kosham-2021-21-5-123-g005.jpg
흉고직경 추정치와 실제 산림조사를 통해 얻어진 흉고직 경 관측치을 이용하여 산불연료량을 비교⋅분석하였다. 먼 저, 추정된 흉고직경의 범위는 11.82 cm~20.67 cm로 나타났 으며, 관측된 흉고직경은 9.50 cm~24.12 cm의 범위를 보였 다. 추정된 흉고직경과 관측된 흉고직경은 최소 -4.22 cm에 서 최대 5.02 cm까지 차이가 있었으며, 두 집단간 평균 제곱근 편차는 2.68 cm이었다(Fig. 6). 기존 선행연구결과에 서도 평균제곱근 편차를 2.05 cm로 제시한 바 있어 본 연구의 결과와 유사하였다(Koji, 1997).
Fig. 6
The Relationship between Observation DBH and Estimated DBH
kosham-2021-21-5-123-g006.jpg
산불이 발생했을 때 가연물질로 작용하는 연소가능한 수관연료량을 분석한 결과, 대조구의 경우 흉고직경 추정식 을 이용한 수관연료량은 9.94 ton/ha으로 관측된 수관연료량 인 11.14 ton/ha보다 약 1.20 ton/ha 낮게 추정되었다. 간벌 20% 시험구는 흉고직경 추정식을 이용한 수관연료량이 9.01 ton/ha으로 관측된 수관연료량 8.61 ton/ha보다 약 0.40 ton/ha 과대치를 보였다. 간벌 40% 시험구는 흉고직경 추정식을 이용한 수관연료량이 5.70 ton/ha으로 관측된 수관연료량 6.00 ton/ha보다 약 0.20 ton/ha 과소치를 보였다(Fig. 7). 흉고직경 추정식을 이용하여 추정한 수관연료량과 실제 현장조사를 통해 추정한 수관연료량을 비교한 결과, 두 추정 식 모두 대조구 임분이 간벌이 시행된 시험구에 비해 수관연 료량이 상대적으로 높았다.
Fig. 7
Observation and Estimation Comparison of Available Fuel Load by Thinning Type
kosham-2021-21-5-123-g007.jpg

4. 결 론

본 연구에서는 드론 정사영상정보로 임목개체의 수고와 흉고직경 정보수집을 통해 산불연료량을 추정하는 방법론 을 제시하고자 하였다. 연구대상지는 강원도 고성군에 위치 한 대형산불방지 소나무숲 시험구로 간벌강도(대조구, 간벌 20%, 간벌 40%) 별 3반복으로 구성되어 있다. 산림정보수집 을 위해 RGB 밴드특성별 객체기반 영상과 3차원 수고모델 을 중첩시켜 개체목을 선별 및 추출하였고, 개체목별 수관면 적에 따른 흉고직경을 추정하였다. 그 결과, 간벌강도별 개체목 추출정확율은 간벌 40% 시험구에서 95%로 가장 높았으며, 현장에서 직접 측정한 수고와 영상 추출 수고의 차이는 대조구 2.02 m, 간벌 20% 시험구 1.12 m, 간벌 40% 0.64 m으로 고강도 임분일수록 수고오차는 낮아지는 것으로 보였다.
흉고직경-수관면적 추정식을 이용하여 실제 관측된 산불 연료량과 드론영상 기반 산불연료량을 비교⋅분석한 결과 최소 0.40 ton/ha - 최대 1.20 ton/ha의 차이를 보였다. 전체적 으로 실제 관측값은 추정치에 비해 과소측정되는 경향을 보였다. 이러한 원인은 간벌강도별 시험구는 각기 다른 지형 과 임분조건을 가지고 있으나, DTM 추출시 격자크기, 분석 각도, 이격거리 등을 고려하지 않고 동일한 조건 하에 후처리 작업을 수행했기 때문으로 보인다. 추후 여러 조건별 DTM 생성 및 필터링 분석을 수행하면 수고추출에 대한 정확도를 높일 수 있을 것으로 판단된다.
본 연구는 실제 산림조사가 아닌 드론영상만으로 산림정 보를 수집하여 해당 임분 내 산불연료량을 추정할 수 있는 방법론을 제시한 연구이다. 본 연구결과에서 실제 현장조사 결과치와 영상을 이용한 추정치가 높은 상관성을 보임에 따라 정확도를 높일 수 있는 분석 기술을 추가 적용한다면, 실제 산림조사 현장에 도입할 수 있을 것으로 판단된다. 또한 인공지능 기술과 더불어 공중 LiDAR, 정밀위성영상 정보 융합을 통해 딥러닝학습 빅데이터를 구축한다면, 산림 조사 등에 소모되는 시간과 비용을 획기적으로 절약할 수 있는 체계가 마련될 뿐만 아니라 산림 인접지 주변 연료관리 제거목 선별, 산림관리 우선순위 대상지 선정 등 종합적인 산불 연료관리 시스템 구축에 활용 가능할 것으로 기대된다.

References

1. Andersen, H.E, McGaughey, R, and Reutebuch, J (2004) Estimating forest canopy fuel parameters using LIDAR data. Remote sensing of Environment, Vol. 94, No. 4, pp. 441-449.
crossref
2. Carleer, A.P, Debeir, O, and Wolff, E (2005) Assessment of very high spatial resolution satellite image segmentations. Photogrammetric Engineering &Remote Sensing, Vol. 71, No. 11, pp. 1285-1294.
crossref
3. Chang, A.J, Yu, K.Y, Kim, Y.I, and Lee, B.K (2006) Estimation of individual tree and tree height using color aerial photograph and LiDAR data. Korean Journal of Remote Sensing, Vol. 22, No. 6, pp. 543-551.

4. Chen, Q, Baldocchi, D, Gong, P, and Kelly, M (2006) Isolating individual trees in a savanna woodland using small foot print lidar data. Photogrammetric Engineering &Remote Sensing, Vol. 72, pp. 923-932.
crossref
5. Cho, D.Y, and Kim, E.M (2010) Extraction of spatial information of tree using LIDAR data in urban area. Journal of the korean society for geospatial information system, Vol. 18, No. 4, pp. 11-20.

6. Cruz, M.G, Alexander, M.E, and Wakimoto, R.H (2002) Predicting crown fire behavior to support forest fire management decision-making. Forest Fire Research &Wildland Fire Safety, pp. 1-11.

7. Cruz, M.G, Alexander, M.E, and Wakimoto, R.H (2004) Modeling the likelihood of crown fire pccurrence in conifer forest stands. Forest Science, Vol. 50, No. 5, pp. 640-658.

8. Cruz, M.G, Alexander, M.E, and Wakimoto, R.H (2005) Development and testing of models for predicting crown fire rate of spread in conifer forest stands. Canadian Journal of Forest Research, Vol. 35, No. 7, pp. 1626-1639.
crossref
9. David, M (2010) The development and implementation of forest fire management decision support systems in otario, canada. Forestry&Natural-Resource Sciences, Vol. 3, No. 1, pp. 18-26.

10. Diaz-Varela, R, Rosa, R.D.L, Leon, L, Zarco-Tejada, P.J, and Pablo, J (2015) High-resolution airborne UAV imagery to assess olive tree crown parameters using 3D photo reconstruction:Application in breeding trials. Remote Sensing, Vol. 7, No. 4, pp. 4213-4232.
crossref
11. Diaz-Varela, R, Zarco-Tejada, P.J, Angileri, V, and Loudjani, P (2014) Automatic identification of agricultural terraces through object-oriented analysis of very high resolution dsms and multispectral imagery obtained from an unmanned aerial vehicle. Journal of Environmental Management, Vol. 134, pp. 117-126.
crossref pmid
12. Dimitrios, P, Azadeh, A, Peter, S, and Vasco, C (2016) Determining tree height and crown diameter from high-resolution UAV imagery. International Journal of Remote sensing, Vol. 38, No. 8-10, pp. 2392-2410.

13. Edson, C, and Wing, M.G (2011) Airborne light detection and ranging (Lidar) for individual tree stem location, height, and biomass measurements. Remote Sensing, Vol. 3, No. 11, pp. 2494-2528.
crossref
14. Fritz, A, Kattenborn, T, and Koch, B (2013) UAV-based photogrammetric point clouds—Tree stem mapping in open stands in comparison to terrestrial laser scanner point clouds. Remote Sensing &Spatial Information Sciences, Vol. 40, pp. 141-146.

15. Gini, R.D, Passoni, L.P, and Sona, G (2014) Use of unmanned aerial systems for multispectral survey and tree classification:A test in a park area of northern italy. European Journal of Remote Sensing, Vol. 47, No. 1, pp. 251-269.
crossref
16. Hussam, M, and Akshat, C (2018) Unraveling the complexity of wildland urban interface fires. Scientiflc, Vol. 8, No. 1, pp. 9315-9327.

17. Hyyppa, J, Schardt, M, Haggren, H, Koch, B, Lohr, U, Scherrer, H.U, et al (2001) The first european-wide attempt to derive sin gle-tree information from laser scanner data. Journal of Finland, Vol. 17, pp. 43-53.

18. James, M.R, and Robson, S (2012) Straight forward reconstruction of 3D surfaces and topography with a camera:Accuracy and geoscience application. Journal of Geophysical Research, Vol. 117, pp. 1-17.

19. Jan, D, Nagol, J, Hein, S, Thiel, C, and Reiner, Z (2017) Measurement of within-season tree height growth in a mixed forest stand using UAV imagery. Forests, Vol. 8, No. 231, pp. 1-15.

20. Kim, J.S, and Kwon, J.H (2020) Dron-based spectral library application study for species classification. Journal of the Korean Society of Surveting, Vol. 2020, No. 7, pp. 288-291.

21. Kim, S.Y (2015). A study on the analysis of fuel characteristics for forest fire hazard assessment. Ph.D. dissertation, Kongju National University.

22. Kim, S.Y, Jeong, J.H, Lee, S.J, and Kwon, C.G (2021) Estimating tree height and diameter at breast height using the unmanned aerial system for Korea pine (Pinus koraiensis) in Bonghwa region. Journal of Agriculture and Life Sciences, Vol. 55, No. 2, pp. 25-32.
crossref
23. Koji, S (1997) Analysis of the Relationship between dbh and crown projection area using a new model. Journal of Forest Research, Vol. 2, No. 4, pp. 237-242.
crossref
24. Korea Forest Service (KFS) (2012) Forest technology handbook, pp. 1669.

25. Korea Forest Service (KFS) (2016) Development of fuel model for the improvement of forest fire prevention system, pp. 264.

26. Korea Forest Service (KFS) (2019) Statistical Yearbook of Forest Fire, pp. 286.

27. Kwak, D.A, Lee, W.K, Lee, J.H, Biging, G.S, and Gong, P (2007) Detection of individual trees and estimation of tree height using LiDAR data. Journal of Forest Research, Vol. 12, No. 6, pp. 425-434.
crossref
28. Lee, J.B, Heo, J, and Eo, Y.D (2007) Study on selection of optimized segmentation parameters and analysis of classification accuracy for object-oriented classfication. Korean Journal of Remote Sensing, Vol. 23, No. 6, pp. 521-528.

29. Lim, Y.S, Eo, Y.D, Jeon, M.C, Lee, M.H, and Pyeon, M.W (2016) Experiments of individual tree and crown width extraction by band combination using monthly drone images. Journal of the Korean Society for Geospatial Information Science, Vol. 24, No. 4, pp. 67-74.
crossref pdf
30. Ota, T, Ogawa, M, Shimizu, K, Kajisa, T, Mizoue, N, Yoshida, S, et al (2015) Aboveground biomass estimation using structure from motion approach with aerial photographs in a seasonal tropical forest. Forests, Vol. 6, No. 11, pp. 3882-3898.
crossref
31. Pabi, O, Alvin, A.A, and Ofori, B.D (2020) Linking optical spot and unmanned aerial vehicle data for a rapid biomass estimation in a forest-savanna transitional zone of Ghana. West African Journal of Applied Ecology, Vol. 28, No. 1, pp. 1-19.

32. Paproki, A.X, Sirault, S, Scott, B, Furbank, R, and Fripp, J (2012) A novel mesh processing based technique for 3D plant analysis. BMC Plant Biology, Vol. 12, No. 1, pp. 63.
crossref pmid pmc
33. Park, J.G, and Jang, G.Y (2018) Investigation and analysis of forest geospatial information using drone. Journal of the Korea Academia-Industrial cooperation Society, Vol. 19, No. 2, pp. 602-607.

34. Song, C (2020). A study on the extraction of individual tree and tree height on thinning intensity using uav images. Master's thesis, Kongju National University.

35. Strigul, N (2012) Individual-based models and scaling methods for ecological forestry:Implications of tree phenotypic plasticity. Sustainable forest management, pp. 359-384.

36. Tian, J, Schneider, T, Straub, C, Kugler, F, and Reinartz, P (2017) Exploring digital surface models from nine different sensors for forest monitoring and change detection. Remote Sens, Vol. 9, pp. 281-287.
crossref
37. Zarco-Tejada, P.J, Diaz-Varela, R, Angileri, V, and Loudjani, P (2014) Tree height quantification using very high resolution imagery acquired from an unmanned aerial vehicle (UAV) and automatic 3D photo-reconstruction methods. European Journal of Agronomy, Vol. 55, pp. 89-99.
crossref


ABOUT
ARTICLE CATEGORY

Browse all articles >

BROWSE ARTICLES
AUTHOR INFORMATION
Editorial Office
1010 New Bldg., The Korea Science Technology Center, 22 Teheran-ro 7-gil(635-4 Yeoksam-dong), Gangnam-gu, Seoul 06130, Korea
Tel: +82-2-567-6311    Fax: +82-2-567-6313    E-mail: master@kosham.or.kr                

Copyright © 2021 by The Korean Society of Hazard Mitigation.

Developed in M2PI

Close layer
prev next