본문바로가기


지난호





|

PHYSICS PLAZA

크로스로드

인공지능은 위성으로 무엇을 볼까?

작성자 : 최예지 ㅣ 등록일 : 2021-07-12 ㅣ 조회수 : 1,027

저자약력

최예지 박사는 연세대학교에서 ‘위성관측 활용 태풍강우강도 산출 알고리즘 개발’로 대기과학 박사학위를 취득하고(2018), 한국과학기술정보연구원에서 박사 후 연구원을 거쳐 인공지능 기반 위성/항공영상 분석 전문기업인 SI-Anlaytics에 입사하여(2020) 연구팀에서 선임연구원으로 재직 중이다. 현재 인공지능 기법을 기반으로 한 기상 예측 및 분석 연구를 진행하고 있으며, 인공지능 연구자들의 모임인 AI프렌즈 운영진으로 활동하고 있다.

우리는 언제부터 우주에서 본 지구에 관심을 갖기 시작했을까? 최초의 인공위성인 스푸트니크 위성이 발사되기 11년 전인 1946년 10월 24일에 발사된 독일의 V-2 미사일에 35 mm 영화 카메라가 탑재되었고, 이 카메라는 우주에서 본 최초의 지구를 담아냈다. 이 최초의 사진은 약 100 km 상공에서 촬영된 것으로, 우리가 알고 있는 아름다운 블루마블의 지구와 달리 해상도가 매우 낮고 구름의 위치 정도만 구분이 되는 흑백 사진이었다. 그럼에도 불구하고 2015년 런던에서 열린 경매에서 이 사진은 1736파운드(한화 약 270만 원)에 거래되었다. 아마도 우주에서 지구를 보고 싶어 하는 우리의 호기심을 최초로 해결해준 사진으로 그 가치를 인정받았기 때문이 아닐까. 이 한 장의 사진 이후 1950년까지 V-2 미사일은 약 1,000장 이상의 지구 사진을 찍었으며, 미국의 기상학자들은 이 사진에서 구름이 형성되는 모습, 폭풍 지역 등을 확인할 수 있었다. 

우주에서 찍은 최조의 지구 사진(출처: https://cosmosmagazine.com/space/the-first-photograph-of-earth-taken-from-space/ - The first photograph of Earth from space, taken on 24 October 1946. Credit: White Sands Missile Range / Applied Physics Laboratory)
그림 1. 우주에서 찍은 최조의 지구 사진(출처: https://cosmosmagazine.com/space/the-first-photograph-of-earth-taken-from-space/ - The first photograph of Earth from space, taken on 24 October 1946. Credit: White Sands Missile Range / Applied Physics Laboratory).

이 당시 사람들에게 우주에서 찍은 사진으로 지구에 있는 물체를 확인할 수 있다는 것은 마술같은 일이었을 것이다. 하지만 많은 첩보 영화들에서 보여준 것처럼 인공 위성 영상으로부터 지구에서 일어나는 일을 모니터링할 수 있는 시대가 어느덧 가까이 왔다. 최근에는 약 40 cm 해상도의 위성영상을 웹에서 누구나 구매할 수 있다. 40 cm 해상도를 갖는다는 것은 40 cm보다 큰 물체는 위성 영상으로 구분이 가능하다는 것이고, 이에 해당하는 것은 선박, 비행기, 건물을 비롯해 자동차 등이 포함된다.(여기에는 코끼리도 포함된다.) 물론 서울 전 지역에 대해서 이만큼의 고해상도 영상을 획득하기 위해 지불해야 하는 가격은 우주에서 찍은 최초의 지구 사진보다 대략 6배 비싸지만 말이다. 하지만 다행히도 미항공우주국(NASA)이나 유럽우주국(ESA) 등 일부 공공기관에서는 위성 영상을 무료로 배포하고 있어서 위성영상을 이용한 분석 알고리즘을 개발하는 연구는 활발히 진행되고 있다.

지금까지 위성영상에서 우리가 알고자 하는 정보를 취득하는 일은 위성영상 분석 전문가의 역할이었다. 하지만 뉴(New) 스페이스 시대를 맞이하면서 다양한 종류의 수많은 위성들이 우주로 발사되고 있다. 2020년만 해도 약 1000개의 위성이 우주로 쏘아져 올라갔다. 물론 이 숫자의 대부분은 space-X사에서 발사한 Starlink 위성에 해당하지만, 그만큼 위성 산업이 확장되고 있다는 것을 보여준다. 우주로 쏘아 올려진 모든 위성이 영상을 찍고 있지 않는데도 불구하고, 미 항공우주국인 NASA의 데이터 센터에서는 앞으로 연간 47.7PB 이상의 데이터가 위성으로부터 수집될 것이라고 전망하고 있다. 참고로 47PB는 full-HD 영화 9.4백만 개에 해당하는 용량이다. NASA 이외에 전 세계적으로 수집되고 있는 위성 데이터에 대해 생각하면 상상할 수도 없는 많은 양의 데이터가 매일 우주로부터 생산되고 있다는 것을 알 수 있다. 이 많은 데이터로부터 의미있는 정보를 분석하기 위해서 몇 명의 위성 영상 분석가가 필요할까? 이러한 고민의 답이 바로 인공지능에 있다. 

전통적으로 위성영상은 지도를 제작하거나 지리 정보시스템을 구축하는데 사용되어 왔으나, 최근 고해상도 위성영상의 활용으로 다양한 정보가 생산되고 있다. 그 한 예로 올해 1월 영국의 옥스퍼드와 바스 대학교 연구진은 위성영상에 인공지능 기법을 적용하여 아프리카코끼리 개체수를 확인하는데 성공했다는 연구 결과를 발표하였다. 아프리카코끼리는 국제자연보전연맹(IUCN)에서 멸종 취약종으로 보호가 시급하다고 지정된 동물이다. 과거에는 넓은 범위에 분포하고 있는 코끼리의 개체 수를 확인하기 위해 항공사진을 활용하였다. 하지만 아프리카 지역 내 분쟁으로 인해 항공사진 촬영에 어려움이 있었을 뿐만 아니라, 전 지역을 촬영하기에는 시간이 많이 소비되고, 촬영된 사진에서 코끼리를 찾아 개체수를 세는 것이 쉬운 일이 아니었다. 위성영상과 인공지능의 결합은 이러한 어려움을 극복하는데 중요한 역할을 하였다. 발표된 연구에서 연구진은 인공지능 기술 덕분에 최대 5000 km2 범위의 영역에서 몇 분 만에 코끼리 개체수를 확인할 수 있다고 하였으며, 연구 결과는 멸종 위기종을 보호하기 위한 전략을 수립하는데 기초자료로 사용할 수 있게 되었다. 이 연구를 진행한 연구진은 아프리카코끼리를 찾는 연구 이전에 위성영상으로 인공지능 기법을 활용하여 바다에서 고래를 찾는 연구도 진행하였으며 바다는 육지만큼 다양한 지표 특성이 나타나지 않기 때문에 고래 찾기가 더 쉬웠다고 설명한 바 있다.

인공지능을 이용한 객체탐지 기법으로 코끼리를 찾은 결과(출처: Remote Sensing in Ecology and Conservatiion 학술논문- Duporge et al.,2020)
그림 2. 인공지능을 이용한 객체탐지 기법으로 코끼리를 찾은 결과(출처: Remote Sensing in Ecology and Conservation 학술논문- Duporge et al., 2020).

이 사례뿐만 아니라 위성영상에서 인공지능 기법을 활용하여 미국 농무부보다 더 정확하게 옥수수 수확량을 예측한 벤처기업도 있다. 데카르트 랩스(Descart Labs)라는, 빛의 원리를 통달한 물리학자들이 시작한 스타트업이었다. 그들이 예측한 결과의 오차는 약 1%로 매우 정확했기 때문에 그 당시 많은 이슈를 만들었다. 특히 식량문제가 전 세계의 분쟁에 영향을 미치는 중요한 요소라고 판단하였던 미국 방위고등연구계획국인(DARPA)도 그들 예측결과에 큰 관심을 가졌다. 위성에서 사용되는 촬영 센서에는 우리가 알고 있는 일반적인 RGB 채널의 영상을 찍는 카메라도 있지만 적외나 마이크로파장 영역의 복사량을 관측하는 카메라도 있다. 후자의 경우에는 사람이 눈으로 볼 수 없는 정보를 제공하는데 이 정보 중에는 적외 센서로부터 생산되는 식생 지수, NDVI (Normalized Difference Vegetation Index)가 있다. 이 지수를 이용하면 위성영상에서 식생의 건강 상태를 알 수 있기 때문에 적외 센서를 이용하면 작물의 생육 정보를 얻을 수 있다. 데카르트 랩스는 이러한 점을 이용해서 위성 관측데이터를 기상 정보와 융합하여 각 농작물의 수확량을 예측하여 시장에 정보를 제공하고 있다.

중국의 폭스바겐 공장의 코로나 전후 자동차 생산량 변화 정도(출처: Insight from space 보고서- Luigi Scatteia and Aravind Ravichandran, 2020)
그림 3. 중국의 폭스바겐 공장의 코로나 전후 자동차 생산량 변화 정도(출처: Insight from space 보고서 - Luigi Scatteia and Aravind Ravichandran, 2020).

세계 4대 회계법인 중 하나인 PwC는 작년 4월 “Insights from Space: Assessing Impacts of the Covid-19 Crisis”라는 제목의 보고서를 발간하였다. 전 세계를 혼란에 빠뜨린 코로나바이러스의 영향을 위성 영상을 통해서 확인한 보고서인데 그 내용이 매우 흥미롭다. 어떤 현상의 영향을 분석하는데 정량적 자료는 매우 중요하지만, 코로나바이러스와 같이 전 세계에 걸쳐 일어난 사건의 영향을 정량화하는 일은 단시간 안에 거의 불가능하다. 이 보고서는 코로나 발생 후 4개월 만에 보고되어 위성영상을 이용하면 빠른 시간에 전 세계에 걸쳐 일어난 사건에 대해서도 그 영향력을 정량적으로 분석할 수 있다는 것을 보여주었다. 보고서에서는 가장 먼저 중국 탄진에 있는 폭스바겐 자동차 생산 공장의 위성 촬영 사진을 코로나 바이러스 발생 전(2019년 5월)과 후(2020년 4월)로 비교하였다. 분석에는 Orbital Insight사의 인공지능 알고리즘이 이용되었는데, 자동차를 탐지할 수 있는 객체 탐지 모델이 자동차 대수를 비교하여 코로나 바이러스의 영향에 따른 제조 공장의 생산량 감소를 수치적으로 보여주었다. 제조업의 생산량 감소와 더불어 물류 이동의 감소도 정량적으로 분석하였는데, 위성에서 제공하는 Automatic Identification System (AIS)라는 형식의 데이터를 분석하여 특정 항구의 선박 수를 분석하고 코로나 바이러스가 해운 산업에 미친 영향도 분석하였다. 이러한 정량적 분석 결과는 코로나 바이러스가 우리 사회의 많은 산업 부분에서 부정적인 영향을 끼쳤다는 것을 보여주었다. 하지만 지구 환경적인 측면에서는 공장이 중단되고, 이동이 감소하면서 긍정적인 효과가 있었다. 환경오염물질을 감시하는 위성영상을 분석한 결과 질소산화물의 농도가 감소한 것이다. 대표적인 대기 오염물질이면서 인체를 비롯한 생명체에도 악영향을 주는 물질인 질소산화물은 자동차, 항공기, 발전기 등에서 사용되는 연료의 연소과정에서 발생하기 때문에 공장 가동과 이동이 줄어듦에 따라 그 농도가 줄어든 것이었다. 

이처럼 위성으로부터 분석된 정보는 여러 방면에서 다양한 정보를 제공하여 중요한 의사 결정 시에 근거자료로 활용될 수 있다. 아직은 고해상도로 같은 지역을 지속적으로 감시하는 것이 불가능하고, 날씨의 영향으로 구름 아래 부분의 정보를 얻는 데는 한계가 있지만, 인공지능은 어제보다 오늘 더 똑똑해지고 있으며, 앞으로 위성영상에서 점점 더 많은 정보를 찾아낼 수 있을 것이다. 과거에는 위성에서 정보를 찾는 일을 사람이 했다면, 이제는 인공지능이 보게 되는 정보를 해석하는 것이 중요해지고 있다. 인공지능을 이용하여 지구를 위한, 우리 사회를 위한 최선의 선택을 만들어 가는 일이 우리가 앞으로 해야 할 중요한 숙제가 되었다.


*아태이론물리센터의 <크로스로드>지와의 상호 협약에 따라 크로스로드에 게재되는 원고를 본 칼럼에 게재합니다. 본 원고의 저작권은 아태이론물리센터와 원저작자에게 있습니다.
*‘과학과 미래 그리고 인류’를 목표로 한 <크로스로드>는 과학 특집, 과학 에세이, 과학 유머, 과학 소설, 과학 만화 등 다양한 장르의 과학 글을 통해 미래의 과학적 비전을 보여주고자 아시아 태평양 이론물리센터(Asia Pacific Center for Theoretical Physics)에서 창간한 과학 웹 저널입니다.
http://crossroads.apctp.org/
*아시아태평양이론물리센터는 정부의 과학기술진흥기금 및 복권기금 지원으로 사회적 가치 제고에 힘쓰고 있습니다.
취리히 인스트루먼트취리히 인스트루먼트
물리대회물리대회
사이언스타임즈사이언스타임즈


페이지 맨 위로 이동