top

공간정보 로고

세계는 위성, 드론, 그리고 사물인터넷으로부터 쏟아지는 데이터 쓰나미에 휩싸여 있다. 이러한 모든 데이터를 활용하고 공간과 시간 등에 맞게 조정하며 일상 계획자나 운영 팀에 넘겨줄 수 있는 능력은 모든 산업에 영향을 미치며 새롭고 거대한 공간정보 경제의 문을 열 것이다.사람, 물체 또는 행동을 이들의 ‘시간 및 위치’와 연결하는 공간정보 데이터는 조난 여행자 수색부터 재해 대응방법 지시, 언더라이팅(underwriting: 보험 인수) 위험에 대한 정확한 평가 또는 식량 결핍 검토에 이르기까지 자원 관리 및 문제 해결에 중요하다. 아쉽게도 역사적으로 공간정보는 그 복잡성과 번거로움 때문에 정보 접근이 과학자와 군사 정찰 전문가들이 주로 사용해왔다. 하지만 기술의 급격한 발전으로 이제는 모든 사람이 공간정보를 통해 세상을 더 명확하게 볼 수 있게 되었다. 나아가 이전까지 고도의 훈련을 받은 소수 전문가만이 사용했던 공간정보 데이터는 이제 모든 사람의 작업 방식을 변화시킬 것이다.

The world is awash in a growing tsunami of data pouring from satellites, drones and Internet of Things (IoT) devices. The ability to harness all that data, contextualize it in space and time and put it in the hands of everyday planners and operations teams will affect every industry and open the door to a massive new geospatial economy. Geospatial data — information that links people, objects or behaviors with the “when and where” they occupy — is critical to managing resources and solving problems that range from finding lost hikers to directing disaster response, accurately assessing underwriting risk or addressing food scarcity. Historically, though, the complexity and cumbersome nature of spatial data restricted information access exclusively to scientists and military reconnaissance experts. Rapid technological advances are making it possible for everyone to see the world more clearly. Similarly, geospatial data, once usable by only a few highly trained experts, will now change the way everyone works.

데이터의 물결

현대 과학과 공학은 전자기기 영역 전체를 이전보다 더 정확하고 정밀하게 탐지할 수 있게 만들었다. 전력선 부근에 새로운 초목이 자라고 있는 경우(초분광 영상의 NDVI 시계열) 또는 수중 작물을 재배 중인 경우(측정된 증발산율의 감소를 찾고 있는 경우), 현장에서 트럭을 찾고 싶은 경우(다중 스펙트럼 데이터에서 기계 비전 사용) 등의 모든 작업은 다양한 영상 센서 데이터를 정기적으로 사용하여 수행된다. 광학 영상 외에도 Capella Space 및 Iceye 같은 기업은 SAR(Synthetic Aperture Radar, 합성 개구 레이더)을 사용하여 물체 감지는 물론 침수심(Flood depth) 측정에 이르는 광범위한 가능성을 실현하고 있다. IoT 기기는 효율적인 조정을 위해 GPS 핑(Ping)을 통해 재고를 추적하는 작업부터 상업시설 내 침수심을 모니터링하여 재난 발생 시 신속하게 대응하는 작업까지 모든 것에 대한 방대한 정보를 쏟아낸다. 이러한 센서는 드론, 항공기, 위성, 차량, 심지어는 성층권 기구 같은 다양한 플랫폼에 장착 가능하다. 단일 플랫폼 하나로 화재 중 연기 기둥과 북한의 미사일 발사 가능성을 동시에 감지할 수 있다. 데이터 수집의 실현 가능한 영역은 어마어마하다. 본래의 공간 영상 분야, 포인트 클라우드 및 IoT 데이터 외에도 세계를 더 잘 파악할 수 있는 그 밖의 데이터가 생성될 수 있다. 휴대폰 데이터에 기반한 사람의 이동에 따른 코로나19 바이러스 추적 정보는 물론, 채굴권 토지 임대차 데이터와 과거 홍수 및 화재 지도 등도 모두 중요한 공간정보이다. 이 모든 데이터는 계획, 운영 및 재해 대응에 관한 정보를 제공할 수 있다.

Waves Of Data

Modern science and engineering give us the ability to detect along the entire electromagnetic spectrum with greater accuracy and precision than ever before. Want to find a truck in a field (use machine vision on multispectral data), if new vegetation is growing near a power line (NDVI time series from hyperspectral imagery) or if crops are under-watered (look for a decline in measured evapotranspiration)? These are all done regularly using data from various imaging sensors. Beyond optical imaging, companies like Capella Space and Iceye enable a wide range of capabilities from object detection to flood depth measurements using synthetic aperture radar (SAR). IoT devices spill massive amounts of information about everything from GPS pings for tracking inventory for efficient coordination to flood depth monitors in a commercial facility to quicken response during a disaster. These sensors can sit on many platforms: drones, aircraft, satellites, affixed to a vehicle or even from stratospheric balloons. A single platform can simultaneously sense smoke plumes from a fire and possible missile launches from North Korea. The realm of feasibility for data collection is immense. Beyond inherently spatial imagery, point clouds and IoT data, other data can be created to better understand the world. Tracking Covid-19 by the movement of people based on cell phone data and even land lease data for mineral rights and historical flood and fire maps are all crucial spatial information. All this data can inform planning, operations and disaster response.

매우 힘들고, 더욱 어려운 현 상황

데이터의 양과 다양성의 폭발적인 증가는 언뜻 일종의 ‘분수령’처럼 여겨질 수 있다. 하지만 이러한 데이터가 실무에 투입될 시 데이터를 체계화하고 비전문가가 이용할 수 있도록 해야 한다는 점에서 문제는 두 배로 확대된다. 한 가지 예로, 현재의 도구를 사용하여 GPS 데이터 같은 단순 데이터를 로드하려면 21가지의 정교한 단계가 필요하며, 현장 작업을 계획하기 위해 이미지를 구성하려면 공간정보 전문가 팀에게 고비용을 지불하고 장시간 작업하게 해야 한다. 대부분 기업의 현실에서는 공간 데이터의 방대한 소스와 용도로 인해 의사 결정권자와 운영자(군관계자부터 보험사까지 해당됨)가 데이터에 빠져 허우적대며 결정을 내리는 것을 주저하게 된다.

이 문제를 해결하기 위해 공간정보 분석 업체는 대량의 이미지를 받아서 중요 정보를 필터링함으로써 정보를 세분화할 수 있도록 도와주고 있다. 하지만 단순히 통찰력만 제공해서는 성공적인 비즈니스 모델을 만들 수 없다는 사실이 이미 입증되었다. 반면 몇몇 분석 업체는 차별화된 접근법으로 변화를 일으켰다. 독특한 접근법을 제시한 업체 중 CrowdAI 및 Ursa를 예로 들 수 있다. 이들은 사용자에게 공간 분석 자체 이상의 분석 자료를 도출할 수 있는 이해하기 쉬운 보고서를 제공하거나(Ursa), 변화 및 이상 상황 감지를 넘어서 중요 비즈니스 프로세스에 대한 피드백 루프 통합까지 제공하는(CrowdAI) 방식으로 공간정보 분석의 가치를 명확히 보여주고 있다.

원시 데이터와 분석 결과물은 처음에 보기에는 완전한 솔루션인 것 같지만, 이들은 배가 아니라 물이다. 이러한 자료는 멋진 안내서와 예쁜 프레젠테이션 슬라이드를 만들고 ‘이론적으로’는 가치를 제공하지만, 데이터가 비즈니스나 운영 워크플로와 연결되지 않은 경우 효율성이나 정확성 면에서 조직의 변화를 끌어낼 수 없다. 안정적인 비즈니스 운영 플랫폼은 공간 데이터의 여러 스트림을 융합하여 작업용 애플리케이션에 연결함으로써 이 문제를 해결한다. 보험 인수와 청구에서부터 군사 및 재해 대응 작업에 이르기까지, 이것은 데이터를 멋지게 표현하는 것을 의미하는 것이 아니라, 비즈니스 인텔리전스 및 운영 도구를 통한 의사 결정과 작업의 속도 및 정확성을 의미한다. 그 마지막 단계는 새로운 공간정보 경제의 방대한 가능성을 여는 열쇠이다. 데이터 소비는 공간 데이터의 유용성을 독립적으로 주도하는 플랫폼과 애플리케이션이 이끌어 갈 것이다.

The Status Quo Is Hard … Really, Really Hard

The unprecedented quantity, quality and variety of data seem at first glance to be a watershed. However, putting that data to work faces a twofold challenge: organizing the data and making it accessible to non-experts. As one example, with current tools, loading something as simple as GPS data requires 21 elaborate steps while assembling imagery to plan field operations requires hours of work by an expensive team of geospatial experts.

The reality for most enterprises is that the inundation of sources and uses for spatial data leaves decision-makers and operators — from warfighters to underwriters — drowning in data and indecisiveness. Geospatial analytics companies are helping refine the information by taking mass amounts of imagery and helping filter what is important. However, simply providing insights proved to be a losing business model. A few analytics companies have made waves with more nuanced approaches. CrowdAI and Ursa are a few of the more unique ones. They clearly show the value of geospatial analytics by handing users a digestible report that draws analysis from more than spatial analytics alone (Ursa) or providing a stack that goes beyond change and anomaly detection to integrating feedback loops for critical business processes (CrowdAI). While raw data and the outputs of analytics seem at first blush to be a complete solution, they’re the water, not the boat. Without linking data to a business or operational workflow, they create a nice pilot, pretty slide decks and “in theory” provide value but can’t make the leap to drive organizational changes in efficiency or accuracy. Stable business operations platforms solve this problem by fusing multiple streams of spatial data and plugging them into applications for operational use. From insurance underwriting and claims to military and disaster response operations, it’s not about beautiful displays of data — it’s about the speed and accuracy of decisions and actions through business intelligence and operations tools. That final step is key to unlocking the massive potential of a new geospatial economy. Data consumption will be driven forward by platforms and applications that independently drive the utility of spatial data.

공간정보 경제의 부상

공간 데이터를 비즈니스 환경에 직관적으로 적용하는 애플리케이션이 새로운 공간정보 도구의 채택을 주도할 것이며, 향상된 분석 및 사전 처리를 통해 운영 사용자에게 데이터를 직접 전달할 수 있다. Excel 또는 PowerBI가 명령줄에서는 불가능한 방식으로 데이터 배열에 액세스할 수 있는 기능을 비즈니스 사용자에게 제공하는 것과 마찬가지로, 공간정보 도구의 새로운 시대는 공간 참조 데이터를 활용할 수 있는 가능성을 열어줄 것이다. 데이터 수집 및 처리 분야의 획기적인 발전이 지속됨에 따라 기업은 경쟁 우위를 확보할 수 있는 기회를 얻게 되었다. 부상하고 있는 공간정보 경제의 가능성을 활용하기 위한 첫 번째 단계에는 간소화된 작업 절차로 결합할 수 있는 지도, 주소 데이터베이스 및 센서(온도, 습도 등) 같은 사일로(Siloed) 데이터 소스에 의해 초래되는 비효율성에 대해 레거시 운영 프로세스를 검토하는 작업이 포함된다. 한때 전문가에게만 허락되었던 강력하고 방대한 정보를 활용하고, 이러한 정보를 일선 직원에게 맡기는 기업은 자신들이 우위를 차지하고 있음을 알게 될 것이다.

The Rise Of The Geospatial Economy

Applications that intuitively pull spatial data into business contexts will drive the adoption of new geospatial tools, and better analytics and preprocessing allow data to go straight into an operational user’s hands. Just as Excel or PowerBI make arrays of data accessible to business users in ways a command line can’t, a new era of geospatial tools will unlock the utility of spatially referenced data. As breakthroughs in data collection and processing continue to surge, enterprises have an opportunity to establish a competitive advantage. First steps toward tapping into the power of the rising geospatial economy include examining legacy operational processes for inefficiencies created by siloed data sources, like maps, address databases and sensors (temperature, moisture, etc.) that could be combined into streamlined workflows. Those enterprises that harness the powerful flood of information once reserved for experts and place it in the hands of their frontline employees will find themselves occupying the high ground.

공간정보 산업에 종사하는 사람이라면 쉐이프파일은 없어서는 안되는, 그러나 무척 복잡히 얽힌 데이터 전송 파일임을 알 것이다. 면밀하게 살펴보면 셰이프파일(*.shp), 프로젝션(*.prj), 특성 데이터베이스(*.dbf), 인덱스(*.shx) 및 인코딩 파일(*.cpg)과 함께 또 하나의 파일(메타데이터 파일(*.shp.xml)이 존재할 수 있다는 것을 알게 될 것이다.

If you work in the geospatial industry, you will know that shapefiles are these annoying data transmission files you can’t live without. Look closely and you will see that along with the shapefile (*.shp), the projection (*.prj), the attribution database (*.dbf), indexes (*.shx) and encoding file (*.cpg), there is another file that may be present — the metadata file (*.shp.xml).

데이터에 관한 데이터

메타데이터란 ‘데이터에 관한 데이터’로 설명할 수 있다. 물론 이 설명은 조금 혼란스럽게 여겨질 것이다. 명확히 말하자면, 메타데이터는 제공하는 데이터에 포함된 내용에 대한 세부 정보를 제공한다. 이러한 정보는 데이터의 범위/경계 상자처럼 적을 수도 있지만, ISO/INSPIRE 표준(뒷부분에 자세히 설명함)을 따르는 경우에는 특히 해상도, 축척, 기록 방법, ISO 유형 분류, ISO 테마 분류, 기록된 시간, 담당자 및 연락처 정보 같은 훨씬 더 많은 정보가 포함될 수도 있다. 수많은 질문이 담긴 이메일을 보내지 않더라도, 기본적으로 누군가로부터 파일을 받을 때는 자신이 가지고 있는 것, 그리고 그것이 어떻게 만들어졌는지, 추가 정보를 얻으려면 누구에게 연락해야 하는지 등이 자세히 설명된 파일로 전송된다. 물론, 모든 공간정보 데이터에도 메타데이터가 있을 것이며, 이 메타데이터는 산업 표준인 ISO 19115(2003) 및 ISO 19139를 따른다. 그러나 US Government FGDC, INSPIRE, UK GEMINI, Dublin Core 등의 다른 표준도 있다. 관리할 수 있는 데이터 카탈로그에 어떤 표준을 삽입해야 하는 복잡성과 함께 작성하는 데 시간도 다소 걸릴 것이다. 필자의 경우, 한때 지리 정보 시스템(Geographic Information System, GIS) 직원 5명으로 구성된 팀에서 데이터를 INSPIR 표준(ISO 19115도 적용)에 맞게 작성하는 데 6개월이 걸린 적도 있었다. 많은 GIS 작업들이 알려진 GIS 기본 소스를 사용해야 하므로 다소의 어려움이 수반된다. 그렇다면 메타데이터를 포함하지 않을 경우에는 어떻게 될까? 자신만의 고유한 메타데이터는 어떻게 작성하는가? 또한 빠른 경계(quick boundary)나 관심 영역(area of interest)을 디지털화하는 경우 모든 메타데이터를 작성하는 데 한 시간이 필요한가?

Data about data

Metadata, you will be told, is “data about data”, which always sounds a little confusing. To be clear, metadata provides details about what the data you are providing contains. This can be as little as the extent/bounding box of the data, though it should, if following ISO/INSPIRE standards (more on those later), contain a lot more information such as, resolution, scale, method of recording, ISO type classification, ISO theme classification, recorded time, person responsible, and contact information, among other details. In essence, when receiving a file from someone, rather than having to send an email with a thousand questions, it is sent as a file that fully describes what you have, how it was made and who to contact for more information. As a matter of course, all geospatial data should have metadata; it is an industry standard — ISO 19115 (2003) and ISO 19139. But there are a few other standards too, like the US Government FGDC, INSPIRE, UK GEMINI and Dublin Core, to name a few. Along with the complexity of inserting a standard to the catalog of data you may manage, there is also the amount of time it will take to fill out. At one point, I had a team of five GIS (Geographic Information System) staff who spent six months completing our data to the INSPIRE standard (this covered us for ISO 19115 too). This creates a bit of a conundrum as many GIS jobs require using known GIS primary sources. So, what happens when this doesn’t contain metadata? How do you complete your own metadata? Further, if digitizing a quick boundary or an area of interest, does it require an hour of filling out all the metadata?

필수 구성요소

공간정보 산업에서 현재 가장 큰 문제는 이 산업이 얼마나 빠르게 발전하고 있는가 하는 것이다. 데이터에 대한 요구와 데이터가 전달되어야 하는 속도가 정식 경로가 아닌 샛길로 가고 있는데, 이는 공간정보 표준에 부정적인 영향을 미친다. 제품 관리자가 ‘데이터 지연’과 ‘메타데이터 완료’ 중에서 선택해야 한다면 어떤 일이 벌어질지 쉽게 알 수 있다. 공간정보 데이터를 다루지 않거나 이와 관련된 작업을 하지 않는 이들은 이러한 데이터에 대한 지원 정보가 얼마나 중요한지 이해하기 어려울 것이다.

필자의 개인적인 경험에서 보면 지난 1년 동안 공식 사이트로부터의 다운로드 받거나 이메일로 받은 데이터의 약 60%에 어떤 형태로든 메타데이터가 있었다. (필자가 접했던) 이들 데이터의 소유자 중 상당수는 필요한 정보 중 대부분을 가지고 있지 않았다. 필자의 견해상, 메타데이터는 공간정보 데이터의 필수 구성요소이다. 경우에 따라서는 데이터의 수집 방식 또는 데이터 수집 의도를 이해하는 것이 데이터 자체보다 더 중요할 수도 있다. 다른 사용자에게 제공되는 모든 데이터에는 메타데이터가 포함되어야 하지만, 필요한 세부 정보의 수준은 필자도 확실히 알 수 없다. 현재 표준을 살펴보면, 메타데이터가 소설 수준으로 매우 길며, 이는 새로운 공간정보 사용자에게 매우 혼란스러울 수 있다.

공간정보 메타데이터 표준 중 상당수가 (훨씬 더 이전이 아니라면) 10년 전에 작성된 것으로 오늘날에는 훨씬 더 우수한 기술과 기능을 사용할 수 있다. Astun Technology의 조쿡은 데이터 작성자가 중요한 작업에 더 많은 시간을 할애할 수 있도록 메타데이터의 상당 부분을 자동화할 수 있는 방법을 알아냈으며, 이 부분은 현대의 복잡한 매핑시스템에 누락된 주요 구성요소를 찾아낸 것으로 생각한다. 공간정보 소프트웨어 제공자가 이러한 반자동화를 메타데이터에 추가하고 머신러닝(Machine Learning)이나 인공지능을 적용하여 훨씬 간결한 메타데이터 양식을 제공한다면 공간정보 데이터 사용자는 더 큰 열정을 갖게 되고 양식을 보다 쉽게 작성할 수 있을 것이다. 더욱 우수하고 복잡한 공간정보 데이터에 대한 요구가 증가함에 따라 메타데이터를 더 쉽고 빠르게 작성할 수 있어야 한다. 메타데이터는 뒤늦게 생각나서 추가하는 보충 요소가 아니라, 작성하고픈 욕구로 표현되는 필수 요소여야 한다. 이를 실현할 수 있는 유일한 방법은 공간정보 소프트웨어 제공자의 지원과 국제 표준의 개선이다.

Vital component

The biggest issue the geospatial industry has at present is about how rapidly it is moving. The need for data and the speed at which it requires delivery is leading to shortcuts, which are detrimental for geospatial standards. If a product manager has to choose between whether the data is delayed or the metadata is completed, it isn’t hard to see what will happen. Those not handling or working with geospatial data will find it difficult to comprehend how important the supporting information is.

Over the last year, my personal experience has been that around 60 percent of the data I have received as download from official sites and as email has had some form of metadata. Many of the owners of this data, whom I have contacted, do not have much of the information that is required. In my opinion, metadata is a vital component of geospatial data. Understanding how the data was captured or the intention with which it was captured is sometimes more valuable than the data itself. Any data provided to another user should contain metadata, though I question the amount of detail that is required. Looking at current standards, it is close to the length of a novel and could be very confusing for new geospatial users.

Many of the geospatial metadata standards were written over a decade ago, if not longer, and there are far superior technologies and capabilities available today. This brings me to a presentation by Jo Cook of Astun Technology. She has looked at this very problem and found ways to automate a large part of this metadata, leaving the data creator more time to focus on important tasks. I think she has nailed the major missing component in our modern complex mapping systems. If geospatial software providers added some of this semi-automation to the metadata and maybe applied a little Machine Learning or Artificial Intelligence to provide a much shorter metadata form, it could provide geospatial data users with more enthusiasm and enable easier form filling. As our need for better, more complex geospatial data increases, we must make it easier and faster to fill metadata; it needs to be a desire to fill out and not an afterthought. The only way we can do this is with the support of geospatial software providers and improvements to international standards.