보도자료

연구단의 주요사업 관련 언론보도및 보도자료를 소개합니다.

‘가상공간’이 진화하면 실감나는 ‘현실’이 된다!
구분 언론보도 등록일자 2015-07-17 출처 미래창조과학부 블로그
원본 URL http://blog.naver.com/with_msip/220422917135

<글로벌프런티어 테크페어 2015: 실감교류인체감응솔루션>
‘가상공간’이 진화하면 실감나는 ‘현실’이 된다!


현실과 가상이 통합된 미래사회로 향하는 국내 신기술이 한 곳에 모두 모였습니다. 7월 9일, 10일 양일 간 마포구 상암동 중소기업DMC타워에서 <글로벌프런티어 테크페어 2015>가 개최되었는데요. 이 날 이 곳에서는 ‘실감교류인체감응솔루션연구단’의 5년간의 연구성과를 확인하고 비즈니스 파트너링을 맺는 자리였습니다. 미래창조과학부의 글로벌 프런티어 사업인 실감교류인체감응솔루션연구를 통해 창출된 연구 성과를 국내외 기업 및 연구자들에게 공개하여 기술이전·사업화를 촉진하고, 연구단과 수요 기업 간의 협력 네트워크를 형성하는 계기를 마련한 시간이었습니다. 미리 만나는 신기술이 가득한 2030년! '현실과 가상이 하나 되는 연구 성과발표회' 현장의 이모저모를 저와 함께 보러가시죠~!


■ 글로벌프런티어 사업이란?
글로벌프런티어 사업은 90년대 'G7프로젝트', 2000년대 ‘21세기 프런티어’를 잇는 대형국가연구개발 사업으로, 미래 전략 분야의 ‘세계 1등 원천기술’ 확보를 위해 실행되었습니다. 세계 최고 수준의 원천기술 개발로 차세대 경제 성장 동력을 창출하는 목적의 '글로벌프런티어' 사업은 선도성, 혁신성, 융합성, 파급성 네 가지의 철학으로 운영되고 있습니다. 연구단별 연간 100억 원 내외를 최대 9년(2+3+4) 지원하는 국가 대형 사업으로 그 규모가 엄청난데요. 이는 10~20년 뒤 미래 사회의 국가 및 글로벌 이슈에 대한 선제대응을 하고, 세계 최고의 원천-융합-글로벌 연구역량 등을 확보하기 위함입니다. 2010년 최초 선정된 3개* 연구단이 올해(9월) 3단계에 진입(5년 경과)하게 됨에 따라, 이 날은 그간의 연구 결과를 공개하고, 성가와 경제적 파급성 등을 평가하는 2단계 평가가 진행되었습니다.

*3개 연구단: 의약바이오컨버젼스연구단, 실감교류인체감응솔루션연구단, 차세대바이오매스연구단


저는 실감교류인체감응솔루션연구의 5년간의 괄목할만한 성과를 확인하는 자리에 다녀왔는데요. 이 연구를 진행한 ‘실감교류인체감응솔루션연구단(CHIC)’은 2010년에 출범하여 인간·로봇·가상사회가 실시간으로 소통하는 인체감응솔루션을 개발하는 일을 해오고 있습니다. 멀리 있는 사용자들이 실시간으로 소통·공유하여 공존감을 느낌으로써 서로 교류하고 협업할 수 있는 ‘현실-가상-원격 공간이 하나로 통합된 혼합 공간’을 만드는 것이 이들의 목표입니다. 이 연구단은 실감 스마트스쿨, 실감 스마트워크, 실감 원격진료, 실감 교육/체험이 미래 사회에서 자연스럽게 대중화될 수 있도록 스마트 실감미디어 시장 창출 및 경쟁력 확보하고자 노력하고 있습니다.


■ 글로벌프런티어 테크페어 2015 보러가기! -실감교류인체감응솔루션연구
대회의실에서 실감교류인체감응솔루션연구단의 성과발표회를 알리는 개회식이 진행되었습니다. 많은 연구진, 기업 관계자 들이 참석하여 자리를 빛내주었는데요. 먼저 유범재 솔루션연구단장님의 축사가 있었습니다. “2010년부터 시작한 현실과 가상의 통합을 위해 인체감응솔루션을 개발해왔습니다. 사업 초반에는 3차원 영상을 과연 손으로 조작하고 만질 수 있을까, 공간에 글자나 그림을 그릴 수 있을까, 착용장비 없이 촉감을 느낄 수 있을까 등의 질문이 많았습니다. 이에 대한 해답을 찾기 위해 혁신적인 아이디어를 내왔었고, 그 가능성에 대한 답을 찾아서 오늘 보여드리고자 합니다.”

이어서 박재문 미래창조과학부 연구개발정책실장님의 축사가 이어졌습니다. “글로벌프런티어 사업은 과거의 국가개발연구사업 맥을 잇는 것입니다. 단, 과거의 프로젝트가 선진국을 따라가기 위함이었다면 글로벌프런티어 사업은 더 이상 따라갈 것이 없는, 새로 개척해야하는 선도형 R&D를 추구하는 사업입니다. 이번 정부의 창조경제를 이어나가는 데에도 가장 중요한 역할을 합니다.” 미래부에서 야심차게 준비한 국가적인 큰 사업인 만큼 관심이 매우 높음을 알 수 있었는데요. 가상공간에서 새로운 서비스를 만들어내는 역할에 머무르지 않고 IT 생태계의 본질적인 혁신과 변화를 가져올 수 있는 큰 일을 해낼 것이며, 이는 차세대 동력을 창출해내는 데 큰 역할이 될 것이라며 말을 마쳤습니다.


■ 대한민국을 우뚝 서게 할 연구 성과 및 기술을 모아모아!

약 20여 분간의 개회식을 마치고, 34개의 우수성과들이 모인 기술전시회 관람을 위해 2층 DMC홀로 이동하였습니다. 사용자의 행동을 캡처하고 데이터를 생성하여 가상의 아바타를 실시간으로 생성하는 기술이나, 웹 카메라를 기반으로 사용자의 뇌, 심장 정보를 측정하여 건강이나 보안 분야에서 쓸 수 있는 기술 등 다양하고 놀라운 연구들이 많이 있었는데요. 눈에 띄던 몇 가지 기술들을 소개해드릴게요.


□실시간 인터랙션 가능한 4D+미러월드 및 휴먼 아바타의 생성 및 표현기술
내가 입은 옷, 나의 머리 모양, 나의 동작, 즉 내 모습 그대로가 3D 모델이 되어 컴퓨터에 나타난다면 어떨까요? 또는 지금 내 눈 앞에 물체가 없어도 그것의 표면 질감을 느낄 수 있다면 어떨까요? 가상공간 안에서 ‘나’의 있는 그대로의 모습을 대변하고, 물체의 질감을 내 피부로 느낄 수 있는 놀라운 기술이 나왔습니다. <3D 신체 모델링>, <데이터 기반 햅틱 속성 모델링 및 인지기반 자동 속성 부여> 등의 기술을 개발 중인 한국과학기술연구원 영상미디어연구단의 안상철 단장님의 도움을 받아 자세히 알아보았습니다.

“이 기술은 가상 공간을 잘 꾸며서 물체와 사람의 모델, 즉 아바타를 만들어 현실공간과 연동시키는 것을 주목적으로 합니다.” 사람을 모델링하는 스캐너장비가 턴테이블에 올라 간 사람을 촬영하고, 이 때 턴테이블은 세 바퀴 반 정도 천천히 회전합니다. 그리고 몇 분 지나지않아 뚝딱!하고 그 사람은 3D 모델로 만들어지는데요. 백문이불여일견! 직접 체험해보았습니다. 턴테이블 위에 가만히 서서 몇 바퀴 돌았더니 ‘벌써?’라는 생각이 들 정도로 금세 스캔이 완료되었고, 몇 분 지나지 않아 컴퓨터에는 그 때의 제 모습이 그대로 3D로 옮겨져 있었습니다. 우와~ 정말 신기하고 신선한 느낌이 들었습니다! 한 가지 아쉬운 점은 판이 돌아갈 때 몸을 움직이지 못하고 시선도 정면을 바라보고 있어야 한다는 것이었습니다. 그래서 3단계 연구에서는 자연스럽게 움직이면서도 모델링이 되도록 개발한다고 합니다. 그것이 성공적으로 완료된다면 객체가 움직여도 모델링되기 때문에, 자신의 애완견도 3D 모델로 만들 수 있게 되겠죠.


깜~짝 놀랄 정도로 실제와 99.9% 유사하였답니다.

어떻게 이렇게 실제와 흡사하게 스캔이 되는 걸까요? 바로 카메라 때문입니다. 거리와 색상을 계산하는 카메라 두 대를 사용합니다. 거리를 재는 카메라가 카메라에서부터 내 몸까지의 거리를 측정하고, 이것들을 데이터화하여 형상을 만들어냅니다. 이렇게 3D 몸통이 완성되죠. 이제 색을 입히기 위해 텍스쳐 계산을 해야합니다. 턴테이블이 돌 때 카메라가 사진을 백 여장 찍는데 이것을 이어붙이는 작업을 합니다. 그렇게 되면 단색 몸체에 얼굴색, 머리 색, 옷 색 등이 입혀지는 것이죠!


3D 모델을 만듦으로써 가상공간안에서 이것들을 활용하여 콘텐츠를 즐길 수 있죠. 그러나 고정된 3D 모델링만 형상화된다는 것이 해결해야 할 숙제인데요. 가상공간 안에 아바타를 넣는 이유는 그 속에서 나를 대신하게끔 하려는 목적도 있는데, 아바타가 뻣뻣하게 서있으면 이상하겠죠? 그래서 표정을 자유자재로 변화할 수 있는 모델링 기술의 필요성을 언급하면서, 사진 한 장만 있어도 아바타가 눈을 깜빡이거나 입을 벌리거나 할 수 있는 모델을 만드는 중이라고 합니다.

3D 프린터는 핫이슈로 자리잡고 있지만 3D 프린터가 보급되기에는 그것을 일반인이 구매해서 제대로 쓸 만큼의 콘텐츠가 없죠. 일반인이 3D 도안을 자급자족하여 만들기엔 많이 어려우니까요. 그런데 이 연구팀은 일반인이 보다 쉽게 자신의 소유물을 3D로 만들 수 있게끔 기술을 개발중이니, 3D 프린터 업체의 관심이 많다고 합니다. 얼굴 모델링은 영화나 애니메이션 쪽의 관심이 높다고 하는데요. 요즘엔 가상 캐릭터들이 영화에 나오는 경우가 많은데, 실제 캐릭터를 본따서 표정 변화를 쉽게 하는 것이죠.

실감나는 가상공간을 꾸미기 위해 형상 모델링만이 아니라 물체의 질감도 중요하다고 하였는데요. 이것을 햅틱속성이라 하는데, 표면의 꺼끌꺼끌함이나 매끄러움을 모델링하기 위해서는 햅틱 장치를 이용해서 측정해야 한다고 합니다. 그러나 이 장치가 일반인들이 쓰기에는 매우 비싸서(몇 백~몇 천만 원) 일반인들도 쉽게 모델링할 수 있도록 저렴한 가격에 만들고 있다고 합니다. 어떻게 하고 있을까요? 물체에 대해 어떤 표면 속성을 가지고 있는지 다 측정하여 라이브러리에 저장하는 것이죠. 화이트보드 지우개를 3D 객체 모델링화하면 모니터에는 그 표면의 재질들이 사진으로 보이는데요. 그 모델과 라이브러리에 있는 것을 자동으로 비교하여 가장 유사한 재질을 찾아 가져오는 것이죠.


펜을 쥐고 그 앞으로 손을 움직이면(사진 속 화이트보드 지우개의 빨간색 점_첫번째 사진) 더 이상 펜이 움직이지 않을 때가 있는데요(초록색 점_두번째 사진).
바로 무형의 물체에 접촉했기 때문이죠! 앞에 물체가 있어서 더이상 손을 뻗을 수 없는 것입니다.
물체의 표면에 펜이 닿은 상태에서 펜을 움직이면 그 펜에서 물체의 질감이 전해집니다.
펜을 조금 더 위로 올려 앞으로 뻗으면 윗면이 접촉되겠죠?(세번째 사진)

가상공간에 내가 들어가서 움직이고 표정도 바뀌고 그 속에서 만난 물건의 감촉까지 느낄 수 있다니. 상상만으로도 놀랍고 신기하네요!


□ 몰입현실 지원 Full-HD 광각 Video See-through HMD 기술
‘3D’영상을 ‘리얼’하게 경험할 수 있는 가장 좋은 방법은 ‘내가 그 안에 들어와있는 것이 느껴지지 않고 진짜 현실이라고 생각하게 되는 것’이 아닐까요? 그러기 위해서는 우선 시각적으로 가상현실에 제압이 되어야 할 것입니다. 그래서 세상에 등장한 것이 HMD*이죠. 이는 가상현실 체험을 위한 헤드셋 장비로, 이를 착용하고 고개를 움직이면 움직인 방향의 모습을 실제로 보여주는 것입니다. 그래서 HMD를 쓰고 앞을 봐도 화면을 보는 것 같지 않고 그 안에 내가 들어가 있는 듯한 느낌이 들죠.

*HMD(Head mounted Display): 안경처럼 머리에 쓰고 대형 영상을 즐길 수 있는 영상표시장치다. 휴대하면서 영상물을 대형화면으로 즐기거나 수술이나 진단에 사용하는 의료기기에 적용할 수 있는 차세대 영상표시 장치다. 출처: [네이버 지식백과] HMD [Head mounted Display] (용어해설)


기존의 HMD는 화상이 정말 좋은 대신 화각이 좁거나, 화각이 넓어서 화면이 크게 보이는 대신 화상이 떨어지는 경우가 종종 있습니다. 화상이 좋고 화각이 클수록 실제처럼 느끼게 되는 몰입현실을 경험하기 쉬운데 두 개가 잘 충족되지 않았죠. 또한 대부분 HMD의 크기가 매우 크고 무겁기 때문에 이동성, 착용감 면에서도 많이 불편했습니다. 그래서 연구단은 HMD의 특성을 살리고 실생활에서 쓸 수 있는 ‘안경형’ HMD를 개발하게 되었습니다.

그렇다면 기존의 HMD는 왜 클까요? 돋보기에는 초점거리가 있어서 눈에 가까이 붙일 수가 없습니다. 그러다보니 렌즈와 디스플레이의 거리가 크게 뜨는데요. 광학상의 이유라 어쩔 수가 없다고 합니다. 그러나 이 연구단에서는 작은 케이스에 들어가는 광학계를 개발하여 렌즈와 디스플레이의 거리를 좁혔습니다. 눈을 바짝 대고 볼 수 있도록 30mm로 줄여 납작하게 한 것이죠.


보안상 이번 전시에서는 안경형 HMD의 실물을 공개하지 않았는데요.
대략 사진에서 보이는 크기 차이라고 하네요! 차이가 확연하죠?

크기가 사용자에게 미치는 영향은 굉장히 크다. 지하철에서 주먹보다 더 큰걸 쓰고 있기는 어렵죠. 그러나 연구단에서 개발 중인 HMD는 착탈이 용이할 뿐만 아니라, 화장품, 땀, 냄새 등 위생의 문제도 줄일 수 있습니다. 무게도 가벼워서 이동성도 좋아지죠. 개발에 참여한 이중호 선임연구원은 이 HMD에 대해 다음과 같이 말했습니다. “‘언제 어디서든 가상세계를 경험할 수 있게끔 하고 싶습니다. 현실과 가상을 빠르게 이동할 수 있도록 작고 가벼운 디스플레이를 만들고자 했죠.”

게임에서는 HMD가 많이 쓰이는 걸 알고 있는데…, 그럼 실생활에서는 어떻게 쓰일까요? 지하철에서 대부분의 사람들은 스마트폰을 쓰고 있죠. 이 HMD가 안경이 되어 상용화된다면 앞으로 스마트폰을 주머니에 넣은 채로 조작할 수 있게 됩니다. 착용한 안경에서 스마트폰의 화면이 나타나기 때문이죠!

“3단계 안에는 개발이 완료될 것으로 예상합니다. 안경과 완전히 동일한 외관을 만드는 것이 목표입니다. 이것이 선글라스인지 HMD인지 구분 안 되도록 말이죠.” 이중호 선임연구원은 안경형 HMD에 대한 확신을 보여주었는데요. 가볍고 안경과 똑같은 형태의 디스플레이라니. 저 역시도 무척이나 설레네요!


□ 실시간 3D 그래픽스 구현을 위한 병렬처리형 소프트웨어 라이브러리 개발
요소가 많이 있고 복잡한 장면일수록 실시간으로 렌더링하는 것이 매우 더디다고 합니다. 예를 들면 고성능 그래픽 게임을 할 때 소위 말하는 ‘렉’이 걸리는 경우도 이 때문이죠. 이런 버벅거림을 최소화하고 효율성을 최대화로 높이기 위한 기술을 개발했습니다.


마우스로 화면을 이리저리 움직여도 연구팀이 개발한 기술은 화면의 지연없이 부드럽게 이어집니다.
(동영상 줌인·줌아웃 조작X/화면을 마우스로 움직였을 때 모습)

모델이 무수히 많아지면 화면이 움직일 때 뚝뚝 끊기는 지연 현상이 발생합니다. 다른 화면을 보고 싶어 마우스를 움직여도 버퍼링이 걸린 것처럼 매우 느리게 움직이는 것이죠. 이는 화면에 보이지 않는 부분, 예를 들면 앞에 나온 객체가 뒤에 있는 객체를 가려 보이지 않는 뒤의 부분이 있더라도 그 모양까지 컴퓨터가 계속 계산을 하기 때문이라고 합니다. 기존의 기술은 보이지 않아서 계산하지 않아도 되는 ‘불필요한 것’을 판별하는 것이 매우 더뎌 ‘그냥 그려라’라고 명령을 내렸지만, 이 연구진에서 개발한 기술은 뒤쪽의 물체를 빨리 판별하여 ‘가려져 있는 부분이니 그리지 않아도 된다’고 결정합니다. 따라서 성능이 확 올라가며 버퍼링을 최소화할 수 있는 거죠.


이것이 중요한 이유는 다음과 같습니다. HMD를 착용할 때 사용자가 움직이는 데에 따른 영상의 반응이 느리다면 어지러움을 느끼게 되는데, 영상이 눈을 바로 따라오지 못하기 때문이죠. 이 기술이 HMD와 접목된다면 훨씬 빠르게 렌더링되어 어지러움을 덜 느끼게 됩니다. 이는 인터랙션을 빠르게 돕기 때문에 게임엔진이나 그래픽을 많이 쓰고 상호작용하는 콘텐츠에 접목하여 사용할 수 있습니다. 뒤에 가려진 걸 굳이 계산하지 않음으로써 성능을 끌어올릴 수 있으니 남은 리소스를 다른 활동에 써서 더 좋은 성능을 내게끔 도와준다는 것이죠.


□ 공존감 지원 실감교류 확장공간 소프트웨어 프레임워크 기술 개발
벽에 그림을 그리고, 종이에 그림을 그리고, 지금은 핸드폰에 그림을 그리는 시대입니다. 이 다음은 무엇일까요? 아무것도 없는 허공에도 글과 그림을 쓸 수 있다면 믿을 수 있나요? 은 ‘키보드’가 아닌 ‘손’을 이용해서 ‘공중’에 글씨를 쓰는 기술입니다. 가상의 보드가 앞에 있는 것처럼 느끼고, 터치스크린을 사용하는 것처럼 삼차원 공간에서 글 또는 그림을 그리는 등의 자유로운 인터랙션을 하는 것인데요. 이는 단순한 쓰기가 아닌 VR(가상현실)에서의 새로운 입력 장치인 것이죠. 단순히 글쓴 것을 보여주고 싶으면 그 상대방은 이것을 볼 수 있는 프로그램만 있으면 됩니다. 정보를 모니터로 볼 수 있기 때문에 실시간으로 공유가 가능해지죠.


현재 드론 조종에도 구현 중이라고 합니다. 비행기 조종사가 있는 뷰에서 손가락을 위 혹은 아래로 움직이면 그 방향대로 기기가 움직이는 것이죠. 그런데 허공에서 정말 아무것도 없이 하면 초반에는 현실감이 떨어지고 제대로 원하는 패턴을 그리지 못할 수 있기 때문에 반지같은 장구를 껴서 진동을 준다고 합니다. ‘Air-Writing’에서는 글을 쓰이는 표면이 ‘여기’인데 그 ‘여기’가 사람 눈에는 보이지 않잖아요. 그래서 그 면보다 더 깊이 팔을 뻗을 수 있고, 혹은 그 면에 아예 닿지 않을 수도 있기 때문에 진동을 넣은 것이기도 합니다.(이 때의 진동은 반지를 착용하지 않아도 느낄 수 있습니다!) 그럼 표면까지의 거리는 어떻게 할까요? 깊이를 계산하는 카메라가 하는 건데요. 기기를 착용하여 손끝까지의 거리를 알아내는 것입니다.


“공존감을 표현할 수 있는 수단이 뭘까…. 그러기 위해서는 일차적으로 ‘정보가 공유되어야 한다’고 보았습니다. 같이 있음을 느끼려면 서로 교류가 가능해야 하죠. 이를 1차 타깃으로 하여 진행한 입니다.” 본 기술의 개발에 함께 한 이지용 씨는 ‘Air-Writing’에 대해 위와 같이 말했는데요. 공간상에서 자유롭게 그리고 자연스럽게 정보를 입력하여 다른 사람과 상호 소통할 수 있는 신개념 인터랙션 장치의 보급이 정말 기다려집니다!


■ 인터뷰:: 유범재 실감교류인체감응솔루션연구단장이 말하는 ‘혼합현실’
성과발표회의 첫 날이 저물어 갈 무렵, 유범재 실감교류인체감응솔루션연구단장님을 만나 뵙고 이야기를 나누어 보았습니다. 유범재 단장님이 생각하는 연구 사업과 미래 사회는 어떤 것일까요?

Q. ‘실감교류인체감응솔루션’이라는 말이 낯선 일반 국민들을 위해 쉽게 설명 부탁드립니다.
A. 요즘엔 카카오톡, 페이스북 등 모바일 메신저를 많이 쓰고 있는데요. 서로 같이 있지는 않지만 함께 소통하도록 만들어준다는 장점이 있습니다. 이처럼 ‘실감’이라는 것은 텍스트만이 아니라 입체영상, 입체음향, 촉감, 진동감, 역감 등을 원격지에 있는 사람들과 함께 공유할 수 있도록 합니다. 그 안(현실과 가상을 오가는 곳)에서 서로 소통하며 일도 하고 놀 수 있게 해주죠. 이런 다양한 휴먼 인터페이스와 소프트웨어들을 한꺼번에 묶어 ‘실감교류인체감응솔루션’이라 정의합니다.


Q. 단장님께서는 이러한 신기술이 중요해진 이유 및 신기술의 필요성이 무엇이라 생각하세요?
A. 전세계적으로 현실공간과 가상공간의 경계를 허물어가는 연구와 제품이 상당히 많이 나오고 있습니다. 국가적으로도 기술적 경쟁력 확보를 위해, 미래의 신산업 창출하기 위해 이런 연구들을 진행하고 있고요. 지금은 화상회의만 가능하지만, 앞으로는 한 공간에 있는 것처럼 보면서 하고, 직접 자료를 쓰거나 만지거나 조작하면서 회의하는 것이 가능해지죠. 또한 HMD 착용 등을 하면 지방에 있어도 서울에 있는 선생님으로부터 강의를 들을 수 있기 때문에 교육수준의 격차도 조금은 해소 할 수 있다고 생각합니다. 같은 맥락에서 본다면, 도서 지역에 의료진이 거의 없어도 원격진료로 인해 이를 해결할 수 있고요.
요즘 싱글족이 유행인데요. 저는 그 원인이 외로움이라고 생각합니다. 그러나 그들 대부분은 자기  집에 누구를 들이는 것을 싫어하지만, 가상공간 안에서 누군가를 만나는 것은 좋아합니다. TV나 HMD를 이용해서 집에 있어도 다른 사람과 함께 만나서 소통할 수 있으니, 혼자라는 외로움을 없애줄 수 있다고 생각합니다.


Q. 실감워크, 실감클래스등 ‘실감’이란 단어가 돋보이는데 여기서의 '실감'이 함축하고 있는 의미는 무엇인가요?
A. 예전에 2년 정도 기러기아빠 생활을 했었는데, 그 때 자녀들과 화상회의 했을 때 무척 좋았습니다. 단 아쉬운 점이 있었다면 아이들의 어깨라도 툭툭 쳐주며 만져줄 수 없다는 것이었죠. 이는 스카이프 등으로는 해결 할 수 없는 문제죠. 그러나 만약 시·청각 말고 다른 감각을 추가적으로 줄 수 있다면 더 실감나게 서로 느낄 수 있게 되니 사회적으로 혹은 정서적으로 매우 긍정적이라고 생각합니다.

 
Q. 한 때는 걸어 다니면서 TV보고, 바다 건너 사는 사람과 실시간으로 대화할 수 있다고 생각도 못했잖아요. 그런 것처럼 신기술도 언젠간 생활에 들어오게 될 것이라 보는데요. 이런 기술들이 우리 생활에 자연스럽게 녹아내리려면 필요한 게 뭘까요? 그리고 그 시기는 언제쯤이라고 예상하세요?
A. 우리가 하고 있는 기술은 고속으로 데이터를 주고받을 수 있는 ‘네트워크’ 인프라가 굉장히 중요합니다. 정부나 통신 회사를 보면 한창 이야기되고 있는 것이 ‘5G’인데요. 이에 대한 기본적인 프레임이 2018년쯤에 완성된다고 합니다. 아마 그 시기에 맞추어 연구단의 결과물을 잘 결합해서 보여주면 가시화되지 않을까 생각하고 있습니다. 물론 잔기술들은 그 전에 기업들을 통해 많이 이전되겠지만 2018, 2019년부터 부분적으로 우리의 일상 생활 속으로 들어올 수 있지 않을까 예상합니다. 즉, 우선적으로는 네트워크가 중요하고, 감각을 느낄 수 있는 디바이스와 디스플레이 장치 등도 필요하겠죠.


Q. 2단계까지 연구진행이 되었는데, 기분이 어떠세요?
A. 이 사업이 시작 될 때, 혁신형 원천기술을 개발하라는 것이 기본적인 요청이었습니다. 이때까지 없던 기술을 개발하거나, 있는 기술이지만 방법을 달리해서 혁신성을 확 올릴 수 있는 것을 개발해달라는 것이었죠. 그 당시 연구자들은 과제를 해오던 개념이 요청과 달랐기에 그것에 준비가 잘 안 되어 있었습니다. 통상 쓰이는 표현을 하자면, 과거에는 미국· 일본이 해 놓은 것을 따라가는 쪽이었는데 그것이 아니라 ‘대한민국이 이끌 수 있는, 처음으로 하는 기술을 하라’는 것이었죠. 어디로 가야하는지 길도 안 보였고, 생전처음으로 허허벌판에 혼자 서있는 기분을 많이 받았습니다. 그랬던 과정을 거치면서 지금이 왔네요. 과거에 ‘될까?’했던 많은 것들이 현실로 왔습니다. 연구자들과 머리를 맞대며 굉장히 많은 토론 및 언쟁을 했었는데, 굉장히 감사한 마음입니다. 앞으로 갈 길이 아직 남았지만 많이 기쁩니다.


Q. 이번 연구 성과 발표회의 의의와 이로 인해 기대하는 바가 있다면 무엇인가요?
A. 총 두 가지로 말할 수 있습니다. 우선 (1)일반 국민에게 이 사업단에서 어떤 연구를 하고 있고 그를 통해 미래가 어떻게 바뀔 수 있다는 비전을 전달해드리는 기회로서의 의의입니다. (2)미국·일본은 치고 나가고 중국은 따라오고 있는, 이처럼 어디로 가야할 지 갈피를 못 잡는 상황에서, 기술을 공개함으로써 국내 기업들에 미래의 방향을 조금이나마 제시해줄 수 있다고 생각합니다. 기술 교류를 시작할 수 있는 자리로 준비를 했습니다. 기업간의 협력이 잘 이루어져서 대한민국이 앞서갈 수 있는 콘텐츠가 나오면 굉장히 좋을 것 같습니다.

 
Q. 연구단의 향후 계획과 최종 목표가 어떻게 되나요?
A. 우선 지금까지 개발해 온 원천기술을 제품화에 근접할 수 있도록 혁신형 원천기술로 개발하는 것이고요. 다른 하나는 기업들로부터 제품화에 대한 계획을 받을 것입니다. 시일 내에 제품화를 할 수 있는 아이템을 선정하여 지원할 것입니다. 새로운 산업에 대한 기반이랄까요? 인프라를 제공할 수 있도록 여러 시도들을 하려고 합니다.


Q. 단장님께서는 신기술이 가득한 미래사회를 어떻게 그리고 싶으신가요?
A. 기술을 개발하는 목적은 인간을 앞서거나 무시하기 위함이 아니라, 사람을 조금 더 잘 도와줄 수 있고 사람이 편리하게 생활할 수 있도록 인간을 도와주기 위함입니다. 그런 차원에서 볼 때 우리가 개발하고 있는 것들은 사람들이 고립되지 않고 다른 이들과 함께 생활하고 공존하고 있다는 사회적인 연대감을 느끼도록 해주는 것입니다. 이를 통해 서로를 이해하고 소통할 수 있는 사회, 그럼으로써 더 따뜻한 사회가 되기를 기대합니다.


■ ‘가상공간’이 진화하면 ‘현실’이 된다!

지금도 텔레프레즌스*가 있어서 원격지의 사람과도 대화할 수 있지만 ‘모니터’가 있어서 분명한 경계가 있죠. 실감교류인체감응솔루션연구단이 추구하는 것은 그 중간의 경계를 허물어서 현실에 있는 사람과 원격에 있는 사람이 같은 공간에 있는 것처럼 느낄 수 있는 확장공간을 구축하는 것입니다. 물론 단순히 공간만 하나로 만드는 것이 아니라 그 안에서 정보 공유가 가능하여 이용자들 간의 인터랙션이 가능하도록 하는 것이죠. 간단히 말하면 연구단이 내세우는 것은 이렇습니다. ‘자유로운 소통’! ‘공존감의 실현’!


*텔레프레즌스(Telepresence): 참가자들이 실제로 같은 방에 있는 것처럼 느낄 수 있는 가상 화상회의 시스템. 출처: [네이버 지식백과] 텔레프레즌스 [Telepresence] (IT용어사전, 한국정보통신기술협회)


기본적인 원천기술 개발을 착수한 1단계에서 본격적으로 인체감응솔루션 개발을 진행한 2단계까지 왔습니다. 이제는 지금까지 나온 원천기술을 이용하여 실제로 확장공간을 구축하고 기업과 협력하여 실용화를 추진할 3단계에 접어들게 될 텐데요. 추진해왔던 세계 최초, 세계 최고의 원천기술 개발 단계는 계속 진행될 예정이라고 합니다. 기존의 VR(가상현실), AR(증강현실), MR(혼합현실)에서 이후 새롭게 등장할 CR(Coexistence Reality; 공존현실)로의 도약을 준비중인데요. 대한민국의 새롭게 변화해 갈 미래가 매우 기다려집니다. 사업이 완료 될 4년 후 어떤 모습으로 우리 삶의 혁신을 가져다줄지 다함께 두근거림을 안고 지켜봅시다! 이상 <글로벌프런티어-실감교류인체감응솔루션연구 연구성과 발표회>의 취재였습니다.

다음글가상현실…진짜 ′현실′ 된다
이전글한국에서 파리 모델의 옷을 입혀본다?