BUILD 행사에 갔었습니다. MS의 초청으로.. (땡큐)


많은 사람들이 관심이 있던 홀로렌즈 시연이 있었습니다. 마이크로소프트의 홀로렌즈를 처음 써본 전 세계의 몇 안되는 민간인으로서 그  느낌을 제대로 전달하면 좋을 것 같아서 한마디 적습니다. 동영상을 보신 분들도 계시겠지만 마이크로소프트 BUILD 컨퍼런스 사이트에 가시면 데모 동영상이 있습니다. 첫날 키노트 후반부에 홀로렌즈에 관한 소개가 있었습니다. 윈도우10이 스크린이 없는 디바이스에도 돈다고 하면서 나왔습니다. 

< 키노트에서 했던 시연 영상 >


< 키노트에 보여준 파트너 영상>


우선 위의 키노트 동영상을 보면 진짜와 가짜(컴퓨터로 만든 화면)들이 섞여 있는데.. 느끼셨겠지만 무대와 가구와 로봇의 아래쪽 구동부분, 사람 빼고는 다 (지구본, 벽에 붙은 모든 모니터 화면, 날씨가 보이는 해변, 강아지, 탁자위의 인형, 로봇의 머리 부분) 가짜 입니다. 홀로렌즈 기준으로 보면 진짜 가짜와 가짜 가짜가 있는데, 무대 바로 뒤의 나무벽 일부(홀로렌즈 시연 때 TV 화면 키우는 장면의 배경이 되는 창문이 있는 뒷벽)는 무대의 일부인 스크린입니다. 화질이 너무 좋아서 진짜 나무벽 처럼보입니다. 그리고 페이스북에, 데모 동영상은 어떻게 찍었나 하는 분들이 많이 계신데, 아마 동영상 촬영에 사용된 카메라는 홀로렌즈와 연동되는 카메라인 것 같습니다.

저는 참가자들 중 일부를 랜덤 추첨(? 했다고 믿고 있습니다.)해서 실제 써보는 데모 세션에 초대되었습니다. BUILD 컨퍼런스 옆에 있는 인터콘티넨탈 호텔에서 따로 마련된 데모 룸에서 진행되었습니다. 삼엄한 경비...

첫번째 감상: 다음 번에 샌프란시스코에 올 때는 인터콘티넨탈의 비싼 방에서 자야겠다. 27층 코너룸 양쪽에 데모 참가자 대기실 겸 락카 (모든 소지품, 특히 카메라 류을 압수해서 보관..)가 있는 방이 었는데, View가 진짜 좋았습니다.

어쨌거나, 데모는 다음과 같이 진행되었습니다. 대기실에서 두 눈의 촛점거리를 재고, 홀로렌즈 쓰는 방법을 시연한 뒤에, 한 사람씩 한 호텔방에 들어가면 두 명의 시연 도우미가 있습니다. (호텔의 27층을 통째로 빌렸나봅니다. 한 데모 세션에 십여명이 참여하는데 각자 다른 방에서 데모를 합니다.) 한 사람은 저를 따라다니면서 안내하고, 또 다른 사람은 컴퓨터를 조작. 

실제 데모는 키노트에서 소개된 (아래) 동영상의 빌딩 건축 장면을 건축가가 되어서 해보는 것으로 진행되었습니다. (아마 다른 방도 같은 것을 했을 거라고 생각됩니다.) 호텔 방(거실)에는 건축 모형과, 방에는 건설 중인 한 층을 만들어 놓았습니다.  

홀로렌즈 기계를 그 방에 들어가 처음으로(당연히) 써봤습니다. 머리 크기에 딱 맞도록 조절이 되고, 안경은 벗고 쓰도록 되어 있습니다. 착용감은 나쁘지 않았습니다. 

첫번째 느낌: 오큘러스 리프트와는 완전히 다르다는 겁니다. 완전 덮어쓰고 전체가 가짜 화면인 오큘러스와 달리, 실제 안경 넘어 보이는 진짜 세상이 잘(옅은 선글라스 수준) 보이고 그 위에 선명한 홀로그램 화면이 뜹니다. 화면은 시야 전체를 커버하는 것이 아니고, 네모난 가짜 화면이 시야 앞쪽에 보이고, 그것이 진짜 세상위에 겹쳐보이는 형태 입니다. (둘쨋날, 홀로렌즈 개발 도구에도 관여하고 있다고 주장하는 MS의 매니저와 미팅을 했는데, 화면을 꽉 채우면 어지러움이 더 해서, 가장 편안한 사이즈의 화면을 선택한 결과라는 설명..) 해상도가 매우 높아서 진짜 세상 위에 상당히 실감나는 그림이 올라옵니다.

키노트 동영상이나 실제 키노트에서 홀로렌즈를 쓴 사람들이 뭔가 어색하게 걸어나오는 느낌이 있는데요.. 그건 아마 홀로렌즈가 비싸서 조심하느라고 그런 것 같습니다. 실제로는 그걸 쓰고도 시야를 전혀 가리지 않기 때문에, 착용감에 익숙해지면 어색하게 걷지 않아도 됩니다.

두번째는 머리의 움직임을 진짜 정확하게 따라옵니다. 저는 늘 이런 첨단 기술에 상당히 보수적인 입장이었지만, 이건 정말 제대로 만들었다는 느낌입니다.  고개를 이리저리 돌릴 때 실제 영상과 정확하게 (이럴 수는 없는거야 수준으로 정확하게) 싱크가 맞는 가짜 화면이 덮어져서 나오기 때문에 이질감이 거의 없습니다. 전문 용어로 개꿀짱입니다.

시연은 컴퓨터 모니터 화면의 3D 모델에서 시작되었습니다. 그 모델을 마우스로 조정(빌딩의 높이를 키우고 줄이고..)하다가 모델을 클릭해서 빌딩을 옆에 있는 건축 모형쪽으로 (모니터 화면 밖으로) 드래그를 하니, 조형물(진짜) 위에 컴퓨터 화면의 모델 빌딩이 홀로그램으로 짠하고 나타납니다. 거기서 주변의 건물이 있는 상태에서 홀로그램 모형을 역시 마우스로 이리저리 바꿔 보는건데.. 완전 실감이 납니다.

즉, 조형물을 실사로 보면서, 내가 만든 모델을 이리저리 모양과 크기를 바꾸는 것을 할 수가 있고, 더 훌륭한 것은 가짜 화면에 있는 한 사람(아바타)을 클릭하면 View point가 그 가짜 사람으로 바뀌어 (즉, 내가 그 사람 위치에서) 건물을 보는 겁니다. 이때 홀로그램 화면은 진짜 조형물 전체에 가짜 그림을 rendering해 덮어서 게임화면 처럼 됩니다.... 눈 내린 장면도 보이고... 이걸 보는 순간 매트릭스도 생각나고, 이걸로 MMO 게임을 만들어 들어가서 놀면 대박이겠구나 라는 생각이 들었습니다.

그 다음은 데모 룸의 옆방으로 가서, 건설 현장의 한 층에서 벌어지는 일들을 해보는 건데, 동영상에 있는 것과 정확하게 같은 걸 해보는 겁니다. 동영상 처럼 벽속에 들어있는 것을 투시해서 본다거나 하는 것이 됩니다. 고개를 이리저리 돌려도 진짜 빨간 벽돌의 텍스쳐와 가짜 홀로그램 화면이 정확하게 맞아서 움직이기 떄문에 이 정도면 실제로 써도 되겠구나 라는 생각입니다. 문제를 발견했다 치고, 손으로 클릭을 해서 메시지 보내는 걸도 해봤는데, 손가락을 펴서 까딱이면 클릭하는 동작이 됩니다. (둘쨋날 만난, 아까 그 매니저에게 그 이야기를 했더니, 아직 제스쳐 인식이 그렇게 똘똘하지는 않다고 합니다. 키노트에서 시연한 것과 같이 몇 가지 더 인식되는 동작들은 있는데 열번하면 두세번 정도 인식을 못하는 수준이라 클릭하는 것만 했을 거라고 합니다.  - 나중에 추가, 같이 갔던 블로터닷넷의 최호섭기자는 둘째날 저녁에 시연에 참가해서 가까이서 그 카메라를 보셨는데.. 카메라에 키넥트가 달려 있었답니다. 아마 홀로렌즈가 혼자서 인식 못해 놓칠 수 있는 부분을 키넥트가 보정하고 있는 것 같습니다.) 음성 인식으로 메시지를 보내는 데 “Move pipe” 라는 말을 했는데 정확하게 인식합니다. (이건 홀로렌즈와는 다른 Cortana 음성인식 엔진) 아마 pipe가 fife였으면 제 콩클리시는 못알아들었을 수도 있겠다는 생각이 듭니다. 

이제 완벽하지 않은 점도 이야기 해보겠습니다.

첫번째는 무겁다는 겁니다. 잠깐 시연하는데는 문제가 없지만, 머리에 뭔가를 얹는 건데, 오래쓰기에는 약간의 무게감이 있습니다. 지금은 판매하는 상품이 아니라 이슈는 아닙니다. 기술 자체가 아주 쓸만하기 때문에 배터리, 회로 등등이 기술이 좋아져서 무게가 해결될 때까지는, 꼭 머리에 있어야 하는 것들만 훨씬 작게 가볍게 만들고 무게 나가는 건 허리에 차던, 주머니에 넣던 해도 시장은 완전 용서해줄 수 있을 것 같습니다.

두번째, 위에 ‘이질감이 거의 없다’ 라는 말을 썼는데, '완전히’가 아니라 '거의’인 이유는 홀로그램으로 만들어진 이미지가 아직도 실제 화면 느낌과는 다르기 때문입니다. 이것은 해상도 문제가 아니라, 그래픽 모델의 정교함과 쉐이딩이 약간 모자라서 그런 것 같습니다. (GPU를 높여야 하는 건지, 아니면 홀로그램이 가진 광학적 한계인지 잘 모르겠습니다.) 

하지만 이 두가지가 홀로렌즈의 가치를 전혀 떨어뜨리지는 않는 것 입니다.

홀로렌즈 써본 경험은 아마도 이전에 어떤 기술 데모보다 훌륭한 거라고 자신있게 이야기 할 수 있습니다.

한줄요약: "이건 될꺼 같다" 입니다.

*




반응형
Posted by hl1itj
,