달력

11

« 2024/11 »

  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
  • 11
  • 12
  • 13
  • 14
  • 15
  • 16
  • 17
  • 18
  • 19
  • 20
  • 21
  • 22
  • 23
  • 24
  • 25
  • 26
  • 27
  • 28
  • 29
  • 30

'전체 글'에 해당되는 글 5705

  1. 2021.03.03 메타버스
2021. 3. 3. 12:11

메타버스 NEOgram/Issue2021. 3. 3. 12:11

728x90
반응형

[메타버스 관련주]

나무가, 넷마블, 텔레칩스, 다날, 팅크웨어, 엔씨소프트, 드래곤플라이, 엠게임, 아이엠, 이랜텍, 선익시스템, 하이비젼시스템, 한빛소프트, 한국큐빅, 네이버, 알체라, 와이제이엠게임즈 등등

 

[로블록스 상장일]

3/10 일경 상장 예정

 

[메타버스]

www.sedaily.com/NewsView/22JNYILKM7

 

[특징주]'메타버스 산업 유망' 관련주 강세

메타버스 산업이 크게 성장할 것이란 전망에 관련주가 급등하고 있다. 이날 오전 11시 52분 현재 유가증권 시장에서 선익시스템(171090)은 전일 보다 21.17%(2,900원) 오른 1만6,600원에 거래되고 있다.

www.sedaily.com

slownews.kr/79780

 

메타버스, 인터넷 이후 버전의 세계

메타버스가 새로운 키워드로 등장한 것은 오래되었지만, 실현이 가까워지고 있다고 판단한 건 최근의 일이다. 더 성능이 좋고 저렴한 하드웨어의 등장과 뛰어난 기능을 갖는 소프트웨어 플랫폼

slownews.kr

메타버스가 새로운 키워드로 등장한 것은 오래되었지만, 실현이 가까워지고 있다고 판단한 건 최근의 일이다. 더 성능이 좋고 저렴한 하드웨어의 등장과 뛰어난 기능을 갖는 소프트웨어 플랫폼의 등장, 그리고 통신 인프라의 진화와 클라우드 기반 스트리밍은 이제 메타버스의 실현이 머지않았음을 느끼게 해준다.

메타버스라는 단어가 1992년 닐 스티븐슨의 [스노우 크래시; Snow Crash]에서 처음 등장한 것은 많이 알려진 이야기다. 메타버스는 실제 세계와 가상 세계가 상호 영향을 주는 개념이다.

메타버스란? 

메타버스(Metaverse)는 가상·초월(meta)과 세계·우주(universe)의 합성어로, 3차원 가상 세계를 뜻한다. 더 구체적으로는, 정치·경제·사회·문화의 전반적 측면에서 현실과 비현실 모두 공존할 수 있는 생활형·게임형 가상 세계라는 의미로 폭넓게 사용된다. 하지만 메타버스라는 개념에 관한 뚜렷한 정의는 아직까지 확립되지 않았고, 학자나 기관마다 나름의 정의를 내리고 있어 넓은 의미로 사용된다.

메타버스는 1992년 닐 스티븐슨(Neal Stephenson)의 소설 [스노우 크래쉬]에서 유래한 개념이다.

 

다음은 작품 속 메타버스에 대한 묘사를 인용한 것이다.

“양쪽 눈에 서로 조금씩 다른 이미지를 보여 줌으로써, 삼차원적 영상이 만들어졌다. 그리고 그 영상을 일초에 일흔두 번 바뀌게 함으로써 그것을 동화상으로 나타낼 수 있었다. 이 삼차원적 동화상을 한 면당 이 킬로픽셀의 해상도로 나타나게 하면, 시각의 한계 내에서는 가장 선명한 그림이 되었다. 게다가 그 작은 이어폰을 통해 디지털 스테레오 음향을 집어넣게 되면, 이 움직이는 삼차원 동화상은 완벽하게 현실적인 사운드 트랙까지 갖추게 되는 셈이었다. 그렇게 되면 히로는 이 자리에 있는 것이 아니었다. 그는 컴퓨터가 만들어내서 그의 고글과 이어폰에 계속 공급해주는 가상의 세계에 들어가게 되는 것이었다. 컴퓨터 용어로는 ‘메타버스’라는 이름으로 불리는 세상이었다.” (‘스노우 크래시’ 중에서)

이처럼 작품 속에서 메타버스의 기술적 근간이 상세히 설명되는데, 이를 통해 메타버스는 고글과 이어폰이라는 시청각 출력장치를 이용해 접근할 수 있는 가상세계로 규정된다. (출처: 위키백과 ‘메타버스’ 중에서 발췌)

메타버스에 대한 많은 담론은 이후 세컨드 라이프 애플리케이션을 거쳐, [매트릭스]나 [레디 플레이어 원] 같은 영화와 [포트나이트] 같은 게임을 통해서 좀 더 구체적인 모습으로 우리에게 다가왔다.

포트나이트 안에서 열린 스타워즈 예고편 이벤트 (출처: 워싱턴 포스트)

세상을 넘어서는 또 다른 세계를 만들고자 하는 개념은 결국 지금 인터넷 이후의 다음 버전을 생각하게 하고 있으며, 이제는 누가 처음 제대로 구축하거나 기반을 만들 것인지 관심이 집중되고 있다.

각 클라우드 기업도 낮은 수준에서 좀 더 고도의 환경까지를 가정하면서 가상·증강·혼합 세계를 위한 클라우드 서비스를 제시하고 있으며, 점점 네트워크와 엣지컴퓨팅까지 연계하는 새로운 인프라를 기반으로 메타버스로 진화할 수 있는 서비스를 만들어 내고 있다.

구글 클라우드를 통한 스트리밍

구글은 그동안 스마트폰이나 오픈소스 카드보드를 위한 소프트웨어 개발 키트(Software Development Kit; 이하 ‘SDK’)를 제공하거나, 데이드림 플랫폼을 이용해 구글 VR SDK를 제공했다. 데이드림 스탠드 얼론도 있지만, 고화질의 가상·증강현실 플랫폼은 스마트폰을 기반으로 하는 VR이나 AR을 중심으로 시장을 이끌어 왔다. 이를 구글은 ‘모든 사람을 위한 가상현실’이라는 캐치프레이즈로 서비스를 제시하고 있다.

가상현실 개발을 위한 구글 개발자 서비스 페이지

그러나 구글이 기업 고객을 위한 새로운 가상·증강 현실을 제공하기 위해 통신사 5G를 비즈니스 서비스 플랫폼으로 만들어 가고, 글로벌 모바일 엣지 클라우드 전략을 발표하면서 데이터 드리븐 경험을 고객에게 제공하겠다고 한 것은 2020년 초의 일이다.

이후, 서치온(SearchOn) 행사를 통해 크라우드 스트리밍 기술로 증강 현실(AR)을 검색 결과에 보여줄 수 있다고 발표했다. 팬데믹 시대가 되면서 구글이 진행한 것은 이 두 가지 기술을 결합하는 것이다.

예를 들어 피아트 클라이슬러와 구글 클라우드가 협력해 CES의 가상 쇼룸을 만들면서 새로운 랭글러 모델을 고객들이 스마트폰을 통해서 3차원으로 감상할 수 있게 했다. 과거라면 3D 차량 모델을 다운받는데 많은 시간과 저장 공간이 필요했지만, 구글은 모델 렌더링을 클라우드에서 진행하고 이를 기기로 스트리밍했다.

구글이 크라이슬러와 함께 만든 가상 쇼룸

자세히 말하면 엣지컴퓨팅과 AR 기술을 결합해 대규모의 3D 파일을 언리얼 엔진으로 렌더링하고 이를 구글의 씬 뷰어(Scene Viewer)를 사용해 가상 현실을 볼 수 있는 기기로 스트리밍한 것이다. 이렇게 하기 위해서 고속의 5G 연결과 구글 클라우드의 분산 엣지에서 스트리밍을 처리해서 사람들이 풍부하고 선명한 몰입 경험을 하도록 한다.

아마존 수메리안(Sumerian)

2018년에 정식 서비스를 시작한 아마존 수메리안은 WebGL 및 WebXR 표준을 채택해서 몰입도 높은 3D 콘텐츠를 웹 브라우저에 직접 만들거나 가상·증강 현실 하드웨어에서 실행할 수 있는 툴킷과 엔진이다. 수메리안에는 편집기, 호스트, 자산 관리 기능이 있으며, 어떤 장면에서도 로직을 스크립트로 작성해 더 복잡한 상호 작용을 지원한다. 편집기는 콘텐츠 크리에이터, 디자이너, 개발자가 대화형 장면을 구축할 수 있도록 지원하는 드래그 앤 드롭 도구와 장면 템플릿이 있다.

수메리안은 AWS 서비스와 쉽게 통합할 수 있는데, 렉스(Lex) 서비스를 이용해 장면에 대화 인터페이스를 포함하고 웹 애플리케이션에서는 앰플리파이(Amplify)를 사용해 만든 장면을 포함할 수 있다. 또한, 직접 자바스크립트용 AWS SDK를 사용해 아마존 다이나모DB에 데이터를 저장하거나 람다로 비즈니스 로직 프로세스를 실행하는 것과 같이 AWS 리소스와 상호작용할 수 있다.

AWS 수메리안

아마존은 내부에 전문 엔지니어가 없는 기업을 대상으로 이 플랫폼을 제공하는데, 이를 통해서 가상현실 등의 애플리케이션에 대한 아이디어를 끌어내고 대화를 시작할 수 있게 하고자 한다. 초기 사용자 중에 맵박스는 지리 공간을 렌더링하기 위한 프레임워크를 구축했고, 피델리티 랩은 고객지원 팀을 훈련하기 위한 애플리케이션을 만들었다.

메타버스의 아주 초기 모습이라고 인정받는 포트나이트나 롭록스 등을 서비스하는 아마존 입장에서는 게임을 위한 아마존 게임리프트(GameLift) 서비스와 멀티플레이어 게임을 지원하는 플리트아이큐(Fleet IQ), 그리고 자체 게임 엔진인 럼버야드(Lumberyard) 같은 것도 궁극적으로 메타버스를 구현하기 위한 기초적인 서비스라고 볼 수 있다.

아마존은 수메이안 외에도 현재 90% 이상의 게임 서비스가 아마존 AWS를 통해서 이루어지기 때문에 메타버스를 구축하고자 하는 기업 입장에서는 제일 먼저 선택할 수 있는 클라우드 기업이 될 것이다. 특히 포트나이트를 서비스하는 에픽 게임즈가 AWS를 사용하고 있다는 점에서 명확한 메타버스 서비스 스펙이 아직 정리가 되어 있지 않더라도, 서비스를 위한 클라우드 기반의 역할을 할 것이라는 점은 명확하다.

MS 애저의 혼합현실 서비스

마이크로소프트가 애저 미디어 서비스를 통해서 360도 영상을 서비스한 것은 2016년이다. 그러나 마이크로소프트의 기본 전략은 자사의 홀로렌즈로 대표하는 혼합 현실에 더 중심축이 놓여 있다. 그러나 현재 애저의 혼합 현실 서비스는 홀로렌즈 외에도 유니티, iOS의 AR키트, 안드로이드의 AR코어 모두를 지원하는 것을 원칙으로 한다. 애저의 혼합현실 서비스의 중심에는 애저 스페이셜 앵커(Spatial Achors)와 리모트 렌더링, 디지털 트윈 서비스와 기존의 지능형 서비스의 연계가 있다.

홀로렌즈 헤드셋

애저 스페이셜 앵커 서비스는 실세계에 지속적인 스페이셜 앵커를 만들고 이에 디지털 콘텐츠를 부착하는 의미이다. 나아가 3차원 오브젝트를 지속하고 복원하는 것을 글로벌 스케일에서 가능하게 해서 수백만 개를 운영할 수 있게 하며, 안전하고 신뢰할 수 있게 이를 렌더링하는 것을 목적으로 한다.

이를 통해 장치 관리, 제조, 리테일 등에서 실세계의 워크플로우에 디지털 비즈니스 데이터를 연결해 직원들이 보다 개선되고 빠르며 더 정보를 갖고 하는 결정을 할 수 있게 하고자 한다.

스페이셜 앵거로 할 수 있는 사용 사례는 멀티 유저 경험, 길 찾기라고 하는 문제 해결을 돕는 기능, 실세계에서의 가상 콘텐츠 지속하기 등이 있다. 애저 스페이셜 앵커는 매니지드 서비스와 클라이언드 SDK로 구성되어 있으며, 홀로렌즈이 경우에는 유니티와 비주얼 스튜디오가 설치된 PC가 필요하다. 깃허브에 가면 스페이셜 앵커 샘플을 공유하고 있다.

애저 리모트 렌더링(ARR)은 말 그대로 애저의 컴퓨팅 파워를 이용해 복잡한 모델의 렌더링을 클라우드에서 수행하고 이를 혼합 현실 기기로 실시간 스트리밍하는 서비스이다. 수억 개의 폴리곤을 렌더링하고 이를 지연 시간을 최소화하면서 스트림으로 제공하고자 하며, 이를 위해 쉽게 렌더링 대신 콘텐츠를 포함하기 위한 SDK를 제공한다.

애저와 홀로렌즈를 통해 3차원 오브젝트를 실세계에 투영하는 모습 (제공: 마이크로소프트)

모바일 기기나 혼합 현실 헤드셋 장비 자체에서 3D 모델을 구현하기 위해서는 고차원의 3차원 모델을 단순화하거나 내용을 생략하거나 해야 하지만, 이 방식으로 하면 완전한 오리지널 내용을 그대로 재현할 수 있다.

또한, 로컬에서 렌더링한 콘텐츠와 원격 이미지를 자동으로 연계할 수 있고 이 때는 혼합 현실 툴킷(MRTK) 같은 것을 사용할 수 있다. ARR은 워크로드를 다중의 GPU에 분산하여 작업하며 이를 싱글 이미지로 통합하는 과정을 사용자에게 전혀 문제없이 제공한다. ARR의 하이 레벨 아키텍처는 아래 그림과 같다.

ARR의 하이 레벨 아키텍처 (제공: 마이크로소프트)

클라이언트에서는 프레임 셋업이 이루어지는데 클라이언트 코드에서 입력 처리와 씬 그래프가 업데이트되며, ARR 코드에서 씬 그래프 업데이트와 헤드 포즈가 서버로 보내진다. 서버에서는 렌더링 엔진이 가능한 GPU에 분산을 시키고, 그 결과를 하나의 이미지로 합치며 결과 이미지는 비디오 스트림으로 클라이언트로 보내진다.이 때 네트워크 지연이 중요한 문제가 되는데 요청을 보내고 결과를 받는 시간이 인터랙티브 프레임 레이트에 비해 일반적으로 너무 길어질 수 있다. 따라서 하나 이상의 프레임이 전달될 수 있어야 한다.

마이크로소프트 애저에서 혼합 현실을 위해 제공하는 또 하나의 기능은 키넥트 DK이다. 이는 첨단 인공지능 센서와 함께하는 개발자 키트인데 이를 통해 고도의 컴퓨터 비전과 음성 모델을 지원한다. 키넥트는 깊이 센서, 비디오카메라와 공간 마이크 어레이, 방향 센서 등을 탑재한 기기와 SDK를 함께 제공한다. 이를 통해 혼합 현실을 만들 때 실제 공간의 상황과 사람의 움직임, 그리고 비전이나 음성 인식과 같은 코그니티브 서비스와 연계할 수 있다.

키넥트 DK 개발 키트

마지막으로 애저 디지털 트윈 PaaS 서비스가 있는데, 아직 프리뷰 단계이다. 애저의 디지털 트윈은 전체 환경의 디지털 모델에 기반을 둔 지식 그래프 생성을 가능하게 해준다고 설명하고 있다. 이런 환경은 빌딩, 공장, 농장, 에너지 네트워크, 철도, 스타디움 등이 될 수 있으며 나아가서 전체 도시가 될 수 있다.

애저 디지털 트윈 위에 도메인 전문 지식을 활용해서 요구 사항에 맞는 연결된 솔루션을 만들 수 있는데, 어떤 환경을 모델링 해서 디지털 트윈을 확장가능하고 안전한 방식으로 만들어 낼 수 있다. 또한, 사물인터넷 기기와 같은 자원과 비즈니스 시스템을 연결하고, 애저 데이터, 분석, 인공지능 서비스를 통합해 과거를 추적하고 미래를 예측하게 할 수 있다. 이는 메타버스의 전체 환경을 만들어 나가는데 유용한 도구가 될 수 있다.

애저 디지털 트윈. 실제 오프라인 환경을 디지털 환경에 접목해 사람, 공간, 사물의 상호 관계와 작용을 추적해 데이터를 수집할 수 있게 한다.

지금까지 살펴본 것과 같이 클라우드서비스 기업이 메타버스를 위한 서비스와 플랫폼을 준비해 나가는 과정에 있고, 다양한 기기를 기반으로 고속의 무선 통신망과 엣지컴퓨팅을 활용하는 것이 기본적인 방식이 될 것이다. 또한, 막대한 양의 계산을 통한 렌더링 문제는 서버에서 렌더링을 해결하고 이를 클라이언트로 스트리밍하는 방법이 기본 서비스 구조가 될 것으로 보인다.

이는 결국 5G와 클라우드의 결합을 통해 실현될 것이며, 앞으로의 과제는 어떻게 하면 수천수만 명이 동시에 하나의 환경에서 상호작용을 하게 만들고, 다양한 디지털 자산을 쉽게 만들며 때로는 실제 세상과 메타버스가 상호 연계하게 만들어 나가도록 할 것인가이다. 그것이 앞으로 해결해 나가야 하는 과제가 될 것이다.

 

728x90
반응형
:
Posted by 패치#노트