아이폰 해커로 유명한 George Hotz군이 플레이스테이션 3 exploit을 공개한지도 어언 3개월이 흘렀다. 소니는 그들의 남은 자존심 PS3의 잠재적 해킹을 막기위하여 OtherOS를 완전히 봉쇄하는 3.21 펌웨어 업데이트를 강행했고, Hotz군은 소비자의 권익을 보호한다는 주장하에 7일자로 OtherOS를 작동하는 3.21 커펌을 선보였다.

블로그에 적어놓은 글을 인용해보면,
Note to the people who removed OtherOS, you are potentially turning 100000+ legit users into "hackers." There was a huge(20x) traffic spike to this blog after the announcement of 3.21. If I had ads on this site I guess I'd be thanking you.

사실 이말이 틀린 건 아닌것이, 나 마저도 해킹된걸 알아도 그다지 관심이 없다가 우리집의 플스에 들어있는 리눅스가 날라간다는 소식에 솔깃해서 서칭하다가 알게된 것이기 때문이다.

현재는 아직 비디오 샷만을 보여주고 있는것이, 기존 PSP 커펌에서처럼 PSN에 접속시에 버전체크에 문제가 있다고 한다. 아마 프록시등으로 우회하는 루틴을 넣고서 공개할 듯.

AND

말만 무성하던 윈도우폰 7시리즈의 개발툴이 공개되었다.

Visual Studio 2010 Express for Windows Phone CTP
Windows Phone Emulator CTP
Silverlight for Windows Phone CTP
XNA 4.0 Game Studio CTP


윈도우폰 7 시리즈 개발은 크게 3가지 방식으로 할 수 있는데,
- .NET Compact를 이용한 개발 (윈모바일6.5 개발과 유사)
- Silverlight을 이용한 개발 (XAML기반)
- XNA 4.0을 이용한 개발 (DX9 Reach Profile기반, 커스텀쉐이더 불가능)

다소 산만(?)하기까지한 개발방식들을 케이스별로 정리해서 올라오고 있다.

윈도우폰 7 개발사이트 바로가기

개발툴 다운로드 바로가기
AND

사용자 삽입 이미지
스펙에서 빠져서 설마 했는데, 3.2 베타 시뮬레이터에서 확실해졌다. 기존에 지원하던 한글을 뺀 이유가 있지 싶은데..
AND

사용자 삽입 이미지
드디어, 소문으로만 들리던 애플의 타블렛 머신이 공개됐다. 이름은 iPad. 커다란 아이폰 모양;;
애플 타블렛 영상을 보면서 놀랐던 점은 10.1 9.5인치의 커다란 기계가 아이폰 OS의 확장형을 사용한다는 점이다. 기존에 공개된 수만개의 아이폰 앱스를 실행할 수 있도록 하위호환을 유지하고, OpenGL 앱스의 경우는 보다 빠르고 부드럽게 작동한다고 한다. 오늘 공개될 iPad SDK는 역시 기본 아이폰의 Cocoa UI 컨트롤과 함께 확장된 해상도의 iPad에 맞는 개발환경을 제공할 것이다. 이것으로 확실해 진것은 기존 OS X는 더 이상 터치전용으로 발전시키지않고, 아이폰OS를 확장, 개량하여 향후 터치 기기들의 플렛폼으로 사용할 것이라는 거다.

AND

사용자 삽입 이미지
하츠네 미쿠의 홀로그램(?) 콘서트 실황이 있다는 소문을 듣고 웹을 돌아다니다 우연히 보게된 Augmented Reality 하츠네 미쿠. University of WashingtonHuman Interface Technology Laboratory (HIT Lab)에서 개발한 ARToolKit을 이용하여 제작한 것으로 보인다.

사용자 삽입 이미지
AND

사용자 삽입 이미지
오늘 Apple에서 예상한 대로 iMac, Macbook, Mac mini의 마이너 체인지 제품 업데이트가 있었다. 딱히 눈에 들어오는 내용은 없었는데(Macbook pro 업데이트가 없다니..) 눈에 들어오는 제품은 마이티마우스의 뒤를 잇는 매직마우스(Magic Mouse).

내용인즉,
- 윗면이 모두 터치센싱이 되며,
- 멀티터치를 인식하며,
- 클릭이나 휠 뿐만 아니라 보다 다양한 제스쳐를 인식한다.

제스쳐는 마우스 내에 내장된 칩셋이 인식하여 USB로 결과를 전달하는 방식으로 보인다. 또한 Optical에서 Laser로 방식을 바꿔 보다 정교한 움직임을 캡쳐할 수 있게 되었다.
사용자 삽입 이미지
현재 제스쳐의 범주는 기존 맥북의 멀티터치 제스쳐에서 크게 벗어나지 않는다. 하지만, 이 디바이스는 세계최초의 멀티터치 마우스라는 특징으로 인해 다양한 분야에 활용될 가능성이 있다. 예를 들어 일전에 차세대 HID 글에서 언급했던 Mixed Reality Interface(MRI)라던가 Virtual 3D Sculpting 같은 Tangible Media의 구현에 활용된다면 단순한 커서 입력에서 벗어나 주무르고 깎고 구부리는 다양한 인터렉션을 경험하게 할 수 있을 것이다.

제품 사이트 바로가기

차세대HID: Multi-Touch Interection Research
차세대HID: 3 Dimensional Pointing Device
AND


애플의 새로운 iPhone SDK로 인하여 아이폰 3GS를 이용한 Augmented Reality(증강현실 이라고들 하던데, 어색해서;;) 앱스가 속속 등장하고 있다. 이번에 등장한 영상은 MIT Sketch Physics를 응용한 앱스컨셉으로 어딘가 엉성하지만, 구현된다면 비전을 이용한 3D 공간분석을 하는 앱스로는 최초가 될듯 하다.
AND

사용자 삽입 이미지
우연히 발견한 스타크래프트 : 브루드워의 AI를 작성할 수 있는 API, BWAPI(Broodwar API). 오픈소스 C++ API를 통하여 자신만의 새로운 AI를 창조할 수 있다. 또한, 다른 플레이어의 리플레이를 통하여 빌드오더를 채취(?)하거나 플레이 패턴을 가져올 수 있다고 한다.
기존 UI에 다양한 가이드 라인이 그려진다.
프로게이머의 리플레이를 입수해서 AI를 만들면 엄청난 AI가 탄생할 듯. AI이기 때문에 게이머가 집중해서 컨트롤하는 유닛컨트롤을 모든 유닛에 적용시킬 수 있으니 더 강할지도 모른다. 마치 딥블루와 체스챔피온의 대결처럼 만들어진 AI와 프로게이머가 겨루는 종목이나 혹은  만들어진 AI끼리 자웅을 겨루는 경기 종목이 생겨도 괜찮겠다.


사이트 바로가기
AND

사용자 삽입 이미지
Azure SDS CTP에서 새로운 초대가 와서 봤더니, 아기고기다리고기던 RDB업데이트다. 기존에 지원하던 Simple Data Service는 생소하기도하고 범용성이 떨어져서 불편했었는데, 이정도라면 무료 DB로 사용하기에 괜찮을 듯 싶다. 초대코드를 넣고 들어가면 Database 생성과 Drop정도를 할 수 있는 인터페이스가 전부다. 더욱 황당한건 SQL Server Management Studio나 TOAD for SQL Server등으로 접속이 안된다. 기본 RDB 쿼리 외의 Table Enum등의 기능을 모두 Disabled시킨듯. Command 스펙문서도 없고 누군가 관리툴을 만들겠지만 고생꽤나 하겠군. 나도 예전에 만들어뒀던 SDS Migration Toolkit 업그레이드해야하는데.
AND

새로 등장한 UIView Property인 cameraOverlayViewUIImagePickerController를 배경으로 하는 커스텀 View를 만들 수 있게 해준다. 카메라를 통하여 보이는 영상를 Apps에서 실시간으로 사용할 수 있다는 얘기다.



이미지
와 같이 사진에 오버레이되는 새로운 개체를 놓을 수 있고 이미지가 변함에 따라 개체가 인터렉트하는 Augmented Reality가 가능해진다는 얘기.

관련 Thread 바로가기
AND

http://forums.xna.com/forums/t/37129.aspx

XNA로 MMO게임을 만들 수 없을까에 대한 잡설들인데, 읽다보니 재미있다. XNA게임 특히 Xbox 360으로 배포되는 게임의 경우 M$는 보안이나 기타 이유로 인하여 다양한 제약을 걸어둔다.

- 네트워크 API로 특정 IP로 접속하는 기능이 없다. (무조건 Live 서버로 접속됨)
- 라이브서버 특징상 한방당 32명 정원
- 방은 Persistance하지 않다. (인스턴스하다. 서버 내에 뭔가를 남길 수가 없다.)
- 정보역시 유저 로컬에 쌓이지 서버레벨에서 저장할 방법이 없다.
- 퍼블리시된 게임은 같은 게임끼리만 통신이 가능

이런 제약에도 불구하고, 포럼에 등장한 다양한 아이디어는,

- 여러대의 엑박을 서버로서 켜두고 Persistant하게 만들자
- 32명 정원의 공간을 여러개 만들어 잇자

하지만, 이정도로는 문제가 있는것이 같은 게임에서 다양한 공간이 만들어질 방법이 필요하고, 유저정보를 저장할 서버레벨의 공간이 필요하다는 점이다. 그래서 생각해보건데,

1. 한 게임내에 여러 공간에 대한 정보를 넣는다.
2. 게임의 로직에 따라 처음 실행되면 해당 게임의 네트웍 로비의 갯수를 센다
3. 공간갯수 Constant 값, MAX_SPACE으로 이어질 공간의 갯수만큼 없을 경우 자동으로 32명 정원 서버가 되며 방이름(혹은 갯수)정보에 맞는 위치의 공간으로 로드된다.
4. 방 갯수가 MAX_SPACE 값이 넘어갈 경우 자동으로 게임인트로가 나오며 게임이 실행된다.
5. 서버로 할당된 초기 MAX_SPACE 만큼의 서버는 들락거리는 유저의 정보를 내부 콘솔에 쌓아두고, 해당 위치 내에서의 모든 행동을 기록한다. 예를 들어 퀘스트 수행여부.
6. (세이브가 해킹되지 않는다는 전제하에) 유저의 아이템이나 기타 정보들은 로컬에 저장된다.
7. 특정 위치 (문이나 계곡 입구)에 들어가면 자동으로 로드되며 해당 방으로 이동한다. 정원초과인 경우 메시지를 보여준다.

해당 게임이 심사를 통과해서 퍼블릭으로 나오면, 운영자(개발자)는 재빨리 준비해둔(?) 콘솔들을 켜고 먼저 게임을 다운 받아서 실행한다. (그리고, 그 콘솔들은 영원히 끌 수 없다;) 한명이라도 다른 유저가 먼저 실행하면 방이 없어질때까지 가동이 불가; 따라서, 일반 유저들은 1,2,3을 보지 못한채 MMO게임을 즐기게 되지 않을까라는 상상을 하게 됐다는 얘기.

덧으로, 초기 콘솔에는 유저 상황을 모니터할 수 있는 화면이 뜨고 운영자가 이를 수기로 기록해서 합산한다음 별도 서버에서 랭킹을 매길 수도 있겠다는 생각까지.

AND

일부업체에서만 제한적으로 사용하던 모노 플렛폼하의 아이폰 개발이 공식적으로 시작될 예정이다. 모노 홈페이지에는 8월4일자로 모노터치라는 아이폰기반의 모노 플렛폼을 공개하였다. 이를 사용하기 위해 필요한 환경은,

- 아이폰 개발자 프로그램(기존 아이폰 SDK에서 사용하던 App Identifier나 Provision를 사용한다)
- 아이폰 SDK(UI 개발툴로서 인터페이스 빌더를 사용하기 때문)
- 인터페이스 빌더(아이폰SDK에 포함되어 있음)
- Mono 맥용 런타임 라이브러리
- Mono Develop 2.2 Alpha+
- MonoTouch

위 사항중에서 모노터치는 비공개정책으로 인하여 구할 수가 없어, 대충 인터페이스를 훝어보니,

사용자 삽입 이미지
- 기존 아이폰 개발자가 가진 Bundle Indentifier나 개발자 Signature를 프로젝트 속성에서 설정
- UI 디자인은 인터페이스빌더를 차용했음
- 따라서 전체적인 패턴은 코코아 개발과 다를바가 없음
- 획기적인 점은 Xcode와는 다르게 UI에 따라 자동으로 코드가 생성됨!
사용자 삽입 이미지
다만, 모노터치가 없어 컴파일은 불가능했음. 9월 공개라니 기대를 해볼만 하겠음.

사이트 바로가기
AND

Silverlight 용 DeepZoom 지원 클래스들은 별도의 Wrapper가 없으면 활용성이 좋지 않기 때문에 몇달전에 만들어본 라이브러리. Container 패턴으로 되어 있어서 UIElement들을 담을 수 있으며, 담겨진 UIElement들은 DeepZoom의 Zooming Condition을 그대로 따라서 축소, 확대, 이동이 된다. 적용이 불편한 휠지원도 그냥 집어넣었고, 푸쉬핀도 별도 UIElement 하위클래스로 제작했다. 도대체, js용 DeepZoom은 푸쉬핀이 있는데 Silverlight용은 왜 없는것인지.. 결과는 생각보다 괜찮더라. 구글맵이 살아움직이는 식으로 돌아간다. 웹게임 인터페이스로 쓸려고 만들었는데, 기타 실시간 정보를 표시하는 다양한 응용이 가능하겠다. Silverlight 2 이상 개발 환경에서 돌아간다.

덧> 텍스트큡에서 Silverlight 삽입하는 플러그인이 필요하군. 일반적인 방법으로는 삽입이 안되네..

DeepZoomContainer 프로젝트 메인 바로가기

예제 보기 (Silverlight 2 플러그인 필요)
AND

사용자 삽입 이미지
Tech48은 모에 3D게임으로 유명한 티타임의 최신작품으로 웹캠을 이용한 해드트래킹을 주요 인터페이스로 한다. (해드트래킹은 일전에 소개한 적이 많다) 유저가 모니터를 중심으로 시점을 이동하면 마치 입체와같이 화면이 해당시점을 보여주게 된다. 몇번이나 비유를 들었던 치마 들춰보기가 실현되는 순간..



Tech48 사이트 바로가기
Eyedentify for PS3 by SCEI
위모트를 이용한 해드트랙킹 데모
PS3 EYE를 이용한 해드트랙킹 데모
컴퓨터를 얼굴로 로그인한다 - 레노보의 VeriFace
EyePet :: TV속의 애완동물

AND

무슨 말이 필요하랴. 핀란드 출신 초천재 Memon군(처음 봤을때는 중학생나이였지만 지금은 이미 20대 중반일듯)이 아이디어를 내고 직접 코딩한 Zen Bound라는 퍼즐게임이다. DOS Protected 모드시절에 개념조차 없던 카툰렌더링으로 만들었던 양들의 결투 데모를 보면서 숨넘어갔던 기억이 아직도 새록새록하다. 크라이텍 리드 프로그래머로 있었는데 또 새로운 도전을 하는구나. 정말로 도전받게 하는 친구.
AND

MIX09에서 발표된 Silverlight 3는 이미 10을 넘어버린 경륜의 플래시와 대적하기 위해 몇가지 차별점을 만들었다. HD지원이나 Smooth Streaming같은 내용은 이미 다른 사이트에서 언급을 했으므로, 언급되지 않았던 몇가지 의미있는 기능들을 살펴보자.
  • Pixel Shader Effects : 한참 전 부터 지원되었어야 하는 기능인데, 이제서야 등장했다. fx 파일을 import해서 다양한 효과를 제작하고, 적용할 수 있다.
  • Perspective 3D Graphics : WPF Transform 공통의 문제였는데, 3D Transformation Matrix를 제공하지 않아 2.5D이상의 공간감을 내기 어려웠으나 해결되었다.
  • Bitmap HitTest : 이 부분은 아직 확실하지는 않은데, 왜냐면 새로 생긴 WriteableBitmap(이거 스펠링은 맞는건가??) Class를 사용하여 내부 Pixel정보를 보거나 쓸 수 있는데 현재 Beta버전에서는 엑세스 하려는 경우 Null 에러가 난다고 한다. (by andy.beaulieu)
  • Bitmap Cache : 역동적이지 않은 벡터요소를 비트맵으로 굳혀놓는 기술. 이런 요소가 많아야 개발자에게 사랑받는 RIA 플렛폼이 된다.
행여나 기대했던 MIDI지원이나 PathAnimation같은 요소는 등장하지 않았다.

사이트 바로가기
AND

사용자 삽입 이미지
가끔 Excel Freak들이 만든 장난질에 경악을 금치 못했었지만, 이번건 특히 흥미롭다. RPG.XLS라는 이름 답게 엑셀로 만들어진 RPG게임이다. 필드를 돌아다니는 것은 물론이고, 스크롤과 마우스이동, 세이브, 스토리, 전투 없는게 없다.
사용자 삽입 이미지

구동 화면

각 블록은 엑셀의 Cell로 구성이 되어 있으며, 캐릭터는 블록 단위로 이동한다. 재밋는 것은 마우스로 한 지점을 클릭하면, 그 셀이 선택이 되면서 캐릭터가 그 곳으로 길찾기 알고리즘을 사용하여 이동한다.
사용자 삽입 이미지

스테이지 에디터

RPG.XLS는 별도의 맵에디터를 제공하여 유저들이 자유롭게 게임을 개조하고 테스트해볼 수 있게 해준다.
사용자 삽입 이미지

기본 게임 전체 필드

또한, 아이템이나 오브젝트를 만들 수 있는 환경도 제공한다.
사용자 삽입 이미지

아이템 매니저, 오브젝트 매니저

게임 개발에 관심이 많은 사람이나 초보 기획자들이 가지고 놀기에 좋은 물건 발견!

사이트 바로가기


RPG.XLS 다운 받기
AND

2008년은 MMO시장에서는 작은 차이가 큰 결과의 차이를 만든다는 것을 보여준 한 해가 아닐까 싶다. 헬게이트 런던과 타뷸라라사의 몰락으로 우리는 유명 디렉터가 흥행의 보증수표는 아니라는 사실을 깨닳았고, 와우의 롱런과 NC소프트의 아이온의 성공을 통해 혁신보다는 발란스와 규모의 중요함을 알게 되었다.

2009년에는 아직 그리 눈에 띄는 타이틀이 없지만, MMO 발전에 의미가 있을만한 타이틀 2작품을 소개해본다.

1. Star Wars : The Old Republic (TOR)

사용자 삽입 이미지

사용자 삽입 이미지

사용자 삽입 이미지

사용자 삽입 이미지
토르(TOR)로 불리는 이 타이틀은 루카스 아츠와 바이오웨어의 MMORPG이다. RPG게임의 명가인 바이오웨어가 만드는 최초의 메이저 MMORPG이기 때문에 기대가 되지 않을 수 없다. 토르의 최대의 특징은 바로 스토리텔링에 있는데, 유저들이 똑같은 퀘스트를 수행하는 기존MMO와는 달리 토르에서는 유저들이 각기 다른 흐름의 자신만의 스토리를 진행하게 된다고 한다. 스타워즈의 특성상 주인공의 선택에 따라 선과 악으로 나뉘는 세계관을 적용하여 선과 악의 갈림길에서 나의 선택이 나를 재정의하게 된다는 것이다.

아직은 스토리 분기에 대한 자세한 스크린 샷은 존재하지 않지만, Next-gen MMO시장이 동적 스토리텔링으로 갈 것이 분명한 이 시점에서 토르는 "최초"라는 타이틀을 달게 될 작품임은 분명하다.

사이트 바로가기

2. LEGO Universe

사용자 삽입 이미지
NetDevil에서 개발 중인 이 작품 역시 아직은 베일에 쌓인 작품이지만, 코타쿠 인터뷰를 통해 몇가지 흥미로운 사실을 알게 되었다.
  • 레고의 기본 특성인 Create를 잘 살린 게임이 될 것이라는 점.
  • 따라서, UCC의 특성을 가지게 될 것이라는 점. (UGG일지도..)
  • 와우같이 하드코어유저가 아닌 메인스트림을 공략하는 -외부 컨텐츠가 아닌-북미 최초의 MMO라는 점.

사이트 바로가기
AND

아직도 조금 생소한 개념인 대체현실게임(Alternative Reality Game)은 3D 그래픽이나 게임 컨트롤러를 통하지 않고, 소셜미디어와 현장이벤트를 통하여 게임을 진행한다. 국내에서도 이미 많은 기업이 대체현실게임을 자사 제품의 프로모션에 이용한 바 있다. 대체현실게임의 선구자 격인 Jane McGonigal이 BusinessWeek 인터뷰를 보면 앞으로 대체현실게임과 기업과의 관계가 어떻게 발전될 것인지를 옅볼 수 있다.
흥미로운 내용만 요약해보면,
  • Multicapitalism(다양한 분야의 자본이 융합되는 형태) 언급에서 Social Capital얘기를 했는데, 과거 유저수가 Social Captial이던 시대에서 실사용자수, 그리고 참여하는 유저 클라우드의 지향성과 퀄리티로 발전하고 있구나라는 생각이 들었다.
  • 사실 BusinessWeek에서 가장 궁금한 포커스는 한창 피크를 찍은 노이즈 마케팅이나 사회적 관심을 불러일으키는 프로모션에 얼마나 도움을 주냐겠지만, Jane은 대체현실게임이 기업주도로 발생하는 프로모션의 도구보다는 반대로 사회적 이슈를 만드는 이슈메이커의 역할을 수행하고 기업이 이에 동참하는 포멧을 얘기한다.
  • 현재 진행중인 Jane의 이슈메이킹 게임은 Superstruct인데 과거 게임인 World Without Oil부터 '세계평화와 인류번영'스러운 주제를 사용하고 있는데, 이번 주제는 2019년에 처한 인류멸망의 위기를 어떠한 방법으로 탈출할 것인가 이다. 현재 8000명정도가 참여하는 이 게임에서 다양한 사회/문화/예술/범죄 등등에 가상 시나리오가 펼쳐지고 있다.
BusinessWeek 사이트 바로가기
Superstruct 사이트 바로가기
AND

* 이전 포스팅을 하고나니 차세대 Display 포스팅 중에 Volumetric Display부분이 없는 거 같아 보충하는 차원에서 올립니다.

사용자 삽입 이미지

Actuality System社의 Perspecta Spatial 3D

Volumetric Diaplay는 3D Display의 일종으로 눈의 착시 현상을 이용한 Stereoscopic Display와는 달리 실제 공간에 빛을 쏘아 입체적인 빛의 흐름을 만드는 장치이다. 따라서 별도의 안경을 써야할 필요가 없으며, 시청자들이 움직임과 관계없이 모든 시점에서 관찰이 가능하다. 예를 들자면, 짧은 치마의 여성 컨텐츠를 보면 본능적(?)으로 몸을 숙여 아래서 위를 보려고 할때, 기존 디스플레이는 아무것도 더(?) 볼 수 없지만 Volumetric Display는 물체의 모든 정보를 가지고 있기 때문에 볼 수 있다는 차이라고 보면 되겠다. 이 방식은 앞서 포스팅에서 말한 것과 같이 대중화가 힘든데, 일단 기술들이 초보적인 수준에 머물러있고 입체로 보이는 공간이 폐쇄적이거나 기계의 덩치가 너무 크기 때문이다. 하지만, 연구용이나 기업 홍보용으로 쓰기엔 서서히 물이 오르기 시작하고 있다. 현재까지 알려진 상용화 가능 제품을 위주로 리뷰를 해 보았다.

1. Perspecta Spatial 3D


영국의 Actuality System이 개발한 Perspecta Spatial 3D.
마법수정 같은 구체에 회전하는 디스플레이를 입혀서 Volumetric 3D Diaplay를 구현하였다. 원리는 원판형 768x768 디스플레이를 회전하여 198 slice/360°라는 단위로 쪼게어 다른 시점별로 랜더링하는 방식이다. 초당 1회 회전한다면 198 프레임을 뿌려줘야 한다. 디스플레이는 빠르게 회전하기 때문에 폐쇄구조를 가지고 있으며 크기에 제약이 있어보이지만, 퀄리티에 있어선 최고수준이다. 회사도 의약분야를 주타겟으로 삼고 있다.

2. Interactive 360° Light Field Display


상용제품은 아니고 USCICT(Institute for Creative Technologies)가 Sony의 스폰서를 받아 제작한 것으로 기본 원리는 Perspecta Spatial 3D와 다르지 않다. 원판 디스플레이 대신 45°거울을 사용하며 특이한 점은 화상통화등의 응용연구를 하고 있다. 실시간으로 만들기 위해선 모든 회전각에 대한 촬영을 하거나 아니면 3D 스캐닝을 통하여 Mesh정보를 받고 Face Detection과 Tracking을 통하여 얼굴의 움직임을 3D상에서 변화시켜주면서 랜더링하는 방법을 쓰는 것 같다. (화면을 보면 가끔 입이 돌아가거나 Vextex가 튀는 장면이 목격된다.)

3. HoloVizio


헝가리 벤쳐회사인 Holografika는 VOXEL방식을 통하여 Volumetric 효과를 구현하는 HoloVizio 128WLD720RC를 판매중이다. 이 방식은 액정을 3D로 만드는 방식이라고 보면 된다. 3차원 Array로 LED를 쌓아올려 Z축이 다른 픽셀은 시청자의 시점이동시 다르게 움직임으로 심도를 느끼게 한다. 이 방식은 스크린에 투영되어 보이기 때문에 시청각에 한계가 있다. 4개의 DVI-D를 통해 각각 다른 Layer의 디스플레이판넬에 정보를 전달한다. OLED 3D Array 제조공정 기술이 개발된다면 현실적으로 대중화가 가능한 기술로 평가된다.

4. VisualCube


HoloVizio와 흡사한 3D Array의 이 제품은 상대적으로 저렴한 가격($789USD)로 Volumetric 3D를 구현한 제품이다. 6x6x6의 다소 부족한 픽셀을 가지고 있지만, 이를 Array로 묶어서 쇼윈도우나 무대장치에 활용해볼만한 가치가 있어 보인다.

5. Cheoptics 360


덴마크의 벤쳐회사인 Vizoo에서 개발한 이 디스플레이는 어떤 원리인지 감을 잡기 힘들다. 다만, 4면으로 45° 각도의 투명유리가 역 피라미드 형태로 놓여있는 것으로 보아 4면에 각각 영상을 쏘아 각도에 따라 보여지는 것을 예측된다. (따라서 엄밀히 말하자면 Volumetric Display는 아니다.) 하지만, 다소 저렴할 듯한 기계와 소스제작의 간편함(이 경우 4개의 카메라만 있으면 큰 무리없이 제작이 가능)이 기업에서 사용하기에 적절해 보인다.

Volumetric Display가 상용화되는데는 큰 걸림돌이 있는데, 그것은 바로 컨텐츠 제작의 어려움이다. 일반적인 영상 컨텐츠의 경우, 적합한 스테이지를 제작하고 시간에 따라 다양한 카메라워크에 따라 소스를 만들고 편집하면 끝이다. 하지만, Volumetric 컨텐츠의 경우 언제나 모든 시점의 정보를 가지고 있어야 하기 때문에 무대설치시 모든 시점에 빈틈없이 무대를 설치해야하고, 촬영장비를 잘 숨겨야만 하게 된다. 또한, 3D 스켄을 통하여 무대와 배우 모두 3D 상태를 유지해야하기 때문에 기존의 방송장비는 모두 무용지물이 된다. 또한, 스타들의 정확한 3D정보가 컨텐츠에 저장되기 때문에 다양한 저작권위법 사례가 나올 수 있다. 흔히 말하는 포샵질을 통한 연예인합성 문제는 Volumetric 컨텐츠에선 새발의 피가 된다. 남자 배우 대신 내가 대신 주인공이 되어 영화에 출연할 수 있으며, 스타들의 모션데이터를 조작하여 수많은 복합적인 조작이 가능하다. (새로 영화를 만들 수도 있다.)

하지만, Volumetric Display는 근 미래가 Stereoscopic Display로 상용화가 이루어진다해도 언젠가는 최후의 디스플레이로서 발전되어 사용될 것이 분명하다.

* 관련 이전 포스팅
- 차세대Display : nVidia Geforce 3D Vision
- 차세대Display : LUMUSVISION
- 차세대Display : HDR Display
AND

invalid-file

nVidia 홈페이지 홍보영상

CES 2009에서 n당이 발표한 Geforce 3D Vision은 입체영상을 볼 수 있는 고글과 자사의 VGA카드의 병합제품으로 다양한 $199의 저렴(?)한 가격으로 3D게임을 입체로 볼 수 있게 해준다. 신기술이라고 하는데 많이 갸우뚱해지는 부분이 많다. 비슷한 제품을 바로 10년전에 본적이 있기 때문이다. 가산전자라는 그때 잘 나가던 VGA 디스플레이 업체에서 만들었던 WinXPerfect이라는 제품이었는데, VGA카드에 부착된 안경으로 CRT를 보면 입체로 보이는 완벽하게 유사한 제품이었다. 그렇다면, 왜 n당은 구시대의 유물 같은 이 기술을 들고나와 신기술이라고 주장하는 것일까? 여기서, 간단하게 Stereoscopic 3D 디스플레이의 유형과 장단점을 짚고 넘어가자.
사용자 삽입 이미지

10년전 가산전자 WinX Perfect. 3D MAX라는 다소 혼돈스러운 이름을 사용하고 있다. 자세히 보면 VGA 포트에 3D고글을 연결하는 단자가 있다.

Stereoscopic 3D란?

인간이 입체를 보는 원리를 이용하는 방식으로, 양 눈에 다른 화면을 보여줌으로서 입체를 느끼게 한다. 하지만, 자연의 섭리상 양쪽 눈에 다른 화면을 보여주려면 폐쇄구조나 특수한 트릭을 써야만 한다.

1. HMD(Head Mount Display)

폐쇄된 구조로 양눈에 다른 화면을 보여주는 방식으로, 시중에는 다양한 HMD장비들이 있지만 3D를 지원하는 장비는 몇 되지 않는다. 대부분의 제품이 하나의 소스를 양쪽 눈에 제공하는 2D제품이 대부분이며 저해상도에 조악한 스펙을 가지고 있다. 제대로된 3D 고글이라면 최소한 800x600이상의 해상도의 LCD를 양눈에 장착한 제품이 되어야하며, 이러한 제품들로 3D 게임을 하기 위해서는 별도의 프로그램을 사용하거나, n당의 3D stereo같은 드라이버를 제공받아야 한다. 장점으로는 최상의 Stereographic환경으로 리얼한 3D효과를 느낄 수 있다는 점과 폐쇄된 구조로 인한 높은 몰입도를 들수 있다. 단점은 역시 폐쇠된 구조로 인한 답답함과 여러사람이 같이 볼 수 없다는 점이 제품 대중화의 방해요소이다. 다만 OLED와 같이 백라이트 없는 구조의 디스플레이와 연계한다면, 안경처럼 개방/폐쇄를 병행할 수 있는 차세대 제품이 나올 수 있는 가능성이 있다.
사용자 삽입 이미지

이런 식으로 보이는 제품도 Monographic인지 Stereographic인지에 따라 천차만별.

2. Parallax Illumination
사용자 삽입 이미지

DTI 3D 디스플레이. 안경 없이 3D를 볼 수 있다는 장점이 있지만..

LCD 뒷면에 백라이트를 정면을 향하지 않고 세로로 향하게 만드는 기술로서, 좌우관측지점에서 보이는 내용이 서로 다르게 나오게 할 수 있는 기술이다. 모 자동차의 중앙 디스플레이에서 좌우 탑승자가 다른 화면을 보는 기능으로 응용되기도 하는데, 이 기술의 장점은 안경 없이 대형화면에서 3D효과를 느낄 수 있다는 것이다. 단점은 관측지점을 임의로 LRLRLR 이런식으로 나눠놓기 때문에 입체로 보이는 지점이 정해져있다. (L지역이 내 왼쪽눈에, R지역이 내 오른쪽눈에 있을때에만 입체로 보임) 그나마, 불편한 안경없이 볼 수 있기 때문에 삼성, 샤프, 도시바등 가전업체들에서 상용화가 진행중이다. (원 특허는 DTI3D라는 회사가 가지고 있는듯)
사용자 삽입 이미지
사용자 삽입 이미지 사용자 삽입 이미지

관측지점에 따라 보이는 소스위치.

3. 시분할

안경이 필요한 방식으로, 이 경우는 안경에 화소없이 빛을 차단하는 필터만 필요하다. 또한, 기존 디스플레이가 필요하며, 디스플레이에서 프래임 별로 다른 그림을 보내주면 안경에서 양쪽 눈을 번갈아 차단, 개방하면서 3D효과를 내는 기술이다. 장점으로는 가격이 저렴하며, 안경이 개방형이라 다른 일과의 병행이 가능하고, 따라서 여러사람이 하나의 디스플레이를 각자의 안경으로 보며 3D효과를 낼 수 있다. 단점은, 차단되는 만큼 빛과 프레임을 보지 못하기 때문에 디스플레이의 1/2의 밝기와 1/2의 프레임만을 볼 수밖에 없다.

4. 색분할

누구나 알만한 빨강, 파랑의 셀로판지를 이용하여 하나의 화면에 2장의 그림정보를 기록하는 방식이다. 이미 상용화되어있고, 간단한 셀로판지 안경만으로 3D를 볼 수 있지만, 그만큼 색정보가 손실되는 단점이 있다.
사용자 삽입 이미지
5. 편광분할

색분할과 유사한데, 편광필터안경를 사용하여 2개의 프로젝션에 가로/세로의 편광필터를 부착하여 3D효과를 내는 방식으로, 색손실은 적지만 역시나 편광으로 인하여 빛손실이 존재한다. 또한, 프로젝션에서만 작동 가능하며, 2개의 프로젝션이 있어야 한다. 가정용으로는 꽝인 형태.

사용자 삽입 이미지

외부 환경이 변함으로 신기술로 재탄생한 시분할 3D기술.

본론으로 돌아가서, 지금 소개된 Geforce 3D Vision은 3번 시분할 방식으로 구성되어 있다. 재밋는 사실은 왜 이 제품이 HD의 새로운 3D기술로 소개되고 있냐는 점인데, 10년전 이 기술이 한참 상용화물결을 타고 있을때는 바야흐로 CRT의 전성기였다.

삼성 17GLi(17인치 CRT모니터) 같은 제품이 nerd들의 기호품으로 각광받던 시대였다. 그 당시 CRT는 발전에 발전을 거듭해서 당시 최고해상도인 1024x768에서 80hz, 100hz의 Frame Rate를 가지고 있었다. 따라서, 시분할을 하게되면 40~50frame이 나올 수 있었다. WinX Perfect을 가지고 있던 친구집에서 DOS용 디센트1을 패치해서 3D로 플레이했었는데, 화면은 놀라웠지만 고장난 형광등 아래서 게임한 것처럼 머리가 아팠던 기억이 난다. 이후 LCD의 시대로 오면서 늦은 반응속도와 잘해야 60hz정도의 Frame Rate로 시분할 기술은 설 곳을 잃고 동면기를 겪게 된다.

하지만, HDTV의 대중화, 3D기술의 발전으로 스테레오 랜더링에 필요한 충분한 하드웨어의 등장과 풀HD LCD제품 이후 120hz제품의 대중화에 힘입어 시분할은 60프레임으로 보여주는 3D HD화면이라는 새로운 기술로 승화하게 된 것이다. 개인적 견해차가 있겠지만, 120hz LCD는 일반 사용자들이 공감할 만한 차이점을 만들지 못하고 있다. 따라서, 이같은 시분할 3D 기술은 컨슈머가 갸우뚱하는 120hz제품에 새로운 활용방법을 부여하는 기술로서 환영할 만하다. 또한, 기존에는 유선으로 구성되었던 안경이 무선으로 돌아왔다. CES 데모영상에 의하면 1시간 충전에 40~50시간 사용이라니 그정도면 제품으로서 나쁘지 않은 느낌이다.

다만, 과거 nVidia의 3D Stereo 드라이버 지원 태도(모든 그래픽카드가 지원하는 것이 아니고, 표준 드라이버가 불안정했다. 다만, 이번엔 CUDA지원 하드웨어에 한해 지원하게 됨.)와 전용 120hz 모니터의 필요, 그리고 컨텐츠의 부재가 대중화의 걸림돌이 되겠지만 매력적인 제품임은 분명하다.

사이트 바로가기
AND

구글맵에 한국 지명이 뜨길래 클릭해봤더니...

무슨 말이 필요하랴. 구글맵 한국 지도가 떴구나!
근데 도로망을 이렇게 자세히 구현하고도 아직 길찾기가 안되네.
초기 일본맵이랑 비슷한 상황인듯.

위성사진도 업뎃됐는데, 최고디테일 이미지가 고정으로 더이상 줌인이 안되는 문제가 있다.

아이폰에서 해봤더니 잘 된다. 뒤 사진은 노트북에서 본 같은 장소.
다만 아이폰에선 주소검색은 잘 되는데 지도 라벨링이 업뎃되지 않았다.
AND


TV를 보다가 빌게이츠와 사인필드가 수다를 떨어서 화들짝 놀랐다. 신발광고 인 줄 알았더니 Microsoft광고네. 유튜브에 보니 벌써 다양한 버전이 만들어져 있다.

그중에 Alternative Ending 버전. (1:20초부터 다른 내용)


사인필드는 이 광고 시리즈로 $10M(100억)을 받았다는데, 은퇴한 빌게이츠는 설마 공짜로?
그나저나 빌게이츠도 많이 늙었구나...
AND


아이토이의 본고장 SCEE London에서 카메라를 이용하여 상호소통하는 가상 애완동물인 EyePet을 발표하였다. 소니가 경쟁사와 비교해서 가장 유니크 인터페이스는 역시나 카메라인듯. 해드트래킹이나 비전 알고리즘을 보완해서 SCEE뿐만아니라 전사적으로 밀어줘도 경쟁이 될 터인데...(이제 효용제로로 낙인찍힌 육갑센서놀이는 그만~)
AND

Microsoft Live Labs에서 Photosynth 서비스를 어제 정식 오픈했다. Photosynth 서비스란 사진과 3D의 경계를 허무는 서비스로 사진으로 찍혀진 내용을 분석하여 실제 3D 공간으로 풀어낸다. 쉽게 말하자면 찍혀진 사진을 분석하여 찍혀진 곳을 역재현해내는 것이다. 마치 중학교 기술시간에 배웠던 정면, 측면, 평면의 3면도를 보면 대강의 입체를 유추해보는 것과 같은 원리라고 보면 되겠다. 따라서 1장의 사진만으로 이러한 재현은 불가능하지만, 한 물체를 여러장의 다양한 각도에서 찍은 사진들이 모이면 이를 바탕으로 공간을 만들어 내는 것이다. 이는 유저들의 참여를 통하여 이루어지며, 궁극적으로는 사진을 이용한 멀티미디어 검색과 전세계를 하나의 3D 공간을 묶는 역할을 수행할 수 있는 잠재력을 가진 서비스이다.

여러 장의 사진을 바탕으로 만들어진 Photosynth의 결과물. 카메라 이동을 통해 3D로 돌아볼 수 있다.

Photosynth를 만드는 과정. 이미지들을 선택하면 서버로 이미지를 업로드하고 서버에서 이미지를 분석하여 만들어낸다. 업로드가 과중한 경우 불가능하다는 메시지가 나오기도 한다.


현재 구글어스나 MS Earth에서 제공하는 3D공간은 위성데이터와 각사 혹은 유저들이 제공한 3D 데이터를 바탕으로 만들어진 것이기 때문에, 유명한 도시는 디테일하지만 대부분은 실제 공간을 재현하지 못하고 있다. 하지만, 유저들이 사진을 찍어서 올리는 것 만으로 전세계의 도시와 건물, 유적, 우리 동네의 3D 데이터가 업뎃된다고 상상해보라. 반대로 내가 사진을 찍어서 올리는 것 만으로 그 내용을 분석하여 그곳이 어디인지 인식하는 것 또한 가능해질 수 있다.

사이트 바로가기
AND