아직도 조금 생소한 개념인 대체현실게임(Alternative Reality Game)은 3D 그래픽이나 게임 컨트롤러를 통하지 않고, 소셜미디어와 현장이벤트를 통하여 게임을 진행한다. 국내에서도 이미 많은 기업이 대체현실게임을 자사 제품의 프로모션에 이용한 바 있다. 대체현실게임의 선구자 격인 Jane McGonigal이 BusinessWeek 인터뷰를 보면 앞으로 대체현실게임과 기업과의 관계가 어떻게 발전될 것인지를 옅볼 수 있다.
흥미로운 내용만 요약해보면,
  • Multicapitalism(다양한 분야의 자본이 융합되는 형태) 언급에서 Social Capital얘기를 했는데, 과거 유저수가 Social Captial이던 시대에서 실사용자수, 그리고 참여하는 유저 클라우드의 지향성과 퀄리티로 발전하고 있구나라는 생각이 들었다.
  • 사실 BusinessWeek에서 가장 궁금한 포커스는 한창 피크를 찍은 노이즈 마케팅이나 사회적 관심을 불러일으키는 프로모션에 얼마나 도움을 주냐겠지만, Jane은 대체현실게임이 기업주도로 발생하는 프로모션의 도구보다는 반대로 사회적 이슈를 만드는 이슈메이커의 역할을 수행하고 기업이 이에 동참하는 포멧을 얘기한다.
  • 현재 진행중인 Jane의 이슈메이킹 게임은 Superstruct인데 과거 게임인 World Without Oil부터 '세계평화와 인류번영'스러운 주제를 사용하고 있는데, 이번 주제는 2019년에 처한 인류멸망의 위기를 어떠한 방법으로 탈출할 것인가 이다. 현재 8000명정도가 참여하는 이 게임에서 다양한 사회/문화/예술/범죄 등등에 가상 시나리오가 펼쳐지고 있다.
BusinessWeek 사이트 바로가기
Superstruct 사이트 바로가기
AND

* 이전 포스팅을 하고나니 차세대 Display 포스팅 중에 Volumetric Display부분이 없는 거 같아 보충하는 차원에서 올립니다.

사용자 삽입 이미지

Actuality System社의 Perspecta Spatial 3D

Volumetric Diaplay는 3D Display의 일종으로 눈의 착시 현상을 이용한 Stereoscopic Display와는 달리 실제 공간에 빛을 쏘아 입체적인 빛의 흐름을 만드는 장치이다. 따라서 별도의 안경을 써야할 필요가 없으며, 시청자들이 움직임과 관계없이 모든 시점에서 관찰이 가능하다. 예를 들자면, 짧은 치마의 여성 컨텐츠를 보면 본능적(?)으로 몸을 숙여 아래서 위를 보려고 할때, 기존 디스플레이는 아무것도 더(?) 볼 수 없지만 Volumetric Display는 물체의 모든 정보를 가지고 있기 때문에 볼 수 있다는 차이라고 보면 되겠다. 이 방식은 앞서 포스팅에서 말한 것과 같이 대중화가 힘든데, 일단 기술들이 초보적인 수준에 머물러있고 입체로 보이는 공간이 폐쇄적이거나 기계의 덩치가 너무 크기 때문이다. 하지만, 연구용이나 기업 홍보용으로 쓰기엔 서서히 물이 오르기 시작하고 있다. 현재까지 알려진 상용화 가능 제품을 위주로 리뷰를 해 보았다.

1. Perspecta Spatial 3D


영국의 Actuality System이 개발한 Perspecta Spatial 3D.
마법수정 같은 구체에 회전하는 디스플레이를 입혀서 Volumetric 3D Diaplay를 구현하였다. 원리는 원판형 768x768 디스플레이를 회전하여 198 slice/360°라는 단위로 쪼게어 다른 시점별로 랜더링하는 방식이다. 초당 1회 회전한다면 198 프레임을 뿌려줘야 한다. 디스플레이는 빠르게 회전하기 때문에 폐쇄구조를 가지고 있으며 크기에 제약이 있어보이지만, 퀄리티에 있어선 최고수준이다. 회사도 의약분야를 주타겟으로 삼고 있다.

2. Interactive 360° Light Field Display


상용제품은 아니고 USCICT(Institute for Creative Technologies)가 Sony의 스폰서를 받아 제작한 것으로 기본 원리는 Perspecta Spatial 3D와 다르지 않다. 원판 디스플레이 대신 45°거울을 사용하며 특이한 점은 화상통화등의 응용연구를 하고 있다. 실시간으로 만들기 위해선 모든 회전각에 대한 촬영을 하거나 아니면 3D 스캐닝을 통하여 Mesh정보를 받고 Face Detection과 Tracking을 통하여 얼굴의 움직임을 3D상에서 변화시켜주면서 랜더링하는 방법을 쓰는 것 같다. (화면을 보면 가끔 입이 돌아가거나 Vextex가 튀는 장면이 목격된다.)

3. HoloVizio


헝가리 벤쳐회사인 Holografika는 VOXEL방식을 통하여 Volumetric 효과를 구현하는 HoloVizio 128WLD720RC를 판매중이다. 이 방식은 액정을 3D로 만드는 방식이라고 보면 된다. 3차원 Array로 LED를 쌓아올려 Z축이 다른 픽셀은 시청자의 시점이동시 다르게 움직임으로 심도를 느끼게 한다. 이 방식은 스크린에 투영되어 보이기 때문에 시청각에 한계가 있다. 4개의 DVI-D를 통해 각각 다른 Layer의 디스플레이판넬에 정보를 전달한다. OLED 3D Array 제조공정 기술이 개발된다면 현실적으로 대중화가 가능한 기술로 평가된다.

4. VisualCube


HoloVizio와 흡사한 3D Array의 이 제품은 상대적으로 저렴한 가격($789USD)로 Volumetric 3D를 구현한 제품이다. 6x6x6의 다소 부족한 픽셀을 가지고 있지만, 이를 Array로 묶어서 쇼윈도우나 무대장치에 활용해볼만한 가치가 있어 보인다.

5. Cheoptics 360


덴마크의 벤쳐회사인 Vizoo에서 개발한 이 디스플레이는 어떤 원리인지 감을 잡기 힘들다. 다만, 4면으로 45° 각도의 투명유리가 역 피라미드 형태로 놓여있는 것으로 보아 4면에 각각 영상을 쏘아 각도에 따라 보여지는 것을 예측된다. (따라서 엄밀히 말하자면 Volumetric Display는 아니다.) 하지만, 다소 저렴할 듯한 기계와 소스제작의 간편함(이 경우 4개의 카메라만 있으면 큰 무리없이 제작이 가능)이 기업에서 사용하기에 적절해 보인다.

Volumetric Display가 상용화되는데는 큰 걸림돌이 있는데, 그것은 바로 컨텐츠 제작의 어려움이다. 일반적인 영상 컨텐츠의 경우, 적합한 스테이지를 제작하고 시간에 따라 다양한 카메라워크에 따라 소스를 만들고 편집하면 끝이다. 하지만, Volumetric 컨텐츠의 경우 언제나 모든 시점의 정보를 가지고 있어야 하기 때문에 무대설치시 모든 시점에 빈틈없이 무대를 설치해야하고, 촬영장비를 잘 숨겨야만 하게 된다. 또한, 3D 스켄을 통하여 무대와 배우 모두 3D 상태를 유지해야하기 때문에 기존의 방송장비는 모두 무용지물이 된다. 또한, 스타들의 정확한 3D정보가 컨텐츠에 저장되기 때문에 다양한 저작권위법 사례가 나올 수 있다. 흔히 말하는 포샵질을 통한 연예인합성 문제는 Volumetric 컨텐츠에선 새발의 피가 된다. 남자 배우 대신 내가 대신 주인공이 되어 영화에 출연할 수 있으며, 스타들의 모션데이터를 조작하여 수많은 복합적인 조작이 가능하다. (새로 영화를 만들 수도 있다.)

하지만, Volumetric Display는 근 미래가 Stereoscopic Display로 상용화가 이루어진다해도 언젠가는 최후의 디스플레이로서 발전되어 사용될 것이 분명하다.

* 관련 이전 포스팅
- 차세대Display : nVidia Geforce 3D Vision
- 차세대Display : LUMUSVISION
- 차세대Display : HDR Display
AND

invalid-file

nVidia 홈페이지 홍보영상

CES 2009에서 n당이 발표한 Geforce 3D Vision은 입체영상을 볼 수 있는 고글과 자사의 VGA카드의 병합제품으로 다양한 $199의 저렴(?)한 가격으로 3D게임을 입체로 볼 수 있게 해준다. 신기술이라고 하는데 많이 갸우뚱해지는 부분이 많다. 비슷한 제품을 바로 10년전에 본적이 있기 때문이다. 가산전자라는 그때 잘 나가던 VGA 디스플레이 업체에서 만들었던 WinXPerfect이라는 제품이었는데, VGA카드에 부착된 안경으로 CRT를 보면 입체로 보이는 완벽하게 유사한 제품이었다. 그렇다면, 왜 n당은 구시대의 유물 같은 이 기술을 들고나와 신기술이라고 주장하는 것일까? 여기서, 간단하게 Stereoscopic 3D 디스플레이의 유형과 장단점을 짚고 넘어가자.
사용자 삽입 이미지

10년전 가산전자 WinX Perfect. 3D MAX라는 다소 혼돈스러운 이름을 사용하고 있다. 자세히 보면 VGA 포트에 3D고글을 연결하는 단자가 있다.

Stereoscopic 3D란?

인간이 입체를 보는 원리를 이용하는 방식으로, 양 눈에 다른 화면을 보여줌으로서 입체를 느끼게 한다. 하지만, 자연의 섭리상 양쪽 눈에 다른 화면을 보여주려면 폐쇄구조나 특수한 트릭을 써야만 한다.

1. HMD(Head Mount Display)

폐쇄된 구조로 양눈에 다른 화면을 보여주는 방식으로, 시중에는 다양한 HMD장비들이 있지만 3D를 지원하는 장비는 몇 되지 않는다. 대부분의 제품이 하나의 소스를 양쪽 눈에 제공하는 2D제품이 대부분이며 저해상도에 조악한 스펙을 가지고 있다. 제대로된 3D 고글이라면 최소한 800x600이상의 해상도의 LCD를 양눈에 장착한 제품이 되어야하며, 이러한 제품들로 3D 게임을 하기 위해서는 별도의 프로그램을 사용하거나, n당의 3D stereo같은 드라이버를 제공받아야 한다. 장점으로는 최상의 Stereographic환경으로 리얼한 3D효과를 느낄 수 있다는 점과 폐쇄된 구조로 인한 높은 몰입도를 들수 있다. 단점은 역시 폐쇠된 구조로 인한 답답함과 여러사람이 같이 볼 수 없다는 점이 제품 대중화의 방해요소이다. 다만 OLED와 같이 백라이트 없는 구조의 디스플레이와 연계한다면, 안경처럼 개방/폐쇄를 병행할 수 있는 차세대 제품이 나올 수 있는 가능성이 있다.
사용자 삽입 이미지

이런 식으로 보이는 제품도 Monographic인지 Stereographic인지에 따라 천차만별.

2. Parallax Illumination
사용자 삽입 이미지

DTI 3D 디스플레이. 안경 없이 3D를 볼 수 있다는 장점이 있지만..

LCD 뒷면에 백라이트를 정면을 향하지 않고 세로로 향하게 만드는 기술로서, 좌우관측지점에서 보이는 내용이 서로 다르게 나오게 할 수 있는 기술이다. 모 자동차의 중앙 디스플레이에서 좌우 탑승자가 다른 화면을 보는 기능으로 응용되기도 하는데, 이 기술의 장점은 안경 없이 대형화면에서 3D효과를 느낄 수 있다는 것이다. 단점은 관측지점을 임의로 LRLRLR 이런식으로 나눠놓기 때문에 입체로 보이는 지점이 정해져있다. (L지역이 내 왼쪽눈에, R지역이 내 오른쪽눈에 있을때에만 입체로 보임) 그나마, 불편한 안경없이 볼 수 있기 때문에 삼성, 샤프, 도시바등 가전업체들에서 상용화가 진행중이다. (원 특허는 DTI3D라는 회사가 가지고 있는듯)
사용자 삽입 이미지
사용자 삽입 이미지 사용자 삽입 이미지

관측지점에 따라 보이는 소스위치.

3. 시분할

안경이 필요한 방식으로, 이 경우는 안경에 화소없이 빛을 차단하는 필터만 필요하다. 또한, 기존 디스플레이가 필요하며, 디스플레이에서 프래임 별로 다른 그림을 보내주면 안경에서 양쪽 눈을 번갈아 차단, 개방하면서 3D효과를 내는 기술이다. 장점으로는 가격이 저렴하며, 안경이 개방형이라 다른 일과의 병행이 가능하고, 따라서 여러사람이 하나의 디스플레이를 각자의 안경으로 보며 3D효과를 낼 수 있다. 단점은, 차단되는 만큼 빛과 프레임을 보지 못하기 때문에 디스플레이의 1/2의 밝기와 1/2의 프레임만을 볼 수밖에 없다.

4. 색분할

누구나 알만한 빨강, 파랑의 셀로판지를 이용하여 하나의 화면에 2장의 그림정보를 기록하는 방식이다. 이미 상용화되어있고, 간단한 셀로판지 안경만으로 3D를 볼 수 있지만, 그만큼 색정보가 손실되는 단점이 있다.
사용자 삽입 이미지
5. 편광분할

색분할과 유사한데, 편광필터안경를 사용하여 2개의 프로젝션에 가로/세로의 편광필터를 부착하여 3D효과를 내는 방식으로, 색손실은 적지만 역시나 편광으로 인하여 빛손실이 존재한다. 또한, 프로젝션에서만 작동 가능하며, 2개의 프로젝션이 있어야 한다. 가정용으로는 꽝인 형태.

사용자 삽입 이미지

외부 환경이 변함으로 신기술로 재탄생한 시분할 3D기술.

본론으로 돌아가서, 지금 소개된 Geforce 3D Vision은 3번 시분할 방식으로 구성되어 있다. 재밋는 사실은 왜 이 제품이 HD의 새로운 3D기술로 소개되고 있냐는 점인데, 10년전 이 기술이 한참 상용화물결을 타고 있을때는 바야흐로 CRT의 전성기였다.

삼성 17GLi(17인치 CRT모니터) 같은 제품이 nerd들의 기호품으로 각광받던 시대였다. 그 당시 CRT는 발전에 발전을 거듭해서 당시 최고해상도인 1024x768에서 80hz, 100hz의 Frame Rate를 가지고 있었다. 따라서, 시분할을 하게되면 40~50frame이 나올 수 있었다. WinX Perfect을 가지고 있던 친구집에서 DOS용 디센트1을 패치해서 3D로 플레이했었는데, 화면은 놀라웠지만 고장난 형광등 아래서 게임한 것처럼 머리가 아팠던 기억이 난다. 이후 LCD의 시대로 오면서 늦은 반응속도와 잘해야 60hz정도의 Frame Rate로 시분할 기술은 설 곳을 잃고 동면기를 겪게 된다.

하지만, HDTV의 대중화, 3D기술의 발전으로 스테레오 랜더링에 필요한 충분한 하드웨어의 등장과 풀HD LCD제품 이후 120hz제품의 대중화에 힘입어 시분할은 60프레임으로 보여주는 3D HD화면이라는 새로운 기술로 승화하게 된 것이다. 개인적 견해차가 있겠지만, 120hz LCD는 일반 사용자들이 공감할 만한 차이점을 만들지 못하고 있다. 따라서, 이같은 시분할 3D 기술은 컨슈머가 갸우뚱하는 120hz제품에 새로운 활용방법을 부여하는 기술로서 환영할 만하다. 또한, 기존에는 유선으로 구성되었던 안경이 무선으로 돌아왔다. CES 데모영상에 의하면 1시간 충전에 40~50시간 사용이라니 그정도면 제품으로서 나쁘지 않은 느낌이다.

다만, 과거 nVidia의 3D Stereo 드라이버 지원 태도(모든 그래픽카드가 지원하는 것이 아니고, 표준 드라이버가 불안정했다. 다만, 이번엔 CUDA지원 하드웨어에 한해 지원하게 됨.)와 전용 120hz 모니터의 필요, 그리고 컨텐츠의 부재가 대중화의 걸림돌이 되겠지만 매력적인 제품임은 분명하다.

사이트 바로가기
AND


아이토이의 본고장 SCEE London에서 카메라를 이용하여 상호소통하는 가상 애완동물인 EyePet을 발표하였다. 소니가 경쟁사와 비교해서 가장 유니크 인터페이스는 역시나 카메라인듯. 해드트래킹이나 비전 알고리즘을 보완해서 SCEE뿐만아니라 전사적으로 밀어줘도 경쟁이 될 터인데...(이제 효용제로로 낙인찍힌 육갑센서놀이는 그만~)
AND

Microsoft Live Labs에서 Photosynth 서비스를 어제 정식 오픈했다. Photosynth 서비스란 사진과 3D의 경계를 허무는 서비스로 사진으로 찍혀진 내용을 분석하여 실제 3D 공간으로 풀어낸다. 쉽게 말하자면 찍혀진 사진을 분석하여 찍혀진 곳을 역재현해내는 것이다. 마치 중학교 기술시간에 배웠던 정면, 측면, 평면의 3면도를 보면 대강의 입체를 유추해보는 것과 같은 원리라고 보면 되겠다. 따라서 1장의 사진만으로 이러한 재현은 불가능하지만, 한 물체를 여러장의 다양한 각도에서 찍은 사진들이 모이면 이를 바탕으로 공간을 만들어 내는 것이다. 이는 유저들의 참여를 통하여 이루어지며, 궁극적으로는 사진을 이용한 멀티미디어 검색과 전세계를 하나의 3D 공간을 묶는 역할을 수행할 수 있는 잠재력을 가진 서비스이다.

여러 장의 사진을 바탕으로 만들어진 Photosynth의 결과물. 카메라 이동을 통해 3D로 돌아볼 수 있다.

Photosynth를 만드는 과정. 이미지들을 선택하면 서버로 이미지를 업로드하고 서버에서 이미지를 분석하여 만들어낸다. 업로드가 과중한 경우 불가능하다는 메시지가 나오기도 한다.


현재 구글어스나 MS Earth에서 제공하는 3D공간은 위성데이터와 각사 혹은 유저들이 제공한 3D 데이터를 바탕으로 만들어진 것이기 때문에, 유명한 도시는 디테일하지만 대부분은 실제 공간을 재현하지 못하고 있다. 하지만, 유저들이 사진을 찍어서 올리는 것 만으로 전세계의 도시와 건물, 유적, 우리 동네의 3D 데이터가 업뎃된다고 상상해보라. 반대로 내가 사진을 찍어서 올리는 것 만으로 그 내용을 분석하여 그곳이 어디인지 인식하는 것 또한 가능해질 수 있다.

사이트 바로가기
AND

bkchung 님의 블로그에서 처음 접한 Popfly Gamer Creator는 기존 Popfly와 비슷한 방식의 매쉬업으로 게임을 쉽게 만들어 볼 수 있는 Silverlight기반의 저작도구이다. 결론부터 말하자면 MS 오피스 시절부터 내려오는 제약 많은 템플릿방식이라서 캐릭터나 배경등의 Asset 변경이나 기본룰의 조건변경 정도는 가능해도 그 이상의 것을 기대하긴 힘들다. 아이들도 만들 수 있다고 하는데, 직관성도 별로 좋지 않고 게임저작보다는 Silverlight의 가능성을 부각시킨 서비스에 가깝다고 볼 수 있겠다.

사이트 바로가기
AND


레노보의 새로운 노트북 제품군 아이디어패드에 최초 장착된 VeriFace는 웹캡을 통한 얼굴인식으로 윈도우에 로그인 할 수 있는 제품이다. 기존에도 비슷한 데모나 기술은 많았지만, 컨슈머 제품으로 나오기는 처음이다. 근데, 이 제품은 잠재적인 문제를 내포하고 있어 보인다. 그것은 얼마나 정확하고 빠르게 나를 인식하는지에 대한 인식률의 문제가 아니라, 오인식의 문제이다. 잘못 인식할 확률이 0%가 아닌 이상 나랑 비슷한 다른 사람을 나로 잘못 인식했을때 발생되는 수많은 보안 문제의 원인으로 지목될 확률이 높기 때문이다. 물론 수많은 방어 문구를 "사용전 협약"에 넣어놨겠지만, 여전히 의심반 관심반으로 지켜보게된다.
AND

Engadget에서 실린 이 동영상은 일전에 소개되었던 위모트를 이용한 해드트랙킹 데모와 매우 유사하다. 다만, 별도의 IR Emitter를 머리에 부착할 필요없이 카메라를 이용한 Vision방식의 해드트랙킹이라 보다 발전된 형태라고 볼 수 있다. 코와 눈썹 부위를 인식하여 3차원적인 움직임을 감지할 수 있으며, 여러명도 인식이 가능하다는 점이 특징이다.

AND

이전부터 PC게임으로 PS3로 쉽게 이식할 수 있는 라이브러리가 있다는 소문이 있었는데 비로소 내용이 공개되었다. GDC08에서 발표된 PhyreEngine가 바로 그 소문의 크로스플렛폼 3D엔진으로서, 아래와 같은 특징을 갖는다.

SCE's new free to use graphics engine
- Run time
- Art pipeline & tools
- 70+ samples and full documentation

Cross Platform (PS3 & PC), optimized for multi-core
- OpenGL & Direct3D
- Simple recompile for PS3

Works with standard tools
- Maya & Max exporters
- COLLADA compatible
- Bullet, Havok, Ageia Physics

Runs on PS3 debug systems
- PS3 development for less than $1200!

Ongoing development & support from SCE


재밋는 사실들을 요약해보면,
- XNA와 마찬가지로 무료를 원칙으로 하지만, 더 나아가 소스코드까지 완전 공개하겠다고 밝히고 있다. 다만 완전 공개 배포인지 여부는 밝혀지지 않았다. (소규모 개발사이상에게만 공개할지도)
- 따라서, PS3와 PC뿐만이 아니라 XBOX360용으로도 컴파일이 가능하다고 전해진다.

현재까지 PhyreEngine를 이용하여 개발된 게임들은 다음과 같다고 한다.

flOw

GripShift

DiRT


왜 크로스플렛폼일까를 생각해볼만한데, 소니의 전략은 "일단 PS3로 만들어라, 그리고 XBOX360이나 PC로 배포하여 채산성을 높여라"라고 한다. 현실적으로 PS3전용게임을 만들어서 이득을 보기란 어렵다. 특히나 소규모 제작사의 경우 더더욱 꺼리게 되는데, 이러한 고민을 해소하기 위해 내부에서 사용하던 크로스플렛폼 엔진을 전격 공개한 것이 아닐까 생각된다.

개인적으로 PS3의 전략들은 SCE가 PS1, PS2때 겪었던 모든 경험을 총동원한다는 생각이 든다. PS1시절에 FROM같은 소규모 개발사들을 육성하여 큰 효과를 냈던 경험을 살려, HOME Development Kit (HDK)나 PhyreEngine로 PS3 컨텐츠를 다양하게 만들고 있으며, PS2시절에 DVD 조기도입으로 가졌던 장점들을 살려, 블루레이도입과 경쟁에 큰 투자를 하고 있다. (많은 전문가들이 워너 브러더스 영입에 큰 검은 돈이 오갔을 것이라고 예상한다.)

블루레이가 이기고, Home 플렛폼과 PhyreEngine가 공개되는 순간부터 차세대 콘솔전쟁의 2회전이 시작되고 있다.

Playstaion Blog GDC 관련글 바로가기

Joystiq 기사 바로가기
AND

플레이스테이션 3의 구세주(?)로 불리는 차기 Social Network Platform인 HOME의 초기 모습은 다소 Flexible하지 않은 모습의 세컨드라이프로서 자유로운 커뮤니티와 개인공간을 제공하지만, 내부 컨텐츠는 미리 정해진 것들을 사용하는 방식이었다. 스크린샷에서는 함께 즐겁게 춤추는 노는 파티의 향연같지만, 그러한 Interactivity가 겉만 번지르르한 외향적 친밀감만을 제공한다는 것은 90년대말 VR의 환상이 깨지고 싸이질과 페이스북세대가 대세인 지금은 말해봐야 입만 아프다.

모두가 즐겁게 춤추는 이 장면의 내막에는 멀뚱거리며 패드로 춤추기를 명령하는 유저들이 있을 뿐이다. No social interaction! Yay를 외치는 단 한명의 유저(사실은 개발자)가 적막함을 배가시켜준다.


GDC 2008에서 발표한 HOME의 내용에 인상적인 부분이 있어 짚고 넘어가겠다. 이번 발표에서 인상적인 부분은 바로, UGG ( User Generated Game ), 즉 유저가 만든 게임을 공유하는 것이 가능하다는 말이다. 발표 내용을 보자.

HDK contents includes...
3D export pipeline tools
Scene & Object Editors
Latest developers build of Home included for both online & offline viewing and testing
Online build access with scene key validation


HDK는 Home Development Kit의 약자로 HOME 플렛폼 위에서 새로운 컨텐츠를 개발하기 위한 API와 Toolkit을 지칭하는 것이다. 또한 만들어진 패키지는 ActiveX나 Java처럼 일종의 인증서를 가지게 될 것 같다. 높은 자유도 때문에 유저에게 해를 주는 컨텐츠 제작이 가능해지므로...

HDK documents includes...
Maya & 3ds Max user guides with tutorials
Scene Editor user guide
Lua Arcade Games, Mini-games and Scripting Reference, tutorials & samples
Character Components Authoring and Furniture Creation with samples
Particle System Tool user guide with samples
All released in English, Japanese and Korean


HDK는 전문가가 아니라 일반유저가 활용할 수 있도록 최대한 다양한 도움말을 제공한다는 뜻이다. 한국어가 제3언어도 있다는 것이 특이하다. 한국의 게임제작에 대한 관심과 인디개발력을 높이 평가한 것이 아닐까.

Scene Editor

Use the Scene Editor to add:
Collisions and Graphics
Triggers (Areas & Events)
Game Elements (Seats, Picture Hooks, Furniture Points etc.)
Screens
Particle Effects
2D Arcade games
3D Mini-Games
Sound Objects (Ambient, Point Emitters, Sound Zones)


Scene Editor는 쉽게 말하면 워크레프트3나 스타크레프트에 포함된 맵에디터와 유사한 것이라고 보면 된다. 마야나 맥스를 통해 Import된 3D 오브젝트들을 배열하고, 게임에서 사용할 수 있도록 충돌조건을 설정하거나, 트리거(일종의 이벤트)를 설정할 수 있다. 또한, 게임내의 아이템(가구, 악세사리)을 위한 여러 조건들(어디에 앉을 수 있는지, 벽에 걸린다면 어떤 방향으로 걸리는지 등등)을 조절할 수 있다.

SceneEditor 스크린샷. 윈도우 기반에서 돌아가는 것을 알 수 있다. End-user를 위한 툴이라면 보다 상큼한 이름으로 지었으면 좋았을 것 같은데..


Lua Home API Overview

Functions & Events:
General
- OnInitialise, OnRender, OnLocalPlayerJoin
Network
- OutboundMessage, ReceivedMessage, NetPropertyBag
Camera Controls
- IsCameraActivated, SetCameraViewPortFOV
Other Library Interfaces:
OSD, Input Handlers, Local Player, Persons, SoundBanks

싸이의 미니홈피꾸미기와 차별되는 대표적인 부분으로, 자신만의 프로그램을 짤 수 있으며, 이 프로그램은 자신의 3D 오브젝트, 맵, 캐릭터를 통하여 다양한 컨텐츠를 제작할 수 있게 된다. 더우기 그 프로그램은 유저는 다른 유저들이 함께 즐길 수 있도록 연결해준다. (다만 게임에 참여하는 로비의 역할은 HOME플렛폼이 처리)

2D Arcade Games
Walk up to an arcade game console, choose to player and the screen apperars
Attached to screens
Scripted in Lua
Use Scene Editor to place the screen on top of your pre-created arcade game console

3D Mini-Games
Walk up to an area and choose to interact. You are moved within the mini-game but still can view those around you
Based in environment
Scripted in Lua


HDK를 통해서 만들 수 있는 컨텐츠는 무궁무진하다. 2D/3D 미니게임도 있지만, 자신의 얘기를 3D 영화로 보여줄 수도 있고, 교육용 컨텐츠 역시 작성이 가능하다. 일전에도 소개됐던 Sony의 UGG전략에서 짐작할 수 있었지만, Unreal에 이어 HOME과 Little Big Planet으로 이어지는 소니의 횡보가 과연 플레이스테이션3를 살릴 수 있을지 기대된다.

HOME에서 UGG를 즐기게 되는 시나리오. 개인홈으로 초대한 유저에게 부탁한다. "내 게임 좀 테스트 해줄래?"

LUA 스크립트를 실행하겠냐는 물음에 Yes하면, 바로 게임에 들어간다.

나오기도 전에 드는 걱정아닌 걱정이 있는데, UCC던 UGG던 유저끼리의 공유 컨텐츠는 강한 트래픽을 유발하는 플렛폼 상에 있어야 한다는 것. YOUTUBE가 플레이스테이션3에서만 돌아갔다면 과연 인기를 끌 수 있었을까? 또한, 세컨드라이프에서도 문제시되는 성인컨텐츠의 난무와 폭력적인 내용의 필터링을 어떻게 할 것인지?

AND