일전에 소개되었던 MIT 미디어랩의 Judith Donath교수가 구글에서 강의한 동영상. 범람하는 Social Network 시장에도 블루오션의 가능성을 지적하고 있다. SNA 포트폴리오가 부족한 구글에게는 좋은 소식이 아닐까 싶다.
AND


CMU의 Johnney Lee가 만든 간단한 데모인데, 색다를 것은 없지만 상당히 결과물이 좋다.
요점은 2D화면에서 해드트랙킹(시점의 이동 감지)를 통하여 3D공간이 보다 실감나게 보인다는 것이다. 머리의 회전를 주로 감지하는 VR 해드셋의 해드트랙킹과는 달리 위모트를 이용한 이 데모는 화면을 보고있는 머리의 평행이동(좌우상하)를 감지하여 미세한 시점변화를 만들어낸다. 실제로 FPS 게임을 만든다면 이를 통하여 마우스의 역할(시점변환)을 100% 담당하게 할 수는 없다는 얘기. 다만, 벽에 붙어서 빼곰히 옆으로 쳐다보며 미세 사격을 한다던지에는 탁월한 효과가 있을 것으로 본다. 결국 마우스(시점이동)+해드트랙킹(미세시점이동)+키보드(전후좌우이동)의 인터페이스가 가능하다는 얘기.

개발자의 웹사이트에 가보면 그외 다양한 위모트를 이용한 프로젝트가 있다.

사이트 바로가기
AND

    WIRED의 편집자 Clive Thompson가 쓴 이 글은 헤일로 3가 만들어지는 과정에서 대작의 위용을 갖추기 위해 어떠한 usability test(사용성 테스트)를 거쳤는 지를 재미있게 설명하고 있다. 1999년 맥월드 엑스포에서 발표한 초기 헤일로를 보고 MS는 2000년에 5,000만불에 번지를 인수한다. 그 당시 게임계의 초심자(?)였던 MS와 번지의 만남이 결정적인 시너지를 발휘한 부분이 있었는데, 그것은 번지가 당시 최고 수준이던 MS의 usability lab의 힘을 빌릴 수 있었던 것이다.

헤일로 3의 멀티맵인 Valhalla에서 발견한 문제점. 빨강점은 그 지점에서 죽은 플레이어를 가리킨다. (진할 수록 많이 죽음) 죄우 대칭인 가운데 맵에서 죽는 횟수는 왼쪽으로 치우쳐있을 것을 발견할 수 있다. 오른쪽 진영에서 접근하는 것이 조금 더 유리하다는 얘기다. 결국 작업자들은 좌우의 지형과 아이템을 조절하여 양쪽 진영의 발란스를 조절하였다.

당시 usability lab은 experimental psychology(실험심리학)으로 phD를 받은 Pagulayan가 있었다. Pagulayan 팀은 헤일로 2를 만드는 과정에서 400명의 게이머와 2,300시간에 걸친 사용성 테스트를 수행하고, 초반에 형편 없었던-초반 80%의 작업을 다 버렸다고 함- 게임 플레이 수정에 막대한 기여를 하였다. 그러나, 헤일로 1보다 떨어진다고 평가되는 부분도 있었는데, 양손총의 경우 너무나 강력한 도움이 되기 때문에 플레이어들이 다른 방식의 플레이패턴을 버리게되는 악영향을 주었다고 자평한다. (헤일로 1에는 gun, grenade, or punch attack가 "golden tripod"처럼 조화롭게 사용되었다고 함.) 2006년 헤일로 3의 첫 빌드가 나왔을때, Pagulayan 팀은 20명의 테스트 인원을 추가 고용하고, 600명의 게이머와 3,000시간에 걸친 헤일로 3의 사용성 테스트를 시작하였다.

플레이어의 움직임을 나타낸 그래프. 다른 색은 시간별로 움직인 궤적을 보여준다. 흩어진 부분은 플레이어가 의도와는 다르게 길을 잃어버리는 것이 빈번한 곳이다. 이후 작업자들은 지형을 조절하여 플레이어가 지속적으로 맵을 따라갈 수 있도록 조정하였다.

전작에서 제기 되었던 많은 문제점이 3편에 반영되었다. 에너지계열 웨폰이 너무 많았다던가, 무너졌던 "golden tripod"의 황금비를 살리는 기획이 적용되었다. 또한, 테스트 결과는 세분화되어 현재 플레이나 스테이지가 가진 문제점을 찾는데 큰 도움이 되었다고 한다. (불행히도 자세한 테스트 방법에 대해선 나오지 않았음)

  예전에 학교에 Bungie 스튜디오 관계자가 왔었는데, 헤일로 2의 사용성 테스트 동영상을 볼 기회가 있었다. (찾아봤는데 웹상에 공개된 것은 없는듯 하다.) 인상적인 부분은 플레이어의 테스트 시스템은 TV와 게임기, 그리고 카메라로 구성되어 있는데, 1개의 카메라는 패드부분을 비추고 있었다. 테스트 결과는 2개의 화면을 연속으로 보여주는데, 플레이어가 망설이거나 불편해 하는 컨트롤을 금방 알 수 있었다.

  기어스오브워 이후 헤일로 3에게는 무거운 짐이 지워졌었다. 엑박 최고의 대작이라는 타이틀을 지킬 수 있을 것인가에 많은 관심이 모아 졌었다. 결과는 성공이었지만, 그 뒤에는 이러한 시행착오와 노력이 있었던 것이다.

원문 바로가기

AND

Gametrailers.com에서는 시리즈로 게임업계의 탑 개발자들을 초청하여 인터뷰를 진행중이다.
에피소드 6의 2번째인 이 동영상은 PSN(Playstation Network) Operation의 Director를 담당하고 있는 Eric Lempel과의 인터뷰이다. 내용을 요약하면 현재 PSN이 XBOX Live에 뒤져있는 것은 사실이나, 무료라는 장점과 HOME, 그리고 UGC(User Generated Content)에 대한 지원 등을 내세워 차별화를 이룰 계획이라고 한다. 흥미로운 것은 UGC의 지원인데, 여기서 Eric은 Little Big Planet의 예를 들면서 "온라인으로 같이 플레이 할 뿐만 아니라 유저가 직접 스테이지를 디자인하며 이를 다른 유저들이 들어와 함께 게임을 즐길 수 있게 될 것이다"라고 말한다. 또한 PSN의 UGC는 MOD보다 쉽게 게임 내(in game)에서 디자인이 가능하다고 답한다. 또한, HOME을 통하여 유저들의 사진이나 동영상을 올리는 것 역시 가능하다고 한다.


미래의 게임환경은 블럭버스터급의 대형게임들과 소규모제작사와 유저들이 제작하는 UGG(User Generated Game)으로 양분될 것이라는 예상을 하고 있는 필자는 PSN의 이러한 전략이 현명하다고 생각한다. 아직까진 걸음마 수준인 PSN이 UGC전략으로 인하여 새로운 활력을 받을 수 있기를 기대한다.

사이트 바로가기
AND

PS3 개발툴 유출!!

ET News 2007. 6. 8. 01:53
간만의 포스팅입니다. PS3의 개발툴(SDK)가 유출됐다는 슬픈(기쁜?)소식입니다.
PS3Hax에 익명으로 포스팅된 스레드에는 개발툴 파일로 추정되는 스샷과 함께 디테일한 파일 목록이 첨부되어 있습니다.

유출됐다는 파일 리스트입니다.

PS3_CP_Update-150_004.zip Reference Tool CP update file
PS3_SDK_SampleData-160_008.zip Sample Data
PS3_Toolchain-Win_160_008.zip gcc/gdb Windows
PS3_Toolchain-Linux_160_008.zip gcc/gdb Linux
PS3_SDKDoc-160_01-Latest-x.zip Documents
PS3_Generator-115.zip Disc Image Generator
PS3_Eclipse_Plugins-150_004.zip Eclipse Plugins
PS3_PA_150_004.zip Performance Analyzer Tools
PS3_at3tool-2000.zip at3tool
PAMF_Tools-100.zip PAMF Tools
MultiStream_Tools-135.zip MultiStream Tools
SEdit-1200.zip SEdit
VAGconverter-1.0.zip VAG Converter

세부 파일 목록 다운로드

진위 여부를 가리기는 힘들지만 만일 사실일 경우라도 아직은 PS3용 홈브루의 탄생을 속단하긴 어렵습니다. 왜냐하면 개발툴은 다양한 개발사에 이미 배포되어 있고, 그들이 원한 경우 백업이 가능하기 때문에 유출이 가지는 의미가 획기적이라고 보기 어렵고, 더불어 이러한 유출 시 악용되는 것을 방지하는 여러가지 장치를 SCE에서 마련했을 것이기 때문입니다. 하지만, 유출이 사실이고 해당 파일 내부에서 PS3의 약점을 조금이라도 알아낸다면 PS3의 보안장벽이 허물어질 가능성 역시 높습니다. (리눅스에서 RSX 엑세스 권한만이라도 얻는다면 큰 소득이겠죠.)

인원감축 소식과 더불어 악재가 겹치는 암울한 소니군요..
AND

Youtube에 올라온 이 영상은 IBM에서 발표한 iRT를 이용하여 3대의 PS3를 이용하여 실시간 Ray-tracing랜더링을 보여주고 있다. 이 영상을 보기 전에 알아야할 부분은 영상의 퀄리티나 해상도가 그리 좋지 않은데 왜 이것이 대단하냐고 반문하실 수 있는데, Ray-tracing은 자연에서 발생하는 빛의 움직임을 재현하는 랜더링 기법으로 마야나 MAX같은 3D 이미지 랜더링에서나 쓰이며(물론 요즘은 GI를 쓰겠지만), 실시간으로 구현되는 것은 거의 불가능하다. 그란투리스모나 기타 자동차 게임의 차체에 비치는 매끈한 광원효과는 환경맵핑이라는 기법을 이용한 것이며, 자세히 살펴보면 반사되는 이미지는 미리 만들어진 것이거나 디테일이 떨어지고, 자신이 반사되는 경우도 없다.

동영상 내용

  • Ray-tracing은 720p이며 4x super sampling이 적용되어 있음.
  • 3대의 PS3를 리눅스 환경에서 기가빗이더넷으로 연결하였다.
  • 각 PS3는 7개의 SPE중 6개를 iRT에 할당하고 있다. (나머지 1개는 OS용이거나 I/O 용도인듯)
  • 3대중 한대는 최종 이미지를 만드는 역할을 수행하며 1개의 SPE를 최종 이미지 압축용으로 사용한다.
  • 각각은 1개의 SPE를 이미지 전송 압축용으로 사용한다.
  • 따라서, 이미지 전송용 1대는 4개의 SPE를 나머지 2대는 5개의 SPE를 랜더링에 활용한다.
  • 랜더링 영상은 100% Ray-casting이며 유리와 차 표면에 Reflection과 Refraction이 구현되어 있다.
  • 실시간이기에 다양한 Light source를 부여할 수 있다.
  • 뒷부분에 보이는 네모들은 각각 어떤 하드에서 랜더링되고 있는지를 보여주며, 맨 아래쪽은 4개의 블럭이 있는데 이유는 클라이언트라서 4개의 SPE만을 사용하기 때문이다. 나머지는 5개의 블럭이 보인다.

영상을 보면서 느끼는건, 대단하긴한데 이거 PS3용 게임을 만들 수도 없고, 그렇다고 Real-time Global Illumination처럼 Wow Factor가 있는것도 아닌 게 일반 유저들이 봐서는 그닥 관심이 대상이 되긴 어렵겠다는 생각이었다. 하지만, 대단한건 인정!!

AND

YDL의 PS3버전 출시로 게이머들에게 알려진 Terra Soft에서 PS3를 이용한 클러스터링 솔루션을 판매한다. 6 node와 36 node를 판매중이며, 각각 1TFlops와 5TFlops의 성능을 제공한다고 한다. Head node로는 IBM p5 185을 사용하며, 기가빗이더넷으로 연결된다. 궁금한 점은 분명 같은 Market Segmentation에 IBM의 셀 블레이드 서버군이 존재하는데, Sony와 IBM은 PS3의 서버 시장판매에 대해 어떻게 얘기되었는지 모르겠다. 다만, 이 제품의 가격은 만만치 않은데, 6 node가 $18,325, 36 node가 $40,000에 판매된다. 회사에 놔두면 노드 1개 클러스터링에서 풀어서 몰래 게임할 개발자들 많을 꺼 같은데?

사이트 바로가기
AND

플스3 펌웨어가 1.6으로 업데이트 되면서 Folding@Home이라는 메뉴가 생겼다. SETI@Home의 아류격으로 느껴질만하지만,(SETI@Home은 1999에 Folding@Home은 2000년에 시작했으니 아류가 맞다고 볼수도 있다.) Folding@Home은 난치병 치료제 개발에 도움이 되는 단백질의 접힘(Folding) 연구를 위한 것이기 때문에 보다 공익(?)적인 작업인 셈이다. 처음 뉴스를 접하고 '소니가 PS3의 실추된 이미지를 사회공익적인 이미지로서 개선해보고자 하는군'이라는 선입견이 생겼지만, 실제로 사용을 해보니 몇가지 실익(?)적인 부분-말로만이 아니라 실제 도움이 된다는-이 있었다.

PS3에서의 구동

Folding@Home의 구조를 간단히 보자면,

- 처음 시뮬레이션할 작업량을 네트워크를 통하여 받아온다.
- 내부 컴퓨팅파워(CPU+GPU)를 이용하여 시뮬레이션을 수행한다.
- 시뮬레이션이 끝나면 자료를 전송한다.
- 이를 반복한다.

보고있자면 단백질 구조가 무섭도록(!) 덜덜 떨면서 각 상황의 접힘을 시뮬레이션하는데, 자꾸 보고 있으노라면 세뇌가 되는지 오랫동안 쳐다보게 된다. 배경에는 지구상에서 Folding@Home 프로그램이 가동중인 지역이 밝게 표시되어 나타난다. (클라이언트 수가 많을수록 밝은 곳으로 표시된다.)

PC버전과 PS3버전과의 비교

혹시나 해서 필자의 PC에서 Folding@Home PC버전을 돌려보았는데, 결과가 의외여서 놀랐다. 본인의 PC사양은,

AMD X2 3800+ / 1.5GB RAM / GeForce 6100 통합칩셋 / 500GB HDD

정도인데, 아래 실행화면을 보면,

내부에서 수행되는 작업의 내용을 정확히 알지 못하기 때문에 단정짓기 어렵지만, Folding@Home에서 작업의 최소단위는 frame으로 정의하고, 여러개의 프레임이 모여서 하나의 시뮬레이션을 이룬다. 참고로 PC버전과 PS3버전의 시뮬레이션 분량이 다른데, PC버전은 20000개의 프레임이 하나의 시뮬레이션이고, PS3버전은 40000프레임이 하나의 시뮬레이션을 이룬다.(왜인지는 나중에 나온다.) 결국 한 프레임을 계산하는 작업시간은 해당 머신의 성능과 거의 직결된다고 볼 수 있다. 위 사진에서 보면 16s/frame으로 나타나 있는데 이것은 한프레임을 계산하는데 드는 시간이 16초라는 것이다.  그럼, PS3버전의 한 프레임당 작업시간은 얼마인지 살펴보자.
16초 대 0.07초...이거이거 같은 작업분량으로 보기가 어려운 값인데, 일단 PC버전은 다중코어지원이 안되기 때문에(Linux나 Mac버전에서만 가능) 싱글코어 100%사용량으로 설정했을때의 성능이다. 그렇다고 하더라도 너무 차이가 난다. PS3 버전의 구동원리도 묘연하다. 셀만을 이용하는 것인지 RSX(GPU)도 연산에 이용하는 것인지를 알 수 없다. 하지만, Wikipedia에 따르면 PS3용 Folding@Home이 배포된 이후, 최고의 연산 피크를 기록했다고 한다. (990 teraFLOPS in 3/25/2007) PS3의 참여로 인하여 가시적인 퍼포먼스 향상이 있다는 것이다. 곧 있으면 petaFLOPS(페다플롭스)에 도달할 예정이라니, 소니의 Folding@Home 홍보가 단지 Eyecandy만은 아니라는 것은 인정해줘야 하겠다.

Folding@Home 사이트 바로가기
AND

2005년부터 시작되어 3회째는 맞은 Living Game Worlds 심포지움이 3/29부터 아틀란타 조지아텍에서 열린다. 2006년 키노트 발표자였던 Will Wright같은 슈퍼 스타는 없지만, Rules of Play 의 저자인 Katie Salen 이하 학계와 업계 담당자들이 대거 참여한다. (하지만 Katie Salen을 포함 대부분이 2006년 발표자였다는 사실) 그런데 심포지움의 무게에 비해 주제에 대한 서술이 너무 부족하다. "Playing With Reality"라면 요즘 들어 Game Theorist 들이 유행시키려는 현실접목형 게임(혹은 대체현실게임(alternate-reality games)? 아직 용어정립이 안되놔서..)을 주제로 한다는 거 같은데, 울 어머니가 좋아라하시는 Jane McGonigal 정도는 초대할 만 한테 발표자에는 포함되어 있지 않다. 어찌됐건 게임 기획자라면 참석할 가치가 있는 세미나 중 하나임이 분명하다. 3/10일까지 등록하면 100불에 사전등록이 가능하다. (현장 등록은 200불)

사이트 바로가기

Jane McGonigal의 CNET 인터뷰 바로가기

한국형(?) 현실접목형 게임 Fun Out 카페 바로가기
AND

좀 지난 얘긴데, 막간을 이용해 올려본다. Tsukuba 대학 CS의 한 학생이 SIXAXIS(Playstation3의 컨트롤러)를 PC에서 구동가능하게 하는 프로그램을 만들었다. 원래 SIXAXIS는 USB HID기기로 등록이 되지만(블루투스에선 아직 등록이 안된다), 실제 작동은 하지 않고 있었다.(RAW Data조차 뿌려주지 않았었다.) 이 학생은 SCE에서 "it requires special USB request to enable sending HID data"(HID로 작동을 위해선 특별한 USB신호를 보내야한다)라는 발표를 보고 그 신호를 찾아서 SIXAXIS의 PS버튼을 누를 경우를 캐치해 응답신호를 보내주는 프로그램을 만들었다. 이로서 컨트롤러의 십자패드, ○X□△버튼, L1-3, R1-3, 2개의 아날로그 스틱을 읽을 수 있다. 다만, 현재까지 모션센싱데이터(6축 모두)를 읽을 수 없다.

사이트바로가기

일한사이트 번역 구글 툴바버튼
AND