BLOG ARTICLE ET News | 65 ARTICLE FOUND
- 2008.01.26 MIT 미디어랩이 구글에게 하는 조언 - Signals, Truth, & Design 2
- 2008.01.24 위모트를 이용한 해드트랙킹 데모 2
- 2007.10.02 헤일로(Halo) 3 비하인트 스토리 : How Microsoft Labs Invented a New Science of Play 12
- 2007.06.20 플레이스테이션3의 UGC(UCC) 전략 인터뷰
- 2007.06.08 PS3 개발툴 유출!! 6
- 2007.04.20 플스3 리눅스 실시간 Ray-tracing 시연영상 by iRT(IBM Interactive Ray-tracer) 2
- 2007.04.16 플스3 클러스터링 제품 등장 5
- 2007.03.27 Folding@Home :: 플스3와 PC버전의 성능 비교 12
- 2007.03.03 [심포지움] Living Game Worlds III @ Gatech 1
- 2006.12.16 플스3 컨트롤러 PC에서 구동가능
CMU의 Johnney Lee가 만든 간단한 데모인데, 색다를 것은 없지만 상당히 결과물이 좋다.
요점은 2D화면에서 해드트랙킹(시점의 이동 감지)를 통하여 3D공간이 보다 실감나게 보인다는 것이다. 머리의 회전를 주로 감지하는 VR 해드셋의 해드트랙킹과는 달리 위모트를 이용한 이 데모는 화면을 보고있는 머리의 평행이동(좌우상하)를 감지하여 미세한 시점변화를 만들어낸다. 실제로 FPS 게임을 만든다면 이를 통하여 마우스의 역할(시점변환)을 100% 담당하게 할 수는 없다는 얘기. 다만, 벽에 붙어서 빼곰히 옆으로 쳐다보며 미세 사격을 한다던지에는 탁월한 효과가 있을 것으로 본다. 결국 마우스(시점이동)+해드트랙킹(미세시점이동)+키보드(전후좌우이동)의 인터페이스가 가능하다는 얘기.
개발자의 웹사이트에 가보면 그외 다양한 위모트를 이용한 프로젝트가 있다.
사이트 바로가기
헤일로 3의 멀티맵인 Valhalla에서 발견한 문제점. 빨강점은 그 지점에서 죽은 플레이어를 가리킨다. (진할 수록 많이 죽음) 죄우 대칭인 가운데 맵에서 죽는 횟수는 왼쪽으로 치우쳐있을 것을 발견할 수 있다. 오른쪽 진영에서 접근하는 것이 조금 더 유리하다는 얘기다. 결국 작업자들은 좌우의 지형과 아이템을 조절하여 양쪽 진영의 발란스를 조절하였다.
플레이어의 움직임을 나타낸 그래프. 다른 색은 시간별로 움직인 궤적을 보여준다. 흩어진 부분은 플레이어가 의도와는 다르게 길을 잃어버리는 것이 빈번한 곳이다. 이후 작업자들은 지형을 조절하여 플레이어가 지속적으로 맵을 따라갈 수 있도록 조정하였다.
예전에 학교에 Bungie 스튜디오 관계자가 왔었는데, 헤일로 2의 사용성 테스트 동영상을 볼 기회가 있었다. (찾아봤는데 웹상에 공개된 것은 없는듯 하다.) 인상적인 부분은 플레이어의 테스트 시스템은 TV와 게임기, 그리고 카메라로 구성되어 있는데, 1개의 카메라는 패드부분을 비추고 있었다. 테스트 결과는 2개의 화면을 연속으로 보여주는데, 플레이어가 망설이거나 불편해 하는 컨트롤을 금방 알 수 있었다.
기어스오브워 이후 헤일로 3에게는 무거운 짐이 지워졌었다. 엑박 최고의 대작이라는 타이틀을 지킬 수 있을 것인가에 많은 관심이 모아 졌었다. 결과는 성공이었지만, 그 뒤에는 이러한 시행착오와 노력이 있었던 것이다.
원문 바로가기
Gametrailers.com에서는 시리즈로 게임업계의 탑 개발자들을 초청하여 인터뷰를 진행중이다.
에피소드 6의 2번째인 이 동영상은 PSN(Playstation Network) Operation의 Director를 담당하고 있는 Eric Lempel과의 인터뷰이다. 내용을 요약하면 현재 PSN이 XBOX Live에 뒤져있는 것은 사실이나, 무료라는 장점과 HOME, 그리고 UGC(User Generated Content)에 대한 지원 등을 내세워 차별화를 이룰 계획이라고 한다. 흥미로운 것은 UGC의 지원인데, 여기서 Eric은 Little Big Planet의 예를 들면서 "온라인으로 같이 플레이 할 뿐만 아니라 유저가 직접 스테이지를 디자인하며 이를 다른 유저들이 들어와 함께 게임을 즐길 수 있게 될 것이다"라고 말한다. 또한 PSN의 UGC는 MOD보다 쉽게 게임 내(in game)에서 디자인이 가능하다고 답한다. 또한, HOME을 통하여 유저들의 사진이나 동영상을 올리는 것 역시 가능하다고 한다.
미래의 게임환경은 블럭버스터급의 대형게임들과 소규모제작사와 유저들이 제작하는 UGG(User Generated Game)으로 양분될 것이라는 예상을 하고 있는 필자는 PSN의 이러한 전략이 현명하다고 생각한다. 아직까진 걸음마 수준인 PSN이 UGC전략으로 인하여 새로운 활력을 받을 수 있기를 기대한다.
사이트 바로가기
PS3Hax에 익명으로 포스팅된 스레드에는 개발툴 파일로 추정되는 스샷과 함께 디테일한 파일 목록이 첨부되어 있습니다.
유출됐다는 파일 리스트입니다.
PS3_CP_Update-150_004.zip Reference Tool CP update file
PS3_SDK_SampleData-160_008.zip Sample Data
PS3_Toolchain-Win_160_008.zip gcc/gdb Windows
PS3_Toolchain-Linux_160_008.zip gcc/gdb Linux
PS3_SDKDoc-160_01-Latest-x.zip Documents
PS3_Generator-115.zip Disc Image Generator
PS3_Eclipse_Plugins-150_004.zip Eclipse Plugins
PS3_PA_150_004.zip Performance Analyzer Tools
PS3_at3tool-2000.zip at3tool
PAMF_Tools-100.zip PAMF Tools
MultiStream_Tools-135.zip MultiStream Tools
SEdit-1200.zip SEdit
VAGconverter-1.0.zip VAG Converter
세부 파일 목록 다운로드
진위 여부를 가리기는 힘들지만 만일 사실일 경우라도 아직은 PS3용 홈브루의 탄생을 속단하긴 어렵습니다. 왜냐하면 개발툴은 다양한 개발사에 이미 배포되어 있고, 그들이 원한 경우 백업이 가능하기 때문에 유출이 가지는 의미가 획기적이라고 보기 어렵고, 더불어 이러한 유출 시 악용되는 것을 방지하는 여러가지 장치를 SCE에서 마련했을 것이기 때문입니다. 하지만, 유출이 사실이고 해당 파일 내부에서 PS3의 약점을 조금이라도 알아낸다면 PS3의 보안장벽이 허물어질 가능성 역시 높습니다. (리눅스에서 RSX 엑세스 권한만이라도 얻는다면 큰 소득이겠죠.)
인원감축 소식과 더불어 악재가 겹치는 암울한 소니군요..
Youtube에 올라온 이 영상은 IBM에서 발표한 iRT를 이용하여 3대의 PS3를 이용하여 실시간 Ray-tracing랜더링을 보여주고 있다. 이 영상을 보기 전에 알아야할 부분은 영상의 퀄리티나 해상도가 그리 좋지 않은데 왜 이것이 대단하냐고 반문하실 수 있는데, Ray-tracing은 자연에서 발생하는 빛의 움직임을 재현하는 랜더링 기법으로 마야나 MAX같은 3D 이미지 랜더링에서나 쓰이며(물론 요즘은 GI를 쓰겠지만), 실시간으로 구현되는 것은 거의 불가능하다. 그란투리스모나 기타 자동차 게임의 차체에 비치는 매끈한 광원효과는 환경맵핑이라는 기법을 이용한 것이며, 자세히 살펴보면 반사되는 이미지는 미리 만들어진 것이거나 디테일이 떨어지고, 자신이 반사되는 경우도 없다.
동영상 내용
- Ray-tracing은 720p이며 4x super sampling이 적용되어 있음.
- 3대의 PS3를 리눅스 환경에서 기가빗이더넷으로 연결하였다.
- 각 PS3는 7개의 SPE중 6개를 iRT에 할당하고 있다. (나머지 1개는 OS용이거나 I/O 용도인듯)
- 3대중 한대는 최종 이미지를 만드는 역할을 수행하며 1개의 SPE를 최종 이미지 압축용으로 사용한다.
- 각각은 1개의 SPE를 이미지 전송 압축용으로 사용한다.
- 따라서, 이미지 전송용 1대는 4개의 SPE를 나머지 2대는 5개의 SPE를 랜더링에 활용한다.
- 랜더링 영상은 100% Ray-casting이며 유리와 차 표면에 Reflection과 Refraction이 구현되어 있다.
- 실시간이기에 다양한 Light source를 부여할 수 있다.
- 뒷부분에 보이는 네모들은 각각 어떤 하드에서 랜더링되고 있는지를 보여주며, 맨 아래쪽은 4개의 블럭이 있는데 이유는 클라이언트라서 4개의 SPE만을 사용하기 때문이다. 나머지는 5개의 블럭이 보인다.
영상을 보면서 느끼는건, 대단하긴한데 이거 PS3용 게임을 만들 수도 없고, 그렇다고 Real-time Global Illumination처럼 Wow Factor가 있는것도 아닌 게 일반 유저들이 봐서는 그닥 관심이 대상이 되긴 어렵겠다는 생각이었다. 하지만, 대단한건 인정!!
사이트 바로가기
PS3에서의 구동
Folding@Home의 구조를 간단히 보자면,
- 처음 시뮬레이션할 작업량을 네트워크를 통하여 받아온다.
- 내부 컴퓨팅파워(CPU+GPU)를 이용하여 시뮬레이션을 수행한다.
- 시뮬레이션이 끝나면 자료를 전송한다.
- 이를 반복한다.
보고있자면 단백질 구조가 무섭도록(!) 덜덜 떨면서 각 상황의 접힘을 시뮬레이션하는데, 자꾸 보고 있으노라면 세뇌가 되는지 오랫동안 쳐다보게 된다. 배경에는 지구상에서 Folding@Home 프로그램이 가동중인 지역이 밝게 표시되어 나타난다. (클라이언트 수가 많을수록 밝은 곳으로 표시된다.)
PC버전과 PS3버전과의 비교
혹시나 해서 필자의 PC에서 Folding@Home PC버전을 돌려보았는데, 결과가 의외여서 놀랐다. 본인의 PC사양은,
AMD X2 3800+ / 1.5GB RAM / GeForce 6100 통합칩셋 / 500GB HDD
정도인데, 아래 실행화면을 보면,
내부에서 수행되는 작업의 내용을 정확히 알지 못하기 때문에 단정짓기 어렵지만, Folding@Home에서 작업의 최소단위는 frame으로 정의하고, 여러개의 프레임이 모여서 하나의 시뮬레이션을 이룬다. 참고로 PC버전과 PS3버전의 시뮬레이션 분량이 다른데, PC버전은 20000개의 프레임이 하나의 시뮬레이션이고, PS3버전은 40000프레임이 하나의 시뮬레이션을 이룬다.(왜인지는 나중에 나온다.) 결국 한 프레임을 계산하는 작업시간은 해당 머신의 성능과 거의 직결된다고 볼 수 있다. 위 사진에서 보면 16s/frame으로 나타나 있는데 이것은 한프레임을 계산하는데 드는 시간이 16초라는 것이다. 그럼, PS3버전의 한 프레임당 작업시간은 얼마인지 살펴보자. 16초 대 0.07초...이거이거 같은 작업분량으로 보기가 어려운 값인데, 일단 PC버전은 다중코어지원이 안되기 때문에(Linux나 Mac버전에서만 가능) 싱글코어 100%사용량으로 설정했을때의 성능이다. 그렇다고 하더라도 너무 차이가 난다. PS3 버전의 구동원리도 묘연하다. 셀만을 이용하는 것인지 RSX(GPU)도 연산에 이용하는 것인지를 알 수 없다. 하지만, Wikipedia에 따르면 PS3용 Folding@Home이 배포된 이후, 최고의 연산 피크를 기록했다고 한다. (990 teraFLOPS in 3/25/2007) PS3의 참여로 인하여 가시적인 퍼포먼스 향상이 있다는 것이다. 곧 있으면 petaFLOPS(페다플롭스)에 도달할 예정이라니, 소니의 Folding@Home 홍보가 단지 Eyecandy만은 아니라는 것은 인정해줘야 하겠다.
Folding@Home 사이트 바로가기
사이트 바로가기
Jane McGonigal의 CNET 인터뷰 바로가기
한국형(?) 현실접목형 게임 Fun Out 카페 바로가기
사이트바로가기