最近開始學HTML5與CSS3。因為網路上相關資源太多了,所以開一篇文章來作簡介與連結整理。東西會在我真正試過或看過才會放上來,所以一開始這篇的內容會很少,之後會慢慢增加。
2012年10月31日 星期三
2012年10月18日 星期四
AIRKinect Demo(6)AR
Kinect有彩色影像,也可以辨識User,有20個關節的2D、3D座標,自然是很適合拿來玩AR擴增實境。例如我們可以在User頭上戴上奇怪的帽子:
或是在場景上放個固定的虛擬物件:
再讓User跟這個虛擬物件互動,例如當User"碰觸"它時做點反應:
當然也有很多人配合Gesture,做出一堆奇奇怪怪的東西。
或是在場景上放個固定的虛擬物件:
再讓User跟這個虛擬物件互動,例如當User"碰觸"它時做點反應:
當然也有很多人配合Gesture,做出一堆奇奇怪怪的東西。
2012年10月10日 星期三
AIRKinect Demo(5)使用Gesture控制的體感遊戲
研究Kinect當然要試著開發幾個體感遊戲來玩玩。而體感遊戲中,我最想拿來試試的就是格鬥遊戲啦!以下就是我試著開發出來的Street Fight on Kinect Alpha,只是個簡單的Demo遊戲。
2012年10月2日 星期二
AIRKinect Demo(4)只有User去背的PointCloud
PointCloud是另一個Kinect提供給我們的資訊,簡單講就是把畫面上每個像素的顏色與深度z座標傳給我們,如此一來,我們可以把這些點拆解開來,放到3D座標裡面,可以玩出像這樣的效果:
不過因為傳回來的是全畫面的像素,所以背景什麼的就一起進來了。這時候我們可以利用UserMask的資訊,比對之後,就可以把User的像素取出來,具有深度,就得到這樣的效果:
這樣就得到User的PointCloud資料了。這樣的3D資訊(雖然只有正對Kinect那一面),就可以拿來結合一些特效,玩出像是Denon最近一個活動的效果:
http://usa.denon.com/us/headphone/index.html
不過因為傳回來的是全畫面的像素,所以背景什麼的就一起進來了。這時候我們可以利用UserMask的資訊,比對之後,就可以把User的像素取出來,具有深度,就得到這樣的效果:
這樣就得到User的PointCloud資料了。這樣的3D資訊(雖然只有正對Kinect那一面),就可以拿來結合一些特效,玩出像是Denon最近一個活動的效果:
http://usa.denon.com/us/headphone/index.html
標籤:
AIR,
AIRKinect,
Kinect,
PointCloud
訂閱:
文章 (Atom)