你想像中的magic Leap的交互方式是怎樣的?
(超高能多圖預警)下面一些圖是我看電影時候截得的對我之後做AR產品有參考價值的圖片(都是現在能用meta和hololens實現的,一些很扯的很傻而不可能實現的交互都不在此列)目錄:
- 手勢拍照
- 拉燈
- 修改時鐘
- AR勞動
- AR社交
- AR運動
- 《鋼鐵俠》
- 《暴雨》
- 《電腦線圈》
- 《王牌特工》
- AR可視化
—————————————————————————————————————
AR地圖








旋轉手腕手指以修改時鐘



AR勞動
將日常勞動遊戲化——切菜




戀愛分析








喜好分析




AR運動
量身高































以下圖片來自《鋼鐵俠》
直接操控全息物體
































































































































































































AR可視化
AR 像給了我們一雙機器人之眼,將虛擬視覺信息疊加(superimposed)在真實視覺信息之上,將虛擬聲音信息疊加在現實聲音信息之上,另外將我們感受不到的信息可視化地呈現出來。所以它的是現實世界的增加(augmented)或者補充(supplemented)。









正好最近寫了篇文章分析由Magic Leap 探討未來交互方式。知乎不支持GIF圖片,所以請移步由Magic Leap探討未來的交互方式 查看原文。之前對Magic Leap的技術定位限制在 AR 增強現實的領域,但隨著現實世界與虛擬世界的交互反饋增多,Mixed Reality 混合現實被提出來專門描述這一類基於現實的模擬。在混合現實中,虛擬的物體會被現實世界的真實物體所遮蓋,比如掉到地上的虛擬皮球會被桌子遮蓋,需要低頭尋找,以此展現出更真實的交互體驗。

從交互方式上看,A New Morning 呈現了三種方法。
第一種方式與體育館裡的鯨魚無異,即在現實空間中展現動態的虛擬物體。這類模擬的觸發類似於系統分析後的自動跳出,無需與現實物體有實體交互。

第二種交互方式是根據現實世界中的產品或動作調出虛擬內容。比如下圖中跳出的虛擬任務清單和天氣預報。具體的觸發和操作方式 Magic Leap在視頻中沒有解釋,但根據其遊戲端的觸發方式,可能是檢測到實體記事本觸發了虛擬界面。

槍戰遊戲概念中,在桌子上拍一下,酷炫拽的手槍馬上就被召喚出來了,還配有不同的顏色光效。非常適合coffee break的時候在辦公室和同事大戰一場。

模擬小象的視頻也是基於對手部探測的原理。系統檢測到了手這一現實物體,計算手的位置,並在其位置上生成小象的動態。在技術上,實現這部分功能用到的是 SLAM (Simultaneous Localization And Mapping) 定位與地圖構建技術。設備通過各種攝像頭與感測器探測真實物體在三維空間中的準確位置,在其基礎上做虛擬物體的構建。

第三種交互是在召喚出一級頁面後還能召喚二級頁面,二級頁面能進行旋轉,伸縮等變化。這可以大幅度顛覆網購體驗,還能幫選擇困難症用戶縮減換裝時間。比如買鞋子,把同款不同色的鞋一個一個對著腳比劃,簡單方便。

技術還支持從平面到三維的轉換。目前這段演示視頻的目的還是以內容介紹為主,介紹攀登珠峰的人物年代與歷史。技術成熟後可以用來做3D產品的Demo。比如建築設計提案,遊樂園區服務流程規劃等,從零到一介紹設計思路。


基於 A New Morning 視頻里的交互並沒有很多。但其實這家創業公司還有更多驚喜。Magic Leap在早幾個月曾發布過一系列專利報告,其中多達百頁的交互方式專利和場景預想也挺有看頭。其中環繞型的主操作界面召出的交互方式就挺不錯。


看完最新的demo A New Morning裡面各個應用毫無徵兆地出現,對不起我想像不出他的交互方式,只能說如果不是腦電波我直播吃這demo里用的magic leap(對,就是沒東西吃)
推薦閱讀:
※要製作一款應用,需要如何從零開始學習編程?
※為什麼手機客戶端的搜索入口或者搜索框大部分都在頂部,在大屏手機中明顯是難點擊到的?
