Browse Source

add content

huaisianhuang 3 năm trước cách đây
mục cha
commit
e1bd495d5b

+ 3 - 0
layouts/partials/content-aianchor.html

@@ -36,6 +36,9 @@
 
     <h2 id=""><i class="fas fa-chevron-right"></i>誰是AI主播韓小夏(Summer Hen)? </h2>
     <p>「AI主播」韓小夏(Summer Hen)是集仕多股份有限公司(ChoozMo inc) 所製作的台灣第一個AI主播。
+        「AI主播」韓小夏是個人工智能新聞主播,擬真程度與人類表現驚人地相當高。它不僅具有與新聞主持人的特色和聲音,而且
+        還模仿了一般主播做出的小動作,例如在報導新聞時展現一些手勢。集仕多股份有限公司(ChoozMo inc)使用獨家的技術,通過深度學習與機器學習技術
+        學習真人的動作及表情,學習聲音的細節、說話的方式、面部表情、她的嘴唇和她移動身體的方式,生成出高度擬真的AI主播韓小夏。
     </p>
     
     <h2 id=""><i class="fas fa-chevron-right"></i>AI主播使用什麼技術? </h2>

+ 51 - 0
webSite/content/news/ai-virtualhuman.md

@@ -0,0 +1,51 @@
++++
+title = "AI虛擬人新突破"
+date = "2021-07-17T00:21:34+08:00"
+tags = ["seo","AI"]
+type = "blog"
+categories = ["seo"]
+banner = "img/banners/banner-3.jpg"
++++
+
+## **什麼是AI虛擬人?**
+
+虛擬人是針對特定內容對話訓練的人工智能角色 (AIC)。這些角色在交互式模擬中傾聽、回應並與學習者進行對話。
+在特定內容領域接受培訓後,Virtual Humans 可以與學習者就該主題進行公開對話。我們專有的會話意圖技術使這些角色在學習場景中變得更加智能和有用。
+虛擬人類為數位世界帶來了有意義的聯繫,在這個世界中,同理心和同情心已經從客戶互動中消失了。
+創造持久的印象,同時增加無限的規模和增壓效率。阿爾伯特·愛因斯坦在 100 年前獲得了諾貝爾物理學獎,但你可以祝賀他,或者至少是一個模擬[人物](https://voicebot.ai/tag/virtual-human/),感謝[虛擬人](https://voicebot.ai/tag/virtual-human/)開發商 UneeQ。愛因斯坦的[數字版本](https://digitalhumans.com/digital-einstein/)是 UneeQ 新的虛擬人 Companions 系列的一部分,該公司希望通過將逼真的計算機生成圖像和對話式人工智能相結合,實現有意義的交互。
+
+愛因斯坦人工智能
+--------
+
+數字愛因斯坦建立在 UneeQ 的虛擬人類平台上,在視覺和對話中模仿科學家的肖像和舉止,將圖像與可以談論愛因斯坦生活和研究的人工智能配對。虛擬人用原始人可識別的聲音和口音說話,可以用文字或用隨意的語言進行語音交談。虛擬人僅限於愛因斯坦及其工作的主題,包括測驗,但也可以討論數字版本是如何創建的。愛因斯坦的肖像和作品由耶路撒冷希伯來大學和授權公司 BEN Group 提供,BEN Group 的子公司促進愛因斯坦的科學和慈善工作。UneeQ 通過其平台匯集所有視頻、語音記錄和其他數據,以製作數字愛因斯坦。
+
+“耶路撒冷希伯來大學的創始人阿爾伯特·愛因斯坦被認為是有史以來最偉大的科學家之一。他的工作是我們了解宇宙及其發展的基礎,”耶路撒冷希伯來大學副校長兼總幹事 Yishai Fraenkel 在一份聲明中說。“我們很高興與 UneeQ 合作開展這個開創性的項目,因為我們知道愛因斯坦的遺產將繼續通過交互式人工智能技術教育和引導未來的思想。”
+
+虛擬人
+----
+
+愛因斯坦是 UneeQ 的新虛擬人 Companions 系列之一。“數字人類蘇菲”與愛因斯坦一起首次亮相,沒有一張著名的面孔,但對話卻更加多樣化。Companions 旨在通過為感到孤立的人提供現實的互動來支持人們的心理健康。由於 COVID-19 大流行,孤獨已成為一個更大的問題,UneeQ 將其虛擬人視為緩解部分壓力的一種方式。該公司很快表示虛擬人不會取代人際關係,但他們確實指出研究表明,與數字人交談可以減輕人們可能對被評判或羞辱的一些擔憂。因此,與對有血有肉的人相比,他們更願意向面前的人臉和聲音敞開心扉。
+
+UneeQ 首席執行官丹尼·湯姆塞特 (Danny Tomsett) 表示:“心理健康和陪伴是當今社會面臨的長期存在的問題,其中 COVID-19 已顯著惡化。” UneeQ 的核心價值觀之一是 'Tech for Good',我們正在積極尋找方法將我們的創新解決方案應用於該事業。作為我們新的 Companions 系列的一部分,數字愛因斯坦和其他數字人類可以以最自然的方式與人交流——使用對話、人類表達和情緒反應來最好地提供日常互動,我們希望這些互動能夠改變人們的生活活著。”
+
+在虛構的電影和電視世界中,人工智能被描繪得如此先進,以至於與人類無法區分。但是,如果我們真的越來越接近一個人工智能能夠思考和感受的世界呢?
+
+科技公司 UneeQ 正以其“數字人類”踏上這段旅程。這些頭像充當客戶服務聊天機器人、虛擬助手和其他應用程序的可視化界面。UneeQ 的數字人不僅在語言和語調方面顯得栩栩如生,還因為面部動作:揚起眉毛、傾斜頭部、微笑,甚至眨眼。他們將交易轉化為互動:令人毛骨悚然但令人驚訝,人性化,但不完全是。
+
+UneeQ 數字人的背後是什麼?他們的 3D 人臉以實際的人類特徵為模型。語音識別使化身能夠理解一個人在說什麼,並且使用自然語言處理來製作響應。在化身說出一個詞之前,特定的情緒和麵部表情已在響應中編碼。
+
+UneeQ 可能是更人性化計算趨勢的一部分。 ObEN的數字化身充當名人、影響者、遊戲角色以及媒體和娛樂行業其他實體的虛擬身份。與此同時,  Soul Machines 正在採取更生物化的方法,用“數字大腦”模擬人腦的各個方面來調節“數字人”“感覺”和“表達”的情緒。 Amelia 正在採用類似的方法來培養其“數字員工”。它模擬大腦中與記憶有關的部分來響應查詢,並在每次交互中學習提供更具吸引力和個性化的體驗。
+
+帕洛阿爾托研究中心的人工智能係統科學家Shiwali Mohan對這些數字生物持懷疑態度。“他們的外表和聲音都像人類,但這本身並不是人類,”她說。“做人也是你思考的方式、處理問題的方式以及分解問題的方式;這需要大量的算法設計。設計人類水平的智能與設計行為像人類的圖形是不同的努力。如果你考慮一下我們試圖設計這些化身的問題,我們可能不需要看起來像人類的東西——它甚至可能不是正確的解決途徑。”
+
+即使這些化身看起來接近人類,他們仍然會喚起一種 恐怖的山谷 感覺。“如果某個東西看起來像人類,我們對他們抱有很高的期望,但他們的行為方式可能會有所不同,人類只是本能地知道其他人的反應。這些差異導致了恐怖谷的感覺,”莫漢說。
+
+然而,需求是存在的,Amelia 看到其數字員工在金融、醫療保健和零售行業的採用率很高。Amelia 的 Chetan Dube 說:“我們發現,銀行和保險公司非常規避風險,正在引領採用這種顛覆性技術,因為他們明白不採用的風險比過早採用的風險大得多。” CEO。“除非他們創新他們的商業模式並提高他們的數字化效率,否則他們可能會被拋在後面。” Dube 補充說,COVID-19 大流行也加速了數字員工在醫療保健和零售業的採用。
+
+Amelia、Soul Machines 和 UneeQ 正在將他們的數字生命更進一步,使組織能夠使用低代碼或無代碼平台自行創建化身:Amelia 的 Digital Employee Builder、UneeQ 的 Creator 和 Soul Machines 的 Digital DNA Studio。由 Epic Games 開發的遊戲引擎 Unreal Engine 正在與MetaHuman Creator一起做同樣的事情,  MetaHuman Creator是一種允許任何人創建逼真數字人類的工具。“Digital Employee Builder 的最大動機是使 AI 民主化,”Dube 說。
+
+莫漢對這種方法持謹慎態度。“人工智能存在偏見從數據集蔓延到它的說話方式的問題。人工智能社區仍在試圖弄清楚如何衡量和對抗這種偏見,”她說。“[公司] 必須有一個人工智能專家,可以推薦合適的東西來構建。”
+
+儘管對這項技術持謹慎態度,但 Mohan 支持這些虛擬生物背後的目的,並對他們的發展方向持樂觀態度。“我們確實需要這些工具來支持人類處理不同的事情。我認為這個願景是專業人士,我支持這個願景,”她說。“隨著我們開發更複雜的人工智能技術,我們將不得不採用新的方式與該技術進行交互。希望所有這些都是為了支持人類實現他們的目標。”
+
+虛擬人幾乎可以說或做任何事情。心理健康支持與[Offbeat Media Group](https://voicebot.ai/2021/04/08/mark-cuban-invests-in-virtual-human-startup-offbeat-media-group/)正在[構建](https://voicebot.ai/2021/04/08/mark-cuban-invests-in-virtual-human-startup-offbeat-media-group/)的虛擬影響者和企業頭像一樣有意義。UneeQ 和其他平台正在尋找許多有趣的方法來應用視覺和​​語音 AI 的混合。[CoCo Hub](https://voicebot.ai/2021/02/09/how-cocohub-shepherds-custom-virtual-humans-to-your-zoom-conference/)引入了能夠創作流行歌曲的虛擬影響者,而雀巢收費屋在 2 月份推出了虛擬人[“餅乾教練”](https://voicebot.ai/2021/02/24/nestle-debuts-virtual-human-cookie-coach/)露絲。更接近 Companions 的想法,Virti 開發的虛擬人正在[培訓醫生](https://voicebot.ai/2021/02/24/virtis-virtual-patients-are-training-doctors-to-communicate/)的溝通和同理心。由於[MetaHuman Creator 的](https://voicebot.ai/2021/02/15/epic-games-launches-metahuman-creator-to-generate-hyperrealistic-virtual-humans/)超現實視覺效果和[Replica Studios](https://voicebot.ai/2021/03/19/replica-studios-simplifies-adding-synthetic-speech-to-games-and-movies/)的合成聲音等進步,隨著技術的進步[](https://voicebot.ai/2021/03/19/replica-studios-simplifies-adding-synthetic-speech-to-games-and-movies/),更有創意的方法可能會一直出現。正如模擬版的愛因斯坦本人在 1929 年的一次採訪中所說的那樣,“想像力比知識更重要。知識有限。想像力環繞著世界。”

+ 64 - 0
webSite/content/news/virtual-avatar.md

@@ -0,0 +1,64 @@
++++
+title = "什麼是虛擬分身?"
+date = "2021-07-18T00:21:34+08:00"
+tags = ["seo","AI"]
+type = "blog"
+categories = ["marketing"]
+banner = "img/banners/banner-3.jpg"
++++
+
+虛擬環境中以虛擬形象為媒介的協作正變得越來越普遍。然而,當前的消費者係統並不適合完全複製現實世界的非語言交流。我們提出了一種用於虛擬現實協作的新型化身系統,該系統通過跟踪身體運動、手勢和麵部表情等行為來支持高水平的非語言表達。該系統僅使用相機跟踪技術構建。因此,與許多其他高級跟踪系統相比,它不需要用戶在身上佩戴額外的跟踪器。在一項二元研究中,我們將我們的高表現力系統與由兩個穿戴式追踪器擴展的消費者設置進行了比較。我們調查了用戶的表現,例如完成時間和準確性,以及使用非對稱控制方案的虛擬字謎遊戲中的存在和人際吸引力。結果表明,與表現力強的化身互動的參與者比與表現力低的化身代表的伙伴互動的參與者感受到更多的社會存在感和吸引力,並表現出更好的任務表現。因此,我們得出結論,虛擬現實化身系統受益於更高水平的非語言表達能力,無需額外的穿戴式追踪器即可實現。
+
+## **什麼是虛擬分身?**
+
+當前的虛擬現實 (VR) 技術可以讓人們在共享虛擬環境 (SVE) 中獨立於其地理位置進行交流和協作。然而,VR 中通信和協作的質量和效率往往受到一些因素的影響,例如虛擬環境渲染(Gergle 等人,2013 年;McVeigh-Schultz 等人,2019 年)、虛擬形象表示(Bombari 等人,2019 年)。 2015)、延遲(Friston and Steed 2014)和狀態同步(Pan and Steed 2017)。特別是虛擬人物在社交VR中扮演著重要的角色,虛擬人物的真實感是影響存在感、人際互動和共存感的主要因素之一。駿馬和施羅德 2015 年;榮格和休斯,2016 年;榮格等人,2017 年;榮格等人,2018 年)。
+
+化身寫實度常用於衡量頭像質量,可分為外觀寫實和行為寫實。以前的大部分工作都是在視覺保真度上完成的(Latoschik 等人,2016 年;Latoschik 等人,2017 年),並且頭像外觀影響所有共享VE 中的交互(Nilsson 等人,2002 年;Schroeder,2012 年)。虛擬角色代表用戶並呈現真實世界玩家的所有語言和非語言行為。對於交流,人類積極使用語言和非語言行為來最好地表達他們的意圖。然而,人們傾向於通過非語言行為進行更多的交流(Matsumoto et al., 2012) 與口頭渠道相比,在社交互動中。因此,研究非語言行為對虛擬現實交流的影響至關重要。
+
+先前的研究研究了非語言行為的某些方面,例如眼睛凝視(Garau 等人,2003 年)和麵部表情(Bailenson 等人,2006 年),這些已被證明是 SVE 中的重要因素。由於感官技術,表達化身系統(整合非語言行為,如身體運動、手勢、面部表情和眼睛凝視)在當前的沉浸式系統中受到限制。儘管我們仍然有改善外觀真實感的需求(Bombari et al., 2015),但尚未在具有完全體現化身的交流和協作虛擬環境中系統地研究化身在非語言行為方面的表現力的影響。
+
+在本文中,我們提出了一個協作 VR 平台,該平台支持在非語言行為方面的不同化身表達水平上的非對稱化身介導的交流。我們在 SVE 中實施了一個具有不同表達化身條件的字謎遊戲,以衡量共存、社交存在和人際吸引力。“Charades 是一種啞劇遊戲:你必須在不說話的情況下“表演”一個短語,而你團隊的其他成員則試圖猜測這個短語是什麼。目標是讓您的團隊盡快猜出短語”(Dana,2000)。我們選擇這個遊戲的原因是鼓勵參與者執行非語言行為來完成一項引人入勝的協作任務。我們通過二元用戶研究評估了虛擬形象控制系統,調查了準確性和完成時間方面的性能。
+
+這項研究做出了以下主要貢獻:1)我們構建了一個完全具有表現力的化身控制系統,該系統支持眼睛注視和嘴巴渲染,並結合跟踪自然的非語言行為。該系統無需額外的身體佩戴傳感器即可工作,並通過組合多個 Leap Motion 跟踪攝像頭在大範圍內跟踪手勢。2) 我們評估了不同級別的虛擬形象非語言表達對共享虛擬環境中的交流和協作的影響。
+
+## **虛擬分身的相關技術有哪些?**
+
+#### 2.1 共享虛擬環境中的協作 ####
+
+不同物理位置的多個用戶之間的遠程通信和協作越來越多地發生在 SVE 中。先前關於 SVE 中溝通的研究探索了有關績效、社交互動和領導力的問題(Steed 等人,2019 年;Bailenson 等人,2002 年;Becker 和 Mark,2002 年;Slater 和 Steed 2002 年;Schroeder,2012 年))。如果所有用戶感知到的 VE 狀態不同,則 SVE 質量會影響同步多用戶虛擬體驗。支持社交互動的 VR 系統需要復制用戶的外觀和行為。虛擬角色在協作虛擬環境中傳遞的非語言線索會影響任務執行的效率(Roth 等人,2018 年),與面對面的交互相比,用戶的體現可以導致更高的社交存在等級(Smith 和內夫 2018 年)。
+
+Pan and Steed ( Pan and Steed 2017 ) 開發了一個 SVE,通過 HTC Vive 和 Unity UNET 系統使用虛擬拼圖來探索自我化身對信任和協作的影響,該系統廣泛用於支持多用戶網絡。他們比較了自我化身、無化身和麵對面的情況,但化身只是一種視覺表現,並且只跟踪控制器的運動而不是實際手的運動。
+
+Smith and Neff ( Smith and Neff 2018 ) 實施了一個 SVE,用於協商公寓佈局並將模型家具放置在公寓樓層,以探索具身化身的交流行為。參與者只能使用控制器驅動的有限手勢進行通信。羅斯等人。(羅斯等人,2019 年) 提出了一種使用四個數據層的軟件架構,通過將身體、眼睛注視和麵部表情等行為跟踪集成到 SVE 中來增強社交互動。他們的系統能夠支持社交交流,但參與者錯過了手勢提示。總之,之前的研究要么省略了對非語言行為的跟踪,要么依賴於控制器對某些有限手勢的跟踪。這促使我們在本研究中探索提高化身在非語言行為方面的表達水平是否會影響溝通和協作行為。
+
+####  2.2 Avatar 控制系統和表示 ####
+化身是用戶的虛擬表示,由用戶在虛擬世界中的動作驅動(Bailenson 等,2004)。化身系統可以提供具體的體驗(Slater 等人,2010 年)),並且用戶可以從第一人稱的角度通過虛擬化身的眼睛與虛擬世界進行交互。由於跟踪技術(跟踪區域和精度)有限,早期的化身控制系統無法提供完整的具身體驗,這導致交互性降低,例如虛擬身體運動、手勢和麵部表情的可能性有限或沒有。目前,不存在可以捕獲和表示所有非語言行為的單一系統。因此,要創建極具表現力的化身,需要集成多個傳感器和系統,但在技術上具有挑戰性。
+
+身體運動是控制虛擬化身的主要數據來源。為了獲得高質量的體現體驗,專業的動作捕捉系統和套裝經常用於虛擬形象相關的研究(Kilteni et al., 2013 ; Roth et al., 2016 ; Spanlang et al., 2014)。然而,這些系統價格昂貴,運動捕捉套件佩戴起來很麻煩,儘管提供了高精度和潛在的大跟踪區域。相比之下,帶有空間控制器的 Oculus Rift 或 HTC Vive 等消費類 VR 設備是跟踪身體部位的替代解決方案。但是,如果需要跟踪更多身體部位(例如腳),則需要額外的傳感器。目前大部分 VR 系統都是基於三點追踪(一個 HMD 加兩個控制器)的解決方案,只支持“浮動”化身,例如 Facebook 空間1、VR Chat 2和 Mozilla Hubs 3。如果需要虛擬表示手臂或腿部的運動,則需要額外的跟踪器以及復雜的逆運動算法(阿里斯蒂杜等人,2017 年;Caserman 等人,2019 年)。與 HMD 和跟踪器解決方案相比,基於 RGB-D 攝像頭的身體跟踪是一種非接觸方式,可以提供有關身體運動的更多信息。RGB-D 傳感器和 VR 設備的組合是另一種無需佩戴跟踪傳感器即可支持身體跟踪的解決方案(Kwon 等人,2017 年)。使用這些方法,用戶可以體驗對他們的化身的改進的清晰度控制。
+
+手勢是另一個重要的數據源,它可以呈現重要的非語言信息。普通 VR 控制器可以在按下某些按鈕時觸發特定手勢,但重新映射策略是有限的。為了彌補這些限制,基於相機的跟踪設備,例如 Leap Motion 控制器 (LMC),可以在不使用任何控制器的情況下捕捉自然手勢。例如,吳等人。(2019a)開發了一個多傳感器系統,該系統集成了多個 Kinect 和一個 LMC 來控制化身。控制虛擬形象的其他非語言線索是眼睛注視和麵部表情。羅斯等人。(2017)使用 RGB-D 傳感器跟踪面部表情和眼睛注視,然後將數據映射到化身。在他們的工作中 ( Roth et al., 2019),他們提出了一個系統架構,用於在多用戶環境中增強社交行為。他們的頭像框架可以呈現面部表情和身體姿勢等非語言行為,但缺乏手勢;因此,它並不完全適合需要手勢的通信和協作任務。
+
+#### 3 技術設置 ####
+實驗設置是在一個大房間裡實現的,房間有兩個不同的物理系統。兩個參與者,每個系統一個,可以通過本地網絡連接的非對稱化身控制同時玩遊戲。二元組中的兩個參與者都可以在他們 2 m 的圓圈內自由移動,並且跟踪的運動和手勢被映射到他們在 SVE 中的化身上。本節提供了頭像系統、網絡架構和軟件的詳細信息。
+
+#### 3.1 阿凡達控制系統 ####
+在這個實驗中,我們採用了兩個具有不同表達水平的頭像系統。
+
+##### 3.1.1 極具表現力的頭像控制系統 ##### 
+使用此頭像控制系統的參與者可以通過非接觸式跟踪系統控制極具表現力的頭像表示。
+
+##### 3.1.1.1 身體追踪 ##### 
+全身運動數據由放置在跟踪區域角落的四個 Kinect v2 設備收集。該系統基於 Wu 等人的工作。( Wu et al., 2019a ; Wu et al., 2019b ) 包括身體(21 個關節,包括軀幹、手臂和腿)和手勢跟踪(19 個關節具有指向、抓握和捏合)。然而,與Wu 等人的算法相比,我們改進了頭像控制算法。(2019a) 在以下幾個方面:1) 我們根據關節位置重新計算關節旋轉,並且僅使用 Kinect 相機提供的關節旋轉信息作為參考。2) 通過在算法中加入骨架樹和關節層次關係的信息,減少了不自然的關節扭曲。添加父子節點關係可以限制異常關節旋轉。3)通過計算每個關節的速度和骨骼方向來平滑化身運動,使化身控制更加自然和逼真。
+
+##### 3.1.1.2 手部追踪 ##### 
+工作中使用的解決方案(Wu et al., 2019b)具有有限的跟踪範圍和區域(單個 LMC),這需要用戶將手放在眼前以避免跟踪丟失。如果用戶將手移出跟踪區域,數據將切換到 Kinect 系統,手將只被跟踪,手指不會移動。為了解決這個問題,我們構建了一個多 LMC 系統,其中五個 LMC 安裝在我們連接到 HMD 的專用安裝框架上(圖 1A)。每個 LMC 傳感器都連接到客戶端機器,將手的幀數據發送到服務器機器。使用基於最小二乘擬合(LSF)算法的共享視圖校準方法對多手數據進行處理和整合。為了避免來自單個LMC的錯誤跟踪數據干擾融合結果,我們實現了基於兩級評估方法的多LMC融合算法,即基於預測的方法和基於位置的方法。之後,我們根據評估結果使用卡爾曼濾波器組合來自多個 LMC 的數據。與單個 LMC 相比,我們的系統可以將手部跟踪範圍擴大到水平 202.16° 和垂直 164.43°。
+
+##### 3.1.1.3 眼口運動
+
+虛擬形象的視線方向與頭戴式顯示器 (HMD) 的方向相同,但小幅調整使其看起來更自然。虛擬形象的視線方向每隔幾秒鐘隨機移動一次,以模擬眼球的運動。例如,用戶看向與面向方向不同的某個方向。此外,虛擬化身執行隨機眨眼(每 3 秒閃爍一次)。15 個視位([Oculus Lipsync,2019 年](https://www.frontiersin.org/articles/10.3389/frvir.2021.641296/full#B41))作為混合形狀添加到虛擬角色中。每個視位描繪了一組特定音素的嘴形,與[Wu 等人](https://www.frontiersin.org/articles/10.3389/frvir.2021.641296/full#B63)相比,這擴展了嘴巴運動渲染的可能性[。](https://www.frontiersin.org/articles/10.3389/frvir.2021.641296/full#B63)[(2019a](https://www.frontiersin.org/articles/10.3389/frvir.2021.641296/full#B63) )。這組嘴型由 Salsa LipSync v2([Crazy Minnow Studio,2019 年)驅動](https://www.frontiersin.org/articles/10.3389/frvir.2021.641296/full#B15)) Unity 插件,從音頻對話中實時模擬嘴唇運動。
+
+##### 3.1.2 有關多 LMC 系統的更多信息
+
+##### 系統設置
+
+我們的系統中使用了五個 LMC。中央 LMC 連接在 HMD 的中間,用於捕捉用戶面前的手部運動數據。HMD 四個角的橫向 LMC 提供左上、右上、左下和右下區域的補充跟踪。橫向 LMC 相對於觀察坐標系定位,其原點位於頭顯前表面的中心,_x_軸朝左,_y_軸朝上,_z_軸朝前。根據人手所能達到的最大位置([MacAtamney and Corlett 1993](https://www.frontiersin.org/articles/10.3389/frvir.2021.641296/full#B35)),四個橫向LMC的定位參數如[表1所示](https://www.frontiersin.org/articles/10.3389/frvir.2021.641296/full#T1). 這些參數確保跟踪區域足夠大以覆蓋整個手部運動範圍,同時保持重疊區域足以進行校準。我們的配置中由紅外干擾引起的誤差可以忽略不計([Placidi et al., 2017](https://www.frontiersin.org/articles/10.3389/frvir.2021.641296/full#B42))。