//Logo Image
作者:陳意欣、盧俊銘、劉小嫚、徐業良(2013-04-24);推薦:徐業良(2013-04-24)
附註: 本文發表於2013福祉科技與服務管理國際研討會暨大師級講座,元智大學,桃園,台灣,20130424

提供多元人際互動溝通模式之遠端臨場機器人設計與評估

1.     研究背景與目的

高齡人口逐年遞增,高齡者獨居造成的孤立(isolation)問題以及高齡者心理層面上面臨的孤獨(loneliness)問題日趨重要。資通訊科技的快速發展,使得以生理訊號傳輸及醫療照護服務為主的遠距居家照護系統得以實現,然而高齡者可能更期待與子女親友透過不同形式的互動,來分享生活與情緒。電話是最常用的遠距溝通工具,但僅是聲音的傳遞並無法完整地表達人類的情感。根據MehrabianFerris[1]的研究,語音形式的溝通(verbal communication)在面對面的人際溝通中僅佔了7%的比例,非語音形式的溝通(nonverbal communication)如外表、空間關係、肢體表意等形式反而在情感交流上扮演了更重要的角色。本研究開發的“TRiCmini+旨提供高齡者與子女、照護者之間多元人際互動溝通模式的遠端臨場機器人,不僅提供語音形式的溝通,也具有非語音形式的人際互動溝通功能。本論文敘述TRiCmini+的設計,並具體評估其非語音形式的溝通之有效性。

2.     研究方法

1是本研究開發之多元人際互動溝通模式的遠端臨場機器人TRiCmini+的原型設計與系統架構。在技術架構上,TRiCmini+結合了平板電腦和機器人載具,平板電腦作為TRiCmini+的臉部表情顯示,同時更是機器人的通訊與控制中心,以無線方式連接至網際網路做影音與控制指令的傳輸。遠端使用者使用TRiCmini+遠端介面,經由Google Talk帳號對帳號的連繫(不須固定IP)登入TRiCmini+的平板電腦,與近端使用者進行視訊溝通,並控制TRiCmini+的移動、動作及臉部和肢體表情。機器人控制軟體也是一個平板電腦上的App,可以透過網路完成下載與維護;機器人載具則透過藍芽接收平板電腦傳來的遠端指令執行各種移動及肢體動作。

  

1. TRiCmini+ 原型設計與系統架構

高齡者使用建置在TRiCmini+上的雙向影音互動溝通功能與遠端親友子女進行口語上的溝通交流,使用方式類似於使用電話或視訊會議系統;此外,透過結合的機器人臉部表情和機器人運動、模擬肢體動作,傳遞非語言層次的互動溝通。遠端使用者可以從基礎通用的6種臉部表情進行切換選擇,TRiCmini+除了在平板電腦上以動畫播放方式內建的臉部表情外,機器人載具也同時作出相應的移動和肢體動作,組合成「三維表情符號」,期望能複製人與人多元人際互動溝通模式,並增加溝通的樂趣。為評估TRiCmini+動畫表情與肢體動作呈現情緒的準確度,以及使用者透過TRiCmini+進行互動溝通時眼睛的注視行為,本研究邀請20位介於1825歲的受測者(12位男性、8位女性),配戴眼球追蹤器(eyetracker)TRiCmini+進行評估。

3.     結果與討論

2左表顯示20位受測者分別與TRiCmini+以及真人進行5分鐘互動時眼睛的軌跡比較。受測者在與TRiCmini+進行互動中約有80%的時間眼睛軌跡集中在平板電腦(臉部),15%時間則在機器人以外的地方;與真人互動時眼睛軌跡集中在臉部的時間僅41%51%的時間則落在身體之外,眼睛注視行為有顯著差異(P<0.05)。經實驗觀察得知,真人在面對面溝通時常輔以手勢指向各個地方表明想闡述的事物,受測者的目光依循著手勢看向身體以外之處,但與TRiCmini+溝通時,遠端的操控者並不會利用TRiCmini+的肢體進行事物的闡述,僅利用此平台做語言與情緒上的傳遞。

2右表顯示各項表情與肢體動作情緒展示的辨識程度,並與整體玩偶造型呈現情緒之Probo[2]以及將五官分別控制呈現情緒之Eddie[3]機器人比較。TRiCmini+的情緒辨識明顯Eddie,但較Probo則稍差。ProboEddie採用實體表情,設計較以動畫顯示表情的TRiCmini+為複雜。

2. (左)受測者與TRiCmini+及真人溝通的眼睛軌跡(右)TRiCmini+與其他機器人的表情辨識率

TRiCmini+已完成原型與功能性測試,網路頻寬需求最低為150/5kB,才能進行順暢的即時溝通互動,目前正在進行使用性測試,包含高齡者與遠端的使用介面設計以及操作流暢度評估。

評估過程中發現,TRiCmini+肢體動作過度機械化,影響非語言型式溝通要素的傳遞。因此本研究亦持續開發TRiCmini+肢體動作與移動模組演算法,動作設計上利用Kinect攝影機以及骨架追蹤系統,擷取真人動作軌跡與節奏,配合TRiCmini+本身自由度及肢體尺寸等限制,計算出TRiCmini+所做出的肢體動作座標與速度後,自動產生對應之機器人載具伺服馬達控制指令串,期望TRiCmini+各種肢體動作軌跡與節奏能模仿真人實際動作,更能賦予TRiCmini+不同個性的動作表現。

參考資料

1.        Mehrabian, A. & Ferris, S. R., “Inference of attitudes from nonverbal communication in two channels”, Journal of consulting psychology, 31(3), 248-252, (1967).M. Young, The Technical Writer’s Handbook., Mill Valley, CA: University Science, 1989.

2.        Jelle, S., Kristof, G., Bram, V., Johan, V., and Dirk, L., 2010, “Expressing Emotions with the Social Robot Probo,” Springer Science& Business Media BV 2010.

3.        Sosnowski, S., Bittermann, A., Kuhnlenz, K., and Buss, M., 2006, “Design and evaluation of emotion-display EDDIE,”  IEEE/RSJ international conference on intelligent robots and systems.