(綜合報導)「你在看我嗎?你可以再靠近一點!」這句話可不是知名影星在電視廣告上的對白,而是當你走近接待機器人Pepper時,迎面而來的問候。面對如此直接、甚至是帶點開玩笑的用語,訪客總會被逗得很開心,喜不勝收地接受Pepper這種獨特的問候方式。 原來這正是Pepper設計團隊的用意,他們試圖讓Pepper擺脫一般機器人帶給人的冰冷形象,「他」想要和你搏感情,換種說法,Pepper可是帶著情緒為你服務,他想成為你的buddy。 人與人的溝通並非僅憑藉著言語,彼此之間情緒所帶來的感受,往往更直覺、更加有力道!這個說法相信任何一對曾經有過冷戰經驗的情侶都可以作證。 機器人要有情緒嗎? 如此說來, 如果我們在設計機器人時,能夠賦予它們表達情緒的能力,機器人與人的互動會不會變得更為自然呢? 兩者之間光靠著一個眼神、一個表情就能心意相通、心領神會,說不定人類社會也因此更能接受機器人的存在。 但「情緒機器人」的發展卻不容樂觀,仔細想想,讓機器人擁有情緒,這樣的概念其實是自我矛盾,因為情緒乃源自於感情,並且與性格緊密相關,這些特質都屬於心靈層次。 相對地,不具自我意識的機器人根本無從理解感情,又如何能發展出自己獨特的性格呢?也因此,現今所謂的情緒機器人乃是以工程手段創造出類似人類的喜、怒、哀、樂,基本上僅止於表面層次的模仿,就請不必期待是出自於機器人的「真心」。 那號稱能夠表達情緒的Pepper,它模仿人類的功力到底如何呢?Pepper乃是跨國合作的成果,由日本軟銀主導,台灣鴻海製造,背後的關鍵技術則是來自法國的Aldebaran Robotics。 當初軟銀之所以會選擇Aldebaran Robotics這家公司,與他們之前備受矚目的產品Nao很有關係,個頭嬌小的Nao外型十分卡哇伊,尤其以動作靈巧深受肯定,以行動力來看,絕對稱得上是類人形雙足機器人界的翹楚。 它另一項為人關注的特色,則在於宣稱足以展現一歲嬰兒的情緒,可千萬別低估小嬰兒理解與表達情緒的能力,這對於機器人工程師絕對是極大的挑戰。 機器人如何模仿情緒? 機器人模仿嬰兒情緒反應的過程中,首先,必須讓它能夠理解父母親臉上表情與肢體碰觸所代表的意義,這可以透過影像裝置來偵測人臉肌肉的種種變化,包括嘴角、眼角的牽動等,並以觸覺感測器來偵測各種形式的觸碰, 接下來,則可藉由程式所建立的準則來判斷該表情或碰觸到底意欲為何。但人類的表情一向豐富,光說是笑,就可以從微笑到大笑,程度有所差別外,還可以有所混合,像是苦笑、笑中帶淚、甚至是皮笑肉不笑,這程式到底要怎麼寫啊? 如果真能搞定程式,下一步就是要能根據所判斷出的情緒做出適當的回應,策略上可以考慮運用預先規劃好的表情與動作,一一對應到對方的各種情緒,比方說,如果覺得爸媽好像很高興,那我就來個眉飛色舞、手舞足蹈,依此類推。 問題是以現有機器人的材質及靈巧度來看,顯然無法提供類似人類形形色色、多樣的表情。 以Nao和Pepper來說,它們的外表根本不具彈性,能仰賴的就是眼睛或肢體的移動,再加上聲光的效果,趣味有餘、但變化著實有限。 當然,我們可以設法改善機器人的材質,事實上也已經有不少機器人採用矽膠材料,例如日本大阪大學石黑浩教授所開發的Geminoid F,在外觀上算是相當細緻。 有了擬真的表皮之後,還得依靠背後負責動作的馬達彼此之間密切的合作,才能展現出適當的表情,偶而一個運作上的不小心,表錯情不打緊,看起來還挺嚇人的呢! 想要讓機器人擁有一歲嬰兒的情緒就這麼困難,那什麼時候Pepper才能真正長大成人、成為我們的親密夥伴呢?無庸置疑,這絕對需要許多機構、馬達、感應器、控制技術、以及人工智慧上的努力。 即使如此,我們已然看到Pepper出現在我們生活上的許多角落,像是銀行、百貨公司、高科技公司等,出國時說不定也有機會在航空公司的接待櫃檯見到它的身影,Pepper甚至還客串演出日本當紅女星新垣結衣所主演的日劇《月薪嬌妻》耶! 這也反映出我們真的很期待機器人能夠帶著感情與我們互動,希望它們能讓人感受到溫度,但就像《EVA奇機世界》這部論及機器人情緒的科幻電影所透露出的訊息,也許我們可以將機器人設計的近乎完美,但感情終究沒有程式。
|