人間とロボットのインタラクションに関するプロトタイピング手法の開発

Bodystorming Human-Robot Interactions [1]

人間とロボットのインタラクションに関する設計と実装には、豊富な理解と細かな要件を明確にする能力から、複雑なインタラクションをプログラミングする能力まで、多数のスキルが必要です。
デザイナーは、コンテキストとその要件の固有の理解により、これらのインタラクションを開発および実装する手助けは可能ですが、設計と実装に関する必要スキルは多く、デザイナーがアイデアを迅速に探索およびプロトタイプ化することを可能にする障壁になります。

この論文では、デザイナーのペアがボディーストーミングを介して、人間とロボットのインタラクションを迅速にプロトタイプ化できるシンセ、というシステムを紹介しています。
このシステムは、新しいシンボリックプログラム合成アルゴリズムを使用して、デモをロボットに展開してシミュレートできるプログラムに一般化するそうです。
また、設計者にさまざまなインタラクションシナリオをボディーストームするように依頼して評価し、調査結果に基づいてシステムを改善し、フォローアップ調査で改善されたシステムを実証した、と報告しています。

本報告はUIST 2019年度で報告されたものです。

[1] : Porfirio, D., Fisher, E., Sauppé, A., Albarghouthi, A., & Mutlu, B. (2019, October). Bodystorming Human-Robot Interactions. In Proceedings of the 32nd Annual ACM Symposium on User Interface Software and Technology (pp. 479-491). ACM.

URL : https://dl.acm.org/citation.cfm?doid=3332165.3347957

視線データを活用したMR空間中における情報表示ポリシーの学習

Learning Cooperative Personalized Policies from Gaze Data [1]

理想的なMixed Reality(MR)システムは、人にとって有用な場合にのみ仮想情報(ラベルなど)を提示するのが理想です。不必要な情報は自然に除外され、有用な情報のみ視覚として情報が入ってくるのが理想系です。
ただし、ラベルが有用であるかどうかを即時に判断するのは困難です。それは、現在の人が抱えているタスク、持っている知識、コンテキストなど、さまざまな要因に依存するからです。

本論文では、強化学習メソッドを提示して、 眼球運動のデータが、与えられたオブジェクトのラベルを非表示にする手法を提示しています。
インテリジェントエージェントが、手動で設計された経験則でのラベルよりも、視覚的な検索タスクでユーザーをよりサポートする協調ポリシーを学習できることを示すことにより、このアプローチの機能を示しています。

動画でも紹介されているように、より現実的な環境とユースケース(食料品の買い物など)で有用性の検証をしています。 この方法をスーパーマーケットのシナリオに適用すると、ユーザーがスーパーマーケットの棚を閲覧しているのを観察することで、ユーザーの好みの製品を学習することができた、と主張しています。

こういったMR空間の中での情報非表示は非常に重要なものであるので、強化学習を協力的な支援タスクに適用して、パーソナライズされたユーザーインターフェイスを実現できる日が近づいている気がします。

[1] : Gebhardt, C., Hecox, B., van Opheusden, B., Wigdor, D., Hillis, J., Hilliges, O., & Benko, H. (2019, October). Learning Cooperative Personalized Policies from Gaze Data. In Proceedings of the 32nd Annual ACM Symposium on User Interface Software and Technology (pp. 197-208). ACM.

URL : https://dl.acm.org/citation.cfm?doid=3332165.3347933

ロボットの動きにアニメーションの動きを転写する技術開発

Vibration-Minimizing Motion Retargeting for Robotic Characters [1]

ロボットキャラクターのアニメーションを作成することは、物理的な性質によって課せられる制約のため、非常に困難です。特に、速い動きと避けられない構造的変形の組み合わせは、性能に悪影響を与える機械的振動をもたらします。

Disney Researchの研究チームは、視覚的に顕著な低周波、大振幅の振動が抑制されるように入力モーションを調整する、最適化ベースのダイナミクス認識モーションリターゲティングシステムを開発したと報告しています。
この研究での目標は、性能に悪影響を及ぼさないように、従来のアニメーションソフトウェアを使用して作成されたモーションをロボットキャラクターに自動的に転送することだそうです。

アニメーションシステムの技術的なコアは、リジッドコンポーネントとフレキシブルコンポーネント間の制約ベースの双方向結合を提供する微分可能なダイナミクスシミュレータで構成されているそうです。
非常にダイナミックなドラミングとボクシングの動きを特徴とする子供サイズのアニマトロニクスフィギュアを含む合計5つのロボットキャラクターで行われた実験を通して、この方法の有効性を示しています。

[1] : Hoshyari, S., Xu, H., Knoop, E., Coros, S., & Bächer, M. (2019). Vibration-minimizing motion retargeting for robotic characters. ACM Transactions on Graphics (TOG)38(4), 102.

URL : https://la.disneyresearch.com/publication/publication-process-vibration-minimizing-motion-retargeting-for-robotic-characters/

MR向けインターフェースにおけるコンテクストの自動調整アプローチの開発

Context-Aware Online Adaptation of Mixed Reality Interfaces [1]

Mixed Reality(MR)システムの最適化ベースのアプローチを提示して、アプリケーションを表示するタイミングと場所、および表示する情報量を自動的に制御することが求められています。
現状、コンテンツ作成者はアプリケーションを設計し、ユーザーは表示するアプリケーションと表示する情報の量を手動で調整しているそうです。ユーザーがコンテキストを切り替えるたびに、つまりタスクや環境を切り替えるたびに調整する必要があり、コンテキストの切り替えは1日に何度も発生するため、この問題を軽減するにはMRインターフェイスの自動化が必要であると考えていることが研究背景だそうです。

そこで、本論文では、ユーザーの現在の認知負荷とタスクと環境に関する知識に基づいて、このプロセスを自動化するリアルタイムのアプローチを提案しています。ユーザーの現在の環境、タスク、および認知負荷に関する情報を活用することにより、ユーザーの状況に合わせて、動的なMRインターフェイスを自動で適応させることができるそうです。
この問題は、リアルタイムで効率的に解決できるルールベースの意思決定と組み合わせ最適化の組み合わせとして定式化しており、実証実験も実施しています。結果、このアプローチにより二次タスクの相互作用が36%減少したことを示しています。

コンテンツ作成を手動ワークフローから計算的にサポートされるプロセスに移行することによって、MRインターフェースをより使いやすくするための最初のステップを踏み出せる、と本論文では締めくくっています。

尚、本論文は2019年度UIST会議にて報告されたものです。

[1] : David Lindlbauer, Anna Maria Feit, Otmar Hilliges (2019, October). Context-Aware Online Adaptation of Mixed Reality Interfaces. In Proceedings of the 32nd Annual ACM Symposium on User Interface Software and Technology (pp. 147-160). ACM.

URL : https://dl.acm.org/citation.cfm?doid=3332165.3347945

1 52 53 54 55 56 57 58 86