Pronto:ARエクスペリエンスのラピッドビデオプロトタイピングツール

Pronto: Rapid Augmented Reality Video Prototyping Using Sketches and Enaction [1]

デザイナーは、ARエクスペリエンスのプロトタイプを迅速に作成するためのツールが限られています。3人のARデザイナーに現状の課題をヒアリングし、AR設計で繰り返し発生するいくつかの問題を特定しています。3Dアセットの作成と配置、変化するユーザーの位置の処理、複数のアニメーションの調整が挙げられています。

そこで、デンマークのオーフス大学の研究チームは、2Dビデオと3D操作を組み合わせたタブレットベースのビデオプロトタイピングシステム、PROJECT PRONTOを開発し、その研究成果を2020年度のCHI会議にて報告しています。

PRONTOは4つの絡み合ったアクティビティ、ビデオシナリオに沿った3D空間情報のキャプチャ、3Dワールドでの2D図面の配置とスケッチ、物理的な相互作用によるアニメーションの実行をサポートするそうです。PRONTOを使用して多様なAR体験のプロトタイプを作成できることを実証したと報告しています。

同時に、このシステムが使いやすいと答えたデザイナーが多く、現在の慣行よりもデザインの探索を奨励していると答えたそうです。ラピッドプロトタイピングのワークフローの幅が広がる可能性を感じます。

[1] : Leiva, G., Nguyen, C., Kazi, R. H., & Asente, P. (2020, April). Pronto: Rapid Augmented Reality Video Prototyping Using Sketches and Enaction. In Proceedings of the 2020 CHI Conference on Human Factors in Computing Systems (pp. 1-13).

URL : https://dl.acm.org/doi/abs/10.1145/3313831.3376160

HapBead:ビーズとマイクロ流体チャネルを利用した新しい触覚インターフェース

Figure 1. HapBeadの3つのビーズ位置 [1]
([1]のFigure 1より引用)

薄くて柔軟な柔らかいエラストマーを使用した皮膚上の触覚インターフェースは、近年大幅に改善されました。多くは、複雑なパラメーターの調整を必要とする振動触覚フィードバックに焦点を当てています。別のアプローチは、圧電デバイスを介して作成された機械的な力と、ストレッチ、ねじれなどの非振動ハプティック感覚の他の方法に基づいています。これらはしばしば電子部品で大きくなり、関連するドライバーは複雑になり、タイミングと精度の制御が制限されます。

中国科学院らの研究チームが、マイクロフルイディクスを使用して触覚フィードバックのような振動をレンダリングできる、新しい皮膚上のハプティックインターフェイスであるHapBeadを提案し、研究成果を2020年度のCHI会議に寄稿しています。
HapBeadは、マイクロ流体チャネルを利用して、液体の流れを介して小さなビーズを正確かつ俊敏に振動させます。これにより、チャネルにさまざまなモーションパターンが生成され、皮膚に高度に調整可能な触覚を作成するそうです。

薄くて柔軟で手頃な価格のHapBeadプラットフォームを実装するための概念実証設計を開発し、ユーザーの指先に取り付けることでその触覚レンダリング機能を検証し、HapBeadによってレンダリングされた6つの異なるハプティックパターンを参加者が正確に認識できることが確認されたとしています。
HapBeadは、皮膚上の触覚落書き、視覚触覚ディスプレイ、触覚錯覚など、複数の統合機能を備えた新しいウェアラブルディスプレイアプリケーションを実現すると締めくくっています。

[1] : Han, T., Bansal, S., Shi, X., Chen, Y., Quan, B., Tian, F., … & Subramanian, S. (2020, April). HapBead: On-Skin Microfluidic Haptic Interface using Tunable Bead. In Proceedings of the 2020 CHI Conference on Human Factors in Computing Systems (pp. 1-10).

URL : https://dl.acm.org/doi/abs/10.1145/3313831.3376190

StrapDisplays:バンド部位にディスプレイとタッチテクノロジーが組み込まれた新しい時計

[CHI’20] Watch+Strap: Extending Smartwatches with Interactive StrapDisplays [1]

スマートウォッチは最近広く採用されていますが、その入出力スペースは画面サイズによってかなり制限されています。

ドイツのドレスデン工科大学の研究チームが、StrapDisplaysと呼ばれるディスプレイとタッチテクノロジーが組み込まれたインタラクティブな時計バンドを開発し、その研究成果を2020年度のCHI会議に寄稿しています。

論文中では、StrapDisplayの物理的なデザインスペースを紹介した後、通常の時計機能とディスプレイにStrapシステムを加えることで、スマートウォッチとストラップを組み合わせる方法を探っています。具体的には、有望なコンテンツの配信、対話手法、使用法の種類、表示の役割を考慮した複数のインターフェイスの概念を提案しています。たとえば、ストラップは時計アプリを充実させ、視覚化を表示し、一目でわかるフィードバックを提供したり、閉塞の問題を回避したりできる、としています。

さらに、3つのStrapDisplayプロトタイプと柔軟なWebベースのソフトウェアアーキテクチャを組み込んだモジュール式の研究プラットフォームを提供し、私たちのアプローチの実現可能性を示したと主張しています。

本論の序盤部分にかかれているStrapDisplayの物理スペースの定義方法はウェアラブルデバイスを制作する上で非常に参考になるステップだと思いますので、ご興味がある方はぜひ。

[1] : Klamka, K., Horak, T., & Dachselt, R. (2020, April). Watch+ Strap: Extending Smartwatches with Interactive StrapDisplays. In Proceedings of the 2020 CHI Conference on Human Factors in Computing Systems (pp. 1-15).

URL : https://dl.acm.org/doi/abs/10.1145/3313831.3376199

AirTouch:空気圧センシングを使用した3Dプリントのタッチセンサー式オブジェクト

AirTouch: 3D-printed Touch-Sensitive Objects Using Pneumatic Sensing [1]

3Dプリント技術を使用して、3Dオブジェクトをすばやく制作し、プロトタイプ化できます。 ただし、生成されるオブジェクトはパッシブです。これらのオブジェクトをインタラクティブにすることへの関心が高まっていますが、それらはしばしばコンポーネントの組み立てや複雑なキャリブレーションを必要とします。

コペンハーゲン大らの研究チームは、設計者が空気圧センシングを使用して最小限のアセンブリとキャリブレーションでタッチセンサー式オブジェクトを製造できるようにする手法であるAirTouchを開発し、その成果を2020年度のCHI会議に寄稿しています。 AirTouch対応オブジェクトは、消費者レベルの3Dプリンターを使用して製造できるそうです。

AirTouchは事前トレーニング済みの機械学習モデルを使用して、加工されたオブジェクトとの相互作用を識別します。つまり、オブジェクトの印刷が完了すると、キャリブレーションは必要。 論文内では、さまざまな形状とタッチセンシティブな場所で製造されたオブジェクトを使用して手法を評価し、12のインタラクティブな場所で少なくとも90%の精度を取得した、と主張しています。

[1] : Tejada, C. E., Ramakers, R., Boring, S., & Ashbrook, D. (2020, April). AirTouch: 3D-printed Touch-Sensitive Objects Using Pneumatic Sensing. In Proceedings of the 2020 CHI Conference on Human Factors in Computing Systems (pp. 1-10).

URL : https://dl.acm.org/doi/abs/10.1145/3313831.3376136

1 25 26 27 28 29 30 31 86