Facebookらが開発した衣服に統合できるソフトハプティックデバイス:PneuSleeve

PneuSleeve: In-fabric Multimodal Actuation and Sensing in a Soft, Compact, and Expressive Haptic Sleeve [1]

ソフトハプティックデバイスを衣服に統合することで、日常のコンピューティングインタラクションの使いやすさと装着性を向上させることができます。

Facebook Reality Labの研究チームが、圧縮、皮膚の伸張、振動などの幅広い触覚刺激を与えることができる、ファブリックベースのコンパクトで表現力豊かな前腕スリーブであるPneuSleeveを開発し、2020年度のCHI会議に寄稿しています。

触覚刺激は、刺繍された伸縮性チューブ内の空気圧を制御することによって生成され、動作構成には、前腕の近位および遠位にある2つの圧縮アクチュエータと、前腕の周囲および接線に接する4つの均一に分配された線形アクチュエータが含まれるとしています。

さらに、適切なグリップ力を確保するために、2つのソフト相互静電容量センサーが配置され、圧縮アクチュエーターに統合、閉ループ力コントローラーが実装されています。アクチュエータの静的動作と動的動作、および閉ループ制御の性能を物理的に特徴付けます。

ユーザーの一連の研究で、6つのアクチュエータの心理物理学的特性を定量的に評価し、最後に、主観的評価を使用して複合触覚刺激を評価することにより、PneuSleeveの表現力を示しています。AR/VR researchチームの開発であることから、没入感を増すデバイスとして利用するための技術開発かもしれません。

[1] : Zhu, M., Memar, A. H., Gupta, A., Samad, M., Agarwal, P., Visell, Y., … & Colonnese, N. (2020, April). PneuSleeve: In-fabric Multimodal Actuation and Sensing in a Soft, Compact, and Expressive Haptic Sleeve. In Proceedings of the 2020 CHI Conference on Human Factors in Computing Systems (pp. 1-12).

URL : https://dl.acm.org/doi/abs/10.1145/3313831.3376333

履くだけで足型を推定するセンサーソックス

FIg.1 Sensockの外観
([1]のFigure1 より引用)

CHI2020にて、履くだけで足型形状を推定するSensockが発表されました。[1]

足の形状を測定する手法としてはすでにカメラを用いたものなどが存在しますが、測定中に足を動かさないようにしたり、精度を上げるためにはマーカーなどを用いるケースも多いといった課題があります。

Sensockは靴下に伸縮性のセンサ糸を複数縫い込んでおり、そのセンサ信号から足の形を推定しています。

この研究では伸縮量を取得するのに適した特徴部位を4箇所定めており、そのデータをと足型モデルのデータベースを元に足の形状を推定しています。

(3Dモデルの作成には人体の3DモデルのデータベースであるCaesar databaseを用いています。[2])

Fig2. Sensockにより生成された足の3次元形状と測定時の様子
([1]のFigure 6より引用)

論文中では既存手法やKinectなどを用いた結果などとの比較も行われています。

データセットへのマッピングと信号処理を工夫することで簡単な構成で複雑な形状を推定する手法は医療やパーソナライズなど様々な領域で活用されていく可能性がありそうです。

参考文献

[1]Zhang, H., Chen, Z., Guo, S., Lin, J., Shi, Y., Liu, X., & Ma, Y. (2020, April). Sensock: 3D Foot Reconstruction with Flexible Sensors. In Proceedings of the 2020 CHI Conference on Human Factors in Computing Systems (pp. 1-13).

[2] Robinette, K. M., Daanen, H., & Paquet, E. (1999, October). The CAESAR project: a 3-D surface anthropometry survey. In Second International Conference on 3-D Digital Imaging and Modeling (Cat. No. PR00062) (pp. 380-386). IEEE.

関連URL:

元論文https://dl.acm.org/doi/pdf/10.1145/3313831.3376387

マリオを指で操作?スケールを小さくしたミニチュアハプティクスの研究

Miniature Haptics: Experiencing Haptic Feedback through Hand-based and Embodied Avatars [1]

台湾大学の研究チームが、小型化されたハプティックフィードバックをアバターに適用することにより、リアルなハプティックエクスペリエンスを提供する新しいアプローチを開発し、その成果を2020年度のCHI会議に寄稿しています。

触覚をはるかに小さなスケールに縮小することにより、ボディースケールでは作るのが難しい、新しい触覚体験の探索を可能にします。アバターの実施例および制御方法の例として指先歩行を使用して、実現可能性を調査し、次に人体研究を実施して、人々が全身骨格モデルを手にマッピングする方法を開発しています。

ミニチュアハプティックのユーザーエクスペリエンスを理解するために、ミニチュアフットボールハプティックディスプレイを開発しました。ユーザースタディの結果は、ミニチュアハプティックスが体験のリアリズムと楽しさを大幅に改善し、ユーザーに好まれていることを示したそうです。
さらに、1)スーパーマリオブラザーズなどのプラットフォームジャンプゲームの地面の高さの急速な変化と、2)地形の傾斜の変化の触覚体験をサポートする2つの小型モーションプラットフォームを紹介しています。

動画が直感的にわかりやすく、新しい体験を生み出す可能性を示唆しています。

[1] : Wang, B. X., Wang, Y. W., Chen, Y. K., Tseng, C. M., Hsu, M. C., Hsieh, C. A., … & Chen, M. Y. (2020, April). Miniature Haptics: Experiencing Haptic Feedback through Hand-based and Embodied Avatars. In Proceedings of the 2020 CHI Conference on Human Factors in Computing Systems (pp. 1-8).

URL : https://dl.acm.org/doi/pdf/10.1145/3313831.3376292

家庭用掃除ロボットを利用した力のフィードバック技術:MoveVR

MoveVR: Enabling Multiform Force Feedback in Virtual Reality using Household Cleaning Robot [1]

触覚フィードバックは、仮想現実(VR)システムのリアリズムと没入感を大幅に向上させることができます。特にエンタテインメント文脈では、非常に重要なフィードバックとして挙げられます。

清華大学やマイクロソフトらの研究チームが、家庭用掃除ロボットを活用したVRでのリアルなマルチフォーム力フィードバックを実現する技術、MoveVRを提案し、その成果を2020年度のCHI会議に寄稿しています。
MoveVRは、複数のレベルの力の強さと方向で、張力、抵抗、衝撃、および材料の剛性力フィードバックを生成でき、ロボットの移動速度、回転、位置、および運ばれるプロキシを変更することによって実現されるそうです。

また、論文内ではインタラクティブなVRゲームを通じてMoveVRの実現可能性と効果を実証しています。定量的および定性的な評価調査では、参加者は、振動触覚ハプティックシステムなどの市販のハプティックソリューションと比較して、MoveVRがより現実的で楽しいユーザーエクスペリエンスを提供することを発見した、と報告しています。

[1] : Wang, Y., Chen, Z., Li, H., Cao, Z., Luo, H., Zhang, T., … & Shi, Y. (2020, April). MoveVR: Enabling Multiform Force Feedback in Virtual Reality using Household Cleaning Robot. In Proceedings of the 2020 CHI Conference on Human Factors in Computing Systems (pp. 1-12).

URL : https://dl.acm.org/doi/pdf/10.1145/3313831.3376286

1 19 20 21 22 23 24 25 86