リアルタイムにジェスチャーを判別してくれるSmartSleeveとは

SmartSleeve: Real-time Sensing of Surface and Deformation Gestures on Flexible, Interactive Textiles

本論文は2017年度のヒューマンコンピュータインターフェースに関する国際会議であるACM Symposium on User Interface Software and Technology(通称UIST)で報告された内容です。

研究背景であるインタラクティブテキスタイルの開発については、過去から非常に多くウェアラブルコンピューティングの研究として実施されてきました。そのほとんどは、タッチジェスチャ用の平面センサーに重点を置いているため、テキスタイルの柔軟性、変形性、および有形の材料特性を十分に活用していません。
本論文では、表面と変形の両方のジェスチャをリアルタイムで検出できる、変形可能なテキスタイルセンサーSmartSleeveを紹介しています。ジェスチャのカテゴリをTwirl、Twist、Fold、Push、Stretchなどの高次な階層にカテゴライズした上で、それぞれの細かい操作をジェスチャを指定しています。また、センサーの設計、ハードウェアの実装、およびその新しいアーキテクチャについても引用文献含めて説明しています。

今回の論文内での実験はデータ送信と電源供給のために、有線でPC接続しているため、小型化によりテキスタイルに埋め込んだワイヤレス接続を見据えているそうです。さらに、単層のテキスタイルセンサーの実装にも取り組んでいるようで、ハードウェアレベルでアルゴリズムも開発している、と記載しています。
同時に耐久性、つまり湿度などの環境の影響がセンサーにどのように影響するか、洗濯機での洗浄回数なども評価することに触れており、消費者への提供も近い将来可能性を感じさせてくれます。

[1] : Parzer, P., Sharma, A., Vogl, A., Steimle, J., Olwal, A., & Haller, M. (2017, October). SmartSleeve: real-time sensing of surface and deformation gestures on flexible, interactive textiles, using a hybrid gesture detection pipeline. In Proceedings of the 30th Annual ACM Symposium on User Interface Software and Technology (pp. 565-577). ACM.ISO 690

URL : https://dl.acm.org/citation.cfm?id=3126594.3126652

キルヒホッフ・プラトー表面を設計するための計算ツール

Computational Design and Automated Fabrication of Kichhoff Plateau Surfaces [1]

Disney Researchとレイ・ファン・カルロス大学の研究チームが、キルヒホッフ・プラトー表面を設計するための計算ツールを提案しています。
これは、複雑な3次元形状に展開する事前にストレッチされたファブリックに埋め込まれた平面ロッドネットワークだそうです。

キルヒホッフ・プラトー表面は表現力豊かな設計空間を提供しますが、この空間をナビゲートすることは、根本的な機械的問題の高度に非線形な性質により困難になります。
この課題に取り組むための設計ツールを実装するために、効率的なフォワードシミュレーションモデルと専用の最適化アルゴリズムを組み合わせた、ユーザーガイドによるコンピューター支援のアプローチを提案しています。
複雑な形状のキルヒホッフ・プラトー表面の多様なセットを設計することにより、それぞれの方法を実証します。それぞれが物理的に製造されたプロトタイプで検証されています。

[1] : Pérez, J., Otaduy, M. A., & Thomaszewski, B. (2017). Computational design and automated fabrication of kirchhoff-plateau surfaces. ACM Transactions on Graphics (TOG)36(4), 62.

URL : https://dl.acm.org/citation.cfm?id=3073695

発汗モニタリングのために皮膚に付着できる柔軟なマイクロ流体デバイスに関する研究

A soft, wearable microfluidic device for the capture, storage, and colorimetric sensing of sweat [1]

汗の捕獲と定量的化学分析によって可能になった健康モニタリングの能力は、血液サンプルの散発的な評価に基づくアプローチを補完するか、潜在的にその必要性を取り除く可能性があります。
確立された汗監視技術は、シンプルな生地見本を使用し、管理された実験室や病院の設定での基本的な分析に限定されています。

イリノイ大学の研究チームは、化学的および機械的な刺激なしで、皮膚の表面に密接かつ強固に結合できる無線通信電子機器を統合した、柔らかく伸縮可能なマイクロ流体システム用の材料およびデバイス設計を提案し、その成果がScience Translational Medicineに紹介されました。
汗腺が微小流体ネットワークとリザーバーを介して、発汗を自発的に開始するように、汗腺の小さなセットのアクセスポイントを定義し、デバイスに埋め込まれた化学分析として、塩化物やヒドロニウムイオン、グルコース、乳酸などのマーカーに比色法で応答するそうです。
デジタル画像キャプチャハードウェアへのワイヤレスインターフェイスは、定量化の手段として機能します。
上記の実証実験として、フィットネスサイクリング中および乾燥した屋外条件での長距離自転車レース中に、このマイクロ流体デバイスの機能を検証したそうです。結果として、発汗量、総発汗量、pH、塩化物と乳酸の濃度の定量値が含まれることを確認した、と主張しています。

[1] : Koh, A., Kang, D., Xue, Y., Lee, S., Pielak, R. M., Kim, J., … & Manco, M. C. (2016). A soft, wearable microfluidic device for the capture, storage, and colorimetric sensing of sweat. Science translational medicine8(366), 366ra165-366ra165.

URL : https://stm.sciencemag.org/content/8/366/366ra165

3Dオブジェクトに見えないタグをつける方法:AirCode

AirCode: Unobtrusive Physical Tags for Digital Fabrication

コロンビア大学の研究チームが、物体に肉眼ではわからないタグをつける技術であるAirCodeを発表しました。技術的には、オブジェクトの表面の下に配置されたエアポケットを配置してその中にコードを埋め込んでおり、このエアポケット自体は、追加の材料や後処理なしで、オブジェクトの製造プロセス中に簡単に作成することができるそうです。

原理は簡単で、物体に対する光の反射自体は表面状態が変化すれば変わるのですが、物体内部に作った空気のポケットは表面下の散乱光の反射にのみ影響するため、計算イメージング法を使用すると、タグが検出可能になるそうです。 ユーザーが情報をエンコードするためのエアポケットの設計を自動化するツールを提供することで、メタデータの埋め込み、ロボットによる把握などのアプリケーションを使用して、タグ付けの手法を示してくれています。

論文の議論部分に書いてある本技術の課題は最もな内容なので、興味があれば一読いただければと思います。勘の良い方はお気づきだと思いますが、表面状態の変化や材料による制限、他の代替技術が存在する可能性など、論文を読むとこの技術の課題に気づきますが、着眼点が非常に面白い論文になっています。

[1] Li, D., Nair, A. S., Nayar, S. K., & Zheng, C. (2017, October). Aircode: Unobtrusive physical tags for digital fabrication. In Proceedings of the 30th annual ACM symposium on user interface software and technology (pp. 449-460). ACM.

URL : https://dl.acm.org/citation.cfm?id=3126594.3126635

1 72 73 74 75 76 77 78 86