ハーバード大学らが発表した魚群を参考にした水中の集団行動の研究

Implicit coordination for 3D underwater collective behaviors in a fish-inspired  robot swarm | Science Robotics
Implicit coordination for 3D underwater collective behaviors in a fish-inspired robot swarm [1]

多くの魚種が数千匹集まって、一見何の努力もせずに調和して泳いでいます。特に大規模の魚群では、単純な群れから集団移動まで、基本的な捕食者の回避などに代表される動的な操作まで、さまざまな印象的な集団行動が見られます。豊富な実験的および理論的研究により、これらの複雑な3次元(3D)の動作は、明示的なコミュニケーションなしに、近くの隣人の視覚的観察から生じる可能性があることが示されています。対照的に、ほとんどの水中ロボット集団は、集中化された水中の明示的な通信に依存しており、その結果、調整の複雑さが制限されているのが現状です。

ハーバード大学の研究チームが、青い光の生成と感知によって媒介される暗黙の通信のみを使用する、魚に触発されたミニチュア水中ロボットの群れを使用した3D集団行動の研究成果をScience Roboticsに寄稿しています。

複雑で動的な3D集合行動(同期、分散/集約、動的な円の形成、検索キャプチャ)は、集中的な介入なしに、隣人の最小限のノイズの多い印象を感知することで実現できることを示します。本論文に示している研究結果は、暗黙の調整の力への洞察を提供し、環境モニタリングやサンゴ礁や沿岸環境での検索などのアプリケーションのために魚群と同等の集合的能力を示す将来の水中ロボットにとって興味深い知見が得られたとしています。

[1] : Berlinger, F., Gauci, M., & Nagpal, R. (2021). Implicit coordination for 3D underwater collective behaviors in a fish-inspired robot swarm. Science Robotics6(50).

URL : https://robotics.sciencemag.org/content/6/50/eabd8668

Scrappy : 3Dプリントされたオブジェクトの充填部分をScrapに置き換えてリフィルを節約

Scrappy: Using Scrap Material as Infill To Make Fabrication More Sustainable [1]

材料を層ごとに堆積することによってオブジェクトを作成する消費者向け3Dプリンターでは、印刷されたオブジェクトの内部に材料が堆積されています。これらの内部構造は、後続の印刷ラインのためのベースとなります。この充填材は、印刷プロセスの信頼性を高めるとともに、機械的強度を提供しています。ただし、この内部充填によって、印刷材料が消費され、印刷の完了にかかる時間が長くなります。

ウォータールー大学らの研究チームが、Fusion 360のアドインとして、3D印刷用のオブジェクトをモデリングするための既存のワークフローに統合されるScrappyと呼ばれるソフトウェアツールを開発、その成果を2021年度のCHI会議に寄稿しています。Scrappyは、インフィルを置き換えることができるオブジェクトを推奨することにより、ユーザーがインフィル材料の量を減らすのをサポートしています。 推奨されるスクラップが交差することなくモデル内に収まり、製造プロセス中にモデルに挿入できることを確認します。

Scrappyは印刷プロセスを一時停止して、ユーザーが適切なタイミングでスクラップを挿入できるようにします。スクラップは、印刷するための土台と機械的強度を提供することにより、交換するインフィルとほとんど同じように機能します。スクラップを挿入した後、通常どおり印刷が続行されます。当社のシステムを使用してスクラップオブジェクトを1つだけ挿入すると、印刷時間と材料を最大50%節約できるとしています。

[1] : Wall, L. W., Jacobson, A., Vogel, D., & Schneider, O. (2021, May). Scrappy: Using Scrap Material as Infill to Make Fabrication More Sustainable. In Proceedings of the 2021 CHI Conference on Human Factors in Computing Systems (pp. 1-12).

URL : https://dl.acm.org/doi/10.1145/3411764.3445187

CMUが発表したEITを使用した腕の内部インピーダンスを測定できるウェアラブルデバイスのプロトタイプ

Tomo (ACM UIST 2015) [1]

カーネギーメロン大学の研究チームが、電気インピーダンストモグラフィー(EIT)を使用してユーザーの腕の内部インピーダンス形状を測定するウェアラブルで低コストのシステムであるTomoを紹介、2015年度のUIST会議にて成果を寄稿しています。

これは、ユーザーの皮膚にある8つの電極のすべてのペア間の断面インピーダンスを測定することによって実現され、このプロトタイプはコンパクトで低電力であるため、ジェスチャーをリアルタイムで監視および分類できるとしています。

手首と腕のバンドにテクノロジーを統合したプロトタイプを作成し、2つのジェスチャセットを評価するユーザー調査を実施しています。1つはグロスハンドジェスチャに焦点を当て、もう1つは親指から指へのピンチを使用し、その結果手首の位置はこれらのジェスチャセットでそれぞれ97%と87%の精度を達成し、腕の位置は93%と81%を達成したとしています。

最終的には、この手法が将来のスマートウォッチに統合され、手のジェスチャーと直接タッチ操作が相乗的に機能して、小さな画面でのインタラクティブなタスクをサポートできるようになることを想定しているとしています。

[1] : Zhang, Y., & Harrison, C. (2015, November). Tomo: Wearable, low-cost electrical impedance tomography for hand gesture recognition. In Proceedings of the 28th Annual ACM Symposium on User Interface Software & Technology (pp. 167-173).

URL : https://dl.acm.org/doi/10.1145/2807442.2807480

Itsy-Bits : タッチスクリーン上の3D プリントオブジェクト製造とその認識手法

Itsy-Bits: Fabrication and Recognition of 3D-Printed Tangibles with Small Footprints on Capacitive Touchscreens [1]

静電容量式タッチスクリーン上の有形物は、タッチ入力の限られた表現力を克服するための有望なアプローチです。調査では有形物を検出するための多くのアプローチが提案されていますが、対応する有形物はコストがかかるか、サイズがかなり小さいかのいずれかです。これにより、多くのアプリケーションにとって、それらはかさばり魅力的ではなく、インタラクションのための貴重な表示スペース、つまりディスプレイの大部分を覆い隠してしまうことが課題です。

これらの欠点に対処するために、ドイツのダルムシュタット工科大学の研究チームが、Itsy-Bitsという、小さなフットプリントを持つ静電容量式タッチスクリーン上の有形物の認識と 3D 印刷のための製造パイプラインを提案、CHI2021にその成果を寄稿しています。
Itsy-Bit は、囲んだ 3D オブジェクトと、その底にある独自の導電性 2D 形状で構成されており、静電容量式タッチスクリーンのデータのみを使用して、さまざまなサイズのさまざまな形状を確実に識別および特定し、それらの方向を推定するとのことです。サンプルアプリケーションと技術評価を通じて、フットプリントが小さい有形物に対する Itsy-Bits の実現可能性と適用可能性を示しています。

[1] : Schmitz, M., Müller, F., Mühlhäuser, M., Riemann, J., & Le, H. V. V. (2021, May). Itsy-Bits: Fabrication and Recognition of 3D-Printed Tangibles with Small Footprints on Capacitive Touchscreens. In Proceedings of the 2021 CHI Conference on Human Factors in Computing Systems (pp. 1-12).

URL : https://dl.acm.org/doi/10.1145/3411764.3445502

1 2 3 4 5 6 7 8 86