目の不自由な方がタッチスクリーンを誤動作させずに操作できるシステム

StateLens: A Reverse Engineering Solution for Making Existing Dynamic Touchscreens Accessible [1]

目の不自由な人は、日常生活でアクセスが困難な動的なタッチスクリーンに遭遇します。多くの場合、タッチスクリーンは、決済端末から機内エンターテイメントシステムまで、すべてを制御する唯一の方法です。動的なタッチスクリーンとの対話は、視覚的なユーザーインターフェイスが変化し、対話が複数の異なる画面で頻繁に発生し、画面の探索中に誤ってタッチをして動作させてしまうため、目の不自由な方にとっては非常に困難なものになっています。

本論文では、カーネギーメロン大学の研究チームが、画面の探索中に誤ってタッチをして動作させてしまうというアクセサビリティの課題を解決するため、StateLensというシステムを導入した、と報告しています。

これは、既存の動的タッチスクリーンにアクセスできるようにする3部構成のリバースエンジニアリングソリューションで、視覚障害のあるユーザーがインターフェイスにアクセスできるようにインタラクティブなガイダンスとフィードバックを提供できると主張しています。

また、3Dプリントしたアクセサリを組み合わせることで、目の不自由な方でもインターフェースで誤ってタッチする危険を冒すことなく触れることを実証した、と報告しています。
本研究のような社会的に意義のある研究が加速され、ユーザビリティが増すことは非常に重要だと思います。

[1] : Guo, A., Kong, J., Rivera, M., Xu, F. F., & Bigham, J. P. (2019, October). StateLens: A Reverse Engineering Solution for Making Existing Dynamic Touchscreens Accessible. In Proceedings of the 32nd Annual ACM Symposium on User Interface Software and Technology (pp. 371-385). ACM.

URL : https://dl.acm.org/citation.cfm?doid=3332165.3347873

複雑な編み物に適したCADデータパイプライン

KnitPicking Textures: Programming and Modifying Complex Knitted Textures for Machine and Hand Knitting [1]

テキスタイルをデジタル上で加工することは、インタラクティブな物理オブジェクトの作成に不可欠です。特に、ニット生地は、多様な構造特性(剛性、伸縮性など)を持つ複雑でシームレスな形状を作成できます。
また、手編み機はニットのテクスチャに関する膨大な量の実用的な知識を開発、文書化、およびキュレーションしました。工業的には、自動編機は堅牢なデジタル製造装置です。ただし、機械編みのデザインインターフェイスを使用するにはトレーニングが必要であり、手編みの幅広い知識を直接活用することはできません。

本論文では、複雑なテクスチャを使用した編まれたオブジェクトを記述してから製造するためのプログラミングのためのCADパイプラインを紹介しています。手編みのテクスチャパターンを解釈し、機械と手編みの命令に出力できるパイプラインです。
このKnitPickと呼ばれるパイプラインを使用して、300のニットテクスチャの測定および写真データセットを提供しており、このデータセットに基づいて、アルゴリズムを提供している、と報告しています。

複雑なニットテクスチャを作成する際に、手編みと機械編みのギャップを埋める最初のシステムだと報告しており、プログラミングの経験がない未経験の編み物をする人や、プロによるパターン設計の新しい方法を開発したいと、論文では報告してくれています。

最後になりましたが、本論文は2019年度UISTで報告されているものになります。

[1] : Hofmann, M., Albaugh, L., Sethapakadi, T., Hodgins, J., Hudson, S. E., McCann, J., & Mankoff, J. (2019, October). KnitPicking Textures: Programming and Modifying Complex Knitted Textures for Machine and Hand Knitting. In Proceedings of the 32nd Annual ACM Symposium on User Interface Software and Technology (pp. 5-16). ACM.

URL : https://dl.acm.org/citation.cfm?doid=3332165.3347886

視線トラッキングを利用したシーン変更を視野内で適用するソフトウェアシステム

Mise-Unseen: Using Eye Tracking to Hide Virtual Reality Scene Changes in Plain Sight [1]

多くの仮想現実アプリケーションでは、実行時にオブジェクトを作成または配置する必要がありますが、そのような変更はユーザーの視野内で発生すると認識されます。
Microsoft Researchに所属する研究チームが、シーンの変更をユーザーの視野内でひそかに適用するソフトウェアシステムであるMise-Unseenを開発し、2019年度のUIST会議にて発表しています。

MiseUnseenは、視線追跡を利用してユーザーの注意、意図、空間メモリのモデルを作成し、変更を加えるかどうか、いつ行うかを決定します。
ビュー内のシーンを目立たないように変更するためのMise-Unseenの7つのアプリケーションを提示します(i)タスクの難易度がユーザーに適応することを隠すため、(ii)ユーザーの好みにエクスペリエンスを適応させるため、(iii)低忠実度の効果、(iv)物理的な小道具がなくても受動的な触覚のユーザー選択を検出する、(v)物理的なスペースがなくても物理的な移動を維持する、(vi)仮想移動中の乗り物酔いを減らす、および(vii)確認するストーリーの進行中のユーザーの理解。

本システムを15人の参加者によるユーザー調査で評価したところ、視線データは実際に視野内での難読化の変更をサポートはするそうですが、視線を一般的なマスキングテクニックと組み合わせて使用​​すると目立たないようになるそうです。

[1] : Marwecki, S., Wilson, A. D., Ofek, E., Gonzalez Franco, M., & Holz, C. (2019, October). Mise-Unseen: Using Eye Tracking to Hide Virtual Reality Scene Changes in Plain Sight. In Proceedings of the 32nd Annual ACM Symposium on User Interface Software and Technology (pp. 777-789). ACM.

URL : https://dl.acm.org/citation.cfm?doid=3332165.3347919

360度カメラを用いたキャプチャ時のポートレート照明の最適化

Optimizing Portrait Lighting at Capture-Time Using a 360 Camera as a Light Probe [1]

照明はポートレート写真の重要な要素です。 光が入ってくる部屋や外の環境に対して、被写体をどのように向けるかを選択するには、従来、光の方向に注意を払い、その光がどのように顔に当たって、どういう写真ができるかを理解する必要がありました。

そこで、本論文では、一般人を含めたカジュアル写真家が、自分たちが撮りたい被写体の顔の外観を撮影するために、被写体を方向付けるのに役立つように設計されたツールを紹介してくれています。
ツールへの入力は、360カメラを使用してキャプチャされたシーンのHDR環境マップと、一般的なスタジオ照明スタイルのギャラリーから選択されたターゲットの顔の外観だそうです。
本論文でツールは、計算効率の高い事前計算された放射輝度伝達ベースのアプローチを使用して、対象の照明を達成するために被験者の最適な方向を計算するそうです。
次に、写真家に被写体の周りをどれだけ回転させるかを伝えます。必要に応じて、ツールは、対象の照明との一致をさらに改善するために、被験者の顔の周囲に補助的な外部光源(電話画面など)を向ける方法を提案するそうです。

さまざまな被写体を使用して、屋内および屋外シーンでのアプローチの有効性を実証しており、実施したユーザーの評価によると、このツールは、写真家が明るいポートレートを作成するために必要なな努力を軽減することを示唆しているそうです。
このようなツールは、写真家が環境で可能性のあるさまざまな外観を簡単に検討できるようにするものと考えている、と著者らは主張しています。

[1] : Fried, O., & Agrawala, M. (2019, October). Optimizing Portrait Lighting at Capture-Time Using a 360 Camera as a Light Probe. In Proceedings of the 32nd Annual ACM Symposium on User Interface Software and Technology (pp. 221-232). ACM.

URL : https://graphics.stanford.edu/projects/portraitlighting/e_portrait_uist19.pdf

1 51 52 53 54 55 56 57 86