忍者ブログ
とりあえずオキュラス発売までにunityであれこれ作れるようになることを目標として日記とする所存。その他には大学で学んだこと、勉強会でのあれこれなど。

ISMAR2015特別一般公開イベント「ISMARが拓く AR/MRの未来」

ISMAR2015特別一般公開イベント

ISMARが拓く AR/MRの未来

日時:2015年10月3日(土) 13:30-16:30
場所:福岡国際会議場4階

に、行ってきたので聞いてきたことをまとめました。

 1 ISMAR2015に見る重要技術の最前線(口頭発表から)

1.1 伊藤勇太(ミュンヘン工科大)

1.紹介論文ModulAR(HDMで視覚拡張)

→カスタマイズ可能なHMD 自分の好きな部品を組み合わせる(望遠機能、カメラなど)
→HDMで視力を選択的に強化したいから(視力を補う、画角を大きくしてより広い視野を得る、色を拡張する:弱視)
 テーマ:人の視覚をどうやって拡張するのか
 Conceptual Ecalution:ボケとシャープな映像を比較し差分を映す
 みどころ:目地からに寄って機能を切り替え出来る(例:目を細めるとズーム)

2.手軽で高精度なプロジェクションマッピング(手軽で高精度な三次元計測技術)

→プロジェクションマッピングを使って計測を行う(光の縞を当てて物体を計測し3Dモデルとして取り込む)
 みどころ;補正機能もありかなり正確(カメラの児童公正、校正治具不要:3Dモデル既知)

3.日本人に使わせるとコウなる(エンターテイメント応用)

→塗り絵を動かしておもちゃにする研究(ARでリアルタイムレンダリング、塗り絵とARモデルが連動する)
 みどころ:一般質問でこれなら自分も使いたい、使えるという意見多数

質疑

Q 視覚拡張時にディスプレイに情報を映す時、どのようにするのが最もいいのか
A 人間への負担と便利さを計る
Q ISMARをイズマーってよまんといて、アイズマーって読んで目のEYEとかけとるけん
A 伝えときます

1.2 藤本裕一郎(柔軟物体へのプロジェクションマッピングの研究をしている)

1.MobileFusion:スマホを3Dスキャナにする

オックスフォードとマイクロソフトの発表
3次元データの応用例:3Dプリンタ、デジタルアーカイブ、工業機械:繊細な物体をア−ムでつかむなど、WebGL
従来の3Dスキャン:特別な機材でレーザーを照射して点群もデル構築、PCでサーフェスモデルを構築
GoogleTango:デプスセンサ、モーションとラッカー(リアルタイムで周りの3Dモデルを構築する
点群もデルからサーフェスモデルへ変換、テクスチャ作成
何がすごいか:サーフェスモデルから作成、25Hzの速度、スマートフォン上ですべて行う、ある程度のGPUがあればどのようなスマートフォンでも可能、サーバとの通信不要、写真を撮るように手軽にできる
ただし精度は劣る30**3cmで1.5cmの誤差

2.Augumented Reality Scout:双眼鏡のARシステム

→軍隊の前方監視任務トレーニング
みどころ:大規模な環境で動き回れる、二種類の異なる倍率の画像に対し三次元モデル表示(通常望遠切り替え可能)
応用例:名所の名前をAR表示させる望遠鏡→アミューズメントパークから動物を眺める時(動き回れる事の利点を生かせる)
ほかにも:数秒感風景を巻き戻す、移動物体をスローモーションに、見たくないものを見ない、見たいものだけ見る

3.TliedGrustumCulling for DiggerentialRendering on MobileDevices

モバイルデバイスて高原が32個もあるような複雑なリアルタイムレンダリング
光、影の当たらない場所→処理の必要が無い
モバイルデバイスでの写実的なAR表示
→仮想物体と実物体の境目があいまいに、仰々しくない日常生活にとけ込むARへ?

4.柔軟物体へのプロジェクションマッピング

 布に人に見えないマーカーを付けている
 あたかも布に印刷されているかのようなマッピング

1.3 岩井大輔(ユビキタスプロジェクション、プロジェクション型AR)

1.変動に強いプロジェクションマッピング(分散強調マルチプロジェクションマッピングのうんぬん長い)

 プロジェクションマッピングの色補正
→模様のついたところに映像を投影したときに、それをキャンセルする(薄い色のところには弱い光、濃い色のところには強い光)
 プロジェクションマッピングは複数大のプロジェクターを利用する事が多い
 →明るさが向上→色補正の精度向上
 →影を消す事が出来る
課題:色補正処理の計算量軽減、
   通信量の抑制:映像は重い、
   プラグアンドプレイの実現:プロジェクタの追加と離脱(ここが重要)をスムーズに
解決法:分散強調制御による解決
    通信はブロードキャストのみ、統一した色補正計算
    環境変化にも対応(証明がつくなど)

2.柔らかい物体へのAR

2.1触ったものの柔らかさをかえる
視覚から知覚的に触ったもののやわらかさ、暖かさをかえる
手を青くすると冷たく、赤くすると暖かくかんじる結果
押すと指先が赤くなるようなマッピング、触った対象がゆがんで押されているようなマッピング(錯覚を利用)
ある柔らかいものを設計するときに助かる
2.2柔軟物を切ったり引き裂く拡張現実感
切れたかどうかの判別が難しい
柔軟物体にきちっと位置合わせするARは重要、切り裂く事でメディカルARや粘土のARに応用できる(くっつけることはまだ対応できていない)

 2 ISMAR2015に見る重要技術の最前線(ポスター、デモ発表から)

2.1 酒田信親 ヒューマンインターフェース研究(ToeInput HandInput)

ポスターサマリーの紹介:複合現実感・拡張現実感に関するポスター発表

1.手術時リアルタイムでX線画像を表示する:モバイル型

 x線撮影時どの部分がどの程度被爆しているかも可視化して表示する

2.遠隔強調作業

物理的にはなれた二点間のコミュニケーションサービス
電話 ビデオ通話 メール
現場の非専門家、ロボットなどにエキスパートが指示(ジェスチャー、指差しなど)、操作を行う、AR表示などを利用

3.Remote Mixed Reality System Supporting Interactions with Virtualized Objects

 HDMを付けた離れた場所の二人が作業時コミュニケーションを取る、
 目の前に遠くにいる人がいるように見える、仮想的に出現させる、物体も表示させる
 物体を物体が無い側から操作してどのように動かすかの指示も可能

4.InteractiveVisualise

 グーグルグラスのようなヘッドウォームディスプレイ
 提示している表示方法(指示はある物体を一定の方向にうごかすというもの)
1−Optimize最小距離表示、軸と回す方向を表示:少し動かすとぶれる
2−アニメーション表示:アニメーションの最初と最後を覚えて正しくまわせない
3−オイラー角表示(正しい方向にうごかすと→がどんどん短くなる
4−2点ここまでまわせという表示をする
補足:ペーパーとポスターの違い
(ロング、ショート)ペーパー:論文
ポスター:こちらから論文へあがる


2.2 杉本麻樹:慶応情報工

光センサーでのリアルタイム計測、光センサーを入れ籠んだクッションをタッチセンサーとして触っている場所を計測

1.陰消現実感(Diminished Rearity)

現実の情報を消す、HDMでリアルタイムに消し去る
例:ぬいぐるみを消す、動いている歩行者を消し去る(移動部分をマスク画像として生成)

2.Local Feometric Consensus

紙の上の点群からトラッキング(特徴点から見つける)
映像に隠し情報を埋め込んでトラッキング

3.AR 3D Positioning Technique for HandheldAugmentedReality


残念ながら理解が及ばなかったので後日論文を確認予定

4.Instant Reach

自分の手がのびるかのようなインタラクションのAR



あまりに内容が濃いので前後編になっています

PR