技術セミナー・研修・出版・書籍・通信教育・eラーニング・講師派遣の テックセミナー ジェーピー

Azure Kinectと距離画像センサの測距原理、3Dセンサの応用

Azure Kinectと距離画像センサの測距原理、3Dセンサの応用

~Azure Kinect (Kinect v4) のTime of Flight方式、RealSense (D415, D435, SR305) のStructured Light方式、LiDAR等、非接触生体センシングの原理とその応用まで~
東京都 開催 会場 開催 デモ付き

概要

本セミナーでは距離画像センサとカラーカメラを組み込んだ3Dセンサの基本機能、ソフトウェアで実現できる応用事例をデモを通して紹介するとともに、方式別に測距原理の説明を行い、非接触生体センシングを中心とする応用とその原理について解説を行います。また、Shannonのチャンネル容量の法則を利用した増感処理やマッチング処理の原理や応用についても紹介いたします。

開催日

  • 2020年6月18日(木) 10時00分 17時00分

プログラム

 Azure Kinect (Kinect v4) が2019年7月に北米・中国で発売開始され、デプスカメラの視野角もWFoVモードで120度、解像度は1024×1024画素となった。SDKはオープンソースであり、C言語ベースのDLL、C++ラッパー、C#ラッパーを備える。
 360°マイクロフォンアレイの他、3軸加速度・ジャイロセンサも備える。これまでのゲーム機用モーションキャプチャセンサではなく、工業用、健康見守りなどの本格的な応用を視野に入れたものとなっている。近年、自動車分野では、自動運転化を実現するための探索センサとしてだけでなく、搭乗者の健康状態モニタやユーザーインターフェースとしても、距離画像センサを組み込んだ3Dセンサにも関心が集まっている。また、世界的な先進国少子高齢化を踏まえ、2025年開催予定の大阪万博のテーマは『健康と医療』に決まり、病院または老人ホームだけでなく、独居老人見守り・看取りやスマートホームとしてのシステムに対する関心も高い。
 本セミナーでは距離画像センサとカラーカメラを組み込んだ3Dセンサの基本機能、ソフトウェアで実現できる応用事例をデモを通して紹介するとともに、方式別に測距原理の説明を行い、非接触生体センシングを中心とする応用とその原理について解説を行う。また、Shannonのチャンネル容量の法則を利用した増感処理やマッチング処理の原理や応用についても触れる。

第1章 『Azure Kinect (Kinect v4) の概要』

【イントロダクション編】

2019年7月から北米・中国で発売されたAzure Kinectの概要をデモを行いながら紹介します。

  1. 3Dセンサとは?
    1. 画素単位に測距を行う機能を有するイメージデバイス
    2. デプスカメラの応用分野
    3. 主な低価格市販デプスカメラ
  2. Azure Kinect (Kinect v4) の概要
    1. Azure Kinect vs. Kinect v2
    2. Color (16:9/4:3のアスペクト比のMJPEGフォーマット4Kカメラ)
    3. Depth (ToF方式)
      1. NFoVモード (75°×65°) とWFoVモード (120°×120°)
      2. Unbinnedモード (短距離高解像度) と2×2 binnedモード (長距離低解像度)
      3. Passive IRモード
    4. Azure Kinectの内部構造
      1. 7個のマイクロフォンからなる360°マイクロフォンアレイ
      2. IMU:慣性測定ユニット (3軸加速度、3軸ジャイロ)
      3. 多チャンネル同期
    5. オープンソースのSDK (Windows10/Linux)
      1. C言語ベースのDLL
      2. Sensor SDK
      3. Body Tracking SDK (プレビュー)
      4. Computer Vision サービス SDK (Azure)
      5. Speech SDK (Azure)
      6. C++ラッパー
      7. C#のラッパー
    6. 稼働に必要なシステム要件

第2章 『3Dセンサの機能』

Azure KinectまたはKinect v2でデモを行いながら、3Dセンサに可能なあるいは要求される機能について説明を行います。

  1. 3Dセンサの基本機能
    1. Color…カラー映像を撮影するカメラ
    2. Depth…画素単位にデプス (奥行き距離) を取得するカメラ、距離はmm単位整数で出力するものが多い。
      1. モノクロ (256階調) 表示
      2. カラーLUT表示
      3. 光計算 (Lighting) による反射光表示、デプス⇒法線ベクトル⇒反射光画像
      4. ポイントクラウド
      5. ポリゴン表示
    3. BodyIndex…人検出 (人物のいる領域) を取得する機能
    4. Infrared…環境オフセットを除去し、照明による反射画像を取得する機能 (アクティブ赤外線)
    5. Body…骨格トラッキング (人体の姿勢を25点の関節3次元座標で取得、手のグー、チョキ、パー検出)
    6. Audio…音声データ (音源方向検出とビームフォーミング、音声認識に利用)
  2. 3Dセンサの拡張機能
    1. Face…5つ (両眼、鼻、口角) の特徴点の3次元座標と数種類の表情や状態を検出
    2. HD Face…2,000点の顔モデルと多数の特徴点のキャプチャ
    3. Kinect Fusion…3Dスキャナ
  3. ソフトウェアで実現可能な拡張機能
    1. AfterImage…骨格トラッキングされた関節の軌跡 (残像)
    2. BodyBalance…平衡感覚の老化測定を行う
    3. AR Sensing…1チャンネルのセンサで空間に分布状態を可視化
    4. Acceleration…非接触3軸加速度センシング、関節3次元座標{ x (t) , y (t) , z (t) }を要素ごとに放物線近似。O (t) = a*t*t + b*t + c とすれば、時刻t=0の加速度は2a, 速度はb
    5. PointCloud…床法線ベクトルの検出。点群データの活用により観察方向を任意変更。沈水、転倒、うずくまり、横たわり。
    6. Face3D…3次元顔認証 (顔の3次元形状の切り出し)
    7. Body3D…実測デプス値に基づいて3D Bodyポリゴンモデルをフィッティング。体重参照があれば非接触体脂肪率測定が行える。
    8. HandGesture…NUI (Natural User Interface) 。Air Tap, Bloom
    9. Cyber Eye…距離を音に変換する視覚障碍者向けデバイス
  4. 非接触バイタルセンシング…第1世代
    1. FaceHeartBeat…顔の観測 (Color or Infrared) で心拍を観測
    2. Breathing…胸部観測 (Depth) で呼吸・心拍を観測
  5. HyperSenseによる機能…第2世代
    チャンネル容量の法則を利用して高感度化。カラーカメラ画像をマルチスペクトルカメラとして取り扱う。
    1. ColorVector…色をベクトルとして精密分析
    2. ColorMap…ヘモグロビン、メラニン色素、ビリルビン、ウロビリノーゲン等の色変化を観測
    3. VesselVisualizer…血管の可視化 (BとGから真皮層の毛細血管分布を、GとRから皮下組織内の血管を可視化)
    4. Hyper_HeartBeat…脈波の2次元観測 (血流等も)
    5. BumpVisualizer…指紋・掌紋の可視化
  6. 3Dセンサ応用
    1. EyeTracking…瞳孔輪郭を検出し、視線ベクトルを算出
    2. RobotEyeContact…前に立った人を見つめるロボット制御
    3. VirtualMusicalInstrument…仮想楽器
    4. HomeControl…家電制御
  7. 付録…PC間通信、ToFセンサの特性
    1. WebSocket…サーバー⇔クライアント
    2. UDP…一方的送信
    3. DepthPrecision…ToFデプス精度の検証

第3章 『3Dセンサの動作原理』

  1. 光源と観測位置の座標の違いを利用する (光三角法)
    1. 光切断法
    2. モアレ法
    3. Structured Light法
      1. Structured Light固定パターン投影法
        • ランダムドットパターンを用いた相関方法 (KinectV1, Carmine)
        • 高速高分解能カメラで各ドットを追尾するHyper Depth
      2. Structured Light時分割パターン法
  2. 光パルスの往復時間または位相遅れを利用する (Time of Flight)
    1. 地球から月面までの距離を精密測定するのに使われたLiDAR (カウンタ方式)
    2. ToF方式 (位相遅れを測定する)
      1. 単純2値の位相差を用いる方式
      2. 3パターン測定法 (照明指向性、吸光度、法線ベクトルの影響を補正する方法)
      3. 距離によって、照明強度とフェーズを変更する方式
      4. マルチフェーズで高精度補正を行う方式
    3. LiDAR (Light Detection and Ranging) [Laser Imaging Detection and Ranging]
      1. メカニカルスキャン法
      2. メカニカルスキャン法の欠点
      3. 高速・低価格な非メカニカルスキャン法 Multi-beams LiDAR
  3. 拡散反射光の性質を利用する (Infrared Depth)
  4. カメラ位置の違いから特徴点/テクスチャのマッチングを利用
    1. PTAM (Parallel Tracking and Mapping)
    2. SLAM (Simultaneous Localization and Mapping)
      • 自己位置推定と環境地図作成を同時に行う
    3. マルチカメラ
    4. 自己位置推定用シートマーカーを用いる方法 (Qlone)
  5. ステレオ・マッチング
  6. 機械学習から静止画から3D顔モデルを再構成する
  7. Make3D (視覚処理の模倣)
  8. カラー開口フィルタ (東芝)
  9. Hyper Depth
    • Structured Light法とToF法の比較により、ToFカメラの欠点を説明

第4章 『HyperSense方式の動作原理』

特殊なカメラを使用せずに、デプスセンシングと非接触生体センシングを行う方式の提案 (CQ出版インターフェース誌5月号記事に関連)

  1. CMOSイメージセンサについて
  2. C.E.Shannonのチャンネル容量の法則
    • メガ級センサ・アレイで、超高感度を実現する
  3. チャンネル容量の法則の適用例
    • JPEG圧縮に伴うブロックノイズやモスキートノイズも抑制する。高感度化アルゴリズムとその結果。
  4. 波長による透過深度 (表皮深さ) の違いを利用する
    • 通常のカメラをマルチスペクトルカメラととらえ、波長間の僅かな違いを可視化する抽出アルゴリズムと事例紹介
  5. 色ベクトルとメラニン色素
  6. 単眼3Dセンシング
  7. 単眼3Dセンシングの問題点
  8. ステレオ3Dセンシング
  9. まとめ

第5章 『非接触バイタルセンシング』

【心拍・呼吸に関する基礎知識】

  1. 心臓の構造と心電図
  2. 呼吸動作と酸素供給の関係
  3. 呼吸と心拍揺らぎの関係
  4. 入浴中の心拍揺らぎと年齢
  5. 脈波から何がわかるのか
    1. 加速度脈波と血管年齢 (動脈硬化)
    2. 大動脈脈波伝搬速度
    3. 2波長観測でSpO2 (動脈血中のヘモグロビンの酸素濃度)
    4. 脈波伝搬遅延と血圧
      【心拍・呼吸センシングの原理】
  6. カラー画像または赤外線画像からの心拍センシング
  7. デプスデータからの呼吸・心拍センシング
  8. KinectV1での非接触呼吸・心拍センシング
  9. スポット光方式
    • 反射光強度分布を放物面関数で近似して精密測距
  10. マーカー方式
    • 濃度分布関数または円形マーカーを用いた精密測距

以下はテキストに含まれますが時間の関係で割愛します。

第6章 『アルゴリズムの原理』

  1. FIFOアルゴリズム
    1. FIFO
    2. 高速移動平均
    3. 矩形波相関法
  2. 基底遷移アルゴリズム
    1. 放物線補間と3軸加速度検出やノイズ除去
    2. 放物面補間 (輝度分布中心の推定)
    3. 線スペクトルとDCオフセットノイズ除去
    4. 適応フィルタ
    5. デコンボリューション (逆畳み込み演算)
    6. 2次元ポイントクラウド⇒円の中心座標⇒半径
    7. 3次元ポイントクラウド⇒円の中心座標⇒半径
    8. 3次元ポイントクラウド⇒球の中心座標⇒半径
  3. 最小2乗法
    1. 放物線補間
    2. 放物面補間
    3. 2Dデータのマッチング
    4. 1Dデータのマッチング

第7章 『3次元グラフィックスの基礎知識』

  • 3D-CGモデル
  • ポリゴン描画
  • 透視変換と光源計算
  • Kinect Fusionと光源計算
  • 光源計算
  • Bone
  • Boneと物理演算

第8章 『付録』

  • 【付録1】 赤外線ハンドモーションセンサ
  • 【付録2】 カメラで回転角度を検出する方法
  • 【付録3】 Webカメラで心拍センシング
  • Appendix D 『Mixed RealityとHololens』
  • Appendix E 『Leap Motion』

講師

  • 上田 智章
    株式会社フォスメガ
    代表取締役社長

会場

株式会社オーム社 オームセミナー室
東京都 千代田区 神田錦町3-1
株式会社オーム社 オームセミナー室の地図

主催

お支払い方法、キャンセルの可否は、必ずお申し込み前にご確認をお願いいたします。

お問い合わせ

本セミナーに関するお問い合わせは tech-seminar.jpのお問い合わせからお願いいたします。
(主催者への直接のお問い合わせはご遠慮くださいませ。)

受講料

1名様
: 47,000円 (税別) / 51,700円 (税込)
1口
: 59,000円 (税別) / 64,900円 (税込) (3名まで受講可)
本セミナーは終了いたしました。

関連する出版物

発行年月
2013/6/1 画像診断機器(磁気共鳴) 技術開発実態分析調査報告書
2013/6/1 画像診断機器(磁気共鳴) 技術開発実態分析調査報告書 (CD-ROM版)
2013/3/29 3次元物体認識手法とその応用 (カラー版)
2013/1/30 圧力センサ 技術開発実態分析調査報告書
2013/1/30 圧力センサ 技術開発実態分析調査報告書 (CD-ROM版)
2012/10/25 電子写真装置の定着技術 技術開発実態分析調査報告書 (CD-ROM版)
2012/10/25 電子写真装置の定着技術 技術開発実態分析調査報告書
2012/6/20 画像復元・超解像技術の基礎と応用
2012/4/20 デジカメ主要8社の静止画信号処理技術 技術開発実態分析調査報告書 (CD-ROM版)
2012/4/20 デジカメ主要8社の静止画信号処理技術 技術開発実態分析調査報告書
2011/2/4 入門 画質改善・画像復元・超解像技術
2010/11/15 防犯・監視カメラ 技術開発実態分析調査報告書
2010/11/10 高ダイナミックレンジ画像処理技術とMATLABシミュレーション
2010/9/24 JPEG XR画像符号化方式と性能評価
2010/2/22 画像理解・パターン認識の基礎と応用
2009/9/16 H.264 / MPEG-4 AVC 拡張規格・応用例・最新動向
2009/4/22 MEMSデバイス総論 【新装版】
2008/3/26 劣化画像の復元・ノイズ除去による高画質化
2007/8/31 画像認識・理解システム構築のための画像処理の基礎
2007/5/28 車載カメラ/セキュリティカメラ・システム