技術セミナー・研修・出版・書籍・通信教育・eラーニング・講師派遣の テックセミナー ジェーピー

センサフュージョン技術の開発と応用事例

センサフュージョン技術の開発と応用事例

~自動運転車、協働ロボットへ向けて~

目次

第1章 視認性、検出精度向上につながる カメラ、画像処理技術の開発

第1節 視覚特性を考慮したハイダイナミックレンジ画像の表示手法
  • 1.眼の構造と視細胞の働き
    • 1.1 眼の構造
    • 1.2 視細胞の働き
  • 2.視覚特性
    • 2.1 光受容体の応答
    • 2.2 明るさへの順応
    • 2.3 色への順応
    • 2.4 波長弁別閾
  • 3.視覚特性モデルを取り入れた表示手法
    • 3.1 輝度幅に着目したトーンリプロダクション手法
    • 3.2 色の見え方の変化を考慮したトーンリプロダクション手法
    • 3.3 全輝度領域に対応したトーンリプロダクション手法
    • 3.4 その他の視覚効果を表現する表示モデル
第2節 確率的信号処理にもとづく劣化画像の復元および鮮明化
  • 1.画像モデル
    • 1.1 原画像モデル
    • 1.2 劣化画像モデル
    • 1.3 劣化システムの点広がり関数
  • 2.パラメータ推定
  • 3.具体例
第3節 超解像によるぼけによって劣化した画像の復元技術
  • 1.超解像技術の概要
    • 1.1 劣化変動に頑健な事例ベース型超解像の概要
    • 1.2 劣化変動に頑健な事例ベース型超解像を用いた実用例
第4節 車載用遠赤外線カメラシステムの開発
  • 1.FIRカメラシステム開発課題
    • 1.1 FIRカメラ、可視カメラシステム比較
    • 1.2 センサー方式によるノイズ影響
    • 1.3 センサー温度の影響
    • 1.4 内部輻射による影響
  • 2.車載用途開発
    • 2.1 車両熱による影響
    • 2.2 飛来物対策
    • 2.3 寒冷地対策
  • 3.車載用認識システム開発
    • 3.1 画像認識性能向上
第5節 高速ビジョンシステムの開発とセンシング用途への応用
  • 1.高速ビジョンハードウェア
    • 1.1 ビジョンチップ
    • 1.2 FPGA・GPUによる高速画像処理
    • 1.3 高速ビジョンアルゴリズム
  • 2.高速トラッキングシステム
    • 2.1 アクティブビジョン
    • 2.2 マルチスレッドアクティブビジョン
  • 3.高速ビジョン応用
    • 3.1 ロボット制御への応用
    • 3.2 ヒューマンインターフェイス応用
    • 3.3 医療・バイオ応用
    • 3.4 高速移動体撮影
    • 3.5 振動分布計測
    • 3.6 マイクロ応用
第6節 低照度映像における動体検知のため輝度補正法
  • 1.関連研究
  • 2.低照度映像を対象としたフレーム間差分処理
    • 2.1 ガンマ補正
    • 2.2 ノイズ除去
    • 2.3 動体候補の決定
  • 3.実験
  • 4.OpenCVによる実装
第7節 量子レーダカメラの仕組みと応用展望
  • 1.既存のステレオカメラやLIDARの限界
  • 2.量子レーダカメラとは何か
    • 2.1 量子情報科学の発展
    • 2.2 量子相関センサ
    • 2.3 相関関数イメージング
  • 3.相関関数イメージングの基本原理
    • 3.1 基本原理
  • 4.量子レーダカメラの要素技術
  • 5.量子レーダカメラのための基礎理論
    • 5.1 光源について
    • 5.2 動的な大気と霧による光波の擾乱の理論
第8節 パーティクルフィルタを用いた移動物体の追跡
  • 1.パーティクルフィルタ
  • 2.パーティクルフィルタを用いた移動物体追跡
    • 2.1 状態ベクトルとその初期化
    • 2.2 状況判定
    • 2.3 測定
    • 2.4 尤度計算
      • 2.4.1 色に関する尤度
      • 2.4.2 速度に関する尤度
      • 2.4.3 他物体との距離に関する尤度
      • 2.4.4 確率的背景モデルより得られる尤度
    • 2.5 フィルタ
  • 3.実験

第2章 カメラを用いたセンシング技術

第1節 カラー開口撮像技術-単眼カメラによる距離計測技術
  • 1.コンピュテーショナルフォトグラフィ
  • 2.カラー開口撮像技術
    • 2.1 カラー開口撮像モデル
    • 2.2 ぼけ補正による距離推定
    • 2.3 距離画像のリファイン
    • 2.4 ぼけ補正による色ずれ補正
    • 2.5 精度評価実験
第2節 単眼カメラによる広域屋内環境センシング技術
  • 1.背景
  • 2.関連研究
  • 3.意味的シーン認識技術
  • 4.評価条件
    • 4.1 実験環境と使用MAV
    • 4.2 データセット
  • 5.実験結果
    • 5.1 3次元地図構造築結果
    • 5.2 パラメータ最適化
    • 5.3 カテゴリマップの形成結果
    • 5.4 認識結果
    • 5.5 カテゴリ境界の抽出結果
    • 5.6 混同対照マトリクス
第3節 周辺監視カメラを用いた運転支援システムの開発と道路環境認識
  • 1.周辺監視カメラ応用システムの製品化経緯
  • 2.周辺監視カメラで実現可能な周辺環境認識応用機能
    • 2.1 路面描画認識応用機能
    • 2.2 移動体認識応用機能
    • 2.3 静止物認識応用機能
  • 3.各機能実現に必要な技術
    • 3.1 路面描画認識技術
    • 3.2 移動体認識技術
    • 3.3 静止物認識技術
    • 3.4 センサフュージョン
    • 3.5 その他の必要技術
  • 4.周辺監視カメラシステムの将来動向
第4節 3次元点群からのエッジ抽出とその能力
  • 1.3次元点群からの特徴抽出法
  • 1.1 主成分分析法
  • 1.2 法線差分法
  • 1.3 曲率法
  • 1.4 相対勾配法
  • 1.5 ND-PCA
  • 2. エッジ抽出能力とその特性
    • 2.1 シミュレーションモデルの処理結果
    • 2.2 実測データの処理結果
第5節 3次元ビジョンセンサによる物体認識技術とロボットマニピュレーションへの応用
  • 1.3次元ビジョンセンサ
  • 1.1 3次元ビジョンセンサの概要
  • 1.2 3次元ビジョンセンサのデータ形式
  • 2.3次元ビジョンセンサによる物体認識技術
  • 2.1 特徴量設計に基づく物体認識技術
    • 2.1.1 3次元特徴に基づく物体姿勢推定
    • 2.1.2 2次元特徴に基づく物体識別
  • 2.2 深層学習に基づく物体認識技術
    • 2.2.1 深層学習に基づく多品種物体の識別
    • 2.2.2 深層学習に基づく物体姿勢推定
  • 3.応用事例:物流倉庫における多品種商品のピッキング
第6節 高性能な画像認識システムへ向けた特徴量抽出
  • 1.特徴量の概要
  • 2.SIFT特徴量とその高性能化
    • 2.1 SIFT特徴量の概要
    • 2.2 SIFT特徴量の高性能化
    • 2.3 性能改善効果
      • 2.3.1 極値検出の精度
      • 2.3.2 特徴点の検出数
      • 2.3.3 特徴点の再現性
      • 2.3.4 画像照合への応用
  • 3.LBP特徴量とその高性能化
    • 3.1 LBP特徴量の概要
    • 3.2 LBP特徴量の高性能化
      • 3.2.1 回転不変性の導入
      • 3.2.2 2次微分の導入
    • 3.3 性能改善効果
      • 3.3.1 テクスチャの識別精度
      • 3.3.2 画像分類の精度
    • 3.4 シーン検出への応用
第7節 ビデオ動画像からの3次元動画像センサーの作成
  • 1.提案技術の基礎となっている視覚の現象
  • 2.提案手法の応用
    • 2.1 車の自動運転への応用
    • 2.2 ロボットへの応用
    • 2.3 Visual SLAM やスマート・シティへの応用
    • 2.4 3次元スマホやカメラへの適用

第3章 レーダーを用いたセンシング技術

第1節 小型イメージングLiDARとその応用
  • 1.SPAD LiDAR
    • 1.1 概要
    • 1.2 出力データ
  • 2.自律移動技術への応用
    • 2.1 想定場面
    • 2.2 Imitation Learningによる位置推定
    • 2.3 Semantic Segmentationによる認識処理
第2節 レーザスキャナによる移動物体認識技術
  • 1.レーザスキャナによる周辺環境計測
  • 2.移動物体検出
  • 3.移動物体追跡
  • 4.危険挙動検出
  • 5.協調型移動物体追跡
第3節 超広帯域 (UWB) レーダを用いた近距離センシング技術
  • 1.共焦点法に基づく画像化解析
    • 1.1 画像化原理
    • 1.2 数値計算例
  • 2.境界抽出法に基づく画像化解析
    • 2.1 IBST及びEnvelope法
    • 2.2 RPM法
    • 2.3 数値計算による各手法の特性評価
  • 3.多重散乱波とRPM法の融合による影領域画像化:
    • 3.1 画像化原理
    • 3.2 数値計算例
第4節 空中超音波による周囲環境のセンシング技術
  • 1.超音波によるセンシングの特徴とSN比向上手法
  • 2.室内における物体の検出
  • 3.室内環境の画像化
  • 4.路面の画像化と画像の特徴
第5節 合成開口レーダの処理原理とリモートセンシングへの応用
  • 1.SARの観測と信号処理
    • 1.1 レンジ相関
    • 1.2 アジマス相関
  • 2.処理の流れ
  • 3.位置決定技術
  • 4.リモートセンシングへの応用

第4章 慣性センサの開発と応用

第1節 車載向け高信頼MEMS慣性センサの開発
  • 1.MEMS加速度センサの動作原理
  • 2.加速度センサの雑音
  • 3.チョッパ方式の提案と信号処理LSIへの適応
  • 4.試作および評価結果
第2節 PZT薄膜を用いたジャイロスコープの開発と特性
  • 1.リング型振動子と動作原理
    • 1.1 振動子の形状と電極配置
    • 1.2 動作原理
  • 2.構造・プロセス
    • 2.1 前半工程 (ウェハ工程)
    • 2.2 後半工程 (分極~パッケージ封止工程)
  • 3.信号処理回路
  • 4.ジャイロスコープ性能
    • 4.1 角速度出力性能
    • 4.2 耐振動性能
第3節 MEMS振動型ジャイロスコープの動作原理と最近の動向
  • 1.MEMS 振動ジャイロスコープの動作原理
    • 1.1 2 自由度振動子の運動方程式
    • 1.2 熱機械ノイズ
    • 1.3 振幅変調型ジャイロスコープ
    • 1.4 フォースリバランス型ジャイロスコープ
    • 1.5 周波数変調型ジャイロスコープ
    • 1.6 積分型ジャイロスコープ
  • 2.MEMS ジャイロスコープの実際
    • 2.1 理想的ではない実際のジャイロスコープにおける問題と対策
    • 2.2 先進的なMEMS ジャイロスコープ
      • 2.2.1 モードマッチ・フォースリバランス型ジャイロスコープ

第5章 協働ロボット実現へ向けた触覚センサの開発と応用事例

第1節 光学式接触・力覚複合触覚センサを用いた把持物体の状態推定
  • 1.カメラを用いた触覚センサ
  • 2.ハンド内物体位置・姿勢計測と力計測のための触覚センサ
    • 2.1 センサ構造
    • 2.2 ハンド内物体位置・姿勢計測
    • 2.3 力計測
  • 3.ボルト挿入および仮締め作業への応用
    • 3.1 システム構成
    • 3.2 実行手順
    • 3.3 実験結果
第2節 ヒューマノイド・ハンド搭載用三軸触覚センサの開発
  • 1.三軸触覚センサが必要とされる理由
  • 2.光導波型三軸触覚センサの原理
    • 2.1 光動波形触覚センサの原理
    • 2.2 触子型三軸触覚センサ
    • 2.3 皮膚ゴムずれ型三軸触覚センサ
  • 3.触子形三軸触覚センサの開発
    • 3.1 センサ構造
    • 3.2 センシング特性
    • 3.3 紙めくり作業への応用
  • 4.ヒトの指型三軸触覚センサ
    • 4.1 センサ構造
    • 4.2 皮膚ゴムの硬さと検出特性の関係
    • 4.3 重心移動量とせん断力の関係の定式化
第3節 人間共存型ロボットに向けたMEMS-LSI集積化センサネットワークの構築
  • 1.触覚センサネットワークの分類
    • 1.1 1対1による配線方式
    • 1.2 マトリックス配線方式
    • 1.3 シリアルバス配線方式
    • 1.4 無線方式
  • 2.生体の触覚ネットワークシステム
  • 3.MEMSとLSIによるイベントドリブン型触覚センサネットワークシステム
第4節 ロボット全体を覆う近接覚・触覚皮膚センサの開発
  • 1.原理
  • 2.試作したセンサ
  • 3.試作したセンサによる近接・接触測定
  • 4.近接覚・触覚皮膚センサを用いたロボットの操作法
第5節 複数の力覚系・触覚系センサの統合と介護補助ロボットへの実装
  • 1.我々の開発した力覚系・触覚系センサを有する介護支援ロボット
  • 2.ROBEARの特徴と仕様
    • 2.1 基本仕様
    • 2.2 装備している力覚系・触覚系センサの特徴
  • 3.実現した移乗介助動作

第6章 センシング、機械学習を支える半導体デバイスの開発と応用

第1節 近似計算の採用による画像処理の低消費電力化
  • 1.画像鮮鋭化処理
  • 2.論理回路レベルでの近似化
    • 2.1 加算演算器の近似化
  • 3.アルゴリズムレベルの近似化
    • 3.1 ガウシアンカーネルの近似化
  • 4.評価環境
  • 5.結果
第2節 PCとFPGAが混在するクラスタシステムの開発と画像処理回路への応用
  • 1.PC-FPGA複合クラスタ
    • 1.1 PC-FPGA複合クラスタ
    • 1.2 関連研究
  • 2.PC-FPGA複合クラスタの構成例
    • 2.1 FPGA回路
    • 2.2 通信方式
    • 2.3 アプリケーション回路
    • 2.4 画像処理回路
    • 2.5 PCソフトウェア
  • 3. 実験と考察
第3節 畳込みニューラルネットワークのFPGA実装について
  • 1.関連研究
    • 2.2のべき乗重みネットワークのFPGA実装
    • 2.1 ハードウェア化の方針
    • 2.2 2のべき乗近似およびプルーニング処理
    • 2.3 ニューロン回路部の小型化
    • 2.4 システムの概要
  • 3.評価
    • 3.1 評価方法
    • 3.2 評価結果
第4節 表題:FPGAによる物体追跡用パーティクルフィルタの実装
  • 1.アルゴリズム
    • 1.1 パーティクルフィルタ
    • 1.2 FOリサンプリング
  • 2.アーキテクチャ
    • 2.1 FPGAにおけるストリーム処理アーキテクチャ
    • 2.2 同期領域
    • 2.3 基本アーキテクチャの構成と動作
  • 3.基本アーキテクチャの実装と評価
    • 3.1 ハードウェア評価
    • 3.2 追跡精度評価
  • 4.設計空間探索
    • 4.1 評価対象アーキテクチャ
      • 4.1.1 逐次状態更新型アーキテクチャ
      • 4.1.2 5倍速クロックBRAM型アーキテクチャ
      • 4.1.3 5倍速クロックLUT型アーキテクチャ
    • 4.2 資源使用量と性能の比較
    • 4.3 消費電力の比較
    • 4.4. ソフトウェア実行との性能比較
  • 5.まとめ
第5節 GPUを用いた画像処理の高速化と自動車安全システムへの応用
  • 1.画像処理を高速化するには
    • 1.1 並列化に基づく高速化
  • 2 画像処理の並列化に対するGPUの適用
    • 2.1 GPUの構造と並列化への親和性
    • 2.2 画像処理の並列化パターン
      • 2.2.1 入力データと出力データが1対1の並列化
      • 2.2.2 出力データの生成にデータの統合を要する並列化
  • 3.ハードウェアの組み合わせによる様々な並列化
    • 3.1 複数のGPUを用いた並列性の向上
    • 3.2 複数のGPU,複数の計算機システムを用いた並列性の向上
    • 3.3 組込みシステム向けGPUを用いた画像処理
  • 4 GPUを用いた画像処理の性能
    • 4.1 単一の計算機による画像処理性能
    • 4.2 複数の計算機システム,組込みシステム向けGPUを用いた画像処理性能
  • 5.総括および自動車安全システムへの応用

第7章 センサフュージョン技術の開発

第1節 パーティクルフィルタを用いたセンサデータの統合と推定技術
  • 1.パーティクルフィルタのアルゴリズムと特徴
  • 2.点推定
  • 3.複数のセンサデータの統合
第2節 可視カメラと塩赤外カメラの同時校正技術
  • 1.背景
  • 2.可視及び遠赤外カメラの高精度同時校正技術
    • 2.1 可視カメラ及び遠赤外の同時校正に関する関連研究
    • 2.2 可視及び塩赤外カメラの高精度同時校正の概要
    • 2.3 カメラ校正の精度
    • 2.4 画像処理への応用例
  • 3.可視 ・遠赤外 同軸カメラの開発とその応用
    • 3.1 防塵性を考慮した可視・遠赤外同軸カメラシステム
    • 3.2 ジオラマ装置を用いた撮影
第3節 カメラと3DLiDARのセンサフュージョンによる歩行者認識技術
  • 1.キャリブレーション
    • 1.1 カメラパラメータとレンズ歪係数推定
    • 1.2 センサ間のキャリブレーション
  • 2.歩行者認識アルゴリズム
    • 2.1 路面推定
    • 2.2 候補抽出
    • 2.3 識別
    • 2.4 追跡
  • 3.性能評価
    • 3.1 識別器の構築
    • 3.2 評価方法
    • 3.3 認識性能評価
    • 3.4 処理時間計測
第4節 GNSSと他センサを融合した都市部高精度測位
  • 1.GNSSと他センサの統合手法
    • 1.1 ルーズカップリング
    • 1.2 タイトカップリング
    • 1.3 ウルトラタイトカップリング
  • 2.各種センサのデータ
    • 2.1 GNSS
    • 2.2 IMUとSPEEDセンサ
    • 2.3 カルマンフィルタを用いたGNSSとIMU/SPEEDのカップリング

第8章 自動運転、外界センシング、制御に向けたAI、ディープラーニング技術

第1節 画像認識・ディープラーニングを用いた歩行者の検出技術
  • 1.歩行者検出法の歴史
  • 2.畳み込みニューラルネットワークについて
  • 3.CNNの進化
    • 3.1 AlexNet
    • 3.2 GoogLeNet
    • 3.3 VGGNet
    • 3.4 ResNet
    • 3.5 SENet
    • 4.2段階構造による歩行者検出手法
    • 4.1 パーツベースの歩行者検出法
    • 4.2 CNN特徴量を用いた歩行者検出法
    • 4.3 カスケード構造を導入した歩行者検出法
  • 5.Region proposalベースの歩行者検出法
    • 5.1 R-CNN
    • 5.2 R-CNNベースの歩行者検出法
    • 5.3 Single shotベースの歩行者検出法
  • 6.データセット
    • 6.1 Daimler Pedestrian Benchmark Data Sets
    • 6.2 ETH Dataset
    • 6.3 Caltech Pedestrian Dataset
    • 6.4 KITTI Vision Benchmark Suite
第2節 力学系学習木 (Dynamics Learning Tree DLT) の仕組みと今後の応用展望
  • 1.人工知能技術への期待
  • 2.DLTが想定する運用環境
  • 3.Dynamics Learning Tree DLT
  • 4.DLTの応用例
第3節 自動運転のためのDNNやAdaBoostを活用した物体認識技術の開発
  • 1.AdaBoostを活用したLiDARの物体種別識別
    • 1.1 LiDARによる物体認識
    • 1.2 識別アルゴリズム概要
    • 1.3 特徴量抽出
    • 1.4 識別アルゴリズム
    • 1.5 クラス確率の算出
    • 1.6 評価試験
  • 2.Deep Neural Network (DNN) を活用した方向指示器の認識
    • 2.1 画像処理による方向指示器の認識アルゴリズム概要
      • (1) 車両認識
      • (2) 方向指示器の点灯認識
      • (3) 方向指示器の点滅認識
    • 2.2 方向指示器認識ネットワーク
    • 2.3 データセットの拡張処理
    • 2.4 評価実験
第4節 セミグループカーネルを用いた画像認識技術と高速化
  • 1.カーネル関数とランダム特徴による近似
  • 2.セミグループカーネルと交代巡回ランダム特徴による高速な近似
    • 2.1 セミグループカーネルとランダムラプラス特徴
    • 2.2 交代巡回ランダム特徴
第5節 参照点と操作対象を考慮したガウス過程に基づくロボットの動作学習
  • 1.参照点と操作対象に依存した動作学習
    • 1.1 参照点
    • 1.2 操作対象
    • 1.3 Reference-point and object dependent GP-HSMM
  • 2.RPOD-GP-HSMMに基づく行動生成
    • 1.1 基本動作の選択
    • 1.2 現在位置を考慮した動作軌道の生成
    • 1.3 力を考慮した動作の実行
  • 3.実験
    • 3.1 動作の分節化と分類結果
    • 3.2 行動生成
第6節 測域センサからの三次元情報に基づく深層学習とベイズ推定による障害物識別
  • 1.システム構成
  • 2.LiDARからの情報に基づく物体認識
    • 2.1 取得データの事前処理
    • 2.2 CNNによる障害物識別
  • 3.障害物の種類判定
    • 3.1 障害物の対応付け
    • 3.2 ベイズ推定に基づく障害物の種類判定
  • 4.検証実験
    • 4.1 実験条件
    • 4.2 実験結果
第7節 画像センシングにおける偏光情報の利用とディープラーニングを用いた路面状態認識への応用
  • 1.画像センシングにおける偏光情報の利用
    • 1.1 偏光情報を用いた画像センシング
    • 1.2 車両検出処理への応用
    • 1.3 結果
  • 2.偏光情報とディープラーニングを用いた路面状態認識
    • 2.1 機械学習を用いた路面状態認識における課題
    • 2.2 非凍結路面画像のみを利用した学習
      • 2.2.1 半教師あり異常検知の利用
      • 2.2.2 半教師あり異常検知へのディープラーニングの応用
    • 2.3 精度評価方法
    • 2.4 精度評価結果
第8節 ニューラルネットワークを用いた色情報を復元するカラーナイトビジョンシステムの開発
  • 1.四元数
    • 1.1 四元数の定義および演算規則
    • 1.2 四元数による幾何学演算
  • 2.四元数に基づくニューラルネットワークモデル
    • 2.1 ニューロンモデル
    • 2.2 階層型ネットワークと学習則
  • 3.四元数ニューラルネットワークに基づくカラーナイトビジョンシステムの構築
    • 3.1 システムの構築
    • 3.2 画像ならびに評価指標
    • 3.3 色彩情報の復元結果
第9節 ニューラルネットワークを用いた路面標識の認識技術
  • 1.画像取得と処理の流れ
  • 2.路面標識の抽出
    • 2.1 計測線画像
    • 2.2 時系列画像
    • 2.3 時空間画像
  • 3.道路標示の認識
  • 4.実験結果例
    • 4.1 オンライン実験
    • 4.2 オフライン実験について
第10節 Long-term Recurrent Convolutional Networkによる参照点に依存した動作の認識
  • 1.RPD-HMM
  • 2.LRCN
  • 3.実験
    • 3.1 データ
    • 3.2 条件
    • 3.3 結果
  • 4.考察
  • 5.結論
第11節 CNNを用いた画像認識技術と人物検出・識別への応用
  • 1.Deep Learningにおける基礎と開発動向
    • 1.1 Deep Learningの基礎
    • 1.2 Deep Learningの特徴
    • 1.3 Deep Learningの動向
  • 2.CNNによる画像認識技術
    • 2.1 CNNの活用とアーキテクチャ
    • 2.2 人物検出への応用
    • 2.3 学習データセット
    • 2.4 実行環境
    • 2.5 学習結果
      • 2.5.1 学習結果
      • 2.5.2 学習率と収束

第9章 センサフュージョンを活用した自動車への応用事例

第1節 車載カメラとレーザレーダによるセンサフュージョン技術と物体認識手法
  • 1.自動運転のための物体認識手法の特徴
    • 1.1 車載カメラ
    • 1.2 レーザレーダ
    • 1.3 センサフュージョンの意義
  • 2.センサフュージョンの分類
  • 3.各段階でのセンサフュージョン例
    • 3.1 複合型センサフュージョン例
    • 3.2 統合型センサフュージョン例
    • 3.3 融合型センサフュージョン例
    • 3.4 連合型センサフュージョン例
第2節 自動運転に向けたランドマーク地図とLiDARによる自己位置推定技術
  • 1.自己位置推定システム構成
    • 1.1 全体構成
    • 1.2 拡張カルマンフィルタ
  • 2.位置推定に使用する地図仕様
  • 3.高精度自己位置推定のためのアルゴリズム
    • 3.1 データ処理手法
    • 3.2 ランドマーク検出予測ウインドウ
    • 3.3 ランドマーク計測データの信頼度判定
    • 3.4 信頼度情報に応じたカルマンゲイン
  • 4.実験
    • 4.1 実験システム
    • 4.2 走行試験コース
  • 5.自己位置推定の精度検証
    • 5.1 自己位置推定結果
    • 5.2 前方LiDAR想定シミュレーション
  • 6.ランドマーク情報の更新
第3節 高精度地図生成技術と準天頂衛星を組み合わせたcm級測位補強技術
  • 1.衛星測位システムとcm級測位補強技術
    • 1.1 マルチGNSSと高精度測位
    • 1.2 cm級測位補強技術の課題
  • 2.高精度地図生成技術とモービルマッピングシステム
    • 2.1 高精度3次元位置情報共通基盤構築への取組み
    • 2.2 MMSの現状と課題
第4節 お互いの車両の位置や姿勢を計測するセンサ協調技術
  • 1.車載カメラ協調による死角車両の位置計測
    • 1.1 車載カメラ間の相対位置計算
    • 1.2 カメラ画像中における死角車両の位置計算
  • 2.車載カメラ協調による死角車両の提示
    • 2.1 道路面上の点の視点変換
    • 2.2 仮想死角映像生成
  • 3.自車カメラのみを用いた死角車両の位置推定
    • 3.1 光に基づく接近情報の推定
    • 3.2 衝突時間
    • 3.3 輝度に基づく衝突時間の推定
  • 4.霧中における死角車両の位置推定
    • 4.1 散乱媒体における光の減衰
    • 4.2 散乱媒体中での衝突時間の推定
第5節 白線形状と軌跡の推定に基づいた自動車の自己位置推定技術
  • 1.自己位置推定と高精度地図
  • 2.座標系の設定
  • 3.曖昧さを含む白線形状の観測モデル
    • 3.1 白線種別と白線形状の関係の調査
    • 3.2 白線断面の観測方法
    • 3.3 観測誤差のモデル
  • 4.自車軌跡の推定法
    • 4.1 白線の観測による誤差モデル
    • 4.2 オドメトリによる誤差モデル
    • 4.3 軌跡の誤差モデル
    • 4.4 最適化の詳細
  • 5.評価結果
    • 5.1 評価環境
    • 5.2 評価真値の作成方法
    • 5.3 自己位置の評価結果
    • 5.4 演算時間の評価
第6節 道路領域検出と画像レジストレーションに基づく自車両位置推定
  • 1.自車両位置推定の課題
  • 2.画像レジストレーションに基づく自車両位置推定手法
    • 2.1 地図情報からの道路画像の作成
    • 2.2 道路領域検出,および道路領域画像の作成
    • 2.3 画像レジストレーション
  • 3.シミュレーションを用いた理論の検証
    • 3.1 シミュレーション条件
    • 3.2 シミュレーション結果
  • 4.実走行データを用いた性能評価

第10章 センサフュージョンを活用したロボットへの応用事例

第1節 天井カメラと移動ロボット搭載カメラの統合処理による移動環境地図作成技術
  • 1.関連研究とその課題
  • 2.提案手法の具体的内容
    • 2.1 不確実性への対処
    • 2.2 行動観測による環境情報解析
    • 2.3 ロボット視点映像による環境情報解析
    • 2.4 大局情報・局所情報の統合
    • 2.5 行動リスクを考慮した環境表現への展開
  • 3.実験
  • 4.考察
    • 4.1 グリッドサイズの影響
    • 4.2 行動リスクに応じた環境表現の有用性
第2節 自律型ロボットのための視覚情報処理
  • 1.生活支援ロボットによる家庭内物品操作
    • 1.1 形状モデルの定義と物体姿勢推定の基本構造
    • 1.2 幾何形状モデルを用いた画像による物体姿勢推定
    • 1.3 三次元点群を用いた物体姿勢推定
  • 2.文字情報に基づく行動選択
    • 2.1 文字情報の利用に向けた課題とアプローチ
    • 2.2 文字情報獲得のためのビジョンシステム
    • 2.3 文字列の検出
    • 2.4 小さく映り込んだ文字の検出と撮影
    • 2.5 文字情報を利用した作業への応用
  • 3.着衣の補助
    • 3.1 着衣の補助における課題とアプローチ
    • 3.2 着衣補助のアプローチ
    • 3.3 脚の形状と関節位置の推定
    • 3.4 布製品の状態認識
    • 3.5 着衣作業の実装
  • 4.無造作に置かれた布製品の識別
    • 4.1 布製品の識別に向けたアプローチ
    • 4.2 布の素材,しわ,折れ重なり情報の抽出
    • 4.3 特徴量の記述
第3節 カルマンフィルタを用いた複数ロボットの協調位置推定
  • 1.システム構成
  • 2.EKFによる位置同定
    • 2.1 状態遷移モデル
    • 2.2 観測モデル
  • 3.尤度判定による観測対象の識別
  • 4.評価試験
第4節 移動支援ロボットによるIRタグと全方位カメラを用いた利用者の追跡
  • 1.関連研究
  • 2.提案手法
  • 3.IR タグの検出・追跡
    • 3.1 イメージフィルタ部
    • 3.2 状態更新部
    • 3.3 重み更新部
    • 3.4 リサンプリング部
    • 3.5 パターン一致指標算出部
  • 4.実験
    • 4.1 IR タグの検出
    • 4.2 利用者追跡
    • 4.3 ロボットによる利用者追従
      • 4.3.1 実験に用いるロボット
      • 4.3.2 ロボットによる利用者追従の実験結果
第5節 LiDARによる計測データから生成した3D空間モデルを利用した遠隔作業支援
  • 1.従来技術
  • 2.遠隔作業空間共有システム
    • 2.1 仮想世界の構成要素
    • 2.2 仮想世界を介した遠隔作業支援の利用イメージ
  • 3.仮想世界を利用した遠隔作業支援の拡張
  • 4.仮想世界の利用により作業現場に起こる変化
第6節 歩行者流や点字ブロックのセンシングとそれを用いた自律ロボットの経路生成
  • 1.はじめに
    • 1.1 研究の目的
    • 1.2 関連研究
  • 2.点字ブロックを用いた目的地までの自律走行手法
  • 3.点字ブロックの検出手法
    • 3.1 三次元距離画像センサ
    • 3.2 ソフトウェア
      • 3.2.1 処理の概要
      • 3.2.2 DEM画像を用いた画像処理アプローチ
      • 3.2.3 警告ブロック検出器
      • 3.2.4 誘導ブロック検出器
  • 4.新宿駅内の点字ブロック検出実験
  • 5.まとめ
第7節 可動型レーザレンジファインダを搭載した不整地移動ロボットによる環境認識
  • 1.計測システム
    • 1.1 不整地移動ロボット
    • 1.2 センサ位置・姿勢制御機構
    • 1.3 三次元計測点の算出
    • 1.4 制御システム
    • 1.5 基本形状の計測
  • 2.三次元地図生成
    • 2.1 占有度ボクセルマップ
    • 2.2 フロンティアベースド探索
    • 2.3 計測フロンティアの選択
      • (1) 前方に山形状がある場合
      • (2) 前方に谷形状がある場合
  • 3.実験
    • 3.1 前方に山形状がある場合
    • 3.2 前方に谷形状がある場合
第8節 ビデオ映像情報によるマルチコプターの自律飛行制御
  • 1.従来手法と現実の操縦方法
  • 2.提案手法
  • 3.実機実験
  • 4.複数カメラ映像の結合と計測範囲の拡張
  • 5.小型マルチコプターの自律飛行制御法
  • 6.実機実験結果

執筆者

  • 鹿児島大学 三鴨 道弘
  • 龍谷大学 藤田 和弘
  • 日本電気 株式会社 柴田 剛志
  • 株式会社 JVCケンウッド 横井 暁
  • 広島大学 石井 抱
  • 会津大学 岡 嶐一
  • 湘南工科大学 三浦 康之
  • 玉川大学 広田 修
  • 愛知教育大学 福井 真二
  • 株式会社 東芝 三島 直
  • 秋田県立大学 佐藤 和人
  • 豊田工業大学 秋田 時彦
  • 防衛大学校 岩切 宗利
  • 産業技術総合研究所 堂前 幸康
  • パイオニア 株式会社 井上 俊明
  • 株式会社 豊田中央研究所 伊藤 誠悟
  • 同志社大学 橋本 雅文
  • 電気通信大学 木寺 正平
  • 東京工業大学 蜂屋 弘之
  • 東京電機大学 島田 政信
  • 株式会社 日立製作所 小埜 和夫
  • 株式会社 シリコンセンシングプロダクツ 池田 隆志
  • 東北大学 田中 秀治
  • 立命館大学 下ノ村 和弘
  • 名古屋大学 大岡 昌博
  • 東北大学 室山 真徳
  • 福岡大学 辻 聡史
  • 名城大学 向井 利春
  • 福岡大学 佐藤 寿倫
  • 岡山理科大学 小畑 正貴
  • 熊本大学 尼崎 太樹
  • 長崎大学 柴田 裕一郎
  • 九州工業大学 林 豊洋
  • 九州工業大学 西田 健
  • 東京工業大学 田中 正行
  • 株式会社 NECソリューションイノベータ 栗田 裕二
  • 東京海洋大学 久保 信明
  • 中部大学 山下 隆義
  • 岩手大学 金 天海
  • 金沢大学 米陀 佳祐
  • 東京大学 椋田 悠介
  • 大阪大学 長井 隆行
  • 千葉大学 大川 一也
  • 株式会社 リコー 笠原 亮介
  • 兵庫県立大学 礒川 悌次郎
  • 徳島大学 寺田 賢治
  • 岡山県立大学 岩橋直人
  • 株式会社 NTTPCコミュニケーションズ 石井 誉仁
  • 芝浦工業大学 伊東 敏夫
  • パイオニア 株式会社 加藤 正浩
  • 三菱電機 株式会社 瀧口 純一
  • 名古屋工業大学 佐藤 淳
  • 株式会社 デンソーアイティーラボラトリ 原 孝介
  • 東京農工大学 風間 恵介
  • 鹿児島大学 渡邊 睦
  • 信州大学 山崎 公俊
  • 株式会社 IHI 藤井正和
  • 株式会社 豊田中央研究所 小山 渚
  • 沖電気 株式会社 福島 寛之
  • 工学院大学 羽田 靖史
  • 東北工業大学 藤田豊己
  • 佐賀大学 佐藤和也

出版社

お支払い方法、返品の可否は、必ず注文前にご確認をお願いいたします。

お問い合わせ

本出版物に関するお問い合わせは tech-seminar.jpのお問い合わせからお願いいたします。
(出版社への直接のお問い合わせはご遠慮くださいませ。)

体裁・ページ数

A4判 並製本 528ページ

ISBNコード

978-4-86104-736-7

発行年月

2019年1月

販売元

tech-seminar.jp

価格

40,000円 (税別) / 44,000円 (税込)

これから開催される関連セミナー

開始日時 会場 開催方法
2024/4/4 多変量解析・データ処理 超入門 オンライン
2024/4/9 EVにおける車載機器の熱対策 オンライン
2024/4/10 Pythonによる時系列データ分析とその活用 オンライン
2024/4/12 機械学習/Deep Learningの画像データ前処理に活用できる画像フィルタリングの基本と最新動向 オンライン
2024/4/15 ディープラーニングの基礎と実践 オンライン
2024/4/15 少ないデータに対する機械学習、深層学習の適用 オンライン
2024/4/16 嗅覚センサによるニオイの計測およびその評価と解析方法 オンライン
2024/4/16 自動車のEV化とプラスチックの電磁波シールドめっき オンライン
2024/4/17 ルールベースと機械学習ベースの画像認識技術 オンライン
2024/4/18 生成AIをめぐる著作権問題の最前線 東京都 会場・オンライン
2024/4/18 水素エネルギーとモビリティ オンライン
2024/4/19 車載半導体の最新技術と今後の動向 オンライン
2024/4/19 ディープラーニングの基礎と実践 オンライン
2024/4/19 自然言語処理の基礎と生成AI・大規模言語モデルの研究開発への活用 オンライン
2024/4/22 ダイヤモンドNV量子センサの基本原理と応用・最新動向 オンライン
2024/4/22 3Dセンサの測距原理とその応用 (1) 東京都 会場
2024/4/22 競争力ある製品を生み出す「VE手法 (バリューエンジニアリング)」の基礎と実践的活用法 オンライン
2024/4/22 ホログラム技術の基礎および車載用ヘッドアップディスプレイ (HUD) への応用 オンライン
2024/4/23 自動運転車の商業化への道筋 東京都 会場・オンライン
2024/4/24 脳波計測・処理・解析・機械学習の基礎と応用および脳波データの活用方法 オンライン

関連する出版物

発行年月
2014/3/7 画像処理・画像符号化・画像評価法
2014/1/15 電動パワーステアリング 技術開発実態分析調査報告書 (CD-ROM版)
2014/1/15 電動パワーステアリング 技術開発実態分析調査報告書
2013/10/29 高効率動画像符号化方式:H.265/HEVC (High Efficiency Video Coding)
2013/10/25 車両の自動運転技術 技術開発実態分析調査報告書 (CD-ROM版)
2013/10/25 車両の自動運転技術 技術開発実態分析調査報告書
2013/9/15 カプセル内視鏡 技術開発実態分析調査報告書
2013/9/15 カプセル内視鏡 技術開発実態分析調査報告書 (CD-ROM版)
2013/9/11 新しい磁気センサとその応用
2013/8/25 電気自動車〔2013年版〕 技術開発実態分析調査報告書
2013/8/25 電気自動車〔2013年版〕 技術開発実態分析調査報告書 (CD-ROM版)
2013/8/2 HLAC特徴を用いた学習型汎用認識
2013/6/21 機械学習によるパターン識別と画像認識への応用
2013/6/1 画像診断機器(磁気共鳴) 技術開発実態分析調査報告書 (CD-ROM版)
2013/6/1 画像診断機器(磁気共鳴) 技術開発実態分析調査報告書
2013/3/29 3次元物体認識手法とその応用 (カラー版)
2013/1/30 圧力センサ 技術開発実態分析調査報告書 (CD-ROM版)
2013/1/30 圧力センサ 技術開発実態分析調査報告書
2012/10/25 電子写真装置の定着技術 技術開発実態分析調査報告書
2012/10/25 電子写真装置の定着技術 技術開発実態分析調査報告書 (CD-ROM版)