技術セミナー・研修・出版・書籍・通信教育・eラーニング・講師派遣の テックセミナー ジェーピー

車載センシング技術の開発とADAS、自動運転システムへの応用

オンデマンド版

車載センシング技術の開発とADAS、自動運転システムへの応用

目次

第1章 自動運転へ向けたIoT、人工知能の適用動向と今後の予測◇

  • 1. コンピュータがドライバになる
  • 2. なぜ自動運転に三次元地図とVehicle IoTが必須なのか?
  • 3. 10年経てば現在何もないものを生み出すICT
  • 4. テクノロジー・シンギュラリティに向けた今後の方向性
  • 5. 自動運転に利用し得るDeep Learning
  • 6. 完全自動運転 完全自動運転 (Level 4) 実現の早期化
  • 7. 今後10~20年でクルマに起こるクルマの更なる知能化と新事業開拓
  • 8. 過剰キャパシティ→シェアリングと業態の変化
  • 9. クルマ産業への期待

第2章 車載用カメラ、レーダーの開発動向と高精度、高感度化技術◇

第1節 CMOSイメージセンサの広ダイナミックレンジ化技術
  • 1. 広ダイナミックレンジ化技術の分類
    • 1.1 CMOSイメージセンサの概略とダイナミックレンジの定義
    • 1.2 CMOSイメージセンサにおける広ダイナミックレンジ化の課題
    • 1.3 広ダイナミックレンジ化技術の分類
  • 2. 各方式の原理と特徴および研究開発動向
    • 2.1 非線形応答の広ダイナミックレンジ化技術
    • 2.2 線形応答の広ダイナミックレンジ化技術
      • 2.2.1 多重露光技術
      • 2.2.2 多重露光・非破壊読出技術
      • 2.2.3 単一露光・感度の異なる複数PD技術
      • 2.2.4 単一露光・高低コンバージョンゲイン技術
      • 2.2.5 単一露光・横型オーバーフロー電荷蓄積
      • 2.2.6 高機能列回路による低ノイズ化技術
    • 2.3 非線形・線形応答の組み合わせによる広ダイナミックレンジ化技術
第2節 ライトフィールドカメラによる3次元計測技術
  • 1. 多眼ステレオによる三次元計測
    • 1.1 Lytroカメラの原理
    • 1.2 Lytroカメラと多眼ステレオの関係
    • 1.3 Raytrixカメラの原理と多眼ステレオの関係
    • 1.4 多眼ステレオとしてのLytroとRaytrixの比較
  • 2. Raytrixカメラによる三次元計測の例
第3節 非冷却赤外線イメージセンサと車載ナイトビジョンシステムの開発動向
  • 1. 非冷却赤外線イメージセンサの基礎
  • 2. 非冷却赤外線イメージセンサの開発動向
  • 3. 車載赤外線NVSシステムの開発動向と搭載状況
  • 4. 車載赤外線NVSの技術課題
第4節 遠赤外線カメラの画像処理と応答速度の改善
  • 1. 動作原理
    • 1.1 赤外線カメラへの赤外線入射光
    • 1.2 赤外線カメラの動作原理
    • 1.3 赤外線カメラの性能指標
  • 2. 画像処理によるセンサの課題の克服
    • 2.1 画像処理による高精細化 (超解像技術)
    • 2.2 画像流れ (Blur) 対策
第5節 プラズモニックメタマテリアル吸収体による波長/偏光検知非冷却赤外線センサ
  • 1. 高機能化に向けた課題と新たな光制御技術
    • 1.1 非冷却赤外線センサの基本原理
    • 1.2 プラズモニクスとメタマテリアル
  • 2. 波長選択機能:分光分析による対象物の識別
    • 2.1 2次元プラズモニック吸収体
    • 2.2 MIM型吸収体
  • 3. 偏光検知機能:識別能力の強化
    • 3.1 偏光イメージング
    • 3.2 非対称形状:楕円の導入
    • 3.3 非対称周期構造の導入
第6節 車載用76G/79GHzミリ波レーダー技術と運転支援システムへの応用
  • 1. 車周辺の障害物検知センサーの種類と特徴
    • 1.1 単眼・可視光カメラ
    • 1.2 赤外カメラ
    • 1.3 ステレオカメラ
    • 1.4 ライダー (レーザーレーダー)
    • 1.5 ミリ波レーダー
  • 2. 車載用ミリ波レーダーの周波数割り当て状況
  • 3. 車載用76/79GHzミリ波レーダーの方式
    • 3.1 距離・速度検知方式
      • 3.1.1 パルス方式
      • 3.1.2 FM-CW方式
      • 3.1.3 Fast-FM方式 (Fast Chirp Modulation方式)
      • 3.1.4 パルス圧縮方式
      • 3.1.5 2周波CW方式
      • 3.1.6 スペクトラム拡散方式
    • 3.2 方位検知方式
      • 3.2.1 メカニカルスキャン方式
      • 3.2.2 ビームスイッチ方式
      • 3.2.3 モノパルス方式
      • 3.2.4 ビームフォーミング方式
  • 4. 載用76/79GHzミリ波レーダーの構成要素
    • 4.1 ミリ波回路に使用する半導体デバイス
      • 4.1.1 GaAs HEMT
      • 4.1.2 GaAs HBT
      • 4.1.3 SiGe bi-CMOS
      • 4.1.4 CMOS
    • 4.2 ミリ波回路を構成するMMIC
      • 4.2.1 ミリ波信号発生器 (PLLシンセサイザ)
      • 4.2.2 ミリ波送信回路
      • 4.2.3 ミリ波受信回路
    • 4.3 ミリ波アンテナ
      • 4.3.1 パラボラアンテナ
      • 4.3.2 レンズアンテナ
      • 4.3.3 マイクロストリップアンテナ
      • 4.3.4 サスペンディッド線路アンテナ
      • 4.3.5 スロットアレイアンテナ
  • 5. 自動運転への適用と課題
    • 5.1 複数センサーの組み合わせ
      • 5.1.1 センサーフュージョン
      • 5.1.2 センサーネットワーク
    • 5.2 インフラ協調・車々間連携
第7節 24GHz帯周辺監視レーダの特性と車載予防安全システムの開発
  • 1.24GHz帯周辺監視レーダの概要
  • 1.1 周辺監視レーダの位置づけ
  • 1.2 車載レーダの特性比較
  • 1.3 法制化動向
  • 1.4 24GHz帯周辺監視レーダの開発
  • 1.5 レーダ計測の事例 [2] [3]
  • 1.6 開発レーダの特徴
  • 2. 予防安全システムの開発
    • 2.1 適合アプリケーション
    • 2.2 車載システムの構成
第8節 車載ミリ波レーダアンテナの設計と最適化
  • 1. 直列給電型パッチアレーアンテナ
    • 1.1 アレーアンテナの給電方式
    • 1.2 設計モデル
  • 2. 多目的最適化
    • 2.1 遺伝的アルゴリズム
    • 2.2 パレート遺伝的アルゴリズム9
  • 3. 最適化設計
    • 3.1 アンテナの電磁界解析
    • 3.2 HFSSとMATLABをリンクしたアンテナ構造の最適化プログラム
  • 4. 設計の実際
    • 4.1 シミュレータの設定
    • 4.2 設計パラメータの設定
    • 4.3 基本モデル
  • 5. 最適化
第9節 ミリ波レーダー向け電波吸収体の開発について
  • 1. 背景
  • 2. 新たなミリ波帯広帯域電波吸収体材料の検討
第10節 自動運転への応用に向けた量子レーダカメラの設計
  • 1. 量子レーダカメラのシステム
    • 1.1 概要
    • 1.2 開発の経緯
    • 1.3 量子レーダカメラの要素技術
  • 2. 量子レーダカメラのための高出力2モード・スクイズド光源に向けて
    • 2.1 2モード・スクイズド光源について
    • 2.2 スクイズド光の研究背景
    • 2.3 スクイズド光生成の実験的手法と世界動向
    • 2.4 スクイズド光生成実験の世界動向
  • 3. まとめ

第3章 車載カメラへ向けたレンズ用材料の設計と成形加工◇

第1節 環状オレフィン系樹脂の高機能化とガラス代替樹脂レンズへの展開
  • 1. アペルの特徴
    • 1.1 合成方法と構造
    • 1.2 光学物性
  • 2. アペルの用途
    • 2.1 光学銘柄
    • 2.2 ピックアップレンズ
    • 2.3 イメージセンサーレンズ
    • 2.3 車載カメラレンズ
      • 2.3.1 車載カメラレンズ市場
    • 2.4 その他光学用途への展開
第2節 耐熱樹脂を用いたハイブリッドレンズの特性と車載へ応用
  • 1. 撮像レンズに使用可能な耐熱樹脂について
    • 1.1 材料要因の透明性
    • 1.2 加工依存
    • 1.3 耐熱樹脂の透明性変化
    • 1.4 耐熱樹脂の屈折率変化
    • 1.5 耐熱透明樹脂の屈折率現状
    • 1.6 耐熱透明樹脂の物性要望
    • 1.7 耐熱透明樹脂への高硬度化要請
  • 2. 精工技研のレンズ紹介
    • 2.1 精工技研のハイブリッドレンズ
    • 2.2 精工技研のLIMレンズ
    • 2.3 小型レンズ
    • 2.4 車載向けレンズ
    • 2.5 LED用照明レンズ
    • 2.6 耐熱反射防止コート

第4章 車載カメラの画像処理技術とディープラーニングの応用◇

第1節 FPGAによる車載画像処理システム向け畳み込みニューラル・ネットワークの構築
  • 1. ニューラル・ネットワークについて
    • 1.1 なぜニューラル・ネットワークがもとめられるのか
    • 1.2 ニューラル・ネットワークの基礎
      • 1.2.1 畳み込みニューラル・ネットワークとは
      • 1.2.2 トレーニングとスコアリング
  • 2. FPGAについて
    • 2.1 FPGAの基本構成
    • 2.2 CNNの実装
    • 2.3 Open CL
    • 2.4 AlexNetのベンチマーク結果
    • 2.5 FPGAでCNNを実装する利点
  • 3. 今後の展開
第2節 GPUを用いたディープラーニング技術と自動運転への応用
  • 1. ディープラーニング
  • 2. 自動運転の画像認識へのDL応用
  • 3. GPUの性能向上及びEND TO ENDソリューション
  • 4. DRIVE PX2 DL及び自動運転・ADAS用開発プラットフォーム
  • 5. 次世代SoC Xavier
第3節 自由視点画像生成に基づく車載カメラ画像処理アルゴリズムの評価と写実的なドライブシミュレータシステムの試作
  • 1. 自由視点画像生成に基づく車載画像処理アルゴリズムの評価
    • 1.1 前処理ステージ
    • 1.2 画像合成ステージ
    • 1.3 実験結果
  • 2. 自由視点画像生成の高速化による写実性の高いドライブシミュレータシステムの構築
    • 2.1 局所平面当てはめによる簡易形状モデルの生成
    • 2.3 自由視点画像生成によるドライブシミュレータの試作

第5章 自動運転へ向けた周辺環境認識技術◇

第1節 ステレオカメラ、単眼カメラを用いた3次元計測と車載外界センシング技術
  • 1. 車載カメラを用いたセンシング技術
    • 2.3次元計測
    • 2.1 ステレオカメラ
    • 2.2 単眼カメラ
  • 3. ステレオカメラを用いた前方環境認識
    • 3.1 路面領域認識
    • 3.2 遠方車両認識
      • 3.2.1 遠方車両検知の原理
      • 3.2.2 実験結果
  • 4. 広角カメラを用いたセンシング技術と自動駐車システム
    • 4.1 自動駐車システム構成
    • 4.2 センシング機能概要
      • 4.2.1 駐車スペースの検出
      • 4.2.2 移動体検知による制動
      • 4.2.3 車両検知による出庫支援
    • 4.3 車両を用いた実験結果
第2節 レーザスキャナによる移動物体認識技術
  • 1. レーザスキャナによる周辺環境計測
  • 2. 移動物体検出
  • 3. 移動物体追跡
  • 4. 危険挙動認識
  • 5. 協調型移動物体追跡
第3節 自動運転のためのLIDARによる三次元環境計測技術
  • 1. TOF方式
    • 1.1 計測原理
    • 1.2 ブラックスポット (計測欠落点)
  • 2. LIDARから得られる情報
    • 2.1 距離情報
    • 2.2 反射強度
    • 2.3 レーザの照射パターン
    • 2.4 走行車の環境
  • 3. ポイントクラウドの処理
    • 3.1 処理の目的
    • 3.2 特徴抽出
      • 3.2.1 地面の点群の除去
      • 3.2.2 クラスタリングとバウンディングボックス
    • 3.3 対象の属性識別
      • 3.3.1 バウンディングボックスのパラメータによる判別
      • 3.3.2 特徴量に基づく照合
    • 3.4 三次元データの照合
      • 3.4.1 三次元データ照合の定式化
      • 3.4.2 ICP
      • 3.4.3 NDT
第4節 車載カメラ画像を用いた夜間の最高速度標識の認識技術
  • 1. 最高速度標識および画像データ
    • 1.1 最高速度標識
    • 1.2 撮影方法
    • 1.3 画像データの特徴
  • 2. 最高速度標識認識アルゴリズム
    • 2.1 最高速度標識の検出
      • 2.1.1 前処理
      • 2.1.2 輪郭抽出処理
      • 2.1.3 円検出処理
      • 2.1.4 白領域選定処理
    • 2.2 最高速度標識の認識
      • 2.2.1 共通領域解析処理
      • 2.2.2 特徴領域解析処理
  • 3. 実験結果および検討
    • 3.1 認識結果
    • 3.2 処理速度
第5節 車載カメラを用いた死角車両の位置計測と提示
  • 1. GNSS等に基づく死角車両の位置計測
  • 2. 車載カメラ協調による死角車両の位置計測
    • 2.1 車載カメラ間の相対位置計算
    • 2.2 カメラ画像中における死角車両の位置計算
  • 3. 自車カメラのみを用いた死角車両の位置推定
    • 3.1 光に基づく接近情報の推定
    • 3.2 衝突時間
    • 3.3 輝度に基づく衝突時間の推定
  • 4. 霧中における死角車両の位置推定
    • 4.1 散乱媒体における光の減衰
    • 4.2 散乱媒体中での衝突時間の推定
  • 5. 車載カメラ協調による死角車両の提示
    • 5.1 道路面上の点の視点変換
    • 5.2 仮想死角映像生成
  • 6. 雨滴によって発生した死角の除去
    • 6.1 複数カメラによる画像情報の補完
    • 6.2 雨滴と背景の判別
第6節 車載カメラ画像を用いた夜間路面状態の判別方法
  • 1. 路面の特性と画像特徴
  • 2. 提案法
    • 2.1 提案法の概要
    • 2.2 路面領域抽出
    • 2.3 特徴量算出
      • 2.3.1 明るさに関する特徴量
      • 2.3.2 色情報に関する特徴量
      • 2.3.3 テクスチャに関する特徴量
    • 2.4 路面状態判別
      • 2.4.1 教師データ生成 (事前処理)
      • 2.4.2 SVMを用いた路面状態判別
  • 3. パラメータ選択
    • 3.1 選定方法
    • 3.2 明るさ・色情報に関するパラメータ
      • 3.2.1 選定に用いるパラメータ
      • 3.2.2 選定結果
    • 3.3 テクスチャ特徴量に関するパラメータ
      • 3.3.1 選定に用いるパラメータ
      • 3.3.2 選定結果
  • 4. 夜間の動画像を用いた性能評価実験
    • 4.1 実験方法
    • 4.2 実験結果
    • 4.3 考察
第7節 単眼カメラ映像からの路面位置推定手法の開発
  • 1. 背景と目的
  • 2. 関連研究
  • 3. ホモグラフィ
    • 3.1 ホモグラフィ行列とホモグラフィ分解
    • 3.2 最小サンプリングセット
  • 4. 提案手法
    • 4.1 路面位置の疎推定
    • 4.2 路面位置の精密推定
  • 5. 評価実験
    • 5.1 実験結果
    • 5.2 考察
    • 5.3 実験結果の可視化
第8節 超解像処理による道路標識の認識技術と精度向上
  • 1. 超解像処理による高解像度化
    • 1.1 画像の高解像度化
    • 1.2 学習型1フレーム超解像
    • 1.3 多数決法による高周波成分の選択法
  • 2. 適切な学習低周波画像の生成
    • 2.1 縮小拡大法における復元の失敗
    • 2.2 画像劣化の度合いを考慮した学習低周波画像の生成
  • 3. 検証実験
    • 3.1 道路補助標識における実験
      • 3.1.1 実験条件
      • 3.1.2 実験結果及び考察
    • 3.2 交差点名標識における実験
      • 3.2.1 実験条件
      • 3.2.2 実験結果及び考察
第9節 魚眼ステレオ視覚システムによる全方向三次元認識と車載への応用
  • 1. 全方向視覚のシステム構成
    • 1.1 魚眼カメラ
    • 1.2 魚眼ステレオ視
  • 2. 対応点検出
    • 2.1 画像変換
    • 2.2 マッチング
  • 3. 三次元認識
    • 3.1 キャリブレーション
    • 3.2 三次元位置検出
  • 4. 車載
    • 4.1 取り付けと全方向画像
    • 4.2 全方向距離画像
    • 4.3 取り付けバリエーション
第10節 車車間通信とセンサーによる周辺車両の把握技術
  • 1. 車車間通信による周辺車両の把握技術
    • 1.1 車車間通信とは
    • 1.2 車車間通信の広がりと各国の動向
    • 1.3 車車間通信による周辺車両把握技術
  • 2. V2V-assisted Virtual Radar (V3R) – 車車間通信とセンサーによる周辺車両把握 –
    • 2.1 概要
    • 2.1 概要
    • 2.2 周囲車両の認識技術
    • 2.3 V3Rのアプローチ
    • 2.4 性能評価
第11節 ドライブレコーダーを用いた若年者の運転行動分析とその活用
  • 1. 追突事故の特徴
    • 1.1 事故類型別事故件数の推移
    • 1.2 年齢層別事故惹起傾向
    • 1.3 年齢層別追突事故惹起傾向
    • 1.4 ドライブレコーダー動画のデータ化
    • 1.5 衝突余裕度:MTC
    • 1.6 衝突危険度:DTC
    • 1.7 若年者ドライバーの追従行動
      • 1.7.1 走行データ
      • 1.7.2 DTC
      • 1.7.3 DTC 代表値におけるDTC 平均値
      • 1.7.4 DTC 代表値における車間距離平均値
      • 1.7.5 DTC 代表値における自車速度平均値
      • 1.7.6 DTC 代表値における車間時間平均値
    • 1.8 平均減速度
    • 1.9 若年者ドライバーの追従行動における特徴

第6章 車載カメラを用いた歩行者、障害物の検知技術◇

第1節 車載単眼カメラによる歩行者認識技術
  • 1. 機械学習による歩行者認識
    • 1.1 HOG特徴量
    • 1.2 勾配強度と勾配方向の計算
    • 1.3 セルのヒストグラム生成
    • 1.4 ブロックで正規化
    • 1.5 AdaBoostによる分類
      • 1.5.1 各サンプルの重みを初期化
      • 1.5.2 各弱識別器のエラー率を算出
      • 1.5.3 もっともエラー率の小さい弱識別器を選定
      • 1.5.4 選択された弱識別器の直前の学習において,不正解データの重みを増加
    • 1.6 分類器
    • 1.7 機械学習の課題
  • 2. 夜間での歩行者認識手法
    • 2.1 オプティカルフローによる移動物体の検出
    • 2.2 ヒストグラムの観察による歩行者脚部の分類
    • 2.3 局所正規化
    • 2.4 2値化
  • 3. 実験結果
第2節 車載ステレオカメラと動的背景差分による歩行者検出と認識精度向上
  • 1. 動的背景差分法の原理と処理手順
    • 1.1 無限遠点の推定
    • 1.2 背景画像の作成
    • 1.3 移動体の検出と高精度化
  • 2. 実験と考察
    • 2.1 基礎実験
    • 2.2 車載ステレオカメラによる動的背景差分法
    • 2.3 振動とカーブ走行等への対応
  • 3. まとめ
第3節 車載カメラ映像からの遠方歩行者の検出技術と精度向上
  • 1. 概要
  • 2. 関連研究
  • 3. 人物再検出
    • 3.1 定義
    • 3.2 車載カメラ映像中からの人物再検出
  • 4. 歩行者再検出の実装
    • 4.1 事前知識となる歩行者画像の取得
    • 4.2 自車による歩行者候補検出
    • 4.3 事前知識を用いたフィルタリング
  • 5. 実験・評価
    • 5.1 環境及び評価方法
    • 5.2 結果
    • 5.3 考察
  • 6. まとめ
第4節 全周囲監視カメラを用いた横断歩行者検知システムの開発と精度向上技術
  • 1. システム構成
  • 2. 歩行者検知アルゴリズム
    • 2.1 歩行者検知手順全体概要
    • 2.2 ステレオマッチングのための特徴量
    • 2.3 学習型特徴量
  • 3. 評価実験
    • 3.1. 評価用歩行者画像
    • 3.2 機械学習記述子の調整・評価
    • 3.3 実環境シーンでの歩行者検知評価
第5節 ディープラーニングを用いた歩行者検出と高精度化技術
  • 1. 歩行者検出法の歴史
  • 2. 歩行者検出のデータセット
    • 2.1 Daimler Pedestrian Benchmark Data Sets
    • 2.2 INRIA Person Dataset
    • 2.3 ETH Dataset
    • 2.4 Caltech Pedestrian Dataset
    • 2.5 KITTI Vision Benchmark Suite
  • 3. 2段階構造による歩行者検出手法
    • 3.1 前段に用いる歩行者検出法
    • 3.2 後段に用いるCNNベースの歩行者検出法
      • 3.2.1 パーツベースの歩行者検出法
      • 3.2.2 CNN特徴量を用いた歩行者検出法
      • 3.2.3 カスケード構造の歩行者検出法
      • 3.2.4 その他の歩行者検出法
  • 4. Region proposalベースの歩行者検出法
    • 4.1 R-CNNベースの手法
      • 4.1.1 Faster R-CNNを用いた歩行者検出法
      • 4.1.2 Region Proposal Networkを応用した歩行者検出法
    • 4.2 Single shotを用いた歩行者検出法
      • 4.2.1 You Only Look Once
      • 4.2.2 Single Shot MultiBox Detector
第6節 自動車の予防安全向上のための画像処理による歩行者検出システムの開発
  • 1. 研究の背景・目的
  • 2. 横断歩道検出アルゴリズムの開発
  • 3. オプティカルフローを用いた歩行者検出アルゴリズムの開発
  • 4. ミリ波レーダとのセンサ・フュージョンによる検出手法
  • 5. 歩行者衝突警報の設計例
第7節 車載カメラ画像からの歩行者の横断意図の推定
  • 1. 手法
    • 1.1 歩行者の姿勢特徴の抽出
    • 1.2 横断意図推定の確率モデル
  • 2. 評価実験
    • 2.1 実験方法
    • 2.2 実験結果
第8節 単眼カメラによる3次元復元技術と障害物検出
  • 1. カメラ座標系と移動前後の画像の関係
  • 2. 移動カメラ画像からの復元
    • 2.1 一般の場合の復元
    • 2.2 平面情報を利用した復元
  • 3. カメラの移動量の計算
    • 3.1 一般のシーンの場合
    • 3.2 射影変換行列の分解
  • 4. 障害物検出
  • 5. 実験例
    • 5.1 一般の復元と平面情報を用いた復元との比較例
    • 5.2 障害物検出例
第9節 車車間通信と障害物検出用センサによる出会い頭衝突注意喚起システム
  • 1. 出会い頭衝突注意喚起システム
  • 2. 車車間通信を用いた出会い頭衝突注意喚起システム
    • 2.1 車車間通信
    • 2.2 位置特定
    • 2.3 開発動向
  • 3. 車車間通信と障害物検出用センサを用いた出会い頭衝突注意喚起システム
    • 3.1 システム概要および研究動向
    • 3.2 システム性能の解析例
      • 3.2.1 出会い頭衝突喚起システムの想定稼動シナリオ
      • 3.2.2 車両間情報共有性能評価指標~MEVIAP~
      • 3.2.3 自車両情報を共有するICWSの車両情報共有性能―MEVIAPINDV
      • 3.2.4 センサ情報を共有するICWSの車両情報共有性能―MEVIAPODSI
      • 3.2.5 ICWSにおける情報共有性能の比較
  • 4. システム実現への課題
第10節 単眼車載カメラでの飛び出し物体検知技術
  • 1. 単眼カメラ映像からの飛び出し物検知法
    • 1.1 オプティカルフロー
    • 1.2 特徴点抽出
    • 1.3 消失点探索
      • 1.3.1 ハフ変換
      • 1.3.2 消失点に向かうオプティカルフローの削除
  • 2. 検証実験
    • 2.1 処理時間の検討
    • 2.2 サンプル映像実験結果
第11節 フロントガラスに付着した様々な形状の雨滴検出
  • 1. 従来手法
  • 2. 雨滴検出手法
    • 2.1 昼の雨滴検出
      • 2.1.1 テクスチャ解析
      • 2.1.2 エッジ強度比の算出
      • 2.1.3 雨滴候補検出
      • 2.1.4 誤検出領域の除去
    • 2.2 夜の雨滴検出
      • 2.2.1 フレーム間差分
      • 2.2.2 画像統合
      • 2.2.3 光源領域検出
      • 2.2.4 雨滴検出
  • 3. 実験結果
    • 3.1 昼の雨滴検出結果
    • 3.2 夜の雨滴検出結果

第7章 自動運転、運転支援システムへ向けた自車位置の推定技術◇

第1節 画像情報による自車位置推定
  • 1. 平面投影による自車位置推定手法
    • 1.1 人間の位置把握特性
    • 1.2 移動物体の除去
    • 1.3 画像データの作成
    • 1.4 画像情報の取得
    • 1.5 目印としての人工物の抽出
    • 1.6 画像情報の位置情報への置き換え
    • 1.7 データベースマッチング
  • 2. 実験結果
    • 2.1 実験概要
    • 2.2 画像情報の有効性結果
    • 2.3 推定データの外れ値選定
第2節 車載カメラ画像と地図の照合による自車位置推定と高精度化
  • 1. レーン認識のための自車位置推定
    • 1.1 レーン認識の課題
    • 1.2 自車位置推定によるレーン認識
    • 1.3 関連研究
  • 2. 線分検出を使ったマルチカメラ画像による自車位置の推定法
    • 2.1 座標系の設計
    • 2.2 車両の運動モデルによる予測
    • 2.3 マルチカメラ画像からの線分抽出
    • 2.4 画像中の線分の鳥瞰変換
    • 2.5 地図線分と画像線分の対応付け
    • 2.6 自車位置の補正
  • 3. 評価結果
    • 3.1 評価環境
    • 3.2 自車位置の精度評価
    • 3.3 演算時間の評価

第8章 車載カメラによるドライバモニタリング技術と運転支援への応用◇

第1節 顔画像センシングによるドライバ状態監視技術
  • 1. 顔画像センシング
    • 1.1 顔検出技術
      • 1.1.1 局所濃淡特徴量
      • 1.1.2 学習
      • 1.1.3 カスケード構造検出器
      • 1.1.4 顔検出手法の改良
    • 1.2 顔器官検出技術
      • 1.2.1 形状モデル
      • 1.2.2 回帰によるモデルフィッティング
    • 1.3 顔向き・視線検出技術
    • 1.4 目・口開閉視線検出技術
    • 1.5 その他の顔画像センシング技術
      • 1.5.1 顔認証技術
      • 1.5.2 顔属性推定技術、表情推定技術
  • 2. ドライバ状態推定
    • 2.1 ドライバ運転復帰レベル/危険度レベル
    • 2.2 ドライバ状態推定処理の入力
    • 2.3 ドライバ状態推定処理の構成
第2節 顔表情変化に基づくドライバの眠気度合推定と眠気検出技術
  • 1. 関連研究
    • 1.1 生体情報を用いる手法
    • 1.2 外界環境情報を用いた手法
    • 1.3 ドライバの顔表情情報を用いた手法
  • 2. 提案手法
    • 2.1 データセット
    • 2.2 既存特徴量の算出
    • 2.3 顔形状の歪み度合の算出
    • 2.4 特徴量選択と学習
    • 2.5 眠気の検出
      • 2.5.1 眠気レベルの推定
      • 2.5.2 眠気の遷移性の考慮
  • 3. 検出結果
    • 3.1 眠気レベルの推定結果
    • 3.2 検出精度の評価
    • 3.3 歪み特徴量の評価

第9章 車載通信システムの開発動向とセキュリティ対策◇

第1節 近距離無線を用いた交差点安全支援技術の開発
  • 1. 様々な交差点安全支援技術
    • 1.1 DSSS
    • 1.2 DSRC
    • 1.3 760MHzを使った安全運転支援
    • 1.4 車車間通信による安全運転支援
    • 1.5 ASVによる安全運転支援
    • 1.6 海外の動向
  • 2. ZigBeeを用いた交差点安全支援システム
    • 2.1 ZigBeeと他システムとの比較
      • 2.1.1 ZigBeeとDSRCとの比較
      • 2.1.2 ZigBeeとWLANとの比較
    • 2.2 実証実験
      • 2.2.1 フィージビリティテスト
      • 2.2.2交差点における実証実験
      • 2.2.3 本方式の課題
  • 3. ZigBee+920MHzを用いた交差点安全支援システム
    • 3.1 920MHzについて
    • 3.2 通信モジュール
    • 3.3 実証実験
    • 3.4 提案方式の課題
  • 4. 920MHzを用いた交差点安全支援システム
    • 4.1 システム構成図ならびに通信手順
    • 4.2 実証実験
第2節 車載データ統合アーキテクチャに基づくダイナミックマップの実装・評価
  • 1. 車載データ統合アーキテクチャ
    • 1.1 データ統合管理
    • 1.2 ストリーム処理による高速化
  • 2. ダイナミックマップ
    • 2.1 Local Dynamic Map (LDM)
    • 2.2 SIP-adusにおけるダイナミックマップ
    • 2.3 ダイナミックマップの定義
    • 2.3 アプリケーション
    • 2.4 データ処理
  • 3. 実証実験
    • 3.1システム構成
    • 3.2 ITSステーション
    • 3.3 センターITSステーション
    • 3.4 メッセージフォーマット
    • 3.5 実験結果
第3節 白色LEDを用いた可視光通信システムの高速化技術
  • 1. 照明用 (可視光) LEDについて
  • 2. LEDの変調高速化手法について
    • 2.1 変調特性改善原理
    • 2.2 OOK-NRZ変調
    • 2.3 OFDM変調技術
  • 3. 白色LEDの最速可視光通信技術について
    • 3.1 3原色型白色LEDを光源とした場合
    • 3.2 擬似白色LEDを光源とした場合
  • 4. 車内LANへの適用
第4節 LED信号機を用いた可視光通信の開発動向と雑音耐性向上
  • 1. LED交通信号機間の通信システムへの可視光通信の適用
  • 2. バイポーラ二値符号拡散変調方式を用いたLED可視光通信システム
  • 3. 屋外可視光通信実験による変調方式と伝送特性の検討
    • 3.1 外乱光雑音測定
    • 3.2 HPFの最適化と通信特性
  • 4. LED信号機とクルマや歩行者などの移動体通信システムへの可視光通信の適用
    • 4.1 LED信号機からの放射角度特性
    • 4.2 路車間通信における通信可能範囲の検討
第5節 自動運転へ向けた車載ネットワークのセキュリティ対策
  • 1. 自動車のセキュリティの脆弱性事例
  • 2. 自動車のセキュリティ対策の困難さ
  • 3. 自動車業界での取り組み
  • 4. 既存する脆弱性事例における攻撃手法
  • 5. 直近のセキュリティ強化技術
    • 5.1 AUTOSARの取り組み
    • 5.2 EVITAとSHEの取り組み
    • 5.3 セキュリティ評価手法
    • 5.4 セキュリティ強化手法の研究事例
  • 6. 自動運転技術に関連する脆弱性事例
  • 7. 自動運転技術の攻撃経路と対策

第10章 車載用カメラ、センサの信頼性試験と評価技術◇

第1節 車載用カメラモニターシステムの試験、技術評価と要求事項
  • 1. 試験と技術評価について
    • 1.1 概説
    • 1.2 試験法の経緯 (UN R46)
    • 1.3 試験法と関連規格
    • 1.4 試験法の概要
  • 2. 利便性・画質等の試験
    • 2.1 概説
    • 2.2 利便性に関する試験
    • 2.3 利用性に関する試験
    • 2.4 画質に関する試験
    • 2.5 耐環境性に関する試験
  • 3 電磁両立性の試験
    • 3.1 概説
    • 3.2 試験法
  • 4 電子安全性の試験
    • 4.1 概説
    • 4.2 監査方法
  • 5 技術評価
    • 5.1 概説
    • 5.2 MTF (空間周波数) 特性
      • 5.2.1 基本原理
      • 5.2.2 CMS評価に向けた追加要件
      • 5.2.3 MTFの関連要件
    • 5.3 コントラスト特性
      • 5.3.1 基本原理
      • 5.3.2 CMS評価に向けた追加要件
      • 5.3.3 コントラストの関連要件
    • 5.4 高輝度光源
      • 5.4.1 基本原理
      • 5.4.2 高輝度光源の関連要件
    • 5.5 点光源
      • 5.5.1 基本原理
      • 5.5.2 試験装置
  • 6. まとめ
第2節 車載用電子部品の信頼性試験、評価と要求品質
  • 1. 要求事項
    • 1.1 電子機器に対する要求事項
    • 1.2 電子部品に対する要求事項
      • 1.2.1 自動車メーカの要求
      • 1.2.2 団体規格 (AEC-Q)
  • 2. 電子機器の信頼性の作りこみ
    • 2.1 電子機器の製品化までの流れ
    • 2.2 電子機器の故障原因究明
  • 3. 信頼性試験・評価
    • 3.1 部品調達
      • 3.1.1 電子部品を選定・採用ための評価
      • 3.1.2 電子部品を受け入れるための評価
      • 3.1.3 主な評価法
    • 3.2 実装基板製造の信頼性の作りこみ
      • 3.2.1 実装基板の課題
      • 3.2.2 主な評価法
    • 3.3 製品保証のための試験
      • 3.3.1 信頼性試験 (加速試験)
      • 3.3.2 環境試験
      • 3.3.3 EMC試験
    • 3.4 市場故障の解析
      • 3.4.1 市場故障のフロー
      • 3.4.2 ロックイン発熱解析 (LIT) を用いた解析事例

第11章 車載用カメラ、センサの信頼性試験と評価技術◇

  • 1. 車載用カメラ市場の動向
    • 1.1 車載用カメラの概要と全体市場動向
    • 1.2 製品タイプ別市場動向
      • 1.2.1 ビューカメラ
      • 1.2.2 ドライブレコーダカメラ
      • 1.2.3 センシングカメラ
      • 1.2.4 ビュー+センシングカメラ
    • 1.3 今後の動向
    • 1.4 主要部材の動向
      • 1.4.1 ビューカメラの主要部材の動向
      • 1.4.2 センシングカメラの主要部材の動向
      • 1.4.3 レンズモジュールの動向
      • 1.4.4 レンズモジュールの課題点

第12章 自動運転をめぐる法整備状況と法的責任のあり方◇

  • 1. 技術開発の加速化と法整備の遅れ
  • 2. 道路交通条約の現状と解釈
    • 2.1 従来の条約
    • 2.2 改正案
    • 2.3 更なる検討
    • 2.4 遠隔型の公道実証実験に関する新たな解釈上の合意
    • 2.5 現在の議論の状況
    • 2.6 小括 (国際的合意に備えて,国内法の整備の準備を進めておく必要があること)
  • 3. 現行国内法の構造
    • 3.1 道路交通に関する現行法の規律
    • 3.2 交通事故に関する法的責任
  • 4. 道路交通に関する法規制の変容可能性
  • 5. 交通事故をめぐる法的責任の変容可能性
  • 6. 今後の展望

執筆者

  • インテル 株式会社 野辺 継男
  • 東北大学 黒田 理人
  • 京都産業大学 蚊野 浩
  • 立命館大学 木股 雅章
  • 日本アビオニクス 株式会社 田村 哲雄
  • 三菱電機 株式会社 小川 新平
  • 株式会社 富士通研究所 大橋 洋二
  • 古河AS 株式会社 青柳 靖
  • 静岡大学 桑原 義彦
  • 防衛大学校 亀井 利久
  • 玉川大学 政田 元太
  • 三井化学 株式会社 木津 巧一
  • 株式会社 精工技研 平尾 朋三
  • 日本アルテラ 株式会社 篠塚 哲
  • エヌビディア 馬路 徹
  • 奈良先端科学技術大学院大学 佐藤 智和
  • 株式会社 日立製作所 緒方 健人
  • 同志社大学 橋本 雅文
  • 九州工業大学 西田 健
  • 秋田大学 石沢 千佳子
  • 名古屋工業大学 佐藤 淳
  • 富山大学 柴田 啓司
  • 名古屋大学 加藤 ジェーン
  • 熊本大学 内村 圭一
  • 香川大学 山口 順一
  • 大阪大学 山口 弘純
  • 久留米工業大学 渡邊 直幸
  • 久留米工業大学 片山 硬
  • 芝浦工業大学 伊東 敏夫
  • 法政大学 花泉 弘
  • 名古屋大学 川西 康友
  • アイシン精機 株式会社 秋田 時彦
  • 中部大学 山下 隆義
  • 東京農工大学 ポンサトーン ラクシンチャラーンサク
  • 名城大学 山田 啓一
  • 豊橋技術科学大学 金澤 靖
  • 神奈川工科大学 高取 祐介
  • 熊本高等専門学校 小山 善文
  • 弘前大学 小野口 一則
  • 株式会社 デンソーアイティーラボラトリ 原 孝介
  • オムロン 株式会社 木下 航一
  • 早稲田大学 森島 繁生
  • 早稲田大学 佐藤 優伍
  • 愛知工科大学 宇野 新太郎
  • 同志社大学 佐藤 健哉
  • 近畿大学 藤本 暢宏
  • 京都工芸繊維大学 大柴 小枝子
  • 名古屋大学 倉地 亮
  • テュフ ラインランド ジャパン 株式会社 齊藤 智明
  • 沖エンジニアリング 株式会社 味岡 恒夫
  • 株式会社 テクノ・システム・リサーチ 駒田 隆彦
  • 明治大学  中山 幸二

出版社

お支払い方法、返品の可否は、必ず注文前にご確認をお願いいたします。

お問い合わせ

本出版物に関するお問い合わせは tech-seminar.jpのお問い合わせからお願いいたします。
(出版社への直接のお問い合わせはご遠慮くださいませ。)

体裁・ページ数

A4判 518ページ

ISBNコード

978-4-86104-658-2

発行年月

2017年5月

販売元

tech-seminar.jp

価格

40,000円 (税別) / 44,000円 (税込)

これから開催される関連セミナー

開始日時 会場 開催方法
2024/3/21 自動車の電動化に向けた、シリコン、SiC・GaNパワーデバイス開発の最新状況と今後の動向 オンライン
2024/3/22 生体情報センシングの基礎とデータ処理・活用および応用展開 オンライン
2024/3/22 自動車における熱マネジメント技術と求められる技術・部品・材料 オンライン
2024/3/27 脳波計測・解析の基礎と感性評価・製品開発への応用 オンライン
2024/4/9 EVにおける車載機器の熱対策 オンライン
2024/4/16 自動車のEV化とプラスチックの電磁波シールドめっき オンライン
2024/4/18 水素エネルギーとモビリティ オンライン
2024/4/19 車載半導体の最新技術と今後の動向 オンライン
2024/4/23 自動運転車の商業化への道筋 東京都 会場・オンライン
2024/4/24 脳波計測・処理・解析・機械学習の基礎と応用および脳波データの活用方法 オンライン
2024/4/24 香り成分の心理生理学的有効性評価技術と商品開発への展開 オンライン
2024/4/25 空飛ぶクルマの市場動向と社会実装委向けた研究開発 オンライン
2024/4/26 自動車の電動化に向けた半導体封止樹脂の設計と評価 オンライン
2024/5/2 脳波計測・処理・解析・機械学習の基礎と応用および脳波データの活用方法 オンライン
2024/5/8 自動車の電動化に向けた半導体封止樹脂の設計と評価 オンライン
2024/5/8 空飛ぶクルマの市場動向と社会実装委向けた研究開発 オンライン
2024/5/9 ウェアラブル生体情報センシングと感覚フィードバックを組み合わせたサービス展開 オンライン
2024/5/14 人間-機械 (自動車) インターフェイス製品の人間工学の考え方とその評価 オンライン
2024/5/16 xEVにおける車載電子製品のサーマルマネジメント 東京都 会場・オンライン
2024/5/21 基礎からわかる生体信号の計測と情報解析・データマイニングのコツ オンライン

関連する出版物

発行年月
2024/1/31 車室内空間の快適性向上と最適設計技術
2023/11/14 x/zEV用電池の拡大 (目標、現状とグローバルな態勢) [書籍 + PDF版]
2023/11/14 x/zEV用電池の拡大 (目標、現状とグローバルな態勢)
2023/7/6 x/zEVへの転換2023 (各国の現状、目標と課題) [書籍 + PDF版]
2023/7/6 x/zEVへの転換2023 (各国の現状、目標と課題)
2022/6/30 自動運転車に向けた電子機器・部品の開発と制御技術
2022/5/31 自動車マルチマテリアルに向けた樹脂複合材料の開発
2022/5/6 EV、PHEV、HEVと燃料電池車の環境・走行性能分析 (書籍+PDF版)
2022/5/6 EV、PHEV、HEVと燃料電池車の環境・走行性能分析 (書籍版)
2022/4/15 2022年版 スマートモビリティ市場の実態と将来展望
2022/2/4 世界のxEV、車載用LIB・LIB材料 最新業界レポート
2021/9/30 自動車室内の静粛性向上と、防音・防振技術、材料の開発
2021/6/30 人工知能を用いた五感・認知機能の可視化とメカニズム解明
2021/4/13 GAFA+Mの自動運転車開発最前線
2021/1/31 次世代EV/HEV用モータの高出力化と関連材料の開発
2020/12/25 次世代自動車の熱マネジメント
2020/7/31 生体情報センシングと人の状態推定への応用
2020/4/30 生体情報計測による感情の可視化技術
2019/12/13 2020年版 次世代自動車市場・技術の実態と将来展望
2019/1/31 センサフュージョン技術の開発と応用事例