Preprint / Version 1

A Performance Analysis of Training Models for a Deep Learning-Based Object Detection Method to Detect Motorcycles with an Onboard Camera

##article.authors##

  • Kensuke Nakajima Department of Informatics, Graduate School of Integrated Science and Technology, Shizuoka University
  • Naoki Sakuma Faculty of Informatics, Shizuoka University
  • Junya Nakayasu Faculty of Informatics, Shizuoka University
  • Tomoya Kitani College of Informatics, Academic Institute, Shizuoka University

DOI:

https://doi.org/10.51094/jxiv.203

Keywords:

electronics and control, image recognition system , intelligent transport system, motorcycle, conspicuity

Abstract

本研究では,自動車に車載された可視光カメラにて撮影した映像から,交通環境内の二輪車を深層学習による物体検出手法によって検出するとき,学習モデルの構築方法が検出精度にどのように寄与するかを明らかにする.物体検出手法は YOLO(v4-tiny)を用いた.教師データに用いる二輪車画像は,物体検出でよく使われる COCO データセット中の二輪車画像 3085 枚に加え,動画共有サイト上の動画や著者らの車両のドライブレコーダー映像の二輪車が映ったフレームからさらに 5000 枚程度用意した.これらの二輪車画像をもとに,次のポリシーに基づいて教師データを作成した.まず,車載カメラ映像中の二輪車を見つけることを想定し,実際の交通環境内に無い二輪車の画像を取り除いた.そして画像をアノテーションする際のクラスについて,1 つのクラスとした場合,外観の異なる 4 車種にクラス分けをした場合,4 つの撮影方向別にクラス分けをした場合を評価するためにそれぞれのデータセットを作成した.これらのデータセットを学習したモデルが,どの程度の距離から二輪車を検出できるかを評価した.その結果,実際の交通環境に近い二輪車の画像を学習用データとして利用することで検出距離が 5~20m 程度から 10~25m 程度に向上することがわかった.一方で,クラスを車種や撮影方向ごとに増やしても検出距離に変化はみられず,15~30m 程度であった.また検出対象の動画をトリミングすることで,45m 程度の検出距離となった.

Downloads *Displays the aggregated results up to the previous day.

Download data is not yet available.

References

堤陽次郎, “夜間における四輪車と二輪車の右直事故の特徴分析,” (公財)交通事故総合分析センター 第23回研究発表会, 2020.

E. Klein and G. Stephens: “Visibility Study - Methodologies and Reconstruction”, Future Transportation Technology Conference & Exposition, SAE International, pp. 1-19, Aug. 1992.

N. Haferkemper, J.H. Sprute, C. Schiller, and T.Q. Khanh, “The Effect of LED Daytime Running Lights on Motorcycle Conspicuity and Detection Distance Estimation - Latest Test Results”, SAE 2010 World Congress & Exhibition, pp. 1-9, Apr. 2010.

G. de Paula Brito, J.A.F. Borges, and G.F.G. Nogueira:“Analysis of Blind Areas in Different Categories of Vehicles Considering the Evolution of Projects and Legislation”, 23rd SAE Brasil International Congress and Display, pp. 1-8, Sep. 2014.

W.T. Neale, N. Mckelvey, D. Pentecost, and D. Koch:“Motorcycle Headlamp Distribution Comparison”, WCX World Congress Experience, SAE International, pp. 1-25, Apr. 2018.

中島浩平, 岩崎洋一郎, 竹原洋志, 宮田俊彦, 倉本俊昌, 北島俊孝, 瀬戸口恵:物体検出アルゴリズムYOLOv3を用いた交通量と車両走行軌跡の自動計測,第72回電気・情報関係学会九州支部連合大会講演論文集, Vol. 2019, pp. 61-62.

梶原弘一郎, 大城英裕, 行天啓二, 高見利也: 背番号認識への物体認識型深層学習の適用,第71 回電気・情報関係学会九州支部連合大会講演論文集, Vol. 2018, pp. 165-166.

Joseph Redmon, Santosh Divvala, Ross Girshick, Ali Farhadi, “You Only Look Once: Unified, Real-Time Object Detection”, arXiv:1506.02640 [cs.CV], pp. 1-10, May 2016.

Alexey Bochkovskiy, Chien-Yao Wang, Hong-Yuan Mark Liao, “YOLOv4: Optimal Speed and Accuracy of Object Detection” , arXiv:2004.10934 [cs.CV], pp. 1-17, Apr. 2020.

Mingxing Tan, Ruoming Pang, Quoc V. Le, “EfficientDet: Scalable and Efficient Object Detection”, Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR), pp. 10781-10790, 2020.

Ping Chao, Chao-Yang Kao, Yu-Shan Ruan, Chien-Hsiang, Huang, and Youn-Long Lin, “HarDNet: A low memory traffic network”, Proceedings of the IEEE International Conference on Computer Vision (ICCV), pp. 3552-3561, 2019.

Tomas Shimon, Shih-EnWei, Yaser Sheikh, “OpenPose: Realtime Multi-Person 2D Pose Estimation using Part Affinity Fields”, IEEE Transaction on Pattern Analysis and Machine Intelligence, Vol. 34, Issue 7, pp. 1444-1450, Dec. 2018.

Posted


Submitted: 2022-10-31 09:16:51 UTC

Published: 2022-11-08 00:27:56 UTC
Section
Information Sciences