From 58090bb273c0f630951d7b1a5cc6ccb1b24cbf3e Mon Sep 17 00:00:00 2001 From: tianqi-li Date: Wed, 8 Feb 2017 20:54:06 +0900 Subject: [PATCH] update readme --- README.md | 59 ++++++++++++++---------------------------- YOLOv2_animal_train.md | 4 +-- YOLOv2_execute.md | 29 +++++++++++++++++++++ 3 files changed, 51 insertions(+), 41 deletions(-) create mode 100644 YOLOv2_execute.md diff --git a/README.md b/README.md index 28f9c4a..d4716ac 100644 --- a/README.md +++ b/README.md @@ -1,19 +1,23 @@ # YOLOv2(Chainerバージョン) -本稿は、YOLOv2の論文をChainer上で再現実装したものです。darknetオリジナルの学習済みパラメータファイルをchainerで読み込むためのパーサと、chainer上で完全にゼロからYOLOv2を訓練するための実装が含まれています。 +YOLOv2は、2016年12月25日時点の、速度、精度ともに世界最高のリアルタイム物体検出手法です。 +本リポジトリは、YOLOv2の論文をChainer上で再現実装したものです。darknetオリジナルの学習済みパラメータファイルをchainerで読み込むためのパーサと、chainer上でゼロからYOLOv2を訓練するための実装が含まれています。(YOLOv2のtiny版に関してはChainerで読み込む方法がこちらのPPAPの記事で紹介されています。今回は、Full Version のYOLOv2の読込みと、学習ともにChainer実装しています。) -Joseph Redmonさんの論文はこちら: -[You Only Look Once](https://arxiv.org/abs/1506.02640) -[YOLO9000: Better, Faster, Stronger](https://arxiv.org/abs/1612.08242) +Joseph Redmonさんの元論文はこちら: +[YOLO9000: Better, Faster, Stronger](https://arxiv.org/abs/1612.08242) (2016/12/25) -darknetのオリジナルはこちら: + +[You Only Look Once](https://arxiv.org/abs/1506.02640) + + +darknetのオリジナル実装はこちら: [darknet](http://pjreddie.com/) -chainerでYOLOv2(tiny版のみ)の読み込む方法についてはこちら: +chainerを使ったYOLOv2(tiny版)の読み込む方法についてはこちら: [YOLOv2でPPAP](http://qiita.com/ashitani/items/566cf9234682cb5f2d60) @@ -36,48 +40,25 @@ chainerでYOLOv2(tiny版のみ)の読み込む方法についてはこちら: - CUDA V8.0 -## 訓練済みYOLOv2モデル(完全版)の実行 -darknetオリジナルの重みパラメータファイルをchainerで読み込んで実行するための手順です。こちらを参考にさせて頂きました。 - -1、yolov2学習済みweightsファイルをダウンロードする。 - - -``` -wget http://pjreddie.com/media/files/yolo.weights -``` -2、以下のコマンドでweightsファイルをchainer用にパースする。 +## YOLOv2の訓練済みモデル(完全版)実行手順 +darknetオリジナルの重みパラメータファイルをchainerで読み込んで実行するための手順です。 -``` -python yolov2_darknet_parser.py yolo.weights -``` +訓練済みYOLOの実行手順 -3、以下のコマンドで好きな画像ファイルを指定して物体検出を行う。 -検出結果は`yolov2_result.jpg`に保存される。 +こちらのページにまとめました。 -``` -python yolov2_darknet_predict.py data/people.png -``` - -4、以下のコマンドで、カメラを起動しリアルタイム物体検出を行う。 - -``` -python yolov2_darknet_camera.py -``` - - -## Chainer上でYOLOv2の訓練 -フリー素材の動物アイコンデータセットを使ったYOLOv2の訓練です。長くなるので、別ページにまとめました。 +## YOLOv2の訓練手順 +フリー素材の動物アイコンデータセットを使ったYOLOv2の訓練です。 YOLOv2を使った動物アイコンデータセットの訓練手順 -こちらをご覧ください。 +こちらのページに手順をまとめました。 -## YOLOv2の理論解説 -YOLOv2の論文及びdarknetオリジナルの実装についての解説です。こちらも長くなるので別ページにまとめました。 -YOLOv2の仕組み解説 +## YOLOv2の理論解説 +YOLOv2の論文及びdarknetオリジナルの実装についての解説です。こちらも別ページにまとめました。 -こちらをご覧ください。 \ No newline at end of file +YOLOv2の仕組み解説 \ No newline at end of file diff --git a/YOLOv2_animal_train.md b/YOLOv2_animal_train.md index 1a98f23..19eb69b 100644 --- a/YOLOv2_animal_train.md +++ b/YOLOv2_animal_train.md @@ -1,8 +1,8 @@ # YOLOv2による動物アイコン検出の訓練 -元ネタ:YOLOv2でPPAP +参考記事:YOLOv2でPPAP -上の記事では、darknetフレームワーク上でYOLOv2(tiny版のみ)を訓練し、訓練結果をchainerでロードする手法について書かれていました。本記事では、ゼロからchainer上でモデルを訓練する手法について説明します。 +上のPPAPの記事では、darknetフレームワーク上でYOLOv2(tiny版)を訓練し、訓練結果をchainerでロードする手法について書かれていました。本記事では、ゼロからchainer上でモデルを訓練する手法について説明します。 diff --git a/YOLOv2_execute.md b/YOLOv2_execute.md new file mode 100644 index 0000000..1321afe --- /dev/null +++ b/YOLOv2_execute.md @@ -0,0 +1,29 @@ +# YOLOv2の訓練済みモデル実行手順 +darknetオリジナルの重みパラメータファイルをchainerで読み込んで実行するための手順です。こちらを参考にさせて頂きました。 + +1、yolov2学習済みweightsファイルをダウンロードする。 + + +``` +wget http://pjreddie.com/media/files/yolo.weights +``` + +2、以下のコマンドでweightsファイルをchainer用にパースする。 + +``` +python yolov2_darknet_parser.py yolo.weights +``` + +3、以下のコマンドで好きな画像ファイルを指定して物体検出を行う。 +検出結果は`yolov2_result.jpg`に保存される。 + +``` +python yolov2_darknet_predict.py data/people.png +``` + + +4、以下のコマンドで、カメラを起動しリアルタイム物体検出を行う。 + +``` +python yolov2_darknet_camera.py +``` \ No newline at end of file