京都大学ELCAS(エルキャス)

実施レポート

[専修コース]映像情報処理

学術情報メディアセンター

2017年7月15日

  • 実施場所

    吉田キャンパス 学術情報メディアセンター南館4階

  • 当日の講師

    飯山 将晃 准教授

  • チューター

    薗頭 元春

  • 実習の内容

    ドローンを使った映像処理について、実験データとして撮影した画像に対して物体認識を行い、結果を考察する。
    くずし字認識について、第一段で失敗し易い例に特化した第二段の識別器を導入して、識別器を多段化することで精度の向上を目指す。

  • 映像0715-1物体認識のコードの改良
  • 映像0715-2ドローンを使った実験環境

活動を通して学んだこと

  • ドローンの動きを制御するプログラムを改良し、15度ずつ回転しながら室内全体を撮影できるようにした。また画像のブレを少なくするために、静止している時だけ撮影するようにした。ドローンから撮影した画像を画像全体、または部分的に物体認識し、物体の認識率を調べた。認識率はそれほど高くはなかったが一部の物体の認識には成功していた。今後成果発表会に向けたスライドと論文については、先生とメールで相談しながら進めることになった。高校性でありながら貴重な経験をさせていただき、またいろいろと指導してくださった先生とTAの方に感謝したい。
  • 認識精度の向上がいかに地道で難しいか

2017年6月17日

  • 実施場所

    吉田キャンパス 学術情報メディアセンター南館4階

  • 当日の講師

    飯山 将晃 准教授

  • チューター

    薗頭 元春

  • 実習の内容

    ドローンを使った映像処理について、物体認識の前処理として顕著性による物体領域の抽出を検討する。
    くずし字認識について、文字画像のアスペクト比を考慮した確率的なモデルによる正確度の向上に取り組む。

  • 映像情報処理0617-1物体認識のコードの改良
  • 映像情報処理0617-2ドローンを使った実験環境

活動を通して学んだこと

  • 前回に引き続き、画像から物体を認識するためのプログラムを作成した。saliency mapによって物体がある範囲を特定し、二値化した画像を作成することでkerasを用いた物体認識を行おうとしたが、予想以上に結果が悪く、sailency mapを用いても物体の位置の特定が難しいことが分かった。
    今後改良を加えるか、別の方法を考える必要がある。

2017年6月10日

  • 実施場所

    吉田キャンパス 学術情報メディアセンター南館4階

  • 当日の講師

    飯山 将晃 准教授

  • チューター

    薗頭 元春

  • 実習の内容

    ドローンを使った映像処理について、撮影した動画像に対して畳み込みニューラルネットワークによる物体認識を行う。
    くずし字認識について、失敗例を考察して認識器の改良を行う。

  • 映像情報処理0610-1Pythonによる物体認識のプログラミング
  • 映像情報処理0610-2くずし字認識の失敗例

活動を通して学んだこと

  • ドローンから撮影した画像を保存し、物体認識するプログラムを作成した。Pythonの深層学習ライブラリであるKerasを用いた。試験的にドローンを飛ばして実装してみた結果、うまく目的の物体を検出・認識できないことがわかり、プログラムの改良を考えた。TAの方から様々なご指導を受け、顕著性マップを用いることにした。次回、実際にプログラムを作成し、実装する予定。

2017年5月20日

  • 実施場所

    吉田キャンパス 学術情報メディアセンター南館4階

  • 当日の講師

    飯山 将晃 准教授

  • チューター

    薗頭 元春

  • 実習の内容

    第一の課題であるドローンを使った映像処理の応用について、予め移動経路を設定した上で、Pythonによるドローンの制御を行う。
    第二の課題であるくずし字の文字認識について学び、畳み込みニューラルネットワークに基づく基本的な認識器をPythonで構築する。

  • 映像情報処理0520-1Pythonによるくずし字認識
  • 映像情報処理0520-2畳み込みニューラルネットワークによる文字認識の概説

活動を通して学んだこと

  • 崩し文字を識別するプログラムについて学んだ。機械学習やニューラルネットワークの仕組みについての講義を受けた。その後、今後各自が取り組んでいく課題を決めた。自分は前回の活動から、ドローンを使った物体認識をテーマに決定した。今回の活動では、ドローンの動きを制御するプログラムを作り、プログラムの命令通りにドローンが飛行するかどうかも実験で試した。

2017年5月6日

  • 実施場所

    吉田キャンパス 学術情報メディアセンター南館4階

  • 当日の講師

    飯山 将晃 准教授

  • チューター

    薗頭 元春

  • 実習の内容

    Python言語とPS-Droneライブラリを用いて、ドローンParrot AR.Drone 2.0の操作を学ぶ、またOpenCVライブラリを用いて、映像からの人物検出に基づくドローンの制御を検討する。

  • 映像情報処理0506-1ドローンの制御の検討
  • 映像情報処理0506-2着陸状態におけるドローン

活動を通して学んだこと

  • 今回の活動ではドローンの飛行制御と、カメラの画像から検出した人物の位置に基づいたドローンの動作をプログラミングし、プログラム通りに正確にドローンが作動するかどうかをテストした。最初にドローンの飛行を制御するプログラムの説明を受け、実際に飛行させてみた。次にカメラの画像から人物を検出し、画像中の人物の位置に合わせてドローンが回転するようにプログラムを書いた。そのプログラムをドローンの飛行を制御するプログラムに組み込んだ。テスト飛行の結果からドローンは地面が平面でない場合、飛行高度が安定せず、プログラム通りに制御できないことが分かったが、altitude を使って飛行高度を制限し、ドローンの飛行場所を変更することで問題は解決されたようだ。また最後に行ったテスト飛行では、カメラの画像から人を認識し、前後左右にドローンを動かすことは出来たが、左右に回転させようとすると不明確な挙動が確認され、ドローンを制御するプログラムの改良が必要なようだ。

2017年4月15日

  • 実施場所

    吉田キャンパス 情報学研究科

  • 当日の講師

    飯山 将晃 准教授

  • チューター

    薗頭 元春

  • 実習の内容

    研究テーマを検討する。プログラミング言語PythonとOpenCVライブラリを用いた演習を通して、HOG特徴量を用いた人物検出やHaar-Like特徴量を用いた顔検出について学ぶ。

  • 映像情報処理_実習風景研究テーマの検討
  • 映像情報処理_実習風景Pythonを用いた映像処理の演習

活動を通して学んだこと

  • 画像認識
  • Pythonというプログラミング言語を使って画像認識の基礎的なプログラミングを行った。また画像処理について学んだ。
    具体的には、opencvというライブラリを用いて、カメラから取り込んだ画像から人物検出や顔認識を行った。画像処理の内容についての講義では、画像を縦、横それぞれから微分してエッジ検出を行ない、クラス分類によって人物を検出していること、またhaar特徴量を用いて顔や目の検出を行なうことを学んだ。

平成29年度 実施レポート

年度別の実施レポート