cvl-robot's diary

研究ノート メモメモ https://github.com/dotchang/

顕著性マップのサーベイまとめ

(編集中)

おそらくオリジナル、か、オリジナルに近いもの。

[1]L. Itti, C. Koch, E. Niebur, ” A Model of Saliency-Based Visual Attention for Rapid Scene Analysis” PAMI, Vol.20, No.11(1998)

入門編:読み物

[2]中澤篤志 “サリエンシーデテクション”, 映像情報メディア学会誌, Vol.64, No.12(2010)

[3]林昌希,”自動作成を行うために用いられることの多い3つの重要度マップ手法

http://news.mynavi.jp/series/computer_vision/044/

応用編:セグメンテーション

[4]M-M. Cheng, et.al.“Global Contrast based Salient Region Detection” CVPR, pp.409-416(2011)(サリエンシーと言ってはいるけれど、単なるセグメンテーションでは?比較実装変だし)

http://mmcheng.net/code-data/

発展編:RGB+Depthに拡張

[5]C.Lang, et.al. “Depth Matters: Influence of Depth Cues on Visual SaliencyComputer Vision-ECCV2012, pp.101-115, Splinger(2012) 

[6]K.Desingh, K.M.Krishna, D.Rajan, C.V.Jawahar, ”Depth really Matters: Improving Visual Salient Region Detection with Depth” BMVC 2013

総括編:歴史と応用、ロボットへの適用など

[7]A.Borii, S.Frintrop, L.Itti, N.D.Bruce, X.Hou, ”A Crash Course on Visual Saliency Modeling: Behavioral Findings and Computational Models”, http://ilab.usc.edu/borji/cvpr2013/

 

解説、実装など

pooneilの脳科学論文コメント, 脳科学辞典「サリエンシー」の項目書いた

http://pooneil.sakura.ne.jp/archives/permalink/001452.php

 A440Hz ブログ, OpenCV2.4による顕著性マップの実装, 

http://d.hatena.ne.jp/wosugi/20130312

画像処理,(3) 顕著性マップ, 

http://fussy.web.fc2.com/algo/algo12-3.htm

お手軽に試してみるなら、openframeworks addonのこれ

TatsuyaOGth/ofxSaliencyMap · GitHub