自分用読むべき論文メモ 2019年6月版
しばらく論文読んでる暇がなかったので、面白かったTwitterの記事を中心に。(いつも、ほぼそうですが。。。)
タコの8本足は「それぞれが独立したCPUを持つ分散型ネットワーク」だという研究結果https://t.co/ADTQSQvSO7
— GIGAZINE(ギガジン) (@gigazine) June 30, 2019
タコはどうやって腕を動かしているのか(AGU宇宙生物学会議AbSciConの発表)https://t.co/tcHMaeYvoO
— ゆきまさかずよし (@Kyukimasa) June 26, 2019
腕ごとにある大きな神経節が環状に接続していて主脳を経由せずに分散型処理してる。
「自分の腕の位置を脳が知っていなくても、腕同士は知っている」 pic.twitter.com/qFvJUitg0C
研究者注目の的、タコ。
Some code releases before I head off to vacation :)
— Angjoo Kanazawa (@akanazawa) June 29, 2019
Skill from Video data + motion reconstruction code: https://t.co/acXbzikaz6
CVPR'19 human motion paper training code: https://t.co/dTHoMO2m1R
Thanks to @jasonyzhang2, Panna, @xbpeng4 for the team effort.
Have a nice July! pic.twitter.com/t4IxyeSqER
長らくお待たせしました。ついに刊行。 細馬宏通・菊地浩平編『ELAN入門 言語学・行動学からメディア研究まで』(ひつじ書房、2019.6)。使い方のみならず、時間分析の基本から時系列データの扱いまで。映像と音声を分析するすべての方に。どうぞ。 https://t.co/WSwLvcnq1p
— 細馬宏通/ELAN入門(ひつじ書房) (@kaerusan) June 17, 2019
突然変異がどのように集団に広がり生物が「進化」するのかを「グラフ理論」で解き明かす試み(2018)https://t.co/NB9IbpvCI9
— GIGAZINE(ギガジン) (@gigazine) June 27, 2019
進化が明示的にコントロールされるようになったら、ますますやばい。
一部しか観測できない環境下(POMDPs)では過去の観測列から現在の状態信念を計算する。この信念からの長期の予測タスクを解くことで時間的に一貫性がある信念が得られ、地図や自己位置も復元可能。この信念を元にした強化学習はデータ効率がよい https://t.co/zbkyaMlSbB https://t.co/HqyL8zkIBQ
— Daisuke Okanohara (@hillbig) June 27, 2019
Dependenciesを使うといいらしい。Dependency WalkerをWindows 10用に書き直したものhttps://t.co/mNUHrhs7YN
— 中村 薫(Kaoru Nakamura) (@kaorun55) June 23, 2019
基本ツール
Mode Seeking Generative Adversarial Networks for Diverse Image Synthesis
— Shigekazu Ishihara (@shigekzishihara) June 22, 2019
cGANのモード崩壊(同じ画像ばかり生成される問題)を解決し,多様性を持たせることを目的としたMSGAN https://t.co/L8UFUXAsSX
これすごい。英語の単語やフレーズを入力すると大量の YouTube の動画から実際に使われている部分だけを検索して見せてくれる。文脈もあるから使われ方も分かる。固有名詞の発音が分からない時、発音の苦手な単語を文脈と共に練習したい時に使えそう YouGlish https://t.co/CL0f9HpDqO
— Masato Hagiwara (萩原正人) (@mhagiwara_ja) June 22, 2019
We just released PoseNet 2.0 with TensorFlow.js, including a much more accurate ResNet-based model!
— TensorFlow (@TensorFlow) June 21, 2019
Try the live demo by @tylerzhu3, @oveddan, @greenbeandou, @dsmilkov, @ire_alva, @nsthorat → https://t.co/Dgz0kay40U
Learn more here → https://t.co/JDs5wIeByP pic.twitter.com/MWfadJLk97
ちなみに浅井先生の資料はこっちのほうが面白かった。p8ぐらい「制御に苦手意識を持ったまま卒業させると、制御に無理解な層を拡大再生産することになる」 企業で制御屋やるの辛い理由これか!と納得。https://t.co/wwpUoWkKaG
— モータ制御マン (@motorcontrolman) June 22, 2019
Googleの世界最大の画像データセット「Open Images v4」の概要や使い方のまとめhttps://t.co/V4YRXc687K
— marsee101 (@marsee101) June 21, 2019
あもりにも速すぎて熟語にも強い辞書ツールMouse Dictionaryですが、自分で使っていて追加したい機能や感じる不満がもうなくなったので、利用者からの要望等ありましたら教えてください😉https://t.co/fjtzmoOY4r pic.twitter.com/qaIe6jSMjy
— Tetsu (@wtetsu) June 20, 2019
NLP/CV最先端勉強会 やります。
— uchi_k (@wednesdaymuse) June 21, 2019
nlpaper と cvpaper の合同チームでやったグラフと対話応答のサーベイと、CVPR2019速報です。
よろしくお願いします・・・!https://t.co/JPf4fm03t5
【CVPR 2019 速報】を更新しました。230ページの内容になりました!https://t.co/laQX5xGC5p
— cvpaper.challenge (@CVpaperChalleng) June 21, 2019
CVPR 2019 論文サマリはこちらをご覧ください https://t.co/IgsfU8vP37#cvpr2019
弊社匿名希望なエンジニアの最近の深層学習ベースの物体検出のお気持ちがとてもわかる俯瞰的な資料です! / 最近の物体検出 2019/05/30 https://t.co/ikEw7kxu8R
— Yusuke Uchida (@yu4u) June 17, 2019
Best paperたち pic.twitter.com/JNVSHu1x48
— Takanori Ogata (@conta_) June 18, 2019
超解像の未来はどうなる?2019年のサマリ論文を追ってみた
— AI-SCHOLAR. (@ai_scholar) June 14, 2019
https://t.co/QjovShUDH9
帰宅中に読んでいます
— sumicco (@sumicco_cv) June 10, 2019
「実践カメラキャリブレーション ~カメラを用いた実世界計測の基礎と応用~」https://t.co/ErSIHz8s2p
カメラキャリブレーションはとても大事。
Doog
— 森山和道/ライター、書評屋 (@kmoriyama) June 13, 2019
RT
茨城)導入進む農業用ロボット 茨城町のキャベツ生産者:朝日新聞デジタル https://t.co/upKZHMEtv2
農業ロボット関係
choreonoidの便利ライブラリ [C++] on @Qiita https://t.co/WzKDrbYzy0
— wukun (@wukunn) June 12, 2019
Choreonid関係
DJI、“地上を走る”戦車型教育用ロボ「RoboMaster S1」。対戦プレイも - AV Watch https://t.co/qTUQhFcEoZ どろーんもそうだけど、近所の公園で遊べるなら欲しいけどなあ
— 安倍吉俊 (@abfly) June 12, 2019
戦車型なのが日本での教育に向いてない。実銃やレーザーに置き換えるも簡単だろうから怖いし。
【研究紹介】DeepHolo(2017)
— Digital Nature Group (@labDNG) June 10, 2019
ホログラムと機械学習を融合した新たな三次元物体認識手法
点群モデルから再構成した2値加重計算機ホログラム(CGH)を用いたDeepHoloネットワークを提案します。
Project URL:https://t.co/HytDHUtngy
よくわかんないけど。
I just added Fast Winding Numbers for triangle soups to our open source library libigl.
— Alec Jacobson (@_AlecJacobson) June 10, 2019
This optimized implementation can conduct robust inside-outside tests for 1,000,000 points in less than a second on my laptop.
igl::fast_winding_numberhttps://t.co/1KB8GQTxK0 pic.twitter.com/RNdXJjUP5R
カーネギーメロン大学、1台の頭部装着型カメラからの一人称視点映像を入力に自身の3D姿勢をリアルタイムに推定する手法を発表。将来の動きも予測 https://t.co/W4NHHZERhD pic.twitter.com/JADQyXr48V
— Seamless (@shiropen2) June 10, 2019
memo コンピュータビジョンの最新論文調査 3D Vision編 - Technology of DeNA https://t.co/A6EUHTpDUt
— Daito Manabe (@daitomanabe) June 8, 2019
はてなブログに投稿しました #はてなブログ
— しゅんとく (@syuntoku14) September 23, 2018
Fusion360からURDFを一撃で生成するスクリプトを書いた話 - syuntoku14の進捗https://t.co/ysQnz61fIA
MobileyeのCEOのProf.Amnon ShashuaのMVAでのinvited talkがYoutubeに上がっていました.20分過ぎたあたりからと40分あたりからが面白いです.https://t.co/XTON3Uo22o
— Rei Kawakami (@viaminicab) June 7, 2019
点群×ディープラーニング【入門】 | Qiitahttps://t.co/ZITujb0zLz
— ゆるふわUnaさん (@UnaNancyOwen) June 5, 2019
最近の姿勢推定モデルを解説してみた(Cascaded Pyramid Network) | Qiitahttps://t.co/ZhVxqikmaz
— ゆるふわUnaさん (@UnaNancyOwen) June 5, 2019
RT
— 森山和道/ライター、書評屋 (@kmoriyama) June 4, 2019
もうすぐ人間の仕事を奪う? ロボットが1日2万5000個のラズベリーを収穫|BUSINESS INSIDER https://t.co/XzFdPpCGYr @BIJapanさんから
choreonoid v1.7.0のdockerイメージを作ってみた on @Qiita https://t.co/SktvEnYyc6
— wukun (@wukunn) June 3, 2019
生成されたオプティカルフローに基づき、ピクセルを伝播し欠落ピクセルを補完していくビデオ修復法。 https://t.co/J9EnJ04k8p
— AI-SCHOLAR. (@ai_scholar) June 3, 2019
— phalanx (@ZFPhalanx) June 3, 2019
ありがたや...
— Namihei Adachi (@7oei) June 3, 2019
ICRA 2019 速報 by @HirokatuKataoka #computervision #deeplearning https://t.co/qNR8QNOrYp @SlideShareさんから
ソフバンが誤差数cmの測位サービスと低価格GNSS受信機を発表、7月から実証実験開始 – TechCrunch Japan https://t.co/pH00rCvRYN
— 単身赴任おじさん⛅ (@Quodimponeret) June 3, 2019
この間ドコモが同じようなサービス開始とのニュースがあったが、ソフトバンクもネットワーク型RTKのサービスを始めるようだ。
低価格ってどのくらいなんですかね?AI Feynmanは様々な現象を支配する物理法則(ケプラーの法則等)を観測データのみから推定するシンボル回帰問題で、両辺の単位が一致、低次、対称性があるといった事前知識とNNによるblackbox回帰を活用した探索で簡単な公式は100%、難しい公式は90%、推定することができた https://t.co/q6oGiuQND1
— Daisuke Okanohara (@hillbig) June 4, 2019
深層学習は最適化問題を解き学習を達成するが、従来の最適化の「最小解を高速に探索する」という観点では汎化現象を説明できず、最適化の軌跡の理解が重要となっている。学習過程では簡単なモデルから順に学習されていることが予想されている(例 https://t.co/J9B5nVP5eV) https://t.co/V1uuwXySdH
— Daisuke Okanohara (@hillbig) June 4, 2019Google、複数音から特定の発話者だけの声を聞こえるようにするDeep learningを用いた視聴覚音声分離モデル発表https://t.co/IwZxr5xvml
— 宮島正 (@yasuokajihei) June 13, 2019新型LeapMotion 「Rigel」について連ツイします.
— だぶ@技術書典7 せ39D (@troll01234) June 3, 2019
既知の情報が多いと思うけれども.
新しい情報がなかなか出てこない新型LeapMotionErno Horvath and Csaba Hajdu released a simple tutorial shows how to read LIDAR (range) measurements from a file and convert it to occupancy grid. #robot #AI #python PythonRobotics/Mapping/lidar_to_grid_map· AtsushiSakai/PythonRobotics https://t.co/WKR4XcgBtA pic.twitter.com/AKYxieTOuD
— Atsushi Sakai (@Atsushi_twi) June 3, 2019Realtime volumetric capturing with a RealSense T265/D415 combo. It works like a free-floating camera in a 3D scene. Previously I used my hand to "mount" them. Now it's stable and easy to move around. https://t.co/M8O67naCqW pic.twitter.com/raVxCiaKPS
— Keijiro Takahashi (@_kzr) May 30, 2019NVIDIA Jetson Nanoで OpenPoseをビルドする方法、動画から人体の骨格検出 (NVIDIA Jetson Nanoの CUDAパワーで OpenPoseを使って動画から人体の骨格検出)
でべ on Twitter: "レビュー記事書きました!Jetson Nanoですが、ラズパイも少しフォローしてます。 Jetson Nano でカルマンフィルタ不要の9軸フュージョンセンサ BOSCH BNO055を使う https://t.co/6J658G3E1p"
I think the @nvidia Jetson Nano will be a game changer for interactive media art — so I put together a tutorial for getting @openframeworks running on it (including my go-to addons, like ofxKinect and ofxKinectV2) https://t.co/o7OPkx3Ucr #openframeworks #addon #creativecoding
— Madeline Gannon (@madelinegannon) June 13, 2019
Jetson Nanoを使ったアプリケーションが
— Hatenaブログに移行したよ (@Vengineer) June 30, 2019
github(NVIDIAのAI-IOT)にて公開されています。
JeTracer : https://t.co/HzbH8pE6sE
JetBot : https://t.co/bZCUmht6Gq
JetCam : https://t.co/KWirx0MSln
JetCard : https://t.co/KYHbFKEu13JetsonNano関係
"2.5D Printing: Bridging the Gap Between 2D and 3D Applications"を周りに広めようと、雑訳作業をしてる。「違う言葉に置き換える」作業である翻訳、それをスラスラできる人たちって凄いと思う。https://t.co/CeI8xD4zCg
— Jun Hirabayashi (平林 純) (@hirax) June 1, 2019
翻訳を期待!Dynamic Traffic Scene Classification with Space-Time Coherence. https://t.co/3mrWi206ca pic.twitter.com/q2zLP4sBMd
— arxiv (@arxiv_org) June 1, 2019こりゃあ良い記事 BNO055 フィルタ無くても良いらしい9軸IMUの弱点について https://t.co/Tp3n0uLS2H
— でべ (@devemin) June 1, 2019
BNO055では何も考えずQuaternion出力を使え、という話。久しぶりに書いた.
— 床井浩平 (@tokoik) June 1, 2019
床井研究室 - Oculus Rift に図形を表示するプログラムを C++ で作るhttps://t.co/lUnY8kaAZ3
書きたいことは他にもあるけど時間がなぁ…
大事だと思うんです。Unityでオブジェクト置いたら終わり、じゃ意味ないもん。A survey of Object Classification and Detection based on 2D/3D data. https://t.co/eMnNCHdRSX pic.twitter.com/7IiUrvIBuQ
— arxiv (@arxiv_org) June 1, 2019todaitotexas.com
欲しい情報が何一つ手に入らない素敵なWEBページ。光が漏れる光ファイバー。ELファイバーと違い漏電しないので水辺でも使える。 pic.twitter.com/gj0lNgnBKh
— ミクミンP/Kazuhiro Sasao (@ksasao) June 1, 2019
展示内容は素晴らしい。