メモ:ur_rtdeに独自関数を追加したいときの方法
URロボットの通信用インターフェースの一つであるRTDEでは、urscriptやその入出力の変数を自前で定義して、呼び出してやる必要があります。URは、入出力のデータの並びの定義をrecipeと呼んでいます。わかってしまえば、たいして難しくないものの、その仕組みはちょっとヤヤコシイので、ur_rtdeに自前の関数を追加したいときのメモを残しておくことにします。
編集する必要があるファイルは、
1. rtde_control.script
2. rtde.h
3. rtde_control.h
4. rtde_control.cpp
です。
rtde_control.scriptにはURScript形式で記述したロボットコマンドを追加します。
rtde.hには、RobotCommandのTypeとRecipeの定義を追加します。
rtde_control.hには、自前スクリプトの呼び出し関数の定義を追加し、rtde_control.cppには、自前スクリプトの呼び出し関数の定義を記述します。入力変数と、出力変数の受け取りも記述します。
定義や関数を追加した後に、cmakeからur_rtdeの再ビルドを行います。
is_within_safety_limits()をコマンド33に追加するときの例
rtde_control.script
def process_cmd(): cmd = read_input_integer_register(0) if cmd == 1: textmsg("movej") q = [0, 0, 0, 0, 0, 0] q[0] = read_input_float_register(0) ~中略~ elif cmd == 33: textmsg("is_within_safety_limits") x = p[0, 0, 0, 0, 0, 0] x[0] = read_input_float_register(0) x[1] = read_input_float_register(1) x[2] = read_input_float_register(2) x[3] = read_input_float_register(3) x[4] = read_input_float_register(4) x[5] = read_input_float_register(5) val = is_within_safety_limits(x) if val == False: write_output_integer_register(1, 0) else: write_output_integer_register(1, 1) end textmsg("is_within_safety_limits done") elif cmd == 255: textmsg("Received stop!") end return cmd != 255 end
rtde.h
class RobotCommand { public: enum Type { NO_CMD = 0, ~中略~ GET_INVERSE_KINEMATICS = 31, PROTECTIVE_STOP = 32, IS_WITHIN_SAFETY_LIMITS = 33, ///// added STOP = 255 }; enum Recipe { RECIPE_1 = 1, ~中略~ RECIPE_11 = 11, RECIPE_12 = 12 ///// added };
rtde_control.h
~前略~ RTDE_EXPORT std::vector<double> getInverseKinematics(const std::vector<double> &x, const std::vector<double> &qnear, double max_position_error=1e-10, double max_orientation_error=1e-10); RTDE_EXPORT int getIsWithinSafetyLimits(const std::vector<double> &x); ///// added /** * @brief Triggers a protective stop on the robot. Can be used for testing and debugging. */ RTDE_EXPORT bool triggerProtectiveStop(); ~中略~ private: int getIsWithinSafetyLimitsValue(); ///// added ~後略~
rtde_control.cpp
RTDEControlInterface::RTDEControlInterface(std::string hostname, int port) : hostname_(std::move(hostname)), port_(port) { ~前略~ // Setup input recipes ~中略~ // Recipe_12 std::vector<std::string> is_within_safety_limits_input = { "input_int_register_0", "input_double_register_0", "input_double_register_1", "input_double_register_2", "input_double_register_3", "input_double_register_4", "input_double_register_5"}; rtde_->sendInputSetup(is_within_safety_limits_input); ~後略~ } } bool RTDEControlInterface::reconnect() { ~前略~ // Setup input recipes // Recipe 1 ~中略~ // Recipe_12 std::vector<std::string> is_within_safety_limits_input = { "input_int_register_0", "input_double_register_0", "input_double_register_1", "input_double_register_2", "input_double_register_3", "input_double_register_4", "input_double_register_5"}; rtde_->sendInputSetup(is_within_safety_limits_input); // Init Robot state ~後略~ } int RTDEControlInterface::getIsWithinSafetyLimitsValue() { if (robot_state_ != nullptr) { return robot_state_->getOutput_int_register_1(); } else { throw std::logic_error("Please initialize the RobotState, before using it!"); } } int RTDEControlInterface::getIsWithinSafetyLimits(const std::vector<double> &x) { RTDE::RobotCommand robot_cmd; robot_cmd.type_ = RTDE::RobotCommand::Type::IS_WITHIN_SAFETY_LIMITS; robot_cmd.recipe_id_ = RTDE::RobotCommand::Recipe::RECIPE_12; robot_cmd.val_ = x; if (sendCommand(robot_cmd)) { return getIsWithinSafetyLimitsValue(); } else { return -1; } }
double型のベクターを渡したいだけなのに、頭に "input_int_register_0" がついているのは、ベクターの大きさを暗黙のうちに渡すような仕組みになっているからです。明示的には渡しません。
実行例
#include <ur_rtde/rtde_control_interface.h> #include <thread> #include <chrono> #include <iostream> using namespace ur_rtde; int main(int argc, char* argv[]) { RTDEControlInterface rtde_control("192.168.0.1"); // int movec_mode = 0; std::vector<double> tcp_pose1 = {-0.143, -0.435, 0.20, -0.001, 3.12, 0.04}; std::vector<double> tcp_pose2 = {-0.143, -0.51, 0.21, -0.001, 3.12, 0.04}; std::vector<double> tcp_pose3 = {0.4, 0.4, 10.0, 0.0, 3.14159, 0.0}; //rtde_control.getInverseKinematics(); std::cout << "getIsWithinSafetyLimits" << std::endl; bool result; result = rtde_control.getIsWithinSafetyLimits(tcp_pose1); std::cout << result << std::endl; result = rtde_control.getIsWithinSafetyLimits(tcp_pose2); std::cout << result << std::endl; result = rtde_control.getIsWithinSafetyLimits(tcp_pose3); std::cout << result << std::endl; return 0; }
今日の本文
大きなテレビが安い。
ソニー 65V型地上・BS・110度CSデジタル4K対応 LED液晶テレビ(別売USB HDD録画対応)Android TV 機能搭載BRAVIA KJ-65X8000G
- 発売日: 2019/05/22
- メディア: エレクトロニクス
ソニー 4Kチューナー BS/CS4K 地上デジタル 裏録対応 ダブルチューナー HDMIケーブル付属 DST-SHV1
- 発売日: 2018/11/10
- メディア: エレクトロニクス
メモ:onRobot社のRG2GripperをURスクリプトを使って、ur_rtdeから動かしたいときのスクリプトのサンプル
ロボットアームUR5eに取り付けたonRobot社RG2グリッパーを、URScriptを使って、自前のc++プログラムから操作するときのサンプルを紹介します。
UR5eの駆動方法
UR5eを動かすための方法は、URScriptを使う(port 30000~30002)か、RTDE(Real-Time Data Exchange, port 30004)[0]を使うかに分かれます。
ROSIndustrialなどは中でURScriptを叩いているそうですが、URScriptの応答は速くなくロボットハードウェアの性能を全て引き出すことは難しいです。
ロボットの性能を引き出すために、RTDE経由でコマンドを送る方が良く、そこに着目した幾つかのグループでRTDEをラップして便利に使いやすくするライブラリの開発[1][2][3]が進められています。
一方で、onRobotのRG2はRTDEではなく、URScriptから呼び出す必要が有ります。
ここでは、開発が現在進行形で進んでいるソースコードがきれいなur_rtdeを使って、そこからURScriptを呼び出す方法を試してみたいと思います。
onRobot社のマニュアルによれば、簡単にURScriptからRG2関数を呼べるようになるのでは?
RG2関数がURScriptにロードされるのは、PolyScope内だけです。外部から呼び出すことはできません。
onRobot社のマニュアルに不備があります。
ur_rtdeのScriptClient
ur_rtdeはいくつかのコンポーネントから構成されており、RTDEReceiveInterface、RTDEControlInterface、RTDEIOInterface、ScriptClientなどがあります。
うまく使えばRTDEIOInterfaceを使ってRG2グリッパーを動かすことができるかもしれませんが、まだノウハウの蓄積がないのでわかりません。
ここでは、ScriptClientを使ってURScriptを流し込む方法で動かしてみたいと思います。
ソースコードのサンプル
ファイルに書いたスクリプトを読み込む方法と、平書きしたstringを渡す方法の2つがあります。
URScriptでは、scriptの中のタブとか改行コードとかがシビアに影響します。デバッグもし辛いので慎重に確認してください。
実機を動作させるときには、電源をOnにして、polyscopeのタブレットからリモートコントロールができるように設定しておく必要がありますので、忘れないでください。
ofApp.h
#pragma once #include "ofMain.h" #include <ur_rtde/rtde_receive_interface.h> #include <ur_rtde/rtde_control_interface.h> #include <ur_rtde/script_client.h> class ofApp : public ofBaseApp{ public: void setup(); void update(); void draw(); void RG2(int width, int force); std::shared_ptr<ur_rtde::RTDEReceiveInterface> rtde_receive; std::shared_ptr<ur_rtde::RTDEControlInterface> rtde_control; std::shared_ptr<ur_rtde::ScriptClient> script_client; };
ofApp.cpp
#include "ofApp.h" #pragma comment(lib, "rtde.lib") //-------------------------------------------------------------- void ofApp::setup(){ script_client = std::make_shared<ur_rtde::ScriptClient>("192.168.1.1", 5, 5, 30002); // Polyscope ver. 5.5 port 30002 script_client->connect(); if (script_client->isConnected()) { script_client->sendScript("data/RG2.script"); std::cout << "send command" << std::endl; } } void ofApp::update() { } void ofApp::draw() { } void ofApp::RG2(int width, int force) { int offset_width = 9; // 9.2[mm]; int target_width = offset_width + width; if (target_width > 110) target_width = 110; else if (target_width < 0) target_width = 0; if (script_client->isConnected()) { std::string cmd_str; cmd_str = "def RG2():\n"; cmd_str += "\tdef bit(input):\n"; cmd_str += "\t\tmsb = 65536\n"; cmd_str += "\t\tlocal i = 0\n"; cmd_str += "\t\tlocal output = 0\n"; cmd_str += "\t\twhile i < 17:\n"; cmd_str += "\t\t\tset_digital_out(8, True)\n"; cmd_str += "\t\t\tif input >= msb :\n"; cmd_str += "\t\t\t\tinput = input - msb\n"; cmd_str += "\t\t\t\tset_digital_out(9, False)\n"; cmd_str += "\t\t\telse :\n"; cmd_str += "\t\t\t\tset_digital_out(9, True)\n"; cmd_str += "\t\t\tend\n"; cmd_str += "\t\t\tif get_digital_in(8):\n"; cmd_str += "\t\t\t\toutput = 1\n"; cmd_str += "\t\t\tend\n"; cmd_str += "\t\t\tsync()\n"; cmd_str += "\t\t\tset_digital_out(8, False)\n"; cmd_str += "\t\t\tsync()\n"; cmd_str += "\t\t\tinput = input * 2\n"; cmd_str += "\t\t\toutput = output * 2\n"; cmd_str += "\t\t\ti = i + 1\n"; cmd_str += "\t\tend\n"; cmd_str += "\t\treturn output\n"; cmd_str += "\tend\n"; cmd_str += "\tdef RG2(target_width = 110, target_force = 40):\n"; cmd_str += "\t\tbit(0)\n"; cmd_str += "\t\tsleep(0.024)\n"; cmd_str += "\t\trg_data = floor(target_width) * 4\n"; cmd_str += "\t\trg_data = rg_data + floor(target_force / 2) * 4 * 111\n"; cmd_str += "\t\trg_data = rg_data + 32768\n"; cmd_str += "\t\tbit(rg_data)\n"; cmd_str += "\t\twhile get_digital_in(9) == True:\n"; cmd_str += "\t\t\tsync()\n"; cmd_str += "\t\tend\n"; cmd_str += "\t\twhile get_digital_in(9) == False:\n"; cmd_str += "\t\t\tsync()\n"; cmd_str += "\t\tend\n"; cmd_str += "\tend\n"; cmd_str += "\tRG2(" + std::to_string(target_width) + "," + std::to_string(rg2_force) + ")\n"; cmd_str += "end\n"; cmd_str += "run program\n"; script_client->sendScriptCommand(cmd_str); std::cout << cmd_str << std::endl; } }
RG2.script
def RG2(): def bit(input): msb=65536 local i=0 local output=0 while i<17: set_digital_out(8,True) if input>=msb: input=input-msb set_digital_out(9,False) else: set_digital_out(9,True) end if get_digital_in(8): output=1 end sync() set_digital_out(8,False) sync() input=input*2 output=output*2 i=i+1 end return output end def RG2(target_width=110, target_force=40): bit(0) sleep(0.024) rg_data=floor(target_width)*4 rg_data=rg_data+floor(target_force/2)*4*111 rg_data=rg_data+32768 bit(rg_data) while get_digital_in(9) == True: sync() end while get_digital_in(9) == False: sync() end end RG2(100, 40) end run program
References:
[0] https://www.universal-robots.com/how-tos-and-faqs/how-to/ur-how-tos/real-time-data-exchange-rtde-guide-22229/
[1] pypi.org
[2] gitlab.com
[3] github.com
[4] bitbucket.org
自分用読むべき論文メモ 2019年9月版
相変わらず忙しいふりをしています。Twitterで見かけた面白い記事まとめです。
RT
— 森山和道/ライター、書評屋 (@kmoriyama) October 2, 2019
重量わずか1g、ソフトロボット向け伸縮性小型ポンプを開発|fabcross https://t.co/xYcNkWl2BQ
はいどろ
入院、差額ない部屋を希望してたけど満室なので差額ベッド代5000円×日数かかります同意書にサイン下さいと言われて(ツイッターで見たやつ…!)と思って「病院都合だと差額は支払い不要と聞いていますが…?💦」と言うと30分くらい待たされた結果差額なしの部屋を用意してくれた。満室とは🤔
— 日没 (@nichibotsu_63) October 1, 2019
こういう病院の事務は詐欺で立件されてもよい。
Deep Learningの統合開発環境Neural Network Consoleにおいて、画像データの水増しにより高精度を実現するImage Augmentationレイヤーの使い方解説動画を公開しました!https://t.co/VoFUHya2Kc
— Yoshiyuki Kobayashi (@frievea) October 2, 2019
Deep Dynamics Models for Learning Dexterous Manipulation
— Shuuji Kajita (@s_kajita) September 28, 2019
PDDM Planning with Deep Dynamics Models: simulation results https://t.co/KZXB5i2sWB
マニピュレーションのダイナミクス学習
日本語でarXivの量子情報・量子コンピュータの論文のまとめを公開しているサイト
— T duality (@QFTlover) September 27, 2019
GitHub - arXivQuration/arXivQuration: repository to share the quantum information and quantum computer articles https://t.co/dtgzNQPHvx
量子コンピュータリンク集
MixedRealityToolkit-Unity(MRTK) の非公式日本語ドキュメントを公開しました!
— たるこす (@tarukosu) September 27, 2019
詳しくはブログをご覧ください! #MRTKhttps://t.co/oAPX61Uif1
MRTK非公式日本語マニュアル
一通り読んでみたけど、一番知りたかったOnline Calibration Validationについては書いてなかった。。。 High-Fidelity Sensor Calibration for Autonomous Vehicles https://t.co/nuFayfuUqm
— Atsushi Sakai (@Atsushi_twi) September 27, 2019
Calibration一杯アルゴリズムあるけど、必要な時に欲しいものが見つからない。最近、Visual Inertial SLAMの論文で良く出てくるので、ご存じの方も多いかと思います。キャリブレーションプログラムKalibrは下記のことができます。
— VMR Labs (@stargate3329) September 24, 2019
(1)レンズ歪み検出、ステレオ校正
(2)カメラ-IMU間の軸、時間ズレ検出
(3)ローリングシャッターカメラのキャリブレーションhttps://t.co/nIBZ0g48HO
Kalibr
Researchers from ETH Zurich are using a new method for digital timber con-struction in a real project for the first time.. #tech #design #robotics #engineering #future pic.twitter.com/hwoWUIc4dg
— Wevolver (@WevolverApp) September 28, 2019
ああ、こういうのが大好き。
当研究室M1山中君が福祉機器コンテストの学生部門で優秀賞を受賞し,HCR2019の会場で表彰式がありました.見た目はFinchですが,電気を使わない水圧アクチュエータを使っていて,無音,水につっこんでもOK,小さい力で手先を開閉できます.国際会議ISPOでも発表します. pic.twitter.com/agxJp15IYT
— 吉川雅博 : Masahiro Yoshikawa (@ddesign) September 27, 2019
【ブログ更新】これまでに3000報近く英語論文を読んできた経験から「英語論文の読み方」を4つのポイントにまとめました。
— みのん (@min0nmin0n) September 26, 2019
研究室に配属され、先輩から「この論文読んでおいて」と訳も分からず読み始めている学部生の方、「自己流」で始める前に一度読んでみてください。https://t.co/1RJ1QrY81G
論文読み方
はてなブログに投稿しました #はてなブログ
— D.IKUSHIMA (@DIKUSHIMA) September 26, 2019
機械学習の概念を非常にうまく説明したGoogleチームのマンガ - プチメタ3.0https://t.co/tZ2ThslKtW
Googleノ機械学習学習マンガ。続編どうなったかな?
ゲームをついやってしまう、長くやってしまうのはなぜかというのをスーパーマリオ、ドラクエなどの具体例を通じて解説。アフォーダンスなどの直感、思い込みからタブーを破る驚き、世界像や状況を把握したいという本能を喚起させる物語など。認知科学、行動心理学のよい導入https://t.co/p9CSBLRhbf
— Daisuke Okanohara (@hillbig) September 24, 2019
日経ロボティクスにAI最前線という記事を2015年より連載しており、最新の話題を早く手加減せずに書くことをモットーにして書き続け気づいたらもうすぐ50回になります。過去の記事が無償で見られるようになっていますのでご興味のある方は読んでみてください https://t.co/zfw1vVBMrn
— Daisuke Okanohara (@hillbig) August 31, 2019
図面を現実に重ねてチェックできる「GyroEye Holo」最新版で精度向上へ - Mogura VR News https://t.co/3BoOgJcbe7 pic.twitter.com/tKW6iUanlJ
— Mogura VR News (@MoguraVR) 2019年9月27日
こういうのが当たり前になりつつある
Boston Dynamics is back with another video of Atlas doing parkour like a pro.
— Interesting Engineering (@IntEngineering) September 24, 2019
via @BostonDynamics #engineering #robotics #humanoid pic.twitter.com/3qz7hdbMVi
年次更新
レーザー加工も位置合わせが不要になったか…。画像認識で自動調整するレーザー加工機。 pic.twitter.com/dYyMBxnQGD
— 谷田 和郷@中国深センでハードウェア製造現場の仕事 (@TKazusato) September 25, 2019
精度良いね
「お金よりも時間的な余裕が大事」と考える人の方がやりがいのある仕事を見つけ幸せになれると判明https://t.co/9yVUycB9xh
— GIGAZINE(ギガジン) (@gigazine) 2019年9月19日
時間が大事
Masking Salient Object Detection, a Mask Region-based Convolutional Neural Network Analys... https://t.co/wAaMOe7rEa pic.twitter.com/Hvmjrs6oNZ
— arxiv (@arxiv_org) 2019年9月19日
サリエンシー
え!THETA VってTensolflow Lite動くのか!!!まじか
— okd.sh@HAB (@undbn) 2019年9月19日
HowTo Build Tensorflow Apps for RICOH THETA by @craigoda1 https://t.co/yjjCU7NhFZ
Thetaの実力すごい
売上一兆円を超す大企業三社から言質取れたのでほぼ間違いないと思われる。
— shinshinohara (@ShinShinohara) September 19, 2019
どうやら、「うちみたいな大企業なら、100億は売り上げないと新規事業として成り立たない」という、意味不明の言説が日本の大企業の開発陣を呪縛してるらしい。不思議と、三社そろって100億円。なんで100億円やねん。
意味不明
遂に出た。これからの展開をお楽しみに。https://t.co/WKxgXAsIWG
— Masayuki Ohzeki (@mohzeki222) 2019年9月18日
量子コンピュータ関連記事。分からないけど、読む。
メモ:Mechanical Puppetry Lesson 5: Eye Mechanisms https://t.co/cDbvNbtt6v
— robo8080 (@robo8080) 2019年9月20日
英語書くときに気になるのは"この文脈でこの表現使う?"や"Google翻訳で出てきたけど言い方正しい?"だと思うのですが、そんな人におすすめのサイトが https://t.co/PTID3TwvVS 主に投稿サイトRedditから関連表現を検索してきてくれてネイティブ的に妥当な表現か確認できます。英語書くのはかどるー pic.twitter.com/PN5v396VKn
— Tomoaki Imai (@tomoaki_imai) September 19, 2019
dopeoplesay.com
英語の言い回し検索
書きました!「深層学習、物理的に撮影の難しい教師データはUE4で量産すれば良くない?」という記事です >
— D.Kamiyama (@gula_sound) September 19, 2019
自動運転システムの開発にUnreal Engine 4を活用! デンソーが語る自動車業界におけるゲーム技術の存在感〜CEDEC 2019(1) | 特集 | https://t.co/Xx5oeCKXTx https://t.co/iebjZpvavf
ゲームエンジンは必須科目になりつつある
うむ
— あまりょー (@beakmark) 2019年9月19日
/ 一人でやってると個人開発と同じクオリティになる問題 https://t.co/ddRsF7lVnN
コレ!なんでもいいから人数は多い方が良い。
[新商品] 《お取り寄せ商品》Pi-field - ラズベリーパイ屋外稼動キット(LTEモデル) ¥213,840 https://t.co/zYrsMl435C #ssci_new pic.twitter.com/siPkx68WIz
— Switch Science (@ssci) September 19, 2019
ラズパイの屋外連続稼働はまだ高コストだなぁ。
LGSVL Simulator凄いペースで進化しているのでそろそろ改宗した方がよい気がしてきた(白目) https://t.co/eMkLDc1IbP
— dandelion (@dandelion1124) 2019年9月19日
LGSVLシミュレータ
AIにシンプルな「かくれんぼ」を繰り返し実行させることで複雑な戦略とその対抗策を生み出す試みhttps://t.co/ypa5Jvf0xc
— GIGAZINE(ギガジン) (@gigazine) 2019年9月18日
www.k2.t.u-tokyo.ac.jp
Maxwellモデル制御は、勉強しなければならない。
型番からコレかな?
— Katsu Shun (@katsushun89) 2019年9月17日
ブラシレスモータhttps://t.co/XmzBsdSOPI https://t.co/F5rSMh0S3o
安いなぁ
テスラ新EVにSiCと新制御、GaNは電動航空機を狙え https://t.co/BBYvyYiH2o
— 日経 xTECH エレキ・製造・自動車 (@techon) 2019年9月18日
GaNは来たのに、SiCはノーベル賞来ないのかな?
強化学習のビジネス利用に関する資料。 面白そう Reinforcement Learning Inside Business #reinforcement_learning https://t.co/SCPZ3giZkz @SlideShareより
— Atsushi Sakai (@Atsushi_twi) September 17, 2019
シカゴのWintrust Hall (Loyola's Water Tower Campus)で開催中の IFAC Workshop on Distributed Estimation and Control in Networked Systems (NecSys) に寺西くん @kaoruteranishi が参加しています.本会議では,暗号化制御系の準同型性を利用した極配置攻撃(ゲイン改竄)の無効化法を発表します. pic.twitter.com/ic6Appr4jL
— 電気通信大学 小木曽研究室 (@KimiLabUEC) September 17, 2019
えー。腰痛は姿勢の悪さと関係がない:研究結果 | ライフハッカー[日本版] https://t.co/MvyadIn99y
— Atsushi Sakai (@Atsushi_twi) 2019年9月16日
姿勢が悪くても怒られない?
www.cvlibs.net
まだ通用するかな
留学する際にお世話になった、現イェール大学教授是永さんの新刊「できる研究者になるための留学術 アメリカ大学院留学のススメ」に合わせて、記事を書きました。
— Yoshiaki Kuwata (@y_kuwata) September 15, 2019
「授業料無料+生活費支給」で米国の大学院で学べます!そのカラクリ https://t.co/aaHVHA4TXg #ブルーバックス
これは面白い。予算配分にもシミュレーションを入れてみたら面白そうな / “百発百中の砲一門と百発一中の砲百門について計算してみる - 静かなる名辞” https://t.co/r0mHJCMheo
— 楠 正憲 (@masanork) September 16, 2019
太平洋戦争で日本がボロ負けした理由、の一つ?
これ凄く良いなぁ。 https://t.co/Ns8CnmoAL6
— やのせん@VR教育者 (@yanosen_jp) 2019年9月15日
大事
Pythonの知っておくと良い細かい処理速度の違い8個 https://t.co/V91phg4Ddk
— ReLu (@ReluTropy) 2019年9月15日
pythonノウハウ
この知見は学校教育の教員養成過程で科学として教わった方がいいよなぁ。
— arch (@arch05135296) September 15, 2019
実体験として教員は学問の教育者だけでなく、クラスの経営者の側面を持つので、後者の顔において「みんな」という言葉を使いがちなんだよな。
リーダーシップのある子どもに統率を任せる教員も多々いるだろうし、そうなると…。 https://t.co/LrJiIq6xKP
人間の生物としての研究、大事。
近年の深層学習による物体検出のアプローチがどのように進歩したかの調査論文📝
— MARINA🦋|Edge AI (@m__sb04) August 26, 2019
two-stageの検出器は検出性能が向上し、one-stageの検出器は時間効率が大幅に向上していますが、各手法においてどう改善されているのかなど構造の理解やキャッチアップに是非。
▶︎ https://t.co/4ouTJXY5on pic.twitter.com/eGwFJaUfOp
物体検出の進歩
https://t.co/V13qFx6agV pic.twitter.com/n4HLe9uKbv
— Shigekazu Ishihara (@shigekzishihara) 2019年9月13日
サーボモーターは並木精密宝石製で、価格は1個24ドルと。こんな値段で買えれば使いたい人も多いんじゃないかな | ロボホンはペッパーの100倍スゴイ、と筆者は思う https://t.co/gFkJFKa5OC
— 大塚実GO (@ots_min) July 28, 2016
ロボホンの並木精密宝石サーボモータ24$
qiita.com
データの作り方だいじ。
Semantic Segmentationの各種実装だけをひたすら集めたリポジトリです。色々試すにはとてもありがたいリポジトリですね。https://t.co/fmoZLCnPOH
— Super PINTO (@PINTO03091) 2019年9月12日
github.com
セマンテックセグメンテーションの実装集
手のポーズ推定に neural renderer を新しく使ってもらえたっぽい [Zimmermann+ ICCV 2019]。手の話は [Baek+ CVPR 2019] に次いで2本目で、こういう「基本的な形はほぼ決まっていてその変形だけが問題」という設定には強いみたいですね。 https://t.co/jHQCtXtpjF
— Hiroharu Kato (@hiroharu_kato) September 12, 2019
nerural rendererは、必須ツールになりつつある感じ?
http://www.jfssa.jp/taikai/2019/table/program_detail/pdf/1/1-100/10070.pdf
わかってないけど、読まねば。
qb SoftHand pick&place with Pick it 3D vision system https://t.co/lEw5WfcbD4 via @YouTube
— Akihiko Yamaguchi (@AkihikoYmgch) 2019年9月12日
ハンドは柔らかい方が良いよね
matlabの分類器,すごいな。データほりこんだら,30種類くらいの分類器で一気に分類して,一番精度が高いものを選んでくれる。
— 小紫 (@logophilius) September 10, 2019
とりあえず,機械学習使ってくれみたいな要求はこれでボタンひとつやな笑(個人的には,できる限り解釈性の高いモデリングをしたいので,研究には使わないけれど) pic.twitter.com/pw66mq0OCo
matlabの分類器。試してみたい。
新しいiPhoneです pic.twitter.com/IjYJBbTxkY
— ふぁるこん◇xR・ディズニー・スタウォ (@makotofalcon) 2019年9月10日
カワイイ
shiropen.com
手とオブジェクトのモデリング
これは面白い。微細構造的&処理技術的に超小型分光センサを作る研究。 https://t.co/0KxCBxhHAR
— Jun Hirabayashi (平林 純) (@hirax) 2019年9月10日
よくわからないけど、すごそうなもの。
使い捨て輸送ドローンに注目が集まる。木材とホビー級電子回路で作られ安価。貨物300-600kgを搭載しヘリコプターや輸送機から投下、50-100km滑空して10-20m程度の精度で着陸。激戦地への物資補給でパラシュート投下に代わる可能性を持ち、米海兵隊が導入予定https://t.co/KRzWQHiiGl pic.twitter.com/82inxDF5kP
— tetsu (@metatetsu) September 10, 2019
使い捨て輸送ドローン。軍事応用が怖い。
GradCAM++が出てたのは知ってたけど、今度はSmoothGradとの組合せが出てきた / [1908.01224] Smooth Grad-CAM++: An Enhanced Inference Level Visualization Technique for Deep Convolutional Neural Network Models https://t.co/JdRuUqnmtd
— しゅんけー (@shunk031) September 10, 2019
推論理由の可視化
qiita.com
qiita.com
github.com
jetson-nano用ffmpeg。NDIは対応してないのかな?
www.slideshare.net
ICRA2019まとめ
ICRA 2019で出てたLIO-mappingのコード公開されてたの気付いてなかった・・・ https://t.co/lkBLukxeUk
— dandelion (@dandelion1124) 2019年9月10日
LIO-mapping
世界で初めての5本指のロボットの人の腕は、旧ユーゴ時代のベオグラードで作られたのだと教えてくれた。(Rajko Tomovićによるもの)
— Takayuki Todo (@toodooda) September 10, 2019
その翌日に会ったクロアチア人のPomさん(アルスの公式写真家であり、本業は医者)にその話をすると「当時のユーゴスラビアはプロテーゼ医療に相当投資をしていたからね」 pic.twitter.com/TTRG5TAnDS
5本指ロボット
arXivに投稿しました! https://t.co/T0bmrmhQun
— Yosuke Shinya (@shinya7y) September 10, 2019
"内部アーキテクチャ"に基づく分析とチャンネル数自動決定により、物体検出CNNの事前学習効果を明らかにし、通常のResNetより効率的なbackboneを見つける。
ImageNet事前学習に効果が無いのではなく、現状のアーキテクチャや知識転移方法に問題がある。 pic.twitter.com/KxY0HTQrvj
みんな出世していてうれしい。
昼寝は心臓発作や脳卒中などのリスクを低減することが研究で明らかにhttps://t.co/X3qv9gNLjM
— GIGAZINE(ギガジン) (@gigazine) 2019年9月10日
お昼寝推奨
google.github.io
Googleのコードの書き方
CARLA記事を読むと(おそらく)できるようになること pic.twitter.com/SbfmDsslnP
— dandelion (@dandelion1124) 2019年9月9日
CARLA
ブログ書きました。ディープラーニングYOLO v3をファインチューニングすることで、少量のデータセットで検出をカスタマイズする方法です。80枚の画像でWHILL Model Cを検出してます。 https://t.co/XFl5PazdwY pic.twitter.com/htwr2A3THv
— Kazumichi Shirai (@KazumichiShirai) September 9, 2019
eng-memo.info
Yoloの改良
YoloV3の各種実装をまとめたリポジトリを発見しました。なかなか凄いと思います。よく情熱を持ってココまで情報収集したな、という感覚です。https://t.co/AhlOtCZDOY
— Super PINTO (@PINTO03091) September 10, 2019
Yolo実装
Wi-Fiの電波が届かない場所を物理学の方程式を駆使して特定(2014)https://t.co/l39BvA2Kq1
— GIGAZINE(ギガジン) (@gigazine) 2019年9月6日
WiFiの届く範囲のシミュレーション
ai-scholar.tech
集合を扱うネットワーク。数学
No matter what language they speak, people around the world exchange information at an average rate of 39 bits per second in conversation. That may be the optimal language-processing speed of the brain. https://t.co/QFkOpl7u4m pic.twitter.com/aDMZn2SG96
— Corey S. Powell (@coreyspowell) September 4, 2019
言語の違いに大した有意差はなく、大体39bits/secの情報伝達が行われる。
japanese.engadget.com
アンドロイドがもっとリアル肌になるかな?
oaktree-lab.shop-pro.jp
900度まで観測可能な低解像度サーモカメラ
梶田先生の「ヒューマノイドロボット」に掲載されているZMP規範の歩容生成法の、オンライン生成と動力学フィルターをSTM32F4マイコンで実装しましたのでgithubに公開します。
— しまけん (@_shimaken_) March 9, 2018
興味のある方は見てくださいhttps://t.co/Kjoe9qYFj8
ZMP歩行のSTM32F4マイコン実装
github.com
ChoreonoidでPremaid Ai
ベジタス「野菜工場」亀岡プラントで野菜の安定供給の次世代スタイルを見た(2012)https://t.co/QjPtzhyeq8
— GIGAZINE(ギガジン) (@gigazine) 2019年9月4日
亀岡の野菜工場
謎カメラ
物や人が当たるとアバタが勝手に動いて貫通しない研究をしています(物理エンジン使用)
— すずかけの民 (@suzukake0) September 2, 2019
CEDECで一人バージョンの展示をします!
題名「演技サポート!ギフトが当たると勝手に動くVTuberアバター」#VRoid #CEDEC pic.twitter.com/3gQVLGKjng
作り込みではなくて、どの辺が研究のキモなのか分かりやすいと良いな。
A Review of Point Cloud Semantic Segmentationhttps://t.co/vzQ5pO7gk2
— 𝓝𝓲𝓬𝓴 𝓓𝓮𝓫𝓾 (@nick_debu_p) 2019年9月2日
Deep点群だとDGCNN世代までしか載ってないけど,古典的手法からのレビュー論文
勉強の出遅れを取り戻したいときに、縋り付くための記事。
Checkout how fast and clean this hand held laser welds.
— World of Engineering (@engineers_feed) 2019年9月2日
Credit to https://t.co/hKoBFpHIAJ pic.twitter.com/YPzblOwGn7
お手軽そうな溶接機。安全なら欲しい。
EyeNet: A Multi-Task Network for Off-Axis Eye Gaze Estimation and User Understandinghttps://t.co/lF06JnZRHS
— arXiv Daily (@arXiv_Daily) August 27, 2019
by Zhengyang Wu et al. including @vijaycivs#NeuralNetwork #Statistics
MagicLeapによる視線と感情の認識
「ボクセル単位で崩れる破壊表現」を海外プログラマが研究中、映像が大きな話題に。同技術を使った暴力的ではないゲームが開発へhttps://t.co/66ECCMtZFG pic.twitter.com/UIn13IY3j5
— 電ファミニコゲーマー (@denfaminicogame) August 27, 2019
キネクトなりRealsenseからなり、こういうデータを取り込んで、サクッとロボットシミュレーションに使えるようにしたい。
PointFlow is a generative model of 3D point clouds. It first generates a latent variable for shape and then uses this to define continuous normalizing flow dynamics and generate point clouds following the dynamics. Training can be done with MLE. https://t.co/Ybv9DkbD9Y pic.twitter.com/j4H9rcnRNS
— Daisuke Okanohara (@hillbig) July 5, 2019
少ないパラメータでの物体変形、昔やりかけたままだなぁ。
phi16.hatenablog.com
こんなノウハウの塊の公開、とてもありがたい。本にしてほしい。
よくわからないけど、すごそうなもの。
Chirped mid-infrared pulseを旋律を整えた赤外光と意訳するところがユニーク。ぜひ読んでみよう。【記者発表】旋律を整えた赤外光で分子反応を操作 - 東京大学生産技術研究所 https://t.co/n3Xx3d7rfN
— Yoshiteru Matsumoto (@tsumatomo_0727) September 1, 2019
自分用読むべき論文メモ 2019年8月版
主にTwitterで見かけた面白い記事まとめです。
Google Releases Real-time Mobile Hand Tracking to R&D Community https://t.co/A2YVUQGqfJ @GoogleARVR @googledevs pic.twitter.com/sEz4Ds1aaW
— Road to VR (@RtoVR) August 30, 2019
ハンド
ICCV2019に採択された論文のコードを公開しています。ドメイン適合において、Targetドメインにもちょっとだけラベル付きデータがあるというSemi-supervisedなドメイン適合に対する手法です。https://t.co/wSykJ3BqRU
— k-saito@boston (@ksaitoboston1) August 29, 2019
As part of the SHERO project, the Cambridge team, led by Dr Fumiya Iida from the Department of Engineering are looking at integrating self-healing materials into soft robotic arms.
— Wevolver (@WevolverApp) August 30, 2019
Project by: Cambridge University pic.twitter.com/55tcgtwxLM
永守賞で見た。
ああ、これは間違いなくロボット工学の話だ。そして、この人のプレゼンテーションは恐ろしく上手いな。
— Shuuji Kajita (@s_kajita) August 29, 2019
脳の存在理由 (ダニエル・ウォルパート | TEDGlobal 2011) https://t.co/vPgXILmbLN
「全固体電池だからといって高額な投資は必要なくなる」「エネルギー密度を大きく増やせる余地が大きい」。ベルギーの研究機関imecが開発した新しい全固体電池の技術に迫ります。https://t.co/bJiKFajoim
— 日本経済新聞 電子版 (@nikkei) August 30, 2019
道具を使う組み立て作業の計画技術:見まねによる即時教示・道具操作 https://t.co/AkMLDZ7TCJ @YouTubeさんから
— 森山和道/ライター、書評屋 (@kmoriyama) August 29, 2019
組み立て作業解析
Revolutions: The Ideas that Changed the World - Robots on @BBCFOUR tonight was a better programme than most on Robots especially because they had the always excellent @rodneyabrooks on hand to explain reality. Catch it on demand here: https://t.co/GqpVwbphXl #AI #Robots
— The Time Blawg (@TheTimeBlawg) August 27, 2019
確かに弟のWHILLに乗ったとき前輪のオムニホイールが点字ブロックに引きずられがちでジョイスティックの制御が面倒だった。電動車椅子にも応用されるといいかも。https://t.co/ndtVshwUj3 @pc_watchより
— Becker Hikaru (@beckerhikaru) August 27, 2019
知りませんでした「成層圏ドローン」。こんなに開発が活発化しているんですね…
— George Nishiyama (@g_nishiyama) August 27, 2019
成層圏を飛行するドローンや気球、飛行船など高高度航空機の売上高は今後10年で約1800億円に上る可能性がある。 https://t.co/liRhlcOAms
アランココーニは今何やってるんだろう
This animatronic will be covered with an artificial skin after testing. @boston_dynamics #robotics #engineering #tech #research #design pic.twitter.com/Exlp0GrGVW
— Wevolver (@WevolverApp) August 27, 2019
自由度多い
まだまだ実用化まで遠そう / “世界初の充電可能な「鉄イオン電池」が開発される、高エネルギー効率でリチウムイオン電池より安全 - GIGAZINE” https://t.co/QYPNDJGKx2
— LM-7 (@LunarModule7) August 27, 2019
鉄イオン電池は重くないのかな
『認知の歪み』は、人間にDNAレベルで組み込まれた脳のクセ(バイアス)なので、知らないとみんな例外なくハマります。
— 山口慶明🇺🇸アメリカ駐在経理マン (@girlmeetsNG) August 25, 2019
脳のバグみたいなもんです。
代表的なものとして10種類があり、これらの思考はウツの原因になるので、ゆがみを知り、気づき、客観的な事実に基づいて判断し、正すことが重要です。 pic.twitter.com/06JooZLOZ7
東尋坊で驚いた商売。
— タフィー (@TO_tuffy) August 26, 2019
道端で右のおじさんがドローンを操作して東尋坊の景色を撮る→真ん中の3人の親子がお金を払ってVRゴーグルでその景色をリアルタイムで見ているところ。
楽しそうだけど道端でパイプ椅子に座りながらの擬似遊覧飛行とは何ともシュールな絵面である🙄
でも1人500円とか良心的! pic.twitter.com/zgN5v7KZBb
FPV商売?
We now released code and trained models for our GSCNN semantic segmentation work done at @NvidiaAI. Check it out! @yongyuanxi @davidjesusacu @jampani_varun
— Sanja Fidler (@FidlerSanja) August 26, 2019
Paper (ICCV'19): https://t.co/BLP16eLQLI
Project page: https://t.co/87x2byYrfB
Code (@PyTorch ): https://t.co/yssSMZN0u7 pic.twitter.com/kM0wTowcV3
セグメンテーションのタスクで、色やテクスチャーではなく形状に注目する機構を導入した研究。具体的には、通常の画像を処理するネットワーク(Regular Stream)と並行してAttentionからShape検知を行うShape Streamを導入する。Shapeの学習を行うため、Boundaryに関するlossを組み込んでいる。 https://t.co/ov6l8BLD68
— piqcy (@icoxfog417) August 30, 2019とても結果がきれい
資料はこちらhttps://t.co/ZDiPu8ivPQ #cvsaisentan
— コンピュータビジョン勉強会@関東 (@kantocv) August 25, 2019
【助かる】レーザーで蚊の位置を教えてくれるデバイスが登場https://t.co/lzpJ13pAAA
— ライブドアニュース (@livedoornews) August 24, 2019
イスラエルのメーカーが製作。飛んだ状態からマークし、着地したところでレーザーを照射しつつ、スマホに通知してくれるという。 pic.twitter.com/ZStkUXKdpn
蚊でごまかしてるけど、兵器ですね
一度データ作ればアプリで目のデータ保存されるので全国のJINSショップですぐ買えるのと…https://t.co/eaoy0TT4P3
— 海象のねぐら (@seiichirou2) August 24, 2019
紫外線量で色が変わるこれがホントにオススメ
Jinsの面白眼鏡はいろいろ欲しい
【アイデア】熱伝導を超高周波の音の伝播と捉えて断熱材を設計する
— Shuuji Kajita (@s_kajita) August 23, 2019
【実装】グラフェンやその他3種類の原子的に薄いシート状材料を重ね合わせる
【結果】原子10個分の厚さの断熱材で100倍の厚さのガラスと同等の断熱性能を実現https://t.co/6PoBsTVflA
モーターが変わるかも。
京大が作った「プロに依頼する科学イラストのススメ」という冊子の情報がまわってきたのだけど、納期約2週間~1カ月、価格1点5万~10万円と書かれていて、プロの方々も概ねその値付けで掲載していて、日本での科学イラストの相場がこの程度になってしまったことは正直悲しい。https://t.co/bpOFTcQS5d
— Hirofumi Seo (@HirofumiSeo) August 21, 2019
何年か前に様々な養生テープを評価するため各種11本を購入比較したのですが、すべて使いきったのでベスト・オブ養生テープを発表します。
— cannabis_c4 (@cannabis_c4) August 20, 2019
No.1は「パイオラン塗装養生用テープ Y-09-CL」です。No.2は同グリーンタイプ。
厚み・粘着力・剥がれやすさ・質感、すべてにおいてバランスのとれた製品でした。 pic.twitter.com/cXwAKFn36k
ありがたい
「大学院でしてはいけないこと」がNatureで特集されている。
— Daichi Konno / 紺野 大地 (@Daichi__Konno) August 23, 2019
当たり前のことばかりだが、Natureと言われると読んでしまう不思議。
1.他人と比較する
2.データを盲目的に信じる
3.一人で苦しむ
4.ハードワークが良いと思い込む
5.自己流に記録をつける
6.一度の失敗を引きずるhttps://t.co/dRQPSYpfO3
Videopose3Dを理解してみる - https://t.co/wIuX8wAUSM
— Qiita_Python (@qiita_python) July 7, 2019
Detectronの中身を一部を理解してみる: 親記事はVideopose3Dを理解してみる(メモ)です. Videopose3Dの中のdetectronの機能を使うinfer_simple.pyを理解するために少しこちらに遷移してきました。… https://t.co/M1gEs22DNj
— pcpc193 (@pcpc193) July 9, 2019
30秒のセルフィービデオで血圧が測定できる! トロント大学研究者が開発中 | Techable(テッカブル) https://t.co/9eSjGsZjVm @TechableJpさんから
— 安倍吉俊 (@abfly) August 22, 2019
血圧計を使っても誤診断が多いから実用化急いでほしい。
CEDEC用のサンプルコードを一部置きました。公開すると何故か間違いが発見できるので、公開して直すのが良いですね🙂https://t.co/GdI4O2diWk
— Shinji Ogaki (@ShinjiOgaki) August 21, 2019
(会社のブログで並列化したGoのコードと並列化していないC++のコードの残念な比較記事がありましたが、C++も色々できます。むしろ色々出来すぎるのかも。)
bvhの話
公開予定とは聞いてたけど、まじで公開してくれたのか。
— 光輝@3Dプリント楽しい (@koukiwf) August 22, 2019
これ、めっちゃ研究が捗る。俺含め。
//過去最大級の膨大な自動運転データセットを無償でWaymoが公開 - GIGAZINE https://t.co/4xbEjBsIBa
Waymoの自動運転データセット
大企業病の主な症状
— sogitani / baigie inc. (@sogitani_baigie) August 21, 2019
・無駄な打ち合わせが多い
・無駄な資料が多い
・効率化の意識が薄い
・顔を立てるための仕事が多い
・部署が別だと非協力的
・立場の上下を重視する
・面倒な仕事を投げ合う
・簡単な承認も遅い
・事務手続きが異常に複雑
・確率の低いリスクに過剰反応
・失敗を絶対に避ける
小さい会社でも罹患する危険性
【ZMP(ゼロ・モーメントポイント)と歩行パターン生成】
— Shuuji Kajita (@s_kajita) August 21, 2019
某大学で私がやっている講義を、聴講生の方がまとめてくれました。https://t.co/Ns1ffY3gO4
ZMP
これですhttps://t.co/5zmWOJrklo https://t.co/p0ZENnUS0h
— Naoto Nakai (@NuCode) August 21, 2019
Googleから公開されたmediapipeのハンドトラッキングをPixel3で早速試してみた。一部トラッキング失敗してるが、単眼でリアルタイムでかなりオクルージョンにも強く驚き。 pic.twitter.com/28ssCDOjqf
— higrademe (@EL2031watson) August 20, 2019
ハンドの認識
日経エレクトロニクス 2019 年 8 月号 音声特集の声質変換技術記事内で, 音声分析合成エフェクター「CHERRY PIE」について取り上げていただきました.https://t.co/9xbkbHTlXb
— Ryo (リョー) (@Ryo_Jerky) July 22, 2019
講義で使いたい
新しいカラーマップの提案。
— nb.o (@Nextremer_nb_o) August 20, 2019
見やすさの改善。
c++,pythonのコードも公開されてる。 https://t.co/jaZ93XtbZL
Googleが提案しているcolormap「Turbo」を実装して試してみた。 pic.twitter.com/PWQ3LbECwM
— dandelion (@dandelion1124) August 21, 2019depthのカラー化
ToF以外にもステレオ法や光切断法などをサラッと説明するには良い資料
— Akira (@ImagingSolAkira) August 21, 2019
TOF技術を導入するのに絶好のタイミングhttps://t.co/383H9uvosY
GitとGitHub用語について、改正してデジ絵にしました! pic.twitter.com/pGO2MaqEMs
— ちづみ (@098ra0209) August 19, 2019
Githubの用語解説。ありがたや
RT
— 森山和道/ライター、書評屋 (@kmoriyama) August 18, 2019
コマツは完全無人、クボタは自動田植機。建機・農機の自動化が止まらない! #newswitch https://t.co/5C5EpO4rvF
PS^2-Net: A Locally and Globally Aware Network for Point-Based Semantic Segmentation https://t.co/hLKNRnic7b
— arXiv CS-CV (@arxiv_cscv) August 18, 2019
マッキンゼー時代の分析で印象に残っているもの
— 金子和真 医師,Ph.D@Linc'well代表 (@kazumakaneko) August 17, 2019
過去20年の分析で、企業成長の95%は市場そのものの成長に起因
what, howでシェア争いをするよりも、whereを正しく選定する事が全て
日本も高度成長時代は何やっても成功したはずだし、最近ではインターネット業界は明らかに他とは異なる成長率・成長確率
みんな分かってるはずなのに忘れがち。
Development of a UV-transparent Lens Array for Enlarging the Effective Area of Multichann... https://t.co/4LflhSaHpB pic.twitter.com/6CyxfG0jk3
— arxiv (@arxiv_org) August 18, 2019
レンズアレイを見ると反応してしまう。
3100円って安っ! https://t.co/Gccb1tU6XH
— Kazunori Sato (@kazunori_279) August 16, 2019
安い
音声合成研究のために,コーパスをリリースしました.100名のプロ話者(声優・俳優)× 100発話(パラレル)を含んでいます.今すぐダウンロードできます!!https://t.co/FJXrl3owrX https://t.co/qGuUCSqIyA
— Shinnosuke Takamichi (高道 慎之介) (@forthshinji) August 17, 2019
データセット
南カリフォルニア大学、MRIを用いて手の動きをより自然にシミュレーションする手法を発表 https://t.co/efRls8MXMQ pic.twitter.com/0WZkZBlGZC
— Seamless (@shiropen2) August 17, 2019
ハンドのシミュレーション
量子ゲート方式の量子コンピュータと社会実装がイメージで結びつかない人のために on @Qiita https://t.co/PlP3lyFQ2j
— Yuichiro Minato (@yuichiro_minato) August 15, 2019
量子
風車に囲まれた高さ120mもある謎の塔。その正体はスイスの企業が開発中の蓄電装置で、発電で余った電力でブロックを積んで位置エネルギーに変換し、必要なときに降ろして発電という仕組みなんですが、知らない人からしたらどうみても軍が極秘開発した超兵器にしか見えない。
— 世界の未来予測 (@KininaruMirai) February 6, 2019
(映像:Energy Vault Inc) pic.twitter.com/GijG4PsGm5
位置エネルギー電池
米海軍旧式に戻しますのやつ、単にレバーとダイヤルがいいという話ではなく、「いっぺん実際にタッチパネルにしてみた上で思い知った」「あえて戻す判断を断行した」の二つの点が大事なわけですよね。この変更に伴って誰かの首が飛んでいなければ、さらにいい。
— 小川一水 (@ogawaissui) August 14, 2019
直感的に操作できるインターフェース大事
『ことばのデータサイエンス』という本を刊行します - langstat blog https://t.co/hXOMbGXJcM 2019年9月5日、計量的な言語研究の入門書を刊行予定です。本書の雰囲気を掴んで頂けるように、内容の一部を公開しています。現在予約受付中ですので、ご興味のある方は是非!! #ことばのデータサイエンス
— Yuichiro Kobayashi (@langstat) August 14, 2019
ちょっと気になる
The robot is based on the Moroccan flic-flac spider, which can walk like other spiders.
— Wevolver (@WevolverApp) August 14, 2019
Discover the project: https://t.co/RU3gBbskuz pic.twitter.com/xSJYrtYtDF
いつものフエスト
信号処理に関わられている方を対象に、画像、音声などの高品質な信号処理(フィルタ処理)をDeep Learningを用いて行う方法についての解説動画を公開しました!
— Yoshiyuki Kobayashi (@frievea) August 14, 2019
実践Deep Learning:Deep Learningで行う信号処理https://t.co/cv75Cw2uiW
Predicting 3D Human Dynamics from Video https://t.co/LPeudLi9hv https://t.co/COyowxlUHz pic.twitter.com/dtOSMiHZPm
— HCI Research (@HCI_Research) August 14, 2019
人体動作の予測
This kid is building his own Dr. Octopus suit pic.twitter.com/JqRJW1ShkF
— CNET (@CNET) August 14, 2019
すごくよくできてる
Understanding Optical Music Recognition. https://t.co/jYDAYlKEui pic.twitter.com/HQuSMnIqlu
— arxiv (@arxiv_org) August 14, 2019
視覚から音楽変換
新しい論文書きました.CNNの様々な軽量モジュールが実はテンソルネットワークというハイパーグラフで記述でき,その空間でアーキテクチャ探索したところ,精度と軽量具合のパレート解がいい感じに見つかりました.グラフでCNNが設計できるのが面白ポイント.https://t.co/kMhN09wFBf pic.twitter.com/fHzjtEvC64
— Kohei Hayashi (@hayasick) August 14, 2019
早くネットワークは人が考えなくてもいいようになってほしい。
お金のかけ方が凄い…これは面白そう > DJIが構築したクレイジーなロボコンエコシステムの中身 https://t.co/xP02t0yDJ0
— からあげ (@karaage0703) August 14, 2019
勝てない理由
ドローンが即席で橋をかける⁉️🌉
— 日本トランスヒューマニスト協会/h+JP (@transhumanistjp) August 6, 2019
ドローンをうまく活用することで、映像のように即席で橋をかけることができます✨
災害現場における救助活動に用いられるなど現実的にも有用性のある素晴らしい技術ですね🙂
#トランスヒューマニズム #ドローン #未来の技術 pic.twitter.com/jmvajS9u2H
ドローン
これ良く出来てるなぁ。ナレーターとか要らないんじゃないか?https://t.co/9bjohaURsg
— Naotaka Fujii (@NaotakaFujii) August 12, 2019
テキスト読み上げ。すごい綺麗
帰省の機中で「GR-ROSEではじめる電子工作」を斜め読み
— holypong (@automo_emo) August 12, 2019
120MHz駆動でデバッガIFやシリアルサーボ制御機能が充実。Amazon FreeRTOS採用とAWS IoTとのクラウドデータ連携も容易そう
明日8/13から「ROS2ではじめよう」kindle版との併読が可能です pic.twitter.com/GeBEuFTa73
GR-Rose、ちょっとしたROS2開発に便利そう
ラズパイカメラで660FPS撮影な話 https://t.co/UvfxcxSN7I
— Jun Hirabayashi (平林 純) (@hirax) August 10, 2019
Raspi 660fps
スタンフォード大学の @AndrewYNg 先生が伝授してくれる論文の読み方と機械学習においての進路ガイダンス。1時間を超える授業ですが学部から博士課程にいる全ての学生さんに見てもらいたい講義です👨🏫。
— Sangmin @ChoimiraiSchool (@gijigae) August 10, 2019
📺https://t.co/Z52LLV47tF pic.twitter.com/xY6ko0YTds
Andrew Ng先生
離散フーリエ変換を使うと、任意の点を曲線でつなぐことができるよの図 pic.twitter.com/9Me3gdwj1M
— apu (@apu_yokai) August 10, 2019
フーリエ
ディープラーニングを使った異常検知について、ベンチマークを行いました。
— shinmura0 | 黒魔導師 拝命 (@shinmura0) August 6, 2019
結果はmetric learningが最強!という結論に。https://t.co/q7c7V0Jotx
現時点で、結論、とか言われると、、、
鈴木大慈先生による深層学習の理論解析、特に表現能力、汎化能力、最適化理論について。重要なトピックを幅広くカバーしており、最新のNeural Tangent Kernelや二重効果なども解説されている。英語でもこれほど充実しているのは無いと思う。 https://t.co/0cnjzMKtRt
— Daisuke Okanohara (@hillbig) August 6, 2019
あら、結構良さげ。
— 光輝@3Dプリント楽しい (@koukiwf) August 7, 2019
映像に見られる遅延は今話しても意味ないものだから無視する。
//ヒューストン大学など、伸縮性のある電子パッチを皮膚に貼ってロボットハンドを制御する技術を発表。逆にロボットハンドが感じる温度も受け取れる https://t.co/dFg6JJy1I8
ハンドの制御
PFN岡野原さんのブログを見つけて読んでた あの方でもやっぱりつらい時はあるんだなぁ
— ソネットそねお@技術書典7す05D (@ATH_ray_) August 4, 2019
博士生活振り返り: DO++ https://t.co/9WTZ1syg6G
京大,負の屈折率温度係数を持つ材料を発見 https://t.co/QDIa0fYTd1
— 上田智章 (Tomoaki Ueda) (@NeoTechLab) August 5, 2019
へぇ....これも面白いね
こりゃすごい!電気で光るインクらしい。多層にして電気通す層とかで作るみたい pic.twitter.com/26ntulxdep
— 黒ラブ教授(理系と文系の研究者、科学コミュニケータ) (@kurorabukyouzyu) August 4, 2019
謎の新技術。アヤシ
物体検出の技術を利用して、ワイン畑のぶどうをカウントする研究。単純な物体検出の適用に留まらず、アノテーション技法の開発(ぶどう/背景を線で示すと領域提案を行う)、3D情報を利用したダブルカウントの防止(別角度から見た同じぶどうを識別)など、実用が意識された内容。https://t.co/hb2bjCp6mY
— piqcy (@icoxfog417) August 5, 2019
既存モデルの組み合わせを利用して、ワイン畑の多種多様なぶどうを正確に識別し、カウントを行う研究
— AI-SCHOLAR. (@ai_scholar) August 7, 2019
“実用化”に焦点を当てた論文が、どの程度の精度を発揮できるかが注目点です https://t.co/eMLbcXWl29葡萄の認識と武道の認識
MIRU2019のチュートリアル「近似最近傍探索の最前線」の資料になります https://t.co/41Sun4uKmD #miru2019
— ketsumedo_yarou (@ketsumedo_yarou) July 29, 2019
最近傍探索
さーーーーていよいよ下絵をプロジェクタでキャンバスに投影して、直接描き始めます!!
— 田村吉康 TAMURA Yoshiyasu (@FUDEGAMI) August 5, 2019
第一筆目はいつも緊張しますね
でもこのサイズのカンバス14枚あるからもう躊躇ってるヒマもない
残り一カ月走り抜ける〜〜頑張ってね私 pic.twitter.com/qYfPu8ANnn
この「GPS動物生態学」は、最近ブレークスルーが起こった。
— tetsu (@metatetsu) August 4, 2019
以前は重い記録装置を動物へ取り付ける必要があった(小鳥には無理。装置回収に失敗すればデータが失われる)
2018年に国際宇宙ステーションに「ICARUSアンテナ」が設置、GPSデータを宇宙経由で常時受信できるようになり大幅に小型化された(5g) https://t.co/jqdVW1zgVv pic.twitter.com/oWKa0Rq1cu
地球規模の移動をGPSで
FTPサーバ・LAN内にあるフォルダーの操作を検知して知らせるフリーソフト「ShareWatcher」(2012)https://t.co/8Bk5xXBvVe
— GIGAZINE(ギガジン) (@gigazine) August 1, 2019
FTP・SFTP・FTPS経由で自動的に各パソコンのフォルダーを同期できる「FTPbox」(2012)https://t.co/zaY56EVVL6
— GIGAZINE(ギガジン) (@gigazine) August 22, 2019便利そうではあるが、怪しげな。
自分用読むべき論文メモ 2019年7月版
Twitterで面白かった7月の記事まとめです。
JPEGをさらに高圧縮する「mozjpeg 2.0」で2GB超の画像ファイルを圧縮(2014)https://t.co/hsef5pnH4O
— GIGAZINE(ギガジン) (@gigazine) July 30, 2019
カメラの高解像度化が進むから、もっと重要になるかも。
弊研D2植野君(小山先生G)の3次元音場再現に関する原著論文がIEEE/ACM Trans. ASLPにアクセプトされました。球面調和関数を用いた内部・外部音場再現における最適なモードマッチング重みを解析的に導出し、従来の打ち切り型と比較して高い再現精度を実現しました。 https://t.co/RYwvI7q369
— Hiroshi Saruwatari (@hsaruwatari727) July 28, 2019
球面調和関数を用いた3次元音場再現
T-Motorからも、遊星ギア内蔵のモータが出たみたいです。https://t.co/txC0xz318m
— tsumehashi@爪車 (@tsumehashi) July 26, 2019
気になるギア内蔵モータ。
慶應義塾大学大学院と豊田合成、軟性素材を使用した薄くて軽く柔軟な触覚デバイス「HAPTIC PLASTeR」発表 https://t.co/EN7f6Gqvvt 使用例:遠隔地ユーザの心拍再現、ペンのグリップに内蔵しタブレット上で素材の質感再現、スマートウォッチのバンドに搭載し通知に使用、VR HMDの内側に装着で触覚再現 pic.twitter.com/d1wFkj0moT
— Seamless (@shiropen2) July 26, 2019
触覚大事。
MEMSマイクに新原理、意外な応用展開も https://t.co/OpzhHSm0RM
— S.h.o.o (@ShooOrca) July 26, 2019
新原理MEMSマイク使ってみたい。
Real-time Vision-based Depth Reconstruction with NVidia Jetson
— arutema47 (@arutema47) July 26, 2019
vSLAM@16fps with JetsonTX2。コードも開放されてるのでロボットエンジニアにはすごく有り難い論文。contributionはエッジデバイスに適したup-convolutionの提案など:)
Jetson TX2関係。でも、センサーが優秀になりつつある今、デプス復元にリソース喰われるのはどうなんだろうとは思う。
PythonRoboticsのMPC trackingのコードを、ACADOと言うMATLABベースの最適化C++コードジェネレータを使って、リアルタイム処理出来るようにしたらしい。すごい😲 Model Predictive Control (MPC), ACADO, Python | Work-is-Playing https://t.co/GoGh3Q6fPQ
— Atsushi Sakai (@Atsushi_twi) July 26, 2019
リアルタイム化凄い。
大学院進学者への国家的な援助が薄いって、ほんとこの国は教育に理解がねぇな!
— yoneken (@k_yone) July 25, 2019
しかし、進学する人がめちゃくちゃ少ないってことは、そこにかかる費用も少ないはずなのにわざわざ削るって、よっぽど大学院を目の敵にしてる一派がいるんだな・・
博士号持ちの凄さが分かるぐらいの教養が、政治家全員に求められる。
日本マイクロソフト、「会議は基本30分で5名以下」や「社内メールではなくチャットに」を全社員に通達 https://t.co/UzfiAnP5KO pic.twitter.com/OpxMeEsxus
— PC Watch (@pc_watch) July 23, 2019
いつかこれでやってみよう♪ https://t.co/Yb4P2IR8wC
— Shuuji Kajita (@s_kajita) July 22, 2019
VRで違和感のない触覚を実現するために フェイスブックが研究状況を公開 - Mogura VR News https://t.co/dY0X0wGjM1
— Mogura VR News (@MoguraVR) July 22, 2019
触覚大事。
小型サーマルカメラOWLIFTの最新版Type-Fの出荷を開始しました。従来品に比べ縦横解像度が各2倍になりました。そして従来品通り、アプリ・ライブラリ・WebRTC通信サービスを無償提供します。 https://t.co/DbxzKTPnVd pic.twitter.com/uY3g3sqZB9
— インフィニテグラ株式会社 (@infinitegra) July 22, 2019
インターフェースの多様性は欲しいので柔軟に対応してほしいけど、面白いカメラ。
“360°画像を対象とした研究とリコーにおける製品開発 / research-of-360-degree-image-and-product-development-in-ricoh - Speaker Deck” https://t.co/EXYWTAUEEJ
— YAMAMOTO Yohei (@yohei) July 19, 2019
Theta欲しいな。耐久モデルが特別扱いになってしまったのが悲しい。
僕たちの体の中で何個も回ってる、ATP合成酵素っていうモーター。エネルギー作ってるんだよ〜 いつもありがとー pic.twitter.com/T0EvzIKkAh
— 黒ラブ教授(理系と文系の研究者、科学コミュニケータ) (@kurorabukyouzyu) July 17, 2019
こんなに小さいモーターが。
KELK、モーターの排熱で稼働する振動センサー https://t.co/ques7ENhln
— 日経 xTECH エレキ・製造・自動車 (@techon) July 18, 2019
うーん、すごい:
— 凹 (@hecomi) July 16, 2019
3D Streaming Toolkit Documentation | The 3D Streaming Toolkit documentation website https://t.co/SWWqGtDev4
なんかシステムがデカくて、ロボットに使うのに便利なのかどうかよくわからん。
SynthText3D: Synthesizing Scene Text Images from 3D Virtual Worlds. https://t.co/RyyHcl02Lh pic.twitter.com/Zv4YhnGps2
— arxiv (@arxiv_org) July 17, 2019
指差しジェスチャの起源https://t.co/DDLxnVAPE9
— ゆきまさかずよし (@Kyukimasa) July 14, 2019
指差しの動作は指で対象物を触ろうとする認知から来ているという説(子供の動作などからわかる)
指さし動作の起源
これをさくっと読んで理解できる時点でつよつよ人材な気がするな〜🤣🤣🤣
— いけだなおき (@na0ki_ikeda) July 14, 2019
CVPR 2019 速報 by @HirokatuKataoka #computervision #cvpr https://t.co/3HLchaCVse
CVPR2019速報
パナソニックさんのグループ属性推定の発表おもしろかったなー!人を検出するだけでなく、そのグループが家族なのか知人なのかみたいな属性を推定するんだが、同じデータからでも違う要素を捉えてそこから傾向などを得て行動予測などに活用してるというところが良かった。 #CCSE2019 pic.twitter.com/DvElp4JbT6
— MARINA🦋|Edge AI (@m__sb04) July 13, 2019
panasonicがやっている研究なのが良い。
動かないのではなんてコメントする人もいましたが、動きますね。ギアレシオは大きく取れない(3ぐらいが作りやすい?)感じですが、ダイレクトドライブモーターが売りのGenesisRoboticsのモーターと組み合わせる前提だと、高剛性とバックドライブを両立し、helixという名前通りだとすると(続く) https://t.co/B1502BqPRe
— FrostyDesign (@FrostyDesign_JP) July 14, 2019
本件、別スレッドにてだいぶ解明したのに、こっちの間違った仮説のままのが、多くリツイートされたままなので、こっちにつなぎます。まず、4月のハノーバーメッセの時のビデオを公式が公開しているのがこちらです。https://t.co/UUruURfUWd
— FrostyDesign (@FrostyDesign_JP) July 15, 2019この変速機、だれか正しく解説してくれないかな
K.Itoら:Manipulation of the Perceived Direction of Wind by Cross-modal Effects of Wind and Three-dimensional Sound
— Takahiro Miura (@hariktriam) July 12, 2019
三次元音響を用いて,知覚される風の方向を変えるもの.風は人の前後から提示され続ける.三次元音響を用いることで,感じられる風の方向をずらすことができた.
気配の知覚のヒントになるか
R.Hassenら:Vibrotactile Signal Compression Based on Sparse Linear Prediction and Human Tactile Sensitivity Function
— Takahiro Miura (@hariktriam) July 11, 2019
振動触覚のしきい値を求めるモデルを作成.IEEE P1918.1.1 Haptic Codecsとして標準化(した?).
振動触覚は一見退化のように見えるけど、今は主流なのかな
歩行安定化制御についての勉強メモ https://t.co/Psea7BGUeC #Qiita
— FrostyDesign (@FrostyDesign_JP) July 10, 2019
自作二足歩行パターン生成 https://t.co/FlwJIFdtLW #Qiita
— 龍 (@ryu_software) July 9, 2019
こういう記事ってめちゃくちゃ需要ある気がする
プリメイドAiいじりたい・・・
github.com
Virtual Gimbal凄い。
まとめました!
— けんゆー🧠理系脳でマンガ描く人 (@kenyu0501_) July 8, 2019
・フーリエ級数
・複素フーリエ級数
・フーリエ変換
・離散フーリエ変換
・高速フーリエ変換
研究にお役立て下されば幸いです.
ご自由に使ってもらって良いです.
「フーリエ級数」から「高速フーリエ変換」まで全部やります! https://t.co/5vscc5MXho
フーリエ
めちゃんこいい資料
— Yuichiro Minato (@yuichiro_minato) July 9, 2019
A practical approach for hard combinatorial optimization problems in real applications https://t.co/OfMh02d60j
おー!フランスは普及してるんだって 。カートの自動誘導運転。スーツケースが動くマシンじゃないけど、まだいいよね。外にも出れてるし!お店のもの?なのかな?勝手に戻るのかな? pic.twitter.com/dB7tE7UdUW
— 黒ラブ教授(理系と文系の研究者、科学コミュニケータ) (@kurorabukyouzyu) July 7, 2019
信じられない作品ができました…
— 大我 -taiga- / Keyboard (@funase_taiga) July 6, 2019
【 色んな意味でほぼドラクエ 】#DQ#ドラゴンクエスト#MIDIアート pic.twitter.com/XUIPOAtlMG
見た目と音楽の一致。80年代に流行?
2000年以上にわたって科学者を悩ませた「レンズの収差問題」がついに解決される - GIGAZINE https://t.co/Kqa2ws2KfJ
— 安倍吉俊 (@abfly) July 8, 2019
式の実装してみた人いないかな?
インフィニオンが光音響分光を利用したCO2センサーを開発、75%の小型化が可能に https://t.co/2HJIegxSUp
— 日経 xTECH エレキ・製造・自動車 (@techon) July 7, 2019
光音響センサでCO2
FPCNet: Fast Pavement Crack Detection Network Based on Encoder-Decoder Architecture. https://t.co/D0AG5CNqxC pic.twitter.com/OSoVBYMDNS
— arxiv (@arxiv_org) July 7, 2019
ヒビ割れの検出
このROS講座やばい。市販の書籍よりも広範な内容をカバーしているし、RVizもカラーかつGIFでぬるぬる動いているし、Gitリポジトリ完備。最高かよ(*´ω`*)。最近でも更新あるみたいだけど、いつまで続けてくださるのだろうか。https://t.co/woxUqhbqZL
— ㄘょㄦㄘー (@chorchch) July 6, 2019ROS2版が待たれる
は?OpenCLでprintf使えるのか・・・GPUに言葉を喋るらせられると作業が捗りそう・・・https://t.co/wo3pmWqSiI
— Yoshiaki Sato (@zo0o0) July 6, 2019
【新商品】Seeed Studio製 3Dカメラ「Depth Eye」
— RSJapanMK (@RSJapanMK) July 6, 2019
TOF(発光の反射時間から距離を計測)タイプのデプスカメラ。USBでPCと接続することでジェスチャー認識が行えます。ロボットナビ用の目、3Dスキャン等に使えます。https://t.co/8jQkA9vCii pic.twitter.com/5JEMqYDUhA
このセンサの情報全然聞かないな
プロジェクションマッピング技術の変遷 #3「幾何補正 (位置合わせ)」 https://t.co/BY1As5qiny pic.twitter.com/b4Z6hKC4TM
— Seamless (@shiropen2) July 2, 2019
プロジェクションマッピング
こんど試そう。jetson-inferencサンプルのimagenet-camera.c のカメラがめっちゃ速かったから。
— でべ (@devemin) July 5, 2019
Jetson NanoでGStreamerが有効なOpenCVをインストールするには apt-src版 https://t.co/ymV2gNb8FDでgstreamerが有効なopencvをインストールするには-apt-src版
— でべ (@devemin) July 6, 2019
SDカードの丸々コピー、意外と色々気をつけた方が良い点多いのでQiitaに書きました > Jetson NanoのSDカードを丸ごとハードコピー(イメージ化)する方法 https://t.co/OuisUZoH3c #Qiita
— からあげ (@karaage0703) July 5, 2019
Real-time Vision-based Depth Reconstruction with NVidia Jetson. https://t.co/mLu2KkfAaD pic.twitter.com/2BOGnTrPgv
— arxiv (@arxiv_org) July 19, 2019jetson nano関係
Deep Saliency Models : The Quest For The Loss Function https://t.co/0joeSlNEwW
— arXiv CS-CV (@arxiv_cscv) July 5, 2019
Saliencyは今後もっと重要になると思う。
お、これは面白そう。Webベースのrviz. bagファイルをそのまま読み込めるらしい。: Webviz: An Open Source Platform for Robotics Data Visualization https://t.co/v1vwaebKbF
— Atsushi Sakai (@Atsushi_twi) July 5, 2019
Webviz
Agisoft De-Lighter はなんとフリーソフト!フォトグラメトリから影を除去します。素晴らしい!https://t.co/Rw5LBChtaH pic.twitter.com/0zAyAPkudT
— 株式会社オーク (@oakcorp) July 5, 2019
陰除去
郡山市長が「土日休みます」と宣言。
— 岡田真理紗 Marisa Okada (@marisaokada) July 5, 2019
来賓として招かれる場合は代理も送らず、祝辞で対応。
もう、素晴らしいとしか言いようがないですよ。
偉い人の挨拶は形骸化してるんだし。
おかげで秘書課の部下の総労働時間が半減したとのこと。https://t.co/nljQzQG15k
良い政治
Connecting the Dots [Riegler+, 2019, CVPR]
— Shion Honda (@shion_honda) July 4, 2019
環境内を動くstructured-light付き単眼カメラによる深さ推定で弱教師あり学習の方法を提案した。CNNを組み合わせたモデルで推定した視差から深さを計算する。損失関数はphotometric/geometric/edge lossの3つを用意。https://t.co/MGLZW3dFxX#NowReading pic.twitter.com/zxuGt2HLCa
\\新商品のページができました//
— 株式会社Keigan【公式】KeiganMotor(KM-1Sシリーズ)発売開始しました! (@KEIGAN_PR) July 4, 2019
発売はもう少し先ですが、新製品の紹介ページができました。
新商品のシリーズは「KM-1S」といいます。
モーターと基板部分がセパレートになっています。
3種類同時販売予定です。https://t.co/Siw3krsZdL
応援したい日本製サーボモータ。でもトルクが足らない。。。
なんかすごいでかい(語彙)カメラ画像からのOCRのためのデータセット (ICDAR 2019) https://t.co/ouadk3eKGj / Brno Mobile OCR Dataset https://t.co/QpvuoNRLKB pic.twitter.com/XYQJkfZgSn
— Yusuke Uchida (@yu4u) July 3, 2019
「入学前にチェック!大学4年間でかかるお金」
— これでも大学職員 (@koredemo) July 3, 2019
“実は、国公立でも決して負担が軽いわけではないのです。”https://t.co/Lg9SjG0jRn pic.twitter.com/IJPTEMFi3R
In cultural heritage preservation, every little detail counts.@CyArk stripping down the exterior of the Metropolitan Cathedral in Mexico. Revealing details of the majestic building turned into a 3D model with #RealityCapture from 12,525 photos and 645 laser scans #photogrammetry pic.twitter.com/QUTttTjpzi
— Capturing Reality (@RealityCapture_) July 3, 2019
あらゆる事故、災害に備えておかなければならない。
DeepGBMという手法について論文公開前だけど鮮度重視でまとめました。
— pao (@pppaaaooo) July 3, 2019
簡単にいうとLightGBMの筆者がGBDTをNNで蒸留することで良いとこどりしようというもの。
要注目?DeepGBM: ニューラルネット+GBDT(速報…https://t.co/bnSP4wAwP6
フェイスブックは、ロボットに「好奇心」を授けようとしている:新しいAIラボの現場から見えてきたこと @wired_jp https://t.co/T7lc7qIRKQ
— Shuuji Kajita (@s_kajita) July 2, 2019
意識、好奇心、気配
こんな感じでロボットが設備を点検できたらすごいなぁ。World’s First Autonomous Offshore Robot – ANYmal https://t.co/27IuZFZts9 @YouTubeより
— Atsushi Sakai (@Atsushi_twi) July 2, 2019
近い将来
最近、母が通院しているのですが、腕の血管が見えずらいらしく注射の時に何回も針を抜き差しされるもんだから自分に何かできないか?と思いD435を使って血管の撮影をしてみました。テープ貼っただけですが
— Akira (@ImagingSolAkira) July 2, 2019
この画像使い物になるか?
IntelRealSenseD435を使って腕の血管撮影 https://t.co/0uIrO1plGw pic.twitter.com/MbGhTUdSV4
自分用読むべき論文メモ 2019年6月版
しばらく論文読んでる暇がなかったので、面白かったTwitterの記事を中心に。(いつも、ほぼそうですが。。。)
タコの8本足は「それぞれが独立したCPUを持つ分散型ネットワーク」だという研究結果https://t.co/ADTQSQvSO7
— GIGAZINE(ギガジン) (@gigazine) June 30, 2019
タコはどうやって腕を動かしているのか(AGU宇宙生物学会議AbSciConの発表)https://t.co/tcHMaeYvoO
— ゆきまさかずよし (@Kyukimasa) June 26, 2019
腕ごとにある大きな神経節が環状に接続していて主脳を経由せずに分散型処理してる。
「自分の腕の位置を脳が知っていなくても、腕同士は知っている」 pic.twitter.com/qFvJUitg0C
研究者注目の的、タコ。
Some code releases before I head off to vacation :)
— Angjoo Kanazawa (@akanazawa) June 29, 2019
Skill from Video data + motion reconstruction code: https://t.co/acXbzikaz6
CVPR'19 human motion paper training code: https://t.co/dTHoMO2m1R
Thanks to @jasonyzhang2, Panna, @xbpeng4 for the team effort.
Have a nice July! pic.twitter.com/t4IxyeSqER
長らくお待たせしました。ついに刊行。 細馬宏通・菊地浩平編『ELAN入門 言語学・行動学からメディア研究まで』(ひつじ書房、2019.6)。使い方のみならず、時間分析の基本から時系列データの扱いまで。映像と音声を分析するすべての方に。どうぞ。 https://t.co/WSwLvcnq1p
— 細馬宏通/ELAN入門(ひつじ書房) (@kaerusan) June 17, 2019
突然変異がどのように集団に広がり生物が「進化」するのかを「グラフ理論」で解き明かす試み(2018)https://t.co/NB9IbpvCI9
— GIGAZINE(ギガジン) (@gigazine) June 27, 2019
進化が明示的にコントロールされるようになったら、ますますやばい。
一部しか観測できない環境下(POMDPs)では過去の観測列から現在の状態信念を計算する。この信念からの長期の予測タスクを解くことで時間的に一貫性がある信念が得られ、地図や自己位置も復元可能。この信念を元にした強化学習はデータ効率がよい https://t.co/zbkyaMlSbB https://t.co/HqyL8zkIBQ
— Daisuke Okanohara (@hillbig) June 27, 2019
Dependenciesを使うといいらしい。Dependency WalkerをWindows 10用に書き直したものhttps://t.co/mNUHrhs7YN
— 中村 薫(Kaoru Nakamura) (@kaorun55) June 23, 2019
基本ツール
Mode Seeking Generative Adversarial Networks for Diverse Image Synthesis
— Shigekazu Ishihara (@shigekzishihara) June 22, 2019
cGANのモード崩壊(同じ画像ばかり生成される問題)を解決し,多様性を持たせることを目的としたMSGAN https://t.co/L8UFUXAsSX
これすごい。英語の単語やフレーズを入力すると大量の YouTube の動画から実際に使われている部分だけを検索して見せてくれる。文脈もあるから使われ方も分かる。固有名詞の発音が分からない時、発音の苦手な単語を文脈と共に練習したい時に使えそう YouGlish https://t.co/CL0f9HpDqO
— Masato Hagiwara (萩原正人) (@mhagiwara_ja) June 22, 2019
We just released PoseNet 2.0 with TensorFlow.js, including a much more accurate ResNet-based model!
— TensorFlow (@TensorFlow) June 21, 2019
Try the live demo by @tylerzhu3, @oveddan, @greenbeandou, @dsmilkov, @ire_alva, @nsthorat → https://t.co/Dgz0kay40U
Learn more here → https://t.co/JDs5wIeByP pic.twitter.com/MWfadJLk97
ちなみに浅井先生の資料はこっちのほうが面白かった。p8ぐらい「制御に苦手意識を持ったまま卒業させると、制御に無理解な層を拡大再生産することになる」 企業で制御屋やるの辛い理由これか!と納得。https://t.co/wwpUoWkKaG
— モータ制御マン (@motorcontrolman) June 22, 2019
Googleの世界最大の画像データセット「Open Images v4」の概要や使い方のまとめhttps://t.co/V4YRXc687K
— marsee101 (@marsee101) June 21, 2019
あもりにも速すぎて熟語にも強い辞書ツールMouse Dictionaryですが、自分で使っていて追加したい機能や感じる不満がもうなくなったので、利用者からの要望等ありましたら教えてください😉https://t.co/fjtzmoOY4r pic.twitter.com/qaIe6jSMjy
— Tetsu (@wtetsu) June 20, 2019
NLP/CV最先端勉強会 やります。
— uchi_k (@wednesdaymuse) June 21, 2019
nlpaper と cvpaper の合同チームでやったグラフと対話応答のサーベイと、CVPR2019速報です。
よろしくお願いします・・・!https://t.co/JPf4fm03t5
【CVPR 2019 速報】を更新しました。230ページの内容になりました!https://t.co/laQX5xGC5p
— cvpaper.challenge (@CVpaperChalleng) June 21, 2019
CVPR 2019 論文サマリはこちらをご覧ください https://t.co/IgsfU8vP37#cvpr2019
弊社匿名希望なエンジニアの最近の深層学習ベースの物体検出のお気持ちがとてもわかる俯瞰的な資料です! / 最近の物体検出 2019/05/30 https://t.co/ikEw7kxu8R
— Yusuke Uchida (@yu4u) June 17, 2019
Best paperたち pic.twitter.com/JNVSHu1x48
— Takanori Ogata (@conta_) June 18, 2019
超解像の未来はどうなる?2019年のサマリ論文を追ってみた
— AI-SCHOLAR. (@ai_scholar) June 14, 2019
https://t.co/QjovShUDH9
帰宅中に読んでいます
— sumicco (@sumicco_cv) June 10, 2019
「実践カメラキャリブレーション ~カメラを用いた実世界計測の基礎と応用~」https://t.co/ErSIHz8s2p
カメラキャリブレーションはとても大事。
Doog
— 森山和道/ライター、書評屋 (@kmoriyama) June 13, 2019
RT
茨城)導入進む農業用ロボット 茨城町のキャベツ生産者:朝日新聞デジタル https://t.co/upKZHMEtv2
農業ロボット関係
choreonoidの便利ライブラリ [C++] on @Qiita https://t.co/WzKDrbYzy0
— wukun (@wukunn) June 12, 2019
Choreonid関係
DJI、“地上を走る”戦車型教育用ロボ「RoboMaster S1」。対戦プレイも - AV Watch https://t.co/qTUQhFcEoZ どろーんもそうだけど、近所の公園で遊べるなら欲しいけどなあ
— 安倍吉俊 (@abfly) June 12, 2019
戦車型なのが日本での教育に向いてない。実銃やレーザーに置き換えるも簡単だろうから怖いし。
【研究紹介】DeepHolo(2017)
— Digital Nature Group (@labDNG) June 10, 2019
ホログラムと機械学習を融合した新たな三次元物体認識手法
点群モデルから再構成した2値加重計算機ホログラム(CGH)を用いたDeepHoloネットワークを提案します。
Project URL:https://t.co/HytDHUtngy
よくわかんないけど。
I just added Fast Winding Numbers for triangle soups to our open source library libigl.
— Alec Jacobson (@_AlecJacobson) June 10, 2019
This optimized implementation can conduct robust inside-outside tests for 1,000,000 points in less than a second on my laptop.
igl::fast_winding_numberhttps://t.co/1KB8GQTxK0 pic.twitter.com/RNdXJjUP5R
カーネギーメロン大学、1台の頭部装着型カメラからの一人称視点映像を入力に自身の3D姿勢をリアルタイムに推定する手法を発表。将来の動きも予測 https://t.co/W4NHHZERhD pic.twitter.com/JADQyXr48V
— Seamless (@shiropen2) June 10, 2019
memo コンピュータビジョンの最新論文調査 3D Vision編 - Technology of DeNA https://t.co/A6EUHTpDUt
— Daito Manabe (@daitomanabe) June 8, 2019
はてなブログに投稿しました #はてなブログ
— しゅんとく (@syuntoku14) September 23, 2018
Fusion360からURDFを一撃で生成するスクリプトを書いた話 - syuntoku14の進捗https://t.co/ysQnz61fIA
MobileyeのCEOのProf.Amnon ShashuaのMVAでのinvited talkがYoutubeに上がっていました.20分過ぎたあたりからと40分あたりからが面白いです.https://t.co/XTON3Uo22o
— Rei Kawakami (@viaminicab) June 7, 2019
点群×ディープラーニング【入門】 | Qiitahttps://t.co/ZITujb0zLz
— ゆるふわUnaさん (@UnaNancyOwen) June 5, 2019
最近の姿勢推定モデルを解説してみた(Cascaded Pyramid Network) | Qiitahttps://t.co/ZhVxqikmaz
— ゆるふわUnaさん (@UnaNancyOwen) June 5, 2019
RT
— 森山和道/ライター、書評屋 (@kmoriyama) June 4, 2019
もうすぐ人間の仕事を奪う? ロボットが1日2万5000個のラズベリーを収穫|BUSINESS INSIDER https://t.co/XzFdPpCGYr @BIJapanさんから
choreonoid v1.7.0のdockerイメージを作ってみた on @Qiita https://t.co/SktvEnYyc6
— wukun (@wukunn) June 3, 2019
生成されたオプティカルフローに基づき、ピクセルを伝播し欠落ピクセルを補完していくビデオ修復法。 https://t.co/J9EnJ04k8p
— AI-SCHOLAR. (@ai_scholar) June 3, 2019
— phalanx (@ZFPhalanx) June 3, 2019
ありがたや...
— Namihei Adachi (@7oei) June 3, 2019
ICRA 2019 速報 by @HirokatuKataoka #computervision #deeplearning https://t.co/qNR8QNOrYp @SlideShareさんから
ソフバンが誤差数cmの測位サービスと低価格GNSS受信機を発表、7月から実証実験開始 – TechCrunch Japan https://t.co/pH00rCvRYN
— 単身赴任おじさん⛅ (@Quodimponeret) June 3, 2019
この間ドコモが同じようなサービス開始とのニュースがあったが、ソフトバンクもネットワーク型RTKのサービスを始めるようだ。
低価格ってどのくらいなんですかね?AI Feynmanは様々な現象を支配する物理法則(ケプラーの法則等)を観測データのみから推定するシンボル回帰問題で、両辺の単位が一致、低次、対称性があるといった事前知識とNNによるblackbox回帰を活用した探索で簡単な公式は100%、難しい公式は90%、推定することができた https://t.co/q6oGiuQND1
— Daisuke Okanohara (@hillbig) June 4, 2019
深層学習は最適化問題を解き学習を達成するが、従来の最適化の「最小解を高速に探索する」という観点では汎化現象を説明できず、最適化の軌跡の理解が重要となっている。学習過程では簡単なモデルから順に学習されていることが予想されている(例 https://t.co/J9B5nVP5eV) https://t.co/V1uuwXySdH
— Daisuke Okanohara (@hillbig) June 4, 2019Google、複数音から特定の発話者だけの声を聞こえるようにするDeep learningを用いた視聴覚音声分離モデル発表https://t.co/IwZxr5xvml
— 宮島正 (@yasuokajihei) June 13, 2019新型LeapMotion 「Rigel」について連ツイします.
— だぶ@技術書典7 せ39D (@troll01234) June 3, 2019
既知の情報が多いと思うけれども.
新しい情報がなかなか出てこない新型LeapMotionErno Horvath and Csaba Hajdu released a simple tutorial shows how to read LIDAR (range) measurements from a file and convert it to occupancy grid. #robot #AI #python PythonRobotics/Mapping/lidar_to_grid_map· AtsushiSakai/PythonRobotics https://t.co/WKR4XcgBtA pic.twitter.com/AKYxieTOuD
— Atsushi Sakai (@Atsushi_twi) June 3, 2019Realtime volumetric capturing with a RealSense T265/D415 combo. It works like a free-floating camera in a 3D scene. Previously I used my hand to "mount" them. Now it's stable and easy to move around. https://t.co/M8O67naCqW pic.twitter.com/raVxCiaKPS
— Keijiro Takahashi (@_kzr) May 30, 2019NVIDIA Jetson Nanoで OpenPoseをビルドする方法、動画から人体の骨格検出 (NVIDIA Jetson Nanoの CUDAパワーで OpenPoseを使って動画から人体の骨格検出)
でべ on Twitter: "レビュー記事書きました!Jetson Nanoですが、ラズパイも少しフォローしてます。 Jetson Nano でカルマンフィルタ不要の9軸フュージョンセンサ BOSCH BNO055を使う https://t.co/6J658G3E1p"
I think the @nvidia Jetson Nano will be a game changer for interactive media art — so I put together a tutorial for getting @openframeworks running on it (including my go-to addons, like ofxKinect and ofxKinectV2) https://t.co/o7OPkx3Ucr #openframeworks #addon #creativecoding
— Madeline Gannon (@madelinegannon) June 13, 2019
Jetson Nanoを使ったアプリケーションが
— Hatenaブログに移行したよ (@Vengineer) June 30, 2019
github(NVIDIAのAI-IOT)にて公開されています。
JeTracer : https://t.co/HzbH8pE6sE
JetBot : https://t.co/bZCUmht6Gq
JetCam : https://t.co/KWirx0MSln
JetCard : https://t.co/KYHbFKEu13JetsonNano関係
"2.5D Printing: Bridging the Gap Between 2D and 3D Applications"を周りに広めようと、雑訳作業をしてる。「違う言葉に置き換える」作業である翻訳、それをスラスラできる人たちって凄いと思う。https://t.co/CeI8xD4zCg
— Jun Hirabayashi (平林 純) (@hirax) June 1, 2019
翻訳を期待!Dynamic Traffic Scene Classification with Space-Time Coherence. https://t.co/3mrWi206ca pic.twitter.com/q2zLP4sBMd
— arxiv (@arxiv_org) June 1, 2019こりゃあ良い記事 BNO055 フィルタ無くても良いらしい9軸IMUの弱点について https://t.co/Tp3n0uLS2H
— でべ (@devemin) June 1, 2019
BNO055では何も考えずQuaternion出力を使え、という話。久しぶりに書いた.
— 床井浩平 (@tokoik) June 1, 2019
床井研究室 - Oculus Rift に図形を表示するプログラムを C++ で作るhttps://t.co/lUnY8kaAZ3
書きたいことは他にもあるけど時間がなぁ…
大事だと思うんです。Unityでオブジェクト置いたら終わり、じゃ意味ないもん。A survey of Object Classification and Detection based on 2D/3D data. https://t.co/eMnNCHdRSX pic.twitter.com/7IiUrvIBuQ
— arxiv (@arxiv_org) June 1, 2019todaitotexas.com
欲しい情報が何一つ手に入らない素敵なWEBページ。光が漏れる光ファイバー。ELファイバーと違い漏電しないので水辺でも使える。 pic.twitter.com/gj0lNgnBKh
— ミクミンP/Kazuhiro Sasao (@ksasao) June 1, 2019
展示内容は素晴らしい。
Jetson Nanoをロボットに搭載するために、リチウムポリマー6S22.2Vから5V80Wを安全に取り出せる電源を作る
Jetson Nanoは、安くて早くて便利ですが、フルスピードで動かそうとすると20Wの5V電源が必要になります。一般に、これをUSB電源からとるのは無理なので、DCDCコンバータを用意する必要があります。
一方、ロボットではモータを駆動するために、+12Vや+24Vの電源が使われることが多いです。そこで、24Vから5Vを作る電源を検討したいと思います。
この記事を参考にして事故等が起きても一切の責任を取れません。よくご検討の上自己責任でお願いいたします。
DCDCコンバータの選定
ロボットに搭載するために、できるだけ回路は物理的に小さくしたいと思います。自作でDCDCコンバータを作るとどうしても大きくなってしまいますから、素直にメーカー品を選定することにします。
www.cosel.co.jp
www.cosel.co.jp
有名メーカーのモジュールを探したところ、COSEL MGFS40/80シリーズが出力/サイズ比がもっともよさそうです。値段もそれぞれ、4000円、7000円とリーズナブルです。それぞれ、2台、4台のフルスペックJetson Nanoを動かすことができます。
難点は、現時点でどちらも在庫薄であることですが、そのうち入荷するでしょう。
低電圧検出回路の設計
大本の電源をリチウムポリマー電池から取り出すことに注意しなければなりません。リチウムポリマー電池は、過放電すると単に使えなくなるばかりか、膨らんで爆発するなどの危険性があります。そこで、終止電圧が来たらDCDCコンバータを自動的に止めるようにしなければなりません。リチウムポリマーの1セルの基準電圧は3.7V、終止電圧は3.0Vぐらいが一般的です。厳密にやるならば、各セルの電圧を監視するべきなのですが、回路規模的に大変になってしまうので、6S18Vを終止電圧としてDCDCコンバータを止めるようにしたいと思います。
ツェナーダイオードを使って基準電圧を作ります。18Vを直接比較しようとすると、もっと大きな電圧が比較回路のために必要になってしまいますので、5V程度の電源で駆動できるように適当に電圧を調整します。また、電圧を比較するのに最も手軽な方法は、OPアンプをコンパレータとして使うことだと思います。OPアンプの+入力にツェナーダイオード、-入力に抵抗で分圧したバッテリー電源電圧を入れます。www.falstad.com
回路の原理確認には、このWEBアプレットの回路シミュレータを使いました。電源電圧が18Vを超えるとコンパレータの出力はLowになり、18Vを切るとHighの+5Vを出力します。
部品は、手元にあった3.6Vのツェナーダイオードを使うことにします。またコンパレータには、手元に転がっていた単電源OPアンプのJRC 3414ADを使うことにしました。これは、バイポーラ型ですが消費電力の少ないFET入力の方が良いと思います。
抵抗の分圧比は、電源電圧が18Vの時に3.6Vの電圧が下の抵抗にかかるように調整します。系列の抵抗値に当てはめて、下を3.6kΩ、上を14.4k(12k+2.4k)にしました。ノイズを恐れて多めに電流を流すようにしましたが、もうちょっと少なくてもいいかもしれません。
単電源OPアンプの電源を用意するのが億劫ですが、強い味方のスーパー三端子レギュレータ+5Vが手元にあったのでこれを使うことにします。超便利なので、手元にいくつか在庫を用意しておくと良いです。
ただし、こいつは低電圧検出後も停止されず微弱ながら電流を引き続けますので、停止してしまったら速やかにバッテリーを取り外す必要があります。基準電圧用のツェナーダイオードの電源とOPアンプの電源は同じものを用いてください。
akizukidenshi.com
あとは、このコンパレータの出力電圧をCOSELのDCDCコンバータのRC端子につないでやれば良いです。
注意点として、本来は出力にヒステリシスを入れて、一度基準電圧を切ったらラッチさせてチャタリングが起きないようにするべきだと思います。クリティカルな用途に使う際はよく注意してください。
出力状態の監視出力
この5V用DCDCコンバータで低電圧検出回路が働いたら、(もし使っていれば)他の系統の電源も連携して停止するようにするべきです。出力側の5Vの電圧でフォトカプラを駆動して、入力側の電圧基準で信号を取り出せるようにしたいと思います。
フォトカプラには、京都のマルツで入手できた東芝TLP550を使うことにします。これは、何の変哲もないオープンコレクタ出力1回路の物です。
toshiba.semicon-storage.com
わざわざ回路図にするまでもないですが、左側の電源をCOSELのDCDCコンバータの5V出力、右側の電源をスーパー三端子レギュレータの5V電源とします。負論理で動きますので、そのまま別のコーセルのDCDCコンバータのRCに入力することができます。
メインのDCDCコンバータ電源回路
COSELのデータシートに従って素直に作ります。コンデンサのESRが無いので、シミュレータはこのままでは動きません。
実装
出来ました。が、やらかしています。DCDCコンバータモジュールは熱を持つので、電解コンデンサーを接しさせてはイケマセン!また、ラインフィルタを入れてはいますが、多分無意味なので不要です。
今日の本文
ダイエットのために、病院でおすすめされました。
イージーファイバー お通じの改善に役立つ食物繊維 30パック【特定保健用食品】
- 出版社/メーカー: 小林製薬
- 発売日: 2014/04/05
- メディア: ヘルスケア&ケア用品
- この商品を含むブログを見る
大塚製薬 賢者の食卓 ダブルサポート (6g×30包)×10箱【特定保健用食品】
- 出版社/メーカー: 大塚製薬
- メディア: ヘルスケア&ケア用品
- この商品を含むブログを見る