<?xml version="1.0" encoding="utf-8"?>
<rss version="2.0"><channel><title>deeplearning / Drkcore</title><link>http://blog.kzfmix.com/deeplearning</link><description>Programming, Music, Snowboarding</description><language>ja</language><lastBuildDate>Fri, 09 Feb 2018 15:59:57 +0919</lastBuildDate><item><title>深層学習</title><link>http://blog.kzfmix.com/entry/1518159598</link><description>&lt;p&gt;Kindleでは出ないのかな？&lt;/p&gt;
&lt;p&gt;&lt;p&gt;&lt;div class="awsxom"&gt;
    &lt;a href="http://www.amazon.co.jp/exec/obidos/ASIN/4048930621/ref=nosim/kaerutyuuihou-22"&gt;
    &lt;img src="https://images-fe.ssl-images-amazon.com/images/I/61u0nJtylBL._SL160_.jpg" align="left" hspace="5" border="0" alt="ProductName" class="image" /&gt;
    &lt;strong&gt;深層学習&lt;/strong&gt;&lt;/a&gt;&lt;br /&gt;
    Ian Goodfellow&lt;br /&gt;
    KADOKAWA / 4968円 ( 2018-02-28 )&lt;br /&gt;
    &lt;br /&gt;
    &lt;br clear="all" /&gt;
    &lt;/div&gt;&lt;/p&gt;&lt;/p&gt;
&lt;p&gt;まぁ、Yoshua Bengioだから買わないわけにはいかないが&lt;/p&gt;</description><pubDate>Fri, 09 Feb 2018 15:59:57 +0919</pubDate><category>deeplearning</category></item><item><title>Dive into DeepChem</title><link>http://blog.kzfmix.com/entry/1517312456</link><description>&lt;p&gt;やっと時間が取れたので嬉々としてコードリーディングしてるけど、謎のディレクトリが結構あってexamplesに移したほうが良いんではと思うものもあった。これから洗練されていくのだとは思いますが、強化学習とかが一緒に入っていると使いづらいんじゃないかなぁ（自由度がなくなるっていう意味で）。&lt;/p&gt;
&lt;p&gt;このあたりは、ウェブフレームワークのフルスタックがいいのか、薄いラッパーがいいのかっていう問題に似ている気がするけど、Flask使いの僕としてはdeepchemはとりあえず使いつつ、便利な機能を参考にしつつ薄いフレームワーク作って柔軟に対応できるようにしていくようになっていく気がする。&lt;/p&gt;
&lt;p&gt;あとドッキングシミュレーション周りのコードに興味があるんだけど、MOEとか schrodingerに対応してほしいなと思うけど、これは自分でやるかもしれない。ただ、ドッキングシミュレーションの大雑把な情報をDLにかけて高次の抽象表現得られるとは全然思わない。むしろCNNのようなコンボリューションの効果のほうが、いわゆるMDのような動的な効果を考慮するようになっていいんじゃないかなぁと考えている。&lt;/p&gt;
&lt;p&gt;ただし、自分のスタンスとして、&lt;strong&gt;ドッキングってのは反応の前後でproductとかreactantが変化しない化学反応&lt;/strong&gt; だと捉えているので、そのあたり表現できない荒い計算は未来が感じられない。正直、軌道の係数とかインプットにしてみたい。&lt;/p&gt;
&lt;p&gt;&lt;a href="https://gitlab.com/cheminfIBB/pafnucy"&gt;pafnucy&lt;/a&gt;も読む。&lt;/p&gt;
&lt;p&gt;DeepChemのソースコード黙々リーディング会っていう、ソースコード読みながら注釈入れつつGithubで共有して、そのあとリパブリューでビールをガブガブ飲む会を思いついたんだけど、興味ある人おるかな？&lt;/p&gt;
&lt;h2&gt;data&lt;/h2&gt;
&lt;p&gt;dataいじり用&lt;/p&gt;
&lt;h2&gt;dock&lt;/h2&gt;
&lt;p&gt;docking関連&lt;/p&gt;
&lt;h2&gt;feat&lt;/h2&gt;
&lt;p&gt;記述子関連&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;adjacency_fingerprints.py&lt;/li&gt;
&lt;li&gt;atomic_coordinates.py&lt;/li&gt;
&lt;li&gt;basic.py&lt;/li&gt;
&lt;li&gt;binding_pocket_features.py&lt;/li&gt;
&lt;li&gt;coulomb_matrices.py&lt;/li&gt;
&lt;li&gt;fingerprints.py&lt;/li&gt;
&lt;li&gt;graph_features.py&lt;/li&gt;
&lt;li&gt;mol_graphs.py&lt;/li&gt;
&lt;li&gt;nnscore_utils.py&lt;/li&gt;
&lt;li&gt;one_hot.py&lt;/li&gt;
&lt;li&gt;raw_featurizer.py&lt;/li&gt;
&lt;li&gt;rdkit_grid_featurizer.py&lt;/li&gt;
&lt;/ul&gt;
&lt;h2&gt;hyper&lt;/h2&gt;
&lt;p&gt;parameter最適化用&lt;/p&gt;
&lt;h2&gt;metalearning&lt;/h2&gt;
&lt;h2&gt;metrics&lt;/h2&gt;
&lt;p&gt;sklearn.metrics&lt;/p&gt;
&lt;h2&gt;models&lt;/h2&gt;
&lt;h2&gt;molnet&lt;/h2&gt;
&lt;h2&gt;nn&lt;/h2&gt;
&lt;h2&gt;rl&lt;/h2&gt;
&lt;p&gt;強化学習&lt;/p&gt;
&lt;h2&gt;splits&lt;/h2&gt;
&lt;p&gt;データセット分割&lt;/p&gt;
&lt;h2&gt;trans&lt;/h2&gt;
&lt;h2&gt;tree.txt&lt;/h2&gt;
&lt;h2&gt;utils&lt;/h2&gt;</description><pubDate>Tue, 30 Jan 2018 21:02:20 +0919</pubDate><category>chemoinformatics</category><category>deeplearning</category></item><item><title>AIについて知りたいなら美味しんぼを読め</title><link>http://blog.kzfmix.com/entry/1515039820</link><description>&lt;p&gt;あけましておめでとうございます。&lt;/p&gt;
&lt;p&gt;今年もこの風潮は続くのでしょうか？&lt;/p&gt;
&lt;p&gt;&lt;a href="https://www.nikkei.com/article/DGXKZO06979030X00C16A9X12000/"&gt;『なんでもいいからビッグデータを集めて、ＡＩでなんとかしろ』&lt;/a&gt;&lt;/p&gt;
&lt;p&gt;そんなときには美味しんぼの24巻カレーライス対決を読むといいと思います。&lt;/p&gt;
&lt;p&gt;&lt;p&gt;&lt;div class="awsxom"&gt;
    &lt;a href="http://www.amazon.co.jp/exec/obidos/ASIN/B00AQRCAPK/ref=nosim/kaerutyuuihou-22"&gt;
    &lt;img src="https://images-fe.ssl-images-amazon.com/images/I/510C3YLAGCL._SL160_.jpg" align="left" hspace="5" border="0" alt="ProductName" class="image" /&gt;
    &lt;strong&gt;美味しんぼ（２４） (ビッグコミックス)&lt;/strong&gt;&lt;/a&gt;&lt;br /&gt;
    花咲アキラ&lt;br /&gt;
    小学館 / ?円 ( 2013-01-01 )&lt;br /&gt;
    &lt;br /&gt;
    &lt;br clear="all" /&gt;
    &lt;/div&gt;&lt;/p&gt;&lt;/p&gt;
&lt;p&gt;あらすじ&lt;/p&gt;
&lt;blockquote&gt;
&lt;p&gt;川遊びに来ていた山岡たちだが、いざ創薬のAIを作る段になって大騒ぎ。みな、それぞれに自分のレシピを持っていて、お互い絶対に譲ろうとしないのだ。翌日、AIで仲たがいしたら、AIで仲直りするのが一番、とばかりにAIコンソの「マイダス王」を訪れると、入口に休業の張紙が。中では店主の栃川が落ち込んでいる。実は1週間前に海原雄山が突然現れ、「AIとは何か？、AI粉とは何か？、そしてAIはビッグデータと食べるのが正しいのか？」と3つの質問を投げ掛けたというのだ。自分の仕事に関わる根源的なこの質問に、ひとつとして答えられなかった栃川は、それ以来すっかり自信を失ってしまったのだ。そして後日、「次の究極VS至高のテーマは、AIではどうだ」と雄山から提案がなされた。山岡はそれを受け入れ、日本の様々なAI屋を訪ね、AIの研究家なども取材する。だが、雄山が提示した3つの質問の答えは見つからなかった。そこで山岡は、AIの謎を探るため、シリコンバレーへの取材旅行を決意する。&lt;/p&gt;
&lt;/blockquote&gt;
&lt;p&gt;僕はデータサイエンティストなので、カレー粉など使わずに都度ミルでスパイスを調合しています。&lt;/p&gt;
&lt;p&gt;&lt;p&gt;&lt;div class="awsxom"&gt;
    &lt;a href="http://www.amazon.co.jp/exec/obidos/ASIN/B00068N40O/ref=nosim/kaerutyuuihou-22"&gt;
    &lt;img src="http://ecx.images-amazon.com/images/I/31HhZP1DdIL._SL160_.jpg" align="left" hspace="5" border="0" alt="ProductName" class="image" /&gt;
    &lt;strong&gt;Melitta(メリタ) セレクトグラインド MJ-516 (ホワイト)&lt;/strong&gt;&lt;/a&gt;&lt;br /&gt;
    &lt;br /&gt;
    Melitta (メリタ) / 3099円 (  )&lt;br /&gt;
    &lt;br /&gt;
    &lt;br clear="all" /&gt;
    &lt;/div&gt;&lt;/p&gt;&lt;/p&gt;
&lt;p&gt;今年はなにか新たな調合法を見出したいですね。&lt;/p&gt;</description><pubDate>Thu, 04 Jan 2018 13:25:28 +0919</pubDate><category>chemoinformatics</category><category>bioinformatics</category><category>deeplearning</category></item><item><title>FBDD with ChemTS</title><link>http://blog.kzfmix.com/entry/1511356412</link><description>&lt;p&gt;MCTSとRNNを組み合わせた手法である&lt;a href="https://arxiv.org/pdf/1703.07076.pdf"&gt;ChemTS&lt;/a&gt;の&lt;a href="https://github.com/tsudalab/ChemTS"&gt;ソースコード&lt;/a&gt;を眺めていて、&lt;/p&gt;
&lt;p&gt;&lt;strong&gt;お、これFragmentのgrowingに使えるじゃん！&lt;/strong&gt;&lt;/p&gt;
&lt;p&gt;と気づいたので早速フォークしていじり始めた。&lt;/p&gt;
&lt;p&gt;初期値としてフラグメントのSMILESを与えたい、かつRNNの流儀に会うように成長点が文字列の最後に来るようにしたいんだが、以前教わった&lt;a href="https://arxiv.org/abs/1703.07076"&gt;SMILES Enumeration&lt;/a&gt;の&lt;a href="https://github.com/EBjerrum/SMILES-enumeration"&gt;コード&lt;/a&gt;を流用すればいけそう&lt;/p&gt;
&lt;blockquote class="twitter-tweet" data-lang="ja"&gt;&lt;p lang="ja" dir="ltr"&gt;こんな感じのイメージですか？ &lt;a href="https://t.co/99pSsB6yGE"&gt;https://t.co/99pSsB6yGE&lt;/a&gt;&lt;/p&gt;— rkakamilan (@rkakamilan) &lt;a href="https://twitter.com/rkakamilan/status/874936135788634112?ref_src=twsrc%5Etfw"&gt;2017年6月14日&lt;/a&gt;&lt;/blockquote&gt;

&lt;script async src="https://platform.twitter.com/widgets.js" charset="utf-8"&gt;&lt;/script&gt;

&lt;p&gt;&lt;a href="https://www.eyesopen.com/omega"&gt;OMEGA&lt;/a&gt;があれば部分構造を基にしたコンフォメーション生成やってくれるから、その後のドッキングスタディ楽なんだろうけど、持ってないからなー。&lt;/p&gt;
&lt;p&gt;それから評価関数ドッキングスコアにするのはどうなのかな？アレの精度あまり良くないからなんか考える必要はありそうだ。PLIFとかのほうが潔くて良い気もするが。&lt;/p&gt;
&lt;p&gt;ちょっと前に出てたFBDDのレビューを見ていてもLEを保ったままLeadに持っていくのが重要そうだったからエンタルピックな効果をもたせるほうが重要だったらパッキングよりも水素結合重視したほうがいいかなとは思う。&lt;/p&gt;
&lt;p&gt;変なスコアで優劣つけるくらいなら水素結合とか期待できる構造がよく提案されるようにしたほうがよいかもしれん。&lt;/p&gt;
&lt;p&gt;このあたりは今後要検討する必要はある。&lt;/p&gt;</description><pubDate>Wed, 22 Nov 2017 22:31:10 +0919</pubDate><category>chemoinformatics</category><category>deeplearning</category></item><item><title>京都で研究室出身者の講演会</title><link>http://blog.kzfmix.com/entry/1475480046</link><description>&lt;p&gt;土曜日は研究室出身者の集いみたいなのがあって参加してきた。下っ端なので気疲れはするけど楽しいし非常に勉強になった。皆さん活躍されているようで、スゲーって言うような仕事をしている方が何人もいて話していて刺激を受けた。僕も頑張らないとなーと思った。&lt;/p&gt;
&lt;p&gt;Kさんのディープラーニング系の話で「ニューラルネットワークは結局脳の模倣だから、脳の理解つまり人間のシミュレーションの方向に進んでるとも言える。だから精度の良し悪しだけじゃなくそういった点も踏み込んでいくべき」みたいなことをおっしゃっていて、なるほどと思った。&lt;/p&gt;
&lt;p&gt;機械学習ばかりやっている身だと精度のほうに気持ちが行っちゃうけど、もっと本質を追いかける必要はあるよなぁと改めて感じた。そして画像認識なんかは確かに人間の視覚情報処理の模倣とシステムの理解ということになるんだけど、僕が取り組んでいる創薬系でのDLは分子認識というタンパク質が低分子化合物を認識するというシステムの理解だからやっぱり、CNNとはまた違ったアーキテクチャを考え出すのと同時に、入力をどうするか（化合物の正しい入力表現）を考え出す必要はあるよなぁと感じたわけです。&lt;/p&gt;
&lt;p&gt;あとは相変わらずN先生は頭良すぎて、さっぱり理解できんかったが、曰く「MO法は行き過ぎた理論」は名言だと思った。あんなに遠くまでデローカライズするようなMOというモデルは化学に沿っていないみたいなことを言っていて、ほうほうと思いながら聞いていた。隣の先輩に「僕もFMOを製薬業界に根付かせたいんですよねー」みたいなことをぼそっと言ったら「お前、そんな危険なチャレンジするのか！怒られるかもよ！！！」と返されたｗ　N先生、何故かFMO大嫌いなんだよねー。FMOなんてMOがデローカライズそんなにしないからっていう経験則で分子を細切れにする方法論だから、「MO法は行き過ぎた理論」っていう考え方を取り入れて実務的に上手くやっている方法だと思うんだけどなぁ。今度どこが問題なのか聞いてみたい。&lt;/p&gt;
&lt;p&gt;行きの新幹線の中で読んだ瀬尾まいこ&lt;/p&gt;
&lt;p&gt;&lt;img alt="1475480217" src="http://www.kzfmix.com/images/blog/1475480217.jpg" /&gt;&lt;/p&gt;
&lt;p&gt;お昼は、&lt;a href="https://tabelog.com/kyoto/A2601/A260202/26003182/"&gt;高倉二条&lt;/a&gt;で蕎麦っぽいラーメンを食べてきた。酸味強め。つけ麺のほうが正解だったのか？　わからん。&lt;/p&gt;
&lt;p&gt;&lt;img alt="1475480219" src="http://www.kzfmix.com/images/blog/1475480219.jpg" /&gt;
&lt;img alt="1475480221" src="http://www.kzfmix.com/images/blog/1475480221.jpg" /&gt;&lt;/p&gt;
&lt;p&gt;同窓会の懇親会。色々出てきて軽食をイメージしてたから面食らった。量も多くて途中でギブしたｗ&lt;/p&gt;
&lt;p&gt;&lt;img alt="1475480224" src="http://www.kzfmix.com/images/blog/1475480224.jpg" /&gt;
&lt;img alt="1475480226" src="http://www.kzfmix.com/images/blog/1475480226.jpg" /&gt;&lt;/p&gt;
&lt;p&gt;尚、楽友会館は学生時代住んでいたとこの近所だったので、懐かしさ倍増ｗ&lt;/p&gt;
&lt;p&gt;&lt;img alt="1475480228" src="http://www.kzfmix.com/images/blog/1475480228.jpg" /&gt;&lt;/p&gt;
&lt;p&gt;帰りに三条をぶらっと歩いてたら立ち飲みっぽいところがあったので入った。&lt;/p&gt;
&lt;p&gt;&lt;img alt="1475480233" src="http://www.kzfmix.com/images/blog/1475480233.jpg" /&gt;&lt;/p&gt;
&lt;p&gt;ねぎ焼きってほんとにネギしか入ってなくてつまみにちょうどいい。生ビールも自分で入れる方式で外人の旅行者には受けるらしい。二階が民泊になっているらしく外人率が高かったが、フレンドリーな雰囲気の店で楽しかった。&lt;/p&gt;
&lt;p&gt;それから、店員さんが高速バスの運転手もやっているらしく、御殿場の方まで行くことがあったらしく。地元ネタとかバスネタが聞けて楽しかった。&lt;/p&gt;
&lt;p&gt;&lt;img alt="1475480231" src="http://www.kzfmix.com/images/blog/1475480231.jpg" /&gt;&lt;/p&gt;
&lt;p&gt;二日目は京都産ポケモンが少し欲しくて（今のバージョンはどこで取ったかが記録されるので、京都産10Kたまごが欲しかったw）祇園に鯖寿司を調達しに行くついでに&lt;a href="https://game8.jp/pokemon-go/nests/78475"&gt;イワークの巣となっているらしい丸山公園&lt;/a&gt;で一狩りしてきた。&lt;/p&gt;
&lt;p&gt;が、暑すぎてとっとと退散ｗ ハガネールに進化できるようになってから改めてイワーク狩りすればいいやｗ&lt;/p&gt;
&lt;p&gt;疲れたので、おかるであんかけうどん。&lt;/p&gt;
&lt;p&gt;とろみが葛かな？　うまい、最高。&lt;/p&gt;
&lt;p&gt;&lt;img alt="1475480235" src="http://www.kzfmix.com/images/blog/1475480235.jpg" /&gt;
&lt;img alt="1475480238" src="http://www.kzfmix.com/images/blog/1475480238.jpg" /&gt;&lt;/p&gt;
&lt;p&gt;なんとなくよさげなラベルの日本酒を抱えて帰宅。&lt;/p&gt;
&lt;p&gt;&lt;img alt="1475480240" src="http://www.kzfmix.com/images/blog/1475480240.jpg" /&gt;&lt;/p&gt;
&lt;p&gt;楽しかったのもあるけど、やはりすごく勉強になったなぁと思う。&lt;/p&gt;</description><pubDate>Mon, 03 Oct 2016 16:56:07 +0919</pubDate><category>chemoinformatics</category><category>京都</category><category>deeplearning</category></item><item><title>PyConJP2016に行ってきた</title><link>http://blog.kzfmix.com/entry/1474501702</link><description>&lt;p&gt;まず予習しておいた&lt;a href="http://xn--go-jb4asdqa7zrkmbxks096csfpb0s5d.com/2016/07/23/post-981/"&gt;戸山公園&lt;/a&gt;にはピカチュウはいなかった。東側も行ってみたけどブーバーくらいしかいなかったし、高低差があるので歩くのがめんどくさかった。西側はオニスズメばかりｗ&lt;/p&gt;
&lt;p&gt;PyConJPは去年は不参加だったので二年ぶりの参加でした。初中級向けの演題が多かった気がして、間口が広げたかったのかなぁと思ったが一方でディープな話題が少なくて初期の頃とは色々変わっているんだなぁと感じた。これは選考プロセスのせいもあるのかな？&lt;/p&gt;
&lt;p&gt;あとディープラーニング関連の演題が多かった。一昨年は機械学習の話題も多かった気がするけど。僕の最近の興味もディープラーニングなので、Pythonというよりはディープラーニングの演題を聴きに行った（というかほとんどそれしか聴いてないｗ）&lt;/p&gt;
&lt;p&gt;尚、狙った演題を椅子に座って聞くためには一つ前の演題をスキップしないとしんどいことになるのでなかなか厳しかった。もう少し自由に出入りできると良いのかなと思うが、大学では仕方ないかな（逆にカジュアルに出入りできる教室の設計だと困るｗ）&lt;/p&gt;
&lt;h4&gt;&lt;a href="https://pycon.jp/2016/ja/productfair/"&gt;深層学習の次の一手&lt;/a&gt;&lt;/h4&gt;
&lt;p&gt;次の一手ということで、なんとなくディープな話が聞けるのかなと思ったけど、クラウドサービスの話が多かった印象。
自社サービスの宣伝するならもっとグイグイやってくれたほうがよかったかな。&lt;/p&gt;
&lt;p&gt;GPUを使える仮想環境のニーズって個人レベルだとかなりあると思うんだよね。気軽に試したいし。&lt;/p&gt;
&lt;p&gt;尚、&lt;a href="https://github.com/Microsoft/CNTK"&gt;CNTK&lt;/a&gt;はちょっと興味を持った。&lt;/p&gt;
&lt;h4&gt;&lt;a href="https://pycon.jp/2016/ja/schedule/presentation/10/"&gt;ニューラルネットワークのフレームワークであるChainerで始める対話Botの作成&lt;/a&gt;&lt;/h4&gt;
&lt;p&gt;自然言語処理系のDLはあまり追いかけてなくて、　word2vecくらいしか理解してないんだけど、あれはディープじゃないから。RNNとかLSTMをつかってやろうとしたことの話で、具体的なコードが出てこなかったけど、やろうとしていることは理解できて面白かった。&lt;/p&gt;
&lt;p&gt;LSTMと化合物のフラグメントってどう対応とったらうまいくのかなぁとか思った。ゲノムのほうがやりやすい気はするけどそういう論文は見たことないなぁ。&lt;/p&gt;
&lt;h4&gt;&lt;a href="https://pycon.jp/2016/ja/schedule/presentation/80/"&gt;確率的ニューラルネットの学習と Chainer による実装&lt;/a&gt;&lt;/h4&gt;
&lt;p&gt;とても勉強になった。ツイートでメモとってたので、帰りの新幹線で読み返してた。&lt;/p&gt;
&lt;p&gt;画像生成と化合物合成って結構似ていると思っているので、こういう方法で化合物生成するのって悪くはないんじゃないかなぁーと。&lt;/p&gt;
&lt;p&gt;そのうち試す。&lt;/p&gt;
&lt;h4&gt;&lt;a href="https://pycon.jp/2016/ja/schedule/presentation/31/"&gt;Pythonでpyftpdlibを使ってFTPサーバーを作る際に使ったテクニックの紹介&lt;/a&gt;&lt;/h4&gt;
&lt;p&gt;要件定義と言うか仕様を固めるの難しいよなぁと思いながら聞いていた。パッケージを作りたいヒトは聞いておいて良い内容だったと思います。僕も、あのときああいう風にすればよかったのかとか思いながら聞いていた。&lt;/p&gt;
&lt;h4&gt;&lt;a href="https://pycon.jp/2016/ja/schedule/presentation/20/"&gt;Deep Learning with Python &amp;amp; TensorFlow&lt;/a&gt;&lt;/h4&gt;
&lt;p&gt;tensorflowの触りだけだった。初めてのヒト向けに具体的な事例を紹介する内容だったと思う。知らない人向けには面白かったと思うが、ある程度使っているヒトにとってはちょっと物足りなかったかも。&lt;/p&gt;
&lt;p&gt;二年ぶりの参加だったけど、色々と刺激を受けて楽しかった二日間だった。来年も参加します。&lt;/p&gt;</description><pubDate>Tue, 27 Sep 2016 19:22:39 +0919</pubDate><category>Python</category><category>東京</category><category>deeplearning</category></item><item><title>「ゼロから作るDeep Learning」を予約した</title><link>http://blog.kzfmix.com/entry/1471260955</link><description>&lt;p&gt;久しぶりに読みたい本が出たので予約した。&lt;/p&gt;
&lt;p&gt;&lt;p&gt;&lt;div class="awsxom"&gt;
    &lt;a href="http://www.amazon.co.jp/exec/obidos/ASIN/4873117585/ref=nosim/kaerutyuuihou-22"&gt;
    &lt;img src="http://ecx.images-amazon.com/images/I/51uGtWcu%2BFL._SL160_.jpg" align="left" hspace="5" border="0" alt="ProductName" class="image" /&gt;
    &lt;strong&gt;ゼロから作るDeep Learning ―Pythonで学ぶディープラーニングの理論と実装&lt;/strong&gt;&lt;/a&gt;&lt;br /&gt;
    斎藤 康毅&lt;br /&gt;
    オライリージャパン / 3672円 ( 2016-09-24 )&lt;br /&gt;
    &lt;br /&gt;
    &lt;br clear="all" /&gt;
    &lt;/div&gt;&lt;/p&gt;&lt;/p&gt;
&lt;p&gt;オライリーの方にも目次が出てないのだけど勢いで予約ｗ&lt;/p&gt;</description><pubDate>Mon, 15 Aug 2016 20:36:17 +0919</pubDate><category>deeplearning</category></item><item><title>Bag of Fragments(BoF)を超えろ</title><link>http://blog.kzfmix.com/entry/1466510426</link><description>&lt;p&gt;先日&lt;a href="http://blog.kzfmix.com/entry/1464783221"&gt;Deep Learning創薬の駄文&lt;/a&gt;をのせてみたが、&lt;/p&gt;
&lt;blockquote&gt;
&lt;p&gt;深いニューラルネットワークで特徴抽出っていうのが、chemoinformaticsの文脈だと「フラグメントからファーマコフフォア構築」というのはその通りだと思うんだけど、それがBoW的なECFP4みたいなフィンガープリントでいいのだろうか？pharmacophoreとかCoMFA,CoMSIAみたいな表現に向かうような記述子で出発しないといけないんじゃないかなーと思う&lt;/p&gt;
&lt;/blockquote&gt;
&lt;p&gt;以前&lt;a href="http://twitter.com/iwatobipen"&gt;@iwatobipen&lt;/a&gt;が触れていた&lt;a href="https://iwatobipen.wordpress.com/2016/01/04/new-fingerprint-algorithm-using-rdkit/"&gt;NeuralFingerPrint&lt;/a&gt;もECFPの特徴抽出プロセスと類似の方法で距離を考慮してないからファーマコフォアにはいたらないと思う。精度がいいのは分散表現のところではないかなぁと思っている（つまり以下の説明）。&lt;/p&gt;
&lt;blockquote&gt;
&lt;p&gt;Standard fingerprints encode each possible fragment completely distinctly, with no notion of similarity between fragments. In contrast, each feature of a neural graph fingerprint can be activated by similar but distinct molecular fragments, making the feature representation more meaningful.&lt;/p&gt;
&lt;/blockquote&gt;
&lt;p&gt;実際溶解性みたいな分子全体の特徴が重要な場合の予測は非常に改善されているが、薬理活性みたいな分子認識が重要なファクターになっているものはあんまり改善してないように思う。&lt;a href="https://github.com/HIPS/neural-fingerprint"&gt;GitHubに実装&lt;/a&gt;があるし、精度もいいから予測モデル作る場合にはこれを使うけどね。&lt;/p&gt;
&lt;p&gt;ここらへんも似た感じだと思う。如何にもトキシコフォアとかファーマコフォアが学習されるようなFigureが載ってるけど、Catalystとか使ってファーマコフォアモデルを組み立てたり、ドッキングシミュレーションをやりまくった経験からはこれは誤解されそうな説明だなぁと思った。&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;&lt;a href="https://arxiv.org/abs/1503.01445"&gt;Toxicity Prediction using Deep Learning&lt;/a&gt;&lt;/li&gt;
&lt;li&gt;&lt;a href="http://www.bioinf.jku.at/publications/2014/NIPS2014a.pdf"&gt;Deep Learning as an Opportunity in Virtual Screening&lt;/a&gt;&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;で本題。最近&lt;a href="http://arxiv.org/abs/1603.00856"&gt;Molecular Graph Convolutions: Moving Beyond Fingerprints&lt;/a&gt;という意欲作を読んで感動した。&lt;/p&gt;
&lt;p&gt;ここまで書いたら中身の説明を書くのに疲れちゃったので興味のある方は是非読みましょう。著者もGoogleとStanfordの人だし、pubmedで出てこなかったらノーマークだったわ。&lt;/p&gt;
&lt;p&gt;化合物(グラフとしての)の不変性を獲得するようなCNNのやり方参考になったがプーリングがsumっていうのがそれでいいのかなぁと思った。&lt;/p&gt;
&lt;blockquote&gt;
&lt;p&gt;f is a learned linear operator with a rectified linear activation function and g is a sum.&lt;/p&gt;
&lt;/blockquote&gt;
&lt;p&gt;ファーマコフォアが記述できるようなDNNの方法ができれば、精度上がるだろうから、測定データさえ増やせるのなら有望じゃないかと思う。&lt;/p&gt;
&lt;p&gt;さらにその結果からドッキングシミュレーションの評価関数を作れるだろうから、それを使ってリードホッピングにトライしてもいいから夢が広がる。&lt;/p&gt;
&lt;p&gt;ドッキングの精度が高ければモデルでFMO実行してもそれなりに正しそうな結果が出るだろうから、結晶に頼らなくてもモデリングでいけそうだしな。&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;&lt;a href="http://www.ncbi.nlm.nih.gov/pubmed/26950250"&gt;これだっけ？&lt;/a&gt;&lt;/li&gt;
&lt;/ul&gt;</description><pubDate>Tue, 21 Jun 2016 21:34:15 +0919</pubDate><category>chemoinformatics</category><category>deeplearning</category></item><item><title>PyData2016で Deep Learning for QSARという発表があった</title><link>http://blog.kzfmix.com/entry/1464783221</link><description>&lt;p&gt;&lt;a href="http://slides.com/richlewis/deep-learning-for-qsar-prediction#/"&gt;slide&lt;/a&gt;もあったけど肝心な部分が抜けているので動画を見たほうが面白いです。&lt;/p&gt;
&lt;iframe width="560" height="315" src="https://www.youtube.com/embed/kInLYwitfFs" frameborder="0" allowfullscreen&gt;&lt;/iframe&gt;

&lt;p&gt;10分ぐらい&lt;/p&gt;
&lt;p&gt;部分構造の高次表現としてpharmacophoreとして記述されるみたいな感じのスライドがあったけどpharmacophoreは特徴間の距離が非常に重要なのでBoW的な特徴ベクトルでは表現出来ないと思う。n-gram的な考え方を取り入れないと難しいと思っている。でもそれって5-10word離れている単語の関係を評価していくってことだからコスト高なんだよね&lt;/p&gt;
&lt;p&gt;22分くらい&lt;/p&gt;
&lt;p&gt;chemoinformaticsで目玉焼き&lt;/p&gt;
&lt;hr /&gt;
&lt;p&gt;深いニューラルネットワークで特徴抽出っていうのが、chemoinformaticsの文脈だと&lt;strong&gt;「フラグメントからファーマコフフォア構築」&lt;/strong&gt;というのはその通りだと思うんだけど、それがBoW的なECFP4みたいなフィンガープリントでいいのだろうか？pharmacophoreとかCoMFA,CoMSIAみたいな表現に向かうような記述子で出発しないといけないんじゃないかなーと思う。&lt;/p&gt;
&lt;p&gt;あとタンパク質とリガンドの相互作用、特に電荷の移動という特徴を持たせられないのも今の記述子の問題ではあると思う。&lt;/p&gt;
&lt;p&gt;画像認識と分子認識は色々違うからね。&lt;/p&gt;</description><pubDate>Wed, 01 Jun 2016 21:29:26 +0919</pubDate><category>chemoinformatics</category><category>deeplearning</category></item><item><title>MBA2012でChainer</title><link>http://blog.kzfmix.com/entry/1450445178</link><description>&lt;p&gt;直接入れるとめんどくさそうなのでVagrantで&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;&lt;a href="https://www.vagrantup.com/downloads.html"&gt;Vagrant(1.7.4)&lt;/a&gt;&lt;/li&gt;
&lt;li&gt;&lt;a href="https://www.virtualbox.org/"&gt;Virtualbox(5.0)&lt;/a&gt;&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;という構成です。&lt;/p&gt;
&lt;p&gt;64bitの仮想環境を構築するためにちょっとダウンロードします&lt;/p&gt;
&lt;div class="codehilite"&gt;&lt;pre&gt;vagrant box add trusty64 https://cloud-images.ubuntu.com/vagrant/trusty/current/trusty-server-cloudimg-amd64-vagrant-disk1.box
vagrant init trusty64
vagrant up
vagrant ssh
&lt;/pre&gt;&lt;/div&gt;


&lt;p&gt;これ以降は仮想サーバーでのコマンドになります
chainerを入れる前に、numpy,cython,h5pyが入ってないといけないみたいです。&lt;/p&gt;
&lt;div class="codehilite"&gt;&lt;pre&gt;sudo apt-get update
sudo apt-get install python-pip
sudo apt-get install python-dev
sudo pip install numpy
sudo pip install cython
sudo apt-get install libhdf5-dev
sudo pip install h5py
sudo pip install chainer
&lt;/pre&gt;&lt;/div&gt;


&lt;p&gt;これで、&lt;a href="http://chainer.org/"&gt;MNISTサンプル&lt;/a&gt;が動かせます&lt;/p&gt;
&lt;div class="codehilite"&gt;&lt;pre&gt;&lt;span class="nv"&gt;$ &lt;/span&gt;&lt;span class="nb"&gt;time &lt;/span&gt;python chainer-1.5.1/examples/mnist/train_mnist.py
load MNIST dataset
epoch 1
graph generated
train mean &lt;span class="nv"&gt;loss&lt;/span&gt;&lt;span class="o"&gt;=&lt;/span&gt;0.192818405504, &lt;span class="nv"&gt;accuracy&lt;/span&gt;&lt;span class="o"&gt;=&lt;/span&gt;0.94170000316
&lt;span class="nb"&gt;test  &lt;/span&gt;mean &lt;span class="nv"&gt;loss&lt;/span&gt;&lt;span class="o"&gt;=&lt;/span&gt;0.0941508330352, &lt;span class="nv"&gt;accuracy&lt;/span&gt;&lt;span class="o"&gt;=&lt;/span&gt;0.969200006723
epoch 2

...

epoch 20
train mean &lt;span class="nv"&gt;loss&lt;/span&gt;&lt;span class="o"&gt;=&lt;/span&gt;0.00807140778183, &lt;span class="nv"&gt;accuracy&lt;/span&gt;&lt;span class="o"&gt;=&lt;/span&gt;0.997750002146
&lt;span class="nb"&gt;test  &lt;/span&gt;mean &lt;span class="nv"&gt;loss&lt;/span&gt;&lt;span class="o"&gt;=&lt;/span&gt;0.101509903543, &lt;span class="nv"&gt;accuracy&lt;/span&gt;&lt;span class="o"&gt;=&lt;/span&gt;0.981100007892
save the model
save the optimizer

real    596m38.866s
user    614m50.111s
sys 0m34.011s
&lt;/pre&gt;&lt;/div&gt;


&lt;p&gt;やたらと時間がかかったが、GPU使うとどのくらい早くなるんだろうか…&lt;/p&gt;</description><pubDate>Fri, 18 Dec 2015 22:36:08 +0919</pubDate><category>chemoinformatics</category><category>deeplearning</category></item></channel></rss>