AIをもって鶏を割く

今日はちょっとAIに関する発表をしつつパネルディスカッションに行ってきましたが、色々面白かったので書いておく。

要するにAIっぽい仕事をしている人間を集めてショートトークさせた後、パネルディスカッションするっていう構成だったんだけど、パネラーの中で手を動かせて深層学習、機械学習をわかるのはわたし一人で、残りはネットか本かで知識吸収っていう人たちばかりだったのでパネルディスカッション正直めんどくさいなーとしか思っていなかった。あとは事前打ち合わせなしのガチンコパネルディスカッションだったのでドキドキ感はあった。

最初の質問がいきなり「AI人材を育成するには?」という直球の質問で、私が最初の回答者に指名されたので、うっかりナイーブに「機械学習とか深層学習を学んで後はドメイン知識があればいいんじゃないですかね?」というアホな回答をしてしまった。残りのパネラーもわかってない感じの返答していたけど最後のパネラーが「マインドチェンジする必要があるんじゃないかな」みたいなことを言っていて、「ほう!」となった。これはあーなるほど面白いなと。

で、次の質問が私的にはキタのだけど、それは「AIは結局のところ差別化できない方向にすすむので当社の強みにならないと思うのだけど?」という質問でこれは非常に考えさせられた(5秒位w)。で、私が答えたのは「AIは確かに普遍化して差別化ポイントにはならないでしょう、それは技術でツールだから。でもその技術を以て何を為したいのかにオリジナリティがでるのでは?」という返しが出来て、私は実は賢いんじゃないかと思いました。ついでにすかさず先の「AI人材育成質問」を引き合いに出して「うちのチームは1年半前までは深層学習とかできなかったけど、何を為したいかがはっきりしていたから短期間で成果をだして、今は全員当たり前のように毎日ディープラーニングして課題解決しています」というようなアピール出来たので良かった。でもちょっと持ち上げすぎたので、成果よろしくお願いしたい。

あと全然関係ないけど、いい研究しても伝わらないと意味がないので、伝える努力もしたほうがいいかなと思います。よっぽど発表慣れしている人でなければ資料とかポスターのver. 5までは下書きです。査読者のコメントに熟慮を重ねないといけません。学会ポスターなんて多面最適化と一緒であっちの文言帰るとこっちの文言の整合性が取れなくなるし、図をいじると他のデザインとの整合性がとれなくなるので、納得いくまでいじるもんじゃないかなーと思っていたのだけど、こっちの会社に来てみなさんサクッとドラフトっぽいものを印刷出すのでそういう文化なのかなーということで納得しようとしていたら、帰りに一緒に飲んだ同僚(今日の発表資料をさんざん直された)に「そんな文化ないっすよ!」って言われたので書いておきます。

ver. 3で諦めて印刷にまわすのはスラムダンクの三井以下やぞw

今日思いついた一番の名言やと思いましたw

それから前の会社でみんなで心がけてた標語を思い出したのでこれも書いておきます。

「理解されてアドバイスもらえるのがベスト、わかってもらうのがベター、わかった気にさせるのがマスト」

まぁそんな感じです

京都に行ってきた

週末は所要で京都に行ってきた。

昼は今出川でブラックを食べた。ちょっと濃かったかな。

1542581769

途中、金平糖を入手

1542581772

日本人初のメダルらしい

1542581776

立食ではないディナー

1542581780 1542581783

1542581786 1542581789

1542581792 1542581795

帰り道に日本酒バーでちょっと飲んで帰る。

1542581797 1542581801

金魚

1542581804

鴨川と月

1542581807

綾った

お祝いで綾に行ってきました。楽しかった。すき焼き美味しかった。

1542498449 1542498451

1542498453 1542498455

1542498458 1542498460

1542498462

Hansch-FujitaのLogPはdesolvation energyでPIEDAのDI termはエンタルピックな項

週末は京都でkumainfoの座長の方々とお会いする機会があったので、予稿集を眺めて気になったところを質問してきました。

特に2B03の回帰式にdesolvation termが入っていたのでその意味を聞いたところHansch-Fujita equationのLogPではないかとのことでほう!となりました。ちなみに調べてみたら1984年くらいに同じこと書いてあった(p. 709)。

となるとPIEDAで出てくるDIはLogPとは関係がなく? スタッキングとかCH-πみたいな純粋なエンタルピックな量になってLLEとよい相関を示すことになるのかな?

一方でLLEは見かけの活性を排除しているわけではなくエントロピックな寄与を排除しているということになるが、これはエントロピックな寄与が一定という割と狭い条件でしか通用しないってことかもしれないですね。

konをいじるデザインも併せて考えると興味深いと思う。

このあたりの整理が出来たので良かった。

signifiant, word2vec, 誰をバスに乗せるか?, そして私

昨日は朝から気が滅入ってなんだかなーと思いつつ仕事をしていたのだが、久しぶりのコーヒータイムでいつもは顔を合わせない面子が集まって雑談を楽しんだので色々と刺激を受けた。 帰りの電車は論文読んだりする気分じゃなかったのでちょっと色々と考え事をしていたのでまとめておく。

自己評価はシニフィアンみたいなもので、他人からの評価がシニフィエなのだろう。

ProductName 言葉とは何か (ちくま学芸文庫)
丸山 圭三郎
筑摩書房 / 972円 ( 2008-04-09 )


word2vecに見られるように、wordそのものに着目するよりもその周辺の単語によって、単語の意味が明確になる、つまり、単語そのものにはあまり意味がないように、自己評価そのものにはあまり意味がないように思う。きっと周りからの評価が自己の評価を形成するのだろう。

そういう風に考えると「誰をバスに乗せるか」とか「なにをするかより誰とやるか」という言葉はまた違った風に解釈できますね。

ProductName ビジョナリー・カンパニー 2 - 飛躍の法則
ジム・コリンズ
日経BP社 / 2376円 ( 2001-12-18 )


konをmodifyするような分子設計の可能性について

一通りの大きな発表とかが終わって、今週はゆっくり出来たので積んであった論文などを捌いていたら面白いものを見つけました。

Ligand Desolvation Steers On-Rate and Impacts Drug Residence Time of Heat Shock Protein 90 (Hsp90) Inhibitors

konがどういう因子に支配されているかを調べているのですが、konを変化させるようなdrug designは望まれているけど難しいのでこういうメカニズム解明系の論文は夢があるし、読んでてワクワクしますね。素晴らしい。

ただ、結合過程を化学反応のアナロジーに例えるのはしっくりこなかった。TSって鞍点でしょ?デソルベーション過程って鞍点とみなしていいのかな?イメージできない。それから、apolarな部分のdeslolvationが律速過程みたいな図もちょっと納得できなかった。polarなほうが剥がしにくいし、論文中でもそうなってたしなぁ。

なんかもっと正しいアナロジーまたは解釈の余地は残っている気がする。

それからK4DDって面白そうな活動していますねっていうのと、論文のリンクを探すためにタイトルでググったら被引用論文のリンクがくっついていてグーグル凄いなと思いました。

日本酒バー

無事に役割を果たしたので、帰りにちょっと寄った。

1541818926 1541818928

羽屋はシュワシュワしていて美味しかった。

1541818931 1541818933

今回は色々勉強になってよかったかな。

札幌で食べたもの

知人に行くべきお店のリストを教えてもらったので基本的にはそれに従った。

初日

雪風で味噌ラーメン。塩ラーメンも美味しいと聞いたのだがとりあえず味噌を。2日後に塩ラーメン食べに行ったが、 味噌も塩も両方美味しかった。今回食べたラーメンの中ではここが一番好みかな。

1541817164 1541817161

ホテルに戻って、北海道の日本酒を飲んだ。若手作らしい。飲みやすかった。

1541817166

二日目

北大の銀杏並木。観光客が沢山いてみんな写真撮っていたので負けずに参戦した。

1541817168 1541817171

昼はスープカレーって決めていてピカンティに行ったら一時間待ちと言われて諦めた。

1541817173

代わりにSAMAsというところで食べたが。トマトの酸味が強めな感じだった。

1541817175 1541817178

信玄は19時過ぎに行ったら1時間くらい並んだ。チャーハンも頼むべきとのことだったので頼んだけど、ラードの旨さと硬めのご飯を炒めた感じ。飲んだ後にはいいのかもしれないけど、特に感動はなかった。

1541817180 1541817183

味噌の気分ではなかったので塩ラーメンを頼んだが、まぁまあでした。味噌のほうが良かったのかなぁ。海外のお客さんもかなりいた。

1541817185

ホテルに戻って二世古っていう日本酒をちびちびやりながら論文チェックしたり。

1541817188

三日目

昼は札幌駅にあるヒリヒリ二号店へ。

1541817194

ここのスープカレーは美味しかった。SAMAもそうだったけどチキンとご飯でお腹いっぱいに なってしまうのでご飯は別にいらないかなと思う。スープカレーにチキンも不要かなスープ飲みながら 野菜をかじるのが一番美味しいかも

1541817190 1541817192

夜はジンギスカンに日本酒をあわせるというお店。初日に行って振られているので 今回は予約して万全の態勢

1541817159 1541817197

予め火を起こして待っていてくれるようです。それからお通しが美味しかった。

1541817199 1541817201

美味しいお肉を食べて満足。

1541817204 1541817206

四日目

お昼はスアゲプラスという店。ベジカレー

1541817209 1541817211

五坪というたちのみスタイルの店。牡蠣が積まれている

1541817223 1541817213

日本酒を飲みながら焼き牡蠣が来るのを待つ。4つ頼んだら1つおまけしてもらった。

1541817216 1541817218

足らないので3つ追加。食べたらさっと帰る。

1541817221 1541817225

帰りに雪風で塩ラーメン。間違いのない美味しさ。

1541817228 1541817230

最終日

札幌駅のすぐ近くのイセノジョウで白菜ラーメン。あっさり目で美味しかった。

1541817235 1541817232

空港の空で味噌ラーメン

1541817240 1541817237

良い科学は差を生む

金出先生の講演面白かった。そしていろいろと考えさせられました。

ちゃんとした情報論の学会だとやはり理論的に説明することが求められるので発表を聞いていて楽しいし、勉強になりますね。インフォマティクスの頭にバイオとかケモとかマテリアルとかエトセトラエトセトラとかつくとなんか枠組みだけ借りてきてなんでそうなるのかちゃんと考えなかったり、期待感だけでうまくいくとか言っちゃうのがちらほら出てくるのはなんでなのかなー?と思います。

最近、ケモインフォマティクス系の発表でちょいちょい見かけるのが、構造式を紙に出力してCNNをつかって予測すると精度があがるとかいうやつとかね。chemceptionとかで

We demonstrate this by training deep convolutional neural networks to predict chemical properties that spans a broad range of categories including physical (solvation free energies), biochemical (in vitro HIV activity) and physiological (in vivo toxicity) measurements, without the input of advanced chemistry knowledge, but instead allowing the network to develop its own representations and features from the images it is trained on.

と書いてあるんだけど、これ単純にOCRできているだけじゃないの?としか思えないんですよね。文字認識してからテキストマイニングに描けるように、構造認識してから適当な予測モデルにかけているから精度ももともとの構造式をグラフ表現にしたものと同じくらいの精度しか出ないんだろうなーと。結局無駄な一手間加えただけなんじゃ?としか思えないんだけど、これに夢を感じるのなんでだろうねと思ってしまう。

もしかしたら、紙からもっとプリミティブというか量子化学的な特徴量を学習するのかもしれないけどそれって夢見過ぎなんじゃないのかなーと思う。結局構造式のグラフ表現だといろいろ化学的な事象を表現できないから色々別な表現方法提唱されているのにそういうのまるっと無視してAIとDLならうまくいくみたいな論調のひとはちょっとどうなのかなというか理論の部分知らなかったり(知る気もなかったり)するのがちょっとなー。

そんなことを考えながら飲んでいてメモ代わりにツイートしといたのが以下です。

ちゃんとサイエンスをリスペクトしつつ、現実の世界で役に立つ研究をしたいなーと思いました。

転移学習と半教師付き学習の類似性

半教師付き学習はトレーニング、テストが同じ分布のもので、転移学習はトレーニング、テストが異なる分布からくる(半)教師付き学習とみなせる

という話を聞いて、スッキリした。自分の中で理解が進んだ。転移学習の例として、室内で撮った写真をつかって室外の写真を予測するみたいなものを挙げていた。

キナーゼAの阻害データをトレーニングセットとしてキナーゼBの阻害を予測するのに転移学習を適用するってのはやっぱ分布が異なりすぎるんじゃなかろうか?または非選択的な阻害剤みたいなものしか予測できないとか。