09032016 life
エッセイ集
合うものも合わないものもあったが概ね満足の読後感を得られた。電車とかの移動中にちょこちょこ読んでいたので読了するのに数ヶ月以上かかってしまった。
エッセイは途中空いても気にならないので、空き時間に読む用に少し揃えておこうかな。
09032016 life
エッセイ集
合うものも合わないものもあったが概ね満足の読後感を得られた。電車とかの移動中にちょこちょこ読んでいたので読了するのに数ヶ月以上かかってしまった。
エッセイは途中空いても気にならないので、空き時間に読む用に少し揃えておこうかな。
07032016 life
娘が突然「東京喰種読んでみたいんだけど…」というので「あーあのわけわからんやつだろ?」と言いつつ3巻までKindleに入れてやった。
うっかりその3巻を読んだら意外に面白くてすっかりハマってしまい、全巻大人買いした上に:reまで買ってしまい、散財した感200%なう
娘の策略にやられた気分…
個人的にはキングダムのほうが面白いと思うんだけどなぁ。あとゴキブリ
ゴキブリは最近ちょっと息切れ感はするけどねw
先日まさかのヒューマンOGTTを体験したんだけど、食生活で血糖値が上がる要員が見当たらないんだよね(夜は米類食べないし、野菜多めにとっている)。
結局考えられるのはingress辞めたことに起因する運動不足しか考えられないのでとりあえずlevel14を目指して近所を歩きまわることにした。
昨日は金沢豆腐店のほうまで攻めた。子供がラム肉を食べたことないっていうのでさらにその向こうのビック富士まで遠征したんだけどまさかの改装休業だった。
引き返す時の交差点でおっちゃんに呼び止められて、富士水泳場の行き方を聞かれたんだけど、原田から歩きで水泳場って1時間くらいかかるんじゃないのと焦ったけど、最寄り駅らしいw バスも出てないしそういう案内するのって不親切すぎるだろ…
それからヨコゼキで日本酒ブームの闇を体験した。銘柄で買い漁るのは焼酎ブームの時に辟易としたけどそれが日本酒で繰り返されるとは… 獺祭とか新政とか十四代とかもとめて彷徨うの乙ですw コスパいいのあるのにね写楽とか花陽浴とか。
今日はingressとイズシカリベンジしてやった。ついでにわさびの花を買ったけど、茹でないで熱湯をさっとかけて粗熱取るくらいでいいらしい。さっきつまんだらシャキシャキしていて激ウマだった。わさびの辛味はあまりない。多分今だけなので見かけたらゲットするといいと思う。
ingresは冬の間赤カプセルに色々放り込んで放置していた結果、L8バースター400くらいあるし、jarvisも100くらいあってなんというか攻撃的なスタイルでやっていますw。逆にL4以下のレゾネーターがないので反転してリンク貼ることしか出来ないw
もっと歩かなきゃ
03032016 life
03032016 ingress
level 13から5ヶ月以上たっているのに100万APくらいしか稼いでない。
ただただAPを500万あつめるというだけの苦行に心が折れたのだが、結果として運動不足に陥った…
このままではいけないのでlevel14まで頑張ってみようかなぁ…
ヘルシープログラマにもingressやれ、歩け って書いてあるし
02032016 Python
prompt_toolkit がアツいというエントリを見かけて、おーアツい!と色々見てたらptpythonなるものを見つけた。
EmacsではJedi.elつかってるし、いいかもと思ったけど、職場の開発マシンは非力でもっさりしていたが家のmacbook airでは快適だった。
ipythonとの使い分けどうすればいいのだろうかと思った。
02032016 静岡
知らないお店とかあったので割と楽しかった。でも静岡-浜松のほうの西部のお店が多めな気がした。
01032016 life
28022016 bioinformatics
色々勉強になり充実した二日間でした。皆様お疲れ様でした。
こういう立場のヒトもいるってことで参加に至った背景(+α)をちょっと書いておきますね。
僕自身は完全にドライな立場のバイオ(ケモ)インフォマティシャンで、手火山式やでってくらいカッチカチの乾燥タイプです。そして、 うちの職場にはウェットなNGSの人材(普通のマイクロアレイとかDNAチップを扱う人材も)はいません(重要)。
じゃぁ、なんでNGSのデータ解析すんの?っていうことになるんですが、僕は企画調査的な立場で公共のデータをゴニョゴニョしたりする必要がたまにあるんだけど、最近NGSのデータって増えてきているわけです。公共データの使い方を知らなければ「分からない☆」と無知で通せるので幸せなんですが、流石にそれは自分のキャリアを考える上でよろしくないわけです。で、年末にちょっとそういった仕事が入ってきたので、いいタイミングだなぁと年始にDRY本を読んでいたんですがところどころ実験を理解していないとわからないようなところがあって消化不良だったところにハンズオンが丁度開催されたので参加したわけです。
具体的にはQCのところだったんですが、実際に実験やっている人だったら機械や手法にどういう癖があって、だからこういうあたりに注意してQCするとかそういうことを意識しながらトリミングしたりするんでしょうが、そこら辺の間隔が分からなかったので参加して非常に勉強になりました。それからウェットの参加者の割合が比較高かったせいか講師の方が「実験やっている方ならわかると思いますが」っていうあたりは押さえておくべきことがらなんだろうなとメモった。
それから、基本的に発現解析だけ押さえておけばいいかなと思っていたんだが、やはりChIP-seqも勉強しとかなあかんかなと思った。推薦されていたのはこの本だったかな?
あと DAVIDを知ることができたのが良かった。あれは便利そう。他にはMetascapeも良いらしいく、調査が捗る感ある。
最後にハンズオンやっていてちょっと気になったあたりをメモっておきます。
隣のヒトにPipeを使ったコマンドの意味を聞かれたのだけど、unix初心者にパイプって馴染み薄いよなと思った。level2で
find * | grep gtf
みたいな記述がいくつかみられるんだけど
find . -name '*.gtf'
のほうがわかりやすいかも
p.105でebiにwgetするという記述があって、年始に写経した時にこの部分で結局3日取られてデータ取得もDRY本のネックやなと感じたけど、これはよく考えたら(考えなくてもw)DDBJからダウンロードするべきで、DRA Searchにアクセッション番号を入れて検索すればいいとのこと。
ただ、これはちょっとステップを踏むのでスクリプトを書いてみた。
wget `python draget.py ERR266338`
こんな感じでデータが取れる
たまに僕のタイムラインに握りの盛り合わせが投稿されるw もろこしずしで地魚丼を食べた。寒すぎて握りの気分ではなかったので次回はおまかせにぎり8貫で攻めたい
二日目の帰りにはつこでちょっと引っ掛けるかと思い寄ってみたが休みだった。facebookで告知して欲しいところ。
その後やごみも振られて、蕎麦宗は休日だし、濃いものは嫌だとダラダラと駅に向かったら香香についてしまったw
ピータンと砂肝の唐揚げをつまんで帰った。
26022016 chemoinformatics
今まではMMPはIDのペアと活性値の差分だけ持っていれば良かったので適当なスキーマのデータベースに放り込んでいたんだけど、Monitoring the Progression of Structure–Activity Relationship Information during Lead Optimizationというアッツい論文を読んでから、うちでもMMSとかSARM_disc_scoreとか出したいと思っていたが、やる気が無いので放置していた。
最近データベースを作りなおす機会があったので構造も新しく考えてみた。
MMPはCore(共通骨格)とペアのそれぞれのフラグメントに分けられるのでone-to-manyで割とシンプルにかけるんだけど、それぞれのFragmentからのbackrefをmmpsにしちゃうとエラーが出るので変なナンバリングしないといけなかった。
from sqlalchemy import Column, String, DateTime, Float, Integer, ForeignKey from sqlalchemy.orm import relationship from MMP.database import Base class MMP(Base): __tablename__ = "mmps" id = Column(Integer, primary_key=True) core_id = Column(Integer, ForeignKey('cores.id')) fragment1_id = Column(Integer, ForeignKey('fragments.id')) fragment2_id = Column(Integer, ForeignKey('fragments.id')) activity_id = Column(Integer, ForeignKey('activities.id')) compound1_id = Column(String(6)) compound2_id = Column(String(6)) fragment1 = relationship("Fragment", foreign_keys='MMP.fragment1_id', backref="mmps1") fragment2 = relationship("Fragment", foreign_keys='MMP.fragment2_id', backref="mmps2") def __init__(self, **kargs): self.compound1_id = kargs["compound1_id"] self.compound2_id = kargs["compound2_id"] @property def mmp_id(self): return "{}-{}".format(self.compound1_id, self.compund2_id) class Core(Base): __tablename__ = "cores" id = Column(Integer, primary_key=True) mmps = relationship("MMP", uselist=True, backref="core") smiles_string = Column(String(255), unique=True) def __init__(self, **kargs): self.smiles_string = kargs["smi"] class Fragment(Base): __tablename__ = "fragments" id = Column(Integer, primary_key=True) smiles_string = Column(String(255), unique=True) def __init__(self, **kargs): self.smiles_string = kargs["smi"]
実際のデータはMMPクラスと活性クラスをひも付けてあるのでSARM_disc_scoreとかMMSの抽出とか簡単になるはず。