19 06 2017 chemoinformatics Tweet
ググってもあんま出てこないのでメモっておきます。蛋白質核酸酵素のバックナンバーの2000年あたりの総説を眺めればその当時の状況が少しわかるかもしれません。
私が前の会社に入社したころ、ちょうどヒトゲノムが解読終了するってあたりで、バイオインフォ等のIT技術に対する期待感の高まりというのが凄かったわけです。バイオインフォの部署もポコポコ出来たし、そのあたりへの投資も凄かったように思う。だってセレラ・ジェノミクスのヒトゲノムデータアクセス費用ってビビる額だったのに中小企業のファーマでもアクセスするための投資をすべきかって本気で考えてたくらい。
冷静に考えるとみんな頭湧いてたな…w
ビッグデータとかAI創薬とかは、昔ゲノム創薬というバズワードで大金突っ込んで成果がたいして得られなかった過去をなぞっている気はする。お金を循環させるという意味では意義はあるのかもしれないけど。
— kzfm (@fmkz___) 2017年6月18日
あとゲノムデータとか使うからストレージサーバーの増強とか普通にやってたよね。クラスタくんだり、グリッド・コンピューティングもあったな。
その当時にゲノム創薬に期待されていたのは
- 新薬開発期間の短縮(ITとかも駆使して)
- 創薬ターゲットの増大(ITとかも駆使して)
あたりが、すっごい言われてたと思うんだけど(たんぱく3000プロジェクトもあったし)、
- なんで現在、創薬ターゲットの枯渇とか言われてんの?
- 新薬開発期間が短縮しましたっていうレポート出てないのはなんで?
- 企業のバイオインフォ部署が縮小されたり消滅した会社も結構あると思うんだけど
各社あの頃の投資に対してどういう評価をしたんだろう?そのうえでどういうスタンス、期待感で今の機械学習ブームに乗っかっていくのか非常に興味があるんですよねー。