<?xml version="1.0" encoding="utf-8"?>
<rss version="2.0"><channel><title>PRML / Drkcore</title><link>http://blog.kzfmix.com/PRML</link><description>Programming, Music, Snowboarding</description><language>ja</language><lastBuildDate>Thu, 15 Apr 2010 21:45:05 +0919</lastBuildDate><item><title>PRML4章</title><link>http://blog.kzfmix.com/entry/1271331908</link><description>&lt;p&gt;4.2にちょっと感動。&lt;/p&gt;

&lt;p&gt;&lt;a href="http://www.ibaraki-kodomo.com/toukei/logis.html"&gt;ロジスティック回帰&lt;/a&gt;で出てくるオッズ比は&lt;strong&gt;まぁそんなもんなのかな&lt;/strong&gt;とかいって天下り的に覚えてたんだけど。&lt;/p&gt;

&lt;p&gt;クラス分類の事後確率から考えていくほうが僕にとっては自然だ。&lt;/p&gt;

&lt;p&gt;2クラスの分類問題（活性ありなしとか）を考えると事後確率は以下の式で表される。&lt;/p&gt;

&lt;p&gt;&lt;img src="http://www.kzfmix.com/cgi-bin/mimetex.cgi?p(C1|x) = \frac{p(x|C1)p(C1)}{p(x|C1)p(C1) + p(x|C2)p(C2)}"
 alt="" border=0 align=middle&gt;&lt;/p&gt;

&lt;p&gt;分子で割ると&lt;/p&gt;

&lt;p&gt;&lt;img src="http://www.kzfmix.com/cgi-bin/mimetex.cgi?p(C1|x) = \frac1{1 + \exp(-\alpha)}"
 alt="" border=0 align=middle&gt;&lt;/p&gt;

&lt;p&gt;但し、αは以下の式で表される。&lt;/p&gt;

&lt;p&gt;&lt;img src="http://www.kzfmix.com/cgi-bin/mimetex.cgi?\alpha = \ln{\frac{p(x|C1)p(C1)}{p(x|C2)p(C2)}}"
 alt="" border=0 align=middle&gt;&lt;/p&gt;

&lt;p&gt;これはロジスティックシグモイド関数となる。&lt;/p&gt;

&lt;p&gt;&lt;div class="awsxom"&gt;
&lt;a href="http://www.amazon.co.jp/exec/obidos/ASIN/443110013X/ref=nosim/kaerutyuuihou-22"&gt;
&lt;img src="http://ecx.images-amazon.com/images/I/41z0AD06ZaL._SL160_.jpg" align="left" hspace="5" border="0" alt="ProductName" class="image" /&gt;
&lt;strong&gt;パターン認識と機械学習 上 - ベイズ理論による統計的予測&lt;/strong&gt;&lt;/a&gt;&lt;br /&gt;
C. M. ビショップ &lt;br /&gt;
シュプリンガー・ジャパン株式会社 / ￥ 6,825 ()&lt;br /&gt;
在庫あり。&lt;br /&gt;
&lt;br clear="all" /&gt;
&lt;/div&gt;&lt;/p&gt;
</description><pubDate>Thu, 15 Apr 2010 21:45:05 +0919</pubDate><category>PRML</category></item><item><title>パーセプトロン</title><link>http://blog.kzfmix.com/entry/1271246471</link><description>&lt;p&gt;パターン認識と機械学習を読み直していて今4章。&lt;/p&gt;
&lt;p&gt;図4.7のパーセプトロンのイメージが大変わかりやすいことに気づいて感激したのであった。&lt;/p&gt;
&lt;p&gt;&lt;p&gt;&lt;div class="awsxom"&gt;
    &lt;a href="http://www.amazon.co.jp/exec/obidos/ASIN/443110013X/ref=nosim/kaerutyuuihou-22"&gt;
    &lt;img src="http://ecx.images-amazon.com/images/I/41z0AD06ZaL._SL160_.jpg" align="left" hspace="5" border="0" alt="ProductName" class="image" /&gt;
    &lt;strong&gt;パターン認識と機械学習 上 - ベイズ理論による統計的予測&lt;/strong&gt;&lt;/a&gt;&lt;br /&gt;
    C. M. ビショップ&lt;br /&gt;
    シュプリンガー・ジャパン株式会社 / ?円 ( 2007-12-10 )&lt;br /&gt;
    &lt;br /&gt;
    &lt;br clear="all" /&gt;
    &lt;/div&gt;&lt;/p&gt;&lt;/p&gt;
&lt;p&gt;いまは、Pinheiroを読むのに苦労している。&lt;/p&gt;
&lt;p&gt;&lt;p&gt;&lt;div class="awsxom"&gt;
    &lt;a href="http://www.amazon.co.jp/exec/obidos/ASIN/1441903178/ref=nosim/kaerutyuuihou-22"&gt;
    &lt;img src="http://ecx.images-amazon.com/images/I/410VpVWZuqL._SL160_.jpg" align="left" hspace="5" border="0" alt="ProductName" class="image" /&gt;
    &lt;strong&gt;Mixed-Effects Models in S and S-PLUS (Statistics and Computing)&lt;/strong&gt;&lt;/a&gt;&lt;br /&gt;
    José Pinheiro&lt;br /&gt;
    Springer / 2859円 ( 2009-04-15 )&lt;br /&gt;
    &lt;br /&gt;
    &lt;br clear="all" /&gt;
    &lt;/div&gt;&lt;/p&gt;&lt;/p&gt;
&lt;p&gt;これをきちんと理解しないと、PK-PDが進まないんだよな。&lt;/p&gt;
&lt;p&gt;&lt;p&gt;&lt;div class="awsxom"&gt;
    &lt;a href="http://www.amazon.co.jp/exec/obidos/ASIN/038727197X/ref=nosim/kaerutyuuihou-22"&gt;
    &lt;img src="http://ecx.images-amazon.com/images/I/410wPdEej4L._SL160_.jpg" align="left" hspace="5" border="0" alt="ProductName" class="image" /&gt;
    &lt;strong&gt;Pharmacokinetic-Pharmacodynamic Modeling And Simulation&lt;/strong&gt;&lt;/a&gt;&lt;br /&gt;
    Peter L., Ph.D. Bonate&lt;br /&gt;
    Springer / 7596円 ( 2005-11 )&lt;br /&gt;
    &lt;br /&gt;
    &lt;br clear="all" /&gt;
    &lt;/div&gt;&lt;/p&gt;&lt;/p&gt;</description><pubDate>Wed, 14 Apr 2010 21:02:19 +0919</pubDate><category>PRML</category></item><item><title>JAGSでマルコフ連鎖モンテカルロ法</title><link>http://blog.kzfmix.com/entry/1253692971</link><description>&lt;p&gt;連休は旅行いったりとか子供と遊んでたんだけどそれ以外はJAGSいじってた。&lt;/p&gt;

&lt;p&gt;&lt;div class="awsxom"&gt;
&lt;a href="http://www.amazon.co.jp/exec/obidos/ASIN/4254126972/ref=nosim/kaerutyuuihou-22"&gt;
&lt;img src="http://ecx.images-amazon.com/images/I/41nd2-xYNpL._SL160_.jpg" align="left" hspace="5" border="0" alt="ProductName" class="image" /&gt;
&lt;strong&gt;マルコフ連鎖モンテカルロ法 (統計ライブラリー)&lt;/strong&gt;&lt;/a&gt;&lt;br /&gt;
豊田 秀樹 &lt;br /&gt;
朝倉書店 / ￥ 4,410 ()&lt;br /&gt;
在庫あり。&lt;br /&gt;
&lt;br clear="all" /&gt;
&lt;/div&gt;&lt;/p&gt;

&lt;p&gt;5章をWikiに書いていくことにした。&lt;/p&gt;

&lt;p&gt;&lt;a href="http://wiki.kzfmix.com/?JAGS%A4%C7MCMC"&gt;マルコフ連鎖モンテカルロ法をJAGSで&lt;/a&gt;&lt;/p&gt;

&lt;p&gt;分散分析のあたりを出来るようにしておくとよいと思った。&lt;/p&gt;

&lt;ul&gt;
&lt;li&gt;5.1　ロジスティック回帰モデル　&lt;/li&gt;
&lt;li&gt;5.2　メタ分析　&lt;/li&gt;
&lt;li&gt;5.3　多項ロジットモデル　&lt;/li&gt;
&lt;li&gt;5.4　対数線形モデル　&lt;/li&gt;
&lt;li&gt;5.5　ポアソン回帰　&lt;/li&gt;
&lt;li&gt;5.6　2値データに対する回帰分析　&lt;/li&gt;
&lt;li&gt;5.7　トービット回帰モデル　&lt;/li&gt;
&lt;li&gt;5.8　変曲点のある回帰分析　&lt;/li&gt;
&lt;li&gt;5.9　生存時間分析(ワイブル回帰)　&lt;/li&gt;
&lt;li&gt;5.10　生存時間分析(コックス回帰)　&lt;/li&gt;
&lt;li&gt;5.11　時系列モデル　&lt;/li&gt;
&lt;li&gt;5.12　分散分析　&lt;/li&gt;
&lt;li&gt;5.13　分散成分分析　&lt;/li&gt;
&lt;li&gt;5.14　分散分析(枝分かれ配置)　&lt;/li&gt;
&lt;li&gt;5.15　一般化可能性理論　&lt;/li&gt;
&lt;li&gt;5.16　反復測定データの分散分析　&lt;/li&gt;
&lt;li&gt;5.17　階層線形モデル　&lt;/li&gt;
&lt;li&gt;5.18　項目反応理論(2母数2値モデル)　&lt;/li&gt;
&lt;li&gt;5.19　項目反応理論(段階反応モデル)　&lt;/li&gt;
&lt;li&gt;5.20　項目反応理論(名義反応モデル)　&lt;/li&gt;
&lt;li&gt;5.21　項目反応理論(部分採点・評定尺度モデル)&lt;/li&gt;
&lt;li&gt;5.22　項目反応理論(連続反応モデル)&lt;/li&gt;
&lt;li&gt;5.23　多次元IRT&lt;/li&gt;
&lt;li&gt;5.24　項目反応理論(混合名義反応モデル)　&lt;/li&gt;
&lt;li&gt;5.25　項目反応理論における特異項目機能(DIF) の分析　&lt;/li&gt;
&lt;li&gt;5.26　正規混合モデル　&lt;/li&gt;
&lt;li&gt;5.27　潜在クラス分析　&lt;/li&gt;
&lt;li&gt;5.28　成長曲線モデル　&lt;/li&gt;
&lt;li&gt;5.29　非線形成長曲線モデル　&lt;/li&gt;
&lt;li&gt;5.30　因子分析　&lt;/li&gt;
&lt;li&gt;5.31　多母集団分析　&lt;/li&gt;
&lt;li&gt;5.32　非線形SEM　&lt;/li&gt;
&lt;/ul&gt;

&lt;p&gt;あとこの本だけだと難しすぎるのでPRMLの下巻が必須(多分)。&lt;/p&gt;

&lt;p&gt;&lt;div class="awsxom"&gt;
&lt;a href="http://www.amazon.co.jp/exec/obidos/ASIN/4431100318/ref=nosim/kaerutyuuihou-22"&gt;
&lt;img src="http://ecx.images-amazon.com/images/I/41vr-Ss6KPL._SL160_.jpg" align="left" hspace="5" border="0" alt="ProductName" class="image" /&gt;
&lt;strong&gt;パターン認識と機械学習 下 - ベイズ理論による統計的予測&lt;/strong&gt;&lt;/a&gt;&lt;br /&gt;
C. M. ビショップ &lt;br /&gt;
シュプリンガー・ジャパン株式会社 / ￥ 8,190 ()&lt;br /&gt;
在庫あり。&lt;br /&gt;
&lt;br clear="all" /&gt;
&lt;/div&gt;&lt;/p&gt;
</description><pubDate>Wed, 23 Sep 2009 17:03:22 +0919</pubDate><category>PRML</category><category>MCMC</category><category>JAGS</category></item><item><title>SIR(sampling-importance-resampling)</title><link>http://blog.kzfmix.com/entry/1250375848</link><description>&lt;p&gt;&lt;a href="http://cse.fra.affrc.go.jp/okamura/bayes/"&gt;水産資源学におけるベイズ統計の応用ワークショップ&lt;/a&gt;の&lt;a href="http://cse.fra.affrc.go.jp/okamura/bayes/mcmc.pdf"&gt;スライド&lt;/a&gt;の22,23枚目&lt;/p&gt;

&lt;ol&gt;
&lt;li&gt;g(x)からM個のサンプルx1*, …, xM*を発生&lt;/li&gt;
&lt;li&gt;w*= f(x*)/g(x*)を計算&lt;/li&gt;
&lt;li&gt;x1*, …, xM*からw1*, …, wM*に比例する確率でサンプルをm個とってくる&lt;/li&gt;
&lt;li&gt;得られたm個のサンプルはf(x)からの事後サンプル&lt;/li&gt;
&lt;/ol&gt;

&lt;p&gt;となっているのだが、23枚目のRのコードは&lt;/p&gt;

&lt;pre&gt;&lt;code&gt;n2 &amp;lt;-sample(length(x1), 1000, replace=T, prob=dlnorm(x1,1.1,0.6))
&lt;/code&gt;&lt;/pre&gt;

&lt;p&gt;とwを求めずにいきなりサンプリングしているので？となったが、一様分布だから重みを計算する必要ないのね。&lt;/p&gt;

&lt;p&gt;わざわざ書くならこうか。&lt;/p&gt;

&lt;pre&gt;&lt;code&gt;x1 &amp;lt;-runif(100000,0,60)
w &amp;lt;- dlnorm(x1,1.1,0.6) / (dunif(x1,0,60))
n2 &amp;lt;-sample(length(x1), 1000, replace=T, prob=w)
x2 &amp;lt;-x1[n2]
plot(density(x2))
&lt;/code&gt;&lt;/pre&gt;

&lt;p&gt;&lt;div class="awsxom"&gt;
&lt;a href="http://www.amazon.co.jp/exec/obidos/ASIN/4431100318/ref=nosim/kaerutyuuihou-22"&gt;
&lt;img src="http://ecx.images-amazon.com/images/I/41vr-Ss6KPL._SL160_.jpg" align="left" hspace="5" border="0" alt="ProductName" class="image" /&gt;
&lt;strong&gt;パターン認識と機械学習 下 - ベイズ理論による統計的予測&lt;/strong&gt;&lt;/a&gt;&lt;br /&gt;
C. M. ビショップ &lt;br /&gt;
シュプリンガー・ジャパン株式会社 / ￥ 8,190 ()&lt;br /&gt;
在庫あり。&lt;br /&gt;
&lt;br clear="all" /&gt;
&lt;/div&gt;&lt;/p&gt;
</description><pubDate>Tue, 18 Aug 2009 22:13:35 +0919</pubDate><category>R</category><category>PRML</category><category>MCMC</category></item><item><title>Box-MullerをPythonで</title><link>http://blog.kzfmix.com/entry/1250289855</link><description>&lt;p&gt;PRML11章。一様乱数から正規乱数を発生させる。&lt;/p&gt;

&lt;pre&gt;&lt;code&gt;from math import sin,cos,pi,log,sqrt
from random import random

def box_muller():
    z1 = random()
    z2 = random()
    return sqrt(-2*log(z2)) * sin(2*pi*z1)

if __name__ == "__main__":
    from pylab import *
    x = [box_muller() for i in range(10000)]
    hist(x,20)
    savefig("box_muller.png")
&lt;/code&gt;&lt;/pre&gt;

&lt;p&gt;&lt;img src="http://www.kzfmix.com/images/blog/box_muller.png" alt="box_muller" /&gt;&lt;/p&gt;

&lt;p&gt;&lt;div class="awsxom"&gt;
&lt;a href="http://www.amazon.co.jp/exec/obidos/ASIN/4431100318/ref=nosim/kaerutyuuihou-22"&gt;
&lt;img src="http://ecx.images-amazon.com/images/I/41vr-Ss6KPL._SL160_.jpg" align="left" hspace="5" border="0" alt="ProductName" class="image" /&gt;
&lt;strong&gt;パターン認識と機械学習 下 - ベイズ理論による統計的予測&lt;/strong&gt;&lt;/a&gt;&lt;br /&gt;
C. M. ビショップ &lt;br /&gt;
シュプリンガー・ジャパン株式会社 / ￥ 8,190 ()&lt;br /&gt;
在庫あり。&lt;br /&gt;
&lt;br clear="all" /&gt;
&lt;/div&gt;&lt;/p&gt;
</description><pubDate>Sat, 15 Aug 2009 07:48:57 +0919</pubDate><category>Python</category><category>matplotlib</category><category>PRML</category></item><item><title>カーネル主成分分析</title><link>http://blog.kzfmix.com/entry/1250165631</link><description>&lt;p&gt;普通のPCAとちがうのは非線形主成分を扱えること。でも、カーネル関数をうまく選ばないといけないことを意味する。&lt;/p&gt;

&lt;p&gt;&lt;a href="http://www1.doshisha.ac.jp/~mjin/R/SVM.pdf"&gt;Rとカーネル法&lt;/a&gt;を参考に。&lt;/p&gt;

&lt;pre&gt;&lt;code&gt;&amp;gt; library(kernlab)
&amp;gt; x &amp;lt;- as.matrix(iris[,1:4])
&amp;gt; iris.kpc1 &amp;lt;- kpca(x,kernel="rbfdot",feature=2,kpar=list(sigma=0.1))
&amp;gt; plot(pcv(iris.kpc1),col=as.integer(iris[,5]))
&lt;/code&gt;&lt;/pre&gt;

&lt;p&gt;&lt;img src="http://www.kzfmix.com/images/blog/kpca.png" alt="kpca" /&gt;&lt;/p&gt;

&lt;p&gt;あータニモトカーネルを使ったkernel PCAとかなんかいいかもしれない。&lt;/p&gt;

&lt;p&gt;&lt;div class="awsxom"&gt;
&lt;a href="http://www.amazon.co.jp/exec/obidos/ASIN/4431100318/ref=nosim/kaerutyuuihou-22"&gt;
&lt;img src="http://ecx.images-amazon.com/images/I/41vr-Ss6KPL._SL160_.jpg" align="left" hspace="5" border="0" alt="ProductName" class="image" /&gt;
&lt;strong&gt;パターン認識と機械学習 下 - ベイズ理論による統計的予測&lt;/strong&gt;&lt;/a&gt;&lt;br /&gt;
C. M. ビショップ &lt;br /&gt;
シュプリンガー・ジャパン株式会社 / ￥ 8,190 ()&lt;br /&gt;
在庫あり。&lt;br /&gt;
&lt;br clear="all" /&gt;
&lt;/div&gt;&lt;/p&gt;
</description><pubDate>Thu, 13 Aug 2009 21:16:08 +0919</pubDate><category>chemoinformatics</category><category>R</category><category>PRML</category></item><item><title>Rでベータ分布</title><link>http://blog.kzfmix.com/entry/1249544221</link><description>&lt;p&gt;PRMLも再読してるが、手動かしながら読むほうがしっくりくる。
p.70のベータ分布の逐次学習ってのが面白そうなのでやってみた。&lt;/p&gt;

&lt;p&gt;&lt;div class="awsxom"&gt;
&lt;a href="http://www.amazon.co.jp/exec/obidos/ASIN/443110013X/ref=nosim/kaerutyuuihou-22"&gt;
&lt;img src="http://ecx.images-amazon.com/images/I/41z0AD06ZaL._SL160_.jpg" align="left" hspace="5" border="0" alt="ProductName" class="image" /&gt;
&lt;strong&gt;パターン認識と機械学習 上 - ベイズ理論による統計的予測&lt;/strong&gt;&lt;/a&gt;&lt;br /&gt;
C. M. ビショップ &lt;br /&gt;
シュプリンガー・ジャパン株式会社 / ￥ 6,825 ()&lt;br /&gt;
在庫あり。&lt;br /&gt;
&lt;br clear="all" /&gt;
&lt;/div&gt;&lt;/p&gt;

&lt;pre&gt;&lt;code&gt;data &amp;lt;- rbinom(30,1,0.5)

plot_dbeta &amp;lt;- function(data){
a &amp;lt;- 0
b &amp;lt;- 0
x &amp;lt;- seq(0.01, 1.0, len = 500)
for (i in 1:length(data)) {
    if(data[i] == 1) { a = a + 1 } 
    else             { b = b + 1 }
    if(i&amp;gt;3){
    if(i==4){ plot(x, dbeta(x,a,b),type = "l",col=i,ylim=c(0,5)) }
    else    { plot(x, dbeta(x,a,b),type = "l",col=i,xlab="",ylab="",axes=F,ylim=c(0,5)) }
    par(new=T)
    }
}
}
&lt;/code&gt;&lt;/pre&gt;

&lt;p&gt;二項分布で30個のリストを発生させて読みながらa,bのデータを更新していきつつその時のベータ分布の密度を求めつつプロットしていくという操作。&lt;/p&gt;

&lt;pre&gt;&lt;code&gt;&amp;gt; data
 [1] 1 0 1 1 0 0 0 1 0 0 0 1 0 0 1 1 1 0 1 0 0 0 1 0 0 1 0 1 0
[30] 1
&lt;/code&gt;&lt;/pre&gt;

&lt;p&gt;データはこんな感じで、4番目のデータからプロットしていくとだんだん二項分布に近づいていく様がみてとれる。&lt;/p&gt;

&lt;p&gt;&lt;img src="http://www.kzfmix.com/images/blog/prml_beta.png" alt="beta" /&gt;&lt;/p&gt;
</description><pubDate>Thu, 06 Aug 2009 16:38:33 +0919</pubDate><category>R</category><category>PRML</category></item><item><title>Dirichlet Process</title><link>http://blog.kzfmix.com/entry/1226705442</link><description>&lt;p&gt;chemoinformaticsにも使えそうなので色々読んでみている。&lt;/p&gt;

&lt;ul&gt;
&lt;li&gt;Gaussian processes deﬁne a distribution over functions &lt;/li&gt;
&lt;li&gt;Dirichlet processes deﬁne a distribution over distributions&lt;/li&gt;
&lt;/ul&gt;

&lt;p&gt;ぼんやりとした入門のそのまた入門の入り口ぐらいには立ったかなって感じ。CRPで遺伝子発現のクラスタリングをやっている論文があったので読む。&lt;/p&gt;

&lt;ul&gt;
&lt;li&gt;&lt;a href="http://videolectures.net/mlss07_teh_dp/"&gt;Dirichlet Processes: Tutorial and Practical Course&lt;/a&gt;&lt;/li&gt;
&lt;li&gt;&lt;a href="http://chasen.org/~daiti-m/diary/?200601#200601250"&gt;mots quotidiens.&lt;/a&gt;&lt;/li&gt;
&lt;li&gt;&lt;a href="http://www.gatsby.ucl.ac.uk/~zoubin/talks/uai05tutorial-b.pdf"&gt;Ghahramani の UAI'05のスライド&lt;/a&gt;&lt;/li&gt;
&lt;li&gt;&lt;a href="http://www.smapip.is.tohoku.ac.jp/~dex-smi/2008/pip-miru2008/KenichiKurihara.pdf"&gt;Dirichlet Process を用いた クラスタリング&lt;/a&gt;&lt;/li&gt;
&lt;li&gt;&lt;a href="http://bioinformatics.oxfordjournals.org/cgi/reprint/22/16/1988"&gt;Clustering microarray gene expression data using weighted Chinese restaurant process&lt;/a&gt;&lt;/li&gt;
&lt;li&gt;&lt;a href="http://www.pubmedcentral.nih.gov/articlerender.fcgi?tool=pubmed&amp;amp;pubmedid=17696603"&gt;Automated Discovery of Functional Generality of Human Gene Expression Programs&lt;/a&gt;&lt;/li&gt;
&lt;/ul&gt;

&lt;p&gt;ディリクレ分布に関してはこの本見た。&lt;/p&gt;

&lt;p&gt;&lt;div class="awsxom"&gt;
&lt;a href="http://www.amazon.co.jp/exec/obidos/ASIN/443110013X/ref=nosim/kaerutyuuihou-22"&gt;
&lt;img src="http://ecx.images-amazon.com/images/I/41z0AD06ZaL._SL160_.jpg" align="left" hspace="5" border="0" alt="ProductName" class="image" /&gt;
&lt;strong&gt;パターン認識と機械学習 上 - ベイズ理論による統計的予測&lt;/strong&gt;&lt;/a&gt;&lt;br /&gt;
C. M. ビショップ &lt;br /&gt;
シュプリンガー・ジャパン株式会社 / ￥ 6,825 ()&lt;br /&gt;
通常24時間以内に発送&lt;br /&gt;
&lt;br clear="all" /&gt;
&lt;/div&gt;&lt;/p&gt;
</description><pubDate>Sat, 15 Nov 2008 10:06:58 +0919</pubDate><category>chemoinformatics</category><category>bioinformatics</category><category>PRML</category></item><item><title>ICAからモデルベースのクラスタリング</title><link>http://blog.kzfmix.com/entry/1226489665</link><description>&lt;p&gt;昨日&lt;a href="http://blog.kzfmix.com/entry/1226406576"&gt;気になった&lt;/a&gt;ので、とりあえずどんな感じか確かめようと。&lt;/p&gt;
&lt;div class="codehilite"&gt;&lt;pre&gt;&lt;span class="o"&gt;&amp;gt;&lt;/span&gt; library&lt;span class="p"&gt;(&lt;/span&gt;&lt;span class="s"&gt;&amp;quot;fastICA&amp;quot;&lt;/span&gt;&lt;span class="p"&gt;)&lt;/span&gt;
&lt;span class="o"&gt;&amp;gt;&lt;/span&gt; library&lt;span class="p"&gt;(&lt;/span&gt;&lt;span class="s"&gt;&amp;quot;mclust&amp;quot;&lt;/span&gt;&lt;span class="p"&gt;)&lt;/span&gt;
&lt;span class="o"&gt;&amp;gt;&lt;/span&gt; data&lt;span class="p"&gt;(&lt;/span&gt;&lt;span class="s"&gt;&amp;quot;iris&amp;quot;&lt;/span&gt;&lt;span class="p"&gt;)&lt;/span&gt;
&lt;span class="o"&gt;&amp;gt;&lt;/span&gt; b &lt;span class="o"&gt;&amp;lt;-&lt;/span&gt; fastICA&lt;span class="p"&gt;(&lt;/span&gt;iris&lt;span class="p"&gt;[&lt;/span&gt;&lt;span class="m"&gt;1&lt;/span&gt;:&lt;span class="m"&gt;4&lt;/span&gt;&lt;span class="p"&gt;],&lt;/span&gt;&lt;span class="m"&gt;2&lt;/span&gt;&lt;span class="p"&gt;)&lt;/span&gt;
&lt;span class="o"&gt;&amp;gt;&lt;/span&gt; mc &lt;span class="o"&gt;&amp;lt;-&lt;/span&gt; Mclust&lt;span class="p"&gt;(&lt;/span&gt;b&lt;span class="p"&gt;$&lt;/span&gt;S&lt;span class="p"&gt;,&lt;/span&gt;G&lt;span class="o"&gt;=&lt;/span&gt;&lt;span class="m"&gt;3&lt;/span&gt;&lt;span class="p"&gt;,&lt;/span&gt;modelNames&lt;span class="o"&gt;=&lt;/span&gt;&lt;span class="s"&gt;&amp;quot;VVV&amp;quot;&lt;/span&gt;&lt;span class="p"&gt;)&lt;/span&gt;
&lt;span class="o"&gt;&amp;gt;&lt;/span&gt; plot&lt;span class="p"&gt;(&lt;/span&gt;mc&lt;span class="p"&gt;,&lt;/span&gt;b&lt;span class="p"&gt;$&lt;/span&gt;S&lt;span class="p"&gt;)&lt;/span&gt;
&lt;/pre&gt;&lt;/div&gt;


&lt;p&gt;&lt;img alt="gc" src="http://www.kzfmix.com/images/blog/gc081112.png" /&gt;&lt;/p&gt;
&lt;p&gt;&lt;img alt="gu" src="http://www.kzfmix.com/images/blog/gu081112.png" /&gt;&lt;/p&gt;
&lt;p&gt;混合分布はクラスタリングの本にも載っているが、PRMLの下巻のほうがK-meansからEM,混合モデルの導入の流れがスムーズで分かりやすかったかな。&lt;/p&gt;
&lt;p&gt;&lt;p&gt;&lt;div class="awsxom"&gt;
    &lt;a href="http://www.amazon.co.jp/exec/obidos/ASIN/4274067033/ref=nosim/kaerutyuuihou-22"&gt;
    &lt;img src="http://ecx.images-amazon.com/images/I/51L--ueffmL._SL160_.jpg" align="left" hspace="5" border="0" alt="ProductName" class="image" /&gt;
    &lt;strong&gt;Rで学ぶクラスタ解析&lt;/strong&gt;&lt;/a&gt;&lt;br /&gt;
    新納 浩幸&lt;br /&gt;
    オーム社 / 3360円 ( 2007-11 )&lt;br /&gt;
    &lt;br /&gt;
    &lt;br clear="all" /&gt;
    &lt;/div&gt;&lt;/p&gt;&lt;/p&gt;
&lt;p&gt;&lt;p&gt;&lt;div class="awsxom"&gt;
    &lt;a href="http://www.amazon.co.jp/exec/obidos/ASIN/4431100318/ref=nosim/kaerutyuuihou-22"&gt;
    &lt;img src="http://ecx.images-amazon.com/images/I/41vr-Ss6KPL._SL160_.jpg" align="left" hspace="5" border="0" alt="ProductName" class="image" /&gt;
    &lt;strong&gt;パターン認識と機械学習 下 - ベイズ理論による統計的予測&lt;/strong&gt;&lt;/a&gt;&lt;br /&gt;
    C. M. ビショップ&lt;br /&gt;
    シュプリンガー・ジャパン株式会社 / ?円 ( 2008-07-11 )&lt;br /&gt;
    &lt;br /&gt;
    &lt;br clear="all" /&gt;
    &lt;/div&gt;&lt;/p&gt;&lt;/p&gt;</description><pubDate>Wed, 12 Nov 2008 21:12:43 +0919</pubDate><category>R</category><category>PRML</category></item></channel></rss>