EPIC

Eclipseをずっと使いたいと思ってたのだが、PerlMolで組みたいプログラムが出来たので、EclipseのPerlプラグインであるEPICをいれた。

入れただけなので、イマイチ使い方に慣れてないが、はやめに覚えていくつもりだヨ。あとFOPの絡みでjavaも面白そうだナァと思ったのがモチベーションにつながったりとかSOAPもいじりたかったりとか、なんとなく意識がそっちに流れている気はする。

Eclipse 3 完全攻略
4797327782宮本 信二

ソフトバンク パブリッシング 2004-10-30
売り上げランキング : 31,256

おすすめ平均 star
star良書です
starJava初心者の目線から
starこの本だけではセットアップもできませんでした。

Amazonで詳しく見る
by G-Tools

ずっと前に買って流し読みして放っておいたけど、改めて読んでみると面白い。しかも、著者がムイミコムのヒトだったのね。

使ってて、マシンのスペックを考えると、Eclipseにはもうちょいサクサク動いて欲しいナァ。とも思ったりする。デュアルコアは効くのか?

快適開発環境のために、夏ボーで新規マシンを調達しようかと思ったヨ。

iTunesのためにsamba設定

FTPソフトがUTF-8に対応していなくて、そのまま、アップロードするとディレクトリとファイルが化けるという問題に対応するためにsambaの設定をするのでR。

まずSWATのために、直接smb.confを編集してglobalに文字コードの指定を入れます。そうしないとFC1は文字化けします。

#vi /etc/samba/smb.conf
[global]
dos charset = CP932
display charset = UTF-8

あとは、localhost:901(default)にアクセスして、iTunes共有のディレクトリをwindowsからみえるように追加します。

いちいち、パスワードを聞いてくるのがウザイが、多分設定のせいなはず。ちゃんとすれば直ると考えているが、「ネットワークドライブの割り当て」で割り当てしてしまえばあまり気にならないから今のところこれで運用。

むしろローカルのファイルをアップロードする時間がかかるほうが気になる。やっぱ11bの無線LANだから?

速いのに代えようかナァと思ってしまう。

webalizerの文字化け対策とサーチエンジンリファラのグループ化

Webalizerで以下の点を対応することに

  • 検索エンジンのクエリを収集するために、いくつかのサーチエンジン追加
  • そのための文字コードをutf-8に統一するためのスクリプト導入
  • リファラが検索エンジンで埋もれないようにグルーピング
  • cronに処理を追加

/etc/webalizer.confに日本のサーチエンジンと検索語を追加

SearchEngine google.co.jp q= SearchEngine search.msn.co.jp q= SearchEngine sf.livedoor.com q= SearchEngine search.yahoo.co.jp p= SearchEngine yahoo.co.jp p= SearchEngine search.biglobe.ne.jp q= SearchEngine infoseek.co.jp qt= SearchEngine search.nifty.com Text= SearchEngine goo.ne.jp MT= SearchEngine excite.co.jp search=

続いて、/etc/webalizer.confにリファラをグルーピングして、表示するように設定を追加する

GroupReferrer .google. Google GroupReferrer .104/search Google HideReferrer .google. HideReferrer .104/search GroupReferrer search.yahoo.co.jp Yahoo!Japan GroupReferrer srd.yahoo.co.jp Yahoo!Japan HideReferrer search.yahoo.co.jp GroupReferrer search.goo.ne.jp goo HideReferrer search.goo.ne.jp GroupReferrer search.biglobe.ne.jp biglobe HideReferrer search.biglobe.ne.jp GroupReferrer search.msn MSN HideReferrer search.msn GroupReferrer excite.co.jp/search.gw excite HideReferrer excite.co.jp/search.gw GroupReferrer infoseek.co.jp infoseek HideReferrer infoseek.co.jp

文字コードの変換は、flatray.comからスクリプトをもらってきてカスタマイズして使用しました。

変更した部分は以下の部分。変更したファイルはコレです。

  • スクリプト中に、インプット、アウトプットファイルを記述
  • utf8で出力するように変えた

わかりやすいように、logdecodeという名前で適当なディレクトリに保存して、クローン対応。そして、こいつで変換したログを見に行くように/etc/webalizer.confを書き換えしておく。

#LogFile /var/log/httpd/access_log LogFile /var/log/httpd/webalizer_log

デコードしてからwebalizerが動くようにするため、/etc/cron.daily/00webalizerを編集

#! /bin/bash # update access statistics for the web site #if [ -s /var/log/httpd/access_log ] ; then # /usr/bin/webalizer #fi if [ -s /var/log/httpd/access_log ] ; then /usr/local/bin/logdecode;/usr/bin/webalizer fi exit 0

これで、Webalizerの結果がかなりみやすくなったヨ。

Infoseek SideWinder/2.0R 大暴れの巻

朝から、軽く思いついたプログラムを書いとこうとサーバーにアクセスしてみると、激重なので調べてみると、昨日まで利口に2時間おきにindex.rss10をGETしていたInfoseek SideWinder/2.0Rが、深夜から豹変シテマス。

というわけで、朝のプログラミング(朝プロ)どころではないぞ。

00:27過ぎから数秒おきに1800回ぐらいアクセスしてんですけど?

blosxomだとそのたびにCGIが動くので、負荷がものすごいんですけども?

アクセス禁止にしたらあきらめてお帰りになってくれるかと期待したんですが403でも果敢に攻めてくるんですけど?

ちゅうわけで、無駄にログばかり溜まってコマル。

210.148.XXX.XXX - - [02/Jun/2005:08:04:37 +0900] "GET / HTTP/1.0" 403 3931 "-" "Infoseek SideWinder/2.0R (Linux 2.6.6-1.381smp i686)" 210.148.XXX.XXX - - [02/Jun/2005:08:04:39 +0900] "GET / HTTP/1.0" 403 3931 "-" "Infoseek SideWinder/2.0R (Linux 2.6.6-1.381smp i686)" 210.148.XXX.XXX - - [02/Jun/2005:08:04:39 +0900] "GET / HTTP/1.0" 403 3931 "-" "Infoseek SideWinder/2.0R (Linux 2.6.6-1.381smp i686)" 210.148.XXX.XXX - - [02/Jun/2005:08:04:49 +0900] "GET / HTTP/1.0" 403 3931 "-" "Infoseek SideWinder/2.0R (Linux 2.6.6-1.381smp i686)" 210.148.XXX.XXX - - [02/Jun/2005:08:04:50 +0900] "GET / HTTP/1.0" 403 3931 "-" "Infoseek SideWinder/2.0R (Linux 2.6.6-1.381smp i686)" 210.148.XXX.XXX - - [02/Jun/2005:08:04:50 +0900] "GET / HTTP/1.0" 403 3931 "-" "Infoseek SideWinder/2.0R (Linux 2.6.6-1.381smp i686)" 210.148.XXX.XXX - - [02/Jun/2005:08:04:51 +0900] "GET / HTTP/1.0" 403 3931 "-" "Infoseek SideWinder/2.0R (Linux 2.6.6-1.381smp i686)" 210.148.XXX.XXX - - [02/Jun/2005:08:04:56 +0900] "GET / HTTP/1.0" 403 3931 "-" "Infoseek SideWinder/2.0R (Linux 2.6.6-1.381smp i686)" 210.148.XXX.XXX - - [02/Jun/2005:08:04:56 +0900] "GET / HTTP/1.0" 403 3931 "-" "Infoseek SideWinder/2.0R (Linux 2.6.6-1.381smp i686)" 210.148.XXX.XXX - - [02/Jun/2005:08:05:00 +0900] "GET / HTTP/1.0" 403 3931 "-" "Infoseek SideWinder/2.0R (Linux 2.6.6-1.381smp i686)"

整然と並んだforbiddenのログもまたをかし(なわけないな)。

Apacheのワームログ分離

最近、wormまわりのログが凄くて、気持ち悪いので、イントラからのアクセスを記録しないで、wormログを別のファイルに書き出すようにした。

要するに、SetEnvIfでフラグ付けていって、ログにはフラグごとに記録すればいい。

WEMA設置

wema - 付箋指向の多目的ツール

wemaは、ウェブページ上に付箋を貼り付けていく変わったソフトウエアです。 付箋の背景色を選んだり、付箋同士に線を引くことも出来ます。 日常の簡単なメモボードや、グループの掲示板、マインドマップのような使い方も 出来たりするなど、自由度の高さがあります。

FC1だとruby-1.8.2のrpmがないので、つくろっかなぁーとか思ったがめんどかったので、ソースからmake;make install。/usr/local/binにインストールされるので、index.cgiを書き直すか、/usr/bin/に入れるか。僕は前者で。

wemaはwebクライアントがみれるディレクトリ(cgi動かせるか、.htaccess効く必要アリ)に展開すれば動作はするが、なぜか、初期化はするものの設定まわりが反映されず、付箋が動かない。ちょっとソースを眺めてみるとlink rel=stylesheetのあたりがおかしいらしい。というわけでココだけいじる。

DDNSのため、内側と外側でホスト名が異なるので lib/wemaapp.rbのWemaApp.top_urlの定義を

if cgi.remote_addr =~ /^192.168/
"http://[localhostname]/wema/index.cgi"
else
"http://#{cgi.server_name}#{cgi.script_name}"
end

と書き換える。

はじめてのrubyいぢりでした。

wema2.01にアップデートしてみた

wema - チュートリアル

howmというEmacs拡張ソフトのスケジュール管理 機能を参考に作ったプラグインです。 1. {{memo}}と付箋に書くと、その付箋は「覚書」になります。覚書の付箋は段々と下のほうに移動します。 2. {{todo}}と付箋に書くと、その付箋は「ToDo」になります。ToDoの付箋は段々と上のほうに移動します。 3. {{clos,05/04/08}}と付箋に書くと、その付箋は「〆切」になります。〆切の付箋は締切日が近付くにつれて上に移動します。

これ便利。特に締め切りのあたり。DAVもそうだけどファイアーウォールとか越えて付箋紙貼れる場は便利だわ。

あと、Wema@SlavaDevぐらいガシガシやれたら、さらに便利になるだろうナァ。

まぁ、今のところ本当にやりたいのは、Wemaにトラックバック張って、トラックバックした記事を、適当にテキストマイニングとかで類似度(距離)求めて、主成分分析で二次元投影するやつ。

これを、ビジネスブログ(僕だとサイエンスだけど)のバックグラウンドに用意すると、記事の関連がひとめでわかっていいかもなんて思ってイル。

そのためのイントラブログを啓蒙しているがなかなうまくいかん(泣)

WSDL2Perl

「蛇口をひねれるようにリソースを」みたいなグリッドは、そもそも潤沢な水がナければだメジャンみたいな、ネガティブな印象が強かったけど、きびしい仕事じゃなければこういうのもありかもとか思った(むしろ惹かれたわけダ)。

dW : Web services : バイオインフォマティクス(bioinformatics)のWebサービス 第1回

このシリーズはバイオインフォマティクス・アプリケーションの高スループットWebサービスを構築、配置、そして使用するうえでのプロセスを説明します。BioPerl、BioJava、そしてBioPythonのようなパッケージの付属するOpen-Bioinformatics Foundationsソフトウェア・ツールキットを基にしたソフトウェアの開発へのガイドとして機能することを考慮に入れています。(広範囲に渡る現存のアプリケーションにサービスを消費させる)BioPerlモジュールへの文書スタイルのWebサービス拡張の新たな実装を示し、サービスを配置する案内を、この記事は提供します。

ちゅうわけで、Globus Toolkit 3.2などいじってみたい予感

CGIwithR

RをwebからつかうのにRSOAPが紹介されているが、なんか、入れないといけないもんが多いし、SOAPとかパイソンがどうもなぁ?ということでCGIwithRを導入してみた。

これだとperlなんでなにやってるかわかるし、sessionモジュールを導入すればなんとかなりそうな感じ。

とはいえ、インタラクティブ性が重要なRをWEBから使うメリットって何よ?みたいな議論はおいといても、ルーチンワークはCGI化しとくのはアリなんじゃないかとは思う。

e1071

Rのe1071パッケージでよく使うのは、シャポベクつまりサポートベクターマシン(SVM)なんだけど、最近は短時間フーリエ変換(stft)をイジクッテイマス。

実際ある種のデータはplotすると格子模様が出たりして面白い。ただ、結果を見ることはできるんだけど「その意味」がわからんので、調べてみたが、ググググしてもなんも出てこん。というわけでさっぱしわからん@plot.stft。

Rにも思うところはある。というか、perlでいうラクダ本みたいな本がでないかなぁと思う。か、初めてのperlみたいなやつ。