This domain may be for sale!
HDD(はーどでぃすくどらいぶ)の速度計測のお話。 システムを組み上げるとき、特に組み込みのシステムの場合、HDDとかの速度が気になっちゃうときがあったり無かったりラジバンダリ。無論、HDDの仕様でも読めば理論値は書いているのですが、如何せん理論値。 そういうわけで、プログラム(というほどでもない)上でHDD、そのWR(write/read)速度を図ってみようという実験。 使用するコマンドは2つ。hrparmとddコマンド。詳細はmanコマンドにお任せします。ぐぐれば出てきますし。 % hdparm -t /dev/hda1 % dd if=/dev/zero of=/tmp/testimg bs=1M count=1024 hdparm:読み出し速度の計測に使用する。 -t オプションでキャッシュに無いファイルを読み出しする。 -T オプションだと、キャッシュのファイルを読み込むら
Perlではじめるテキストマイニング - JPerl Advent Calendar 2009 Perl に関するちょっとした Tips をのっけてみるよ。ちゃんと続くかな? ■前置き みなさんこんにちは。ダウンロードたけし(寅年)です。来年は年男なので今からお正月が待ち遠しい35歳2児の父です。 ここ数年、web広告業界ではコンテキスト解析とかユーザの行動分析とか、いわゆるデータマイニング/テキストマイニング系の話題が花盛りです。 自分もそんな業界に属しているんですが、ふと気がつくと日本語のテキストマイニング系モジュールを量産してしまっているので、ここらでいくつか紹介してみたいと思います。 今回はインターネットからブログなどのコンテンツを取得して、それを意味解析してクラスタリングする、といったようなことを題材にモジュールの紹介をしてみます。 ■HTML::Featureで本文抽出 まずは
dapper のように、ブラウザでクリックをしたところをスクレイプする、というときにはXPathが向いています。ブラウザでクリックした部分のXPathをサーバに保存しておけば、あとで保存したXPathに従ってドキュメントからエレメントを取り出すことができます。 しかし実際にHTMLからXPathを使ってエレメントを取り出すときに大きな問題になるのが、ウェブページの大半(体感で70%くらい)は記述されているHTMLが構造的に壊れているという事実です。タグを開いたまま閉じていなかったり、開いていないものを閉じていたり、ドキュメントの最後に</body></html>が二重に入っていたり、壊れかたは様々ですが、とにかくウェブ上のHTMLは大半が壊れています。壊れているHTMLが大半だからなのか、壊れているHTMLでもブラウザが適当に解釈して表示してくれるからなのか、とにかく世の中のヘージの大半
Tontuu is help for web-developer to create CSS Sprites・ファイルの読み込み(ドラッグ&ドロップ) ・ソート1 (Sort direction:col ⇒ Sort type:IMAGEBASE ⇒ padding:0) ・ソート2 (Sort direction:row ⇒ Sort type:IMAGEBASE ⇒ padding:30) ・ソート3 (Sort direction:col ⇒ Sort type:POSITIONBASE ⇒ padding:100) ・ソート4 (Sort direction:row ⇒ Sort type:POSITIONBASE ⇒ padding:150) ファイルを開く 画像ファイル(gif,jpeg,png)、もしくは拡張子.ttdのプロジェクトファイルを、2通りの方法で開くことが出来ます
リリース、障害情報などのサービスのお知らせ
最新の人気エントリーの配信
処理を実行中です
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く