最近ビッグデータとか言う奴が多い

これって別になんも新しくなくね?誰でも予想できてたことじゃないの(まあ往々にしてこういうのってキャッチーな言葉をつけた人が勝ちで中身は至極当たり前だったりするのは知ってるつもりだけど)?

ていうか「日本ではまだあまり〜」「アメリカでは既に〜」っていつも言われているような事が言われているけど、このトピックに関してだけはデータを整形するための形態素分析と日本語の相性が激悪だっつう事を抜かしては語れない気がするんだけど、そういった記事を見かけないのよね。いや自分がまったく畑違いの業界にいるし別にアンテナも張ってないから既に言われていることなのかもしれないけどさ。

データをたくさん持てる事がすごいわけでは当然なく、それをいかに整形してまとめて要約して頭の悪い人間様でも全体像を把握できるようにしなければいけない。僕はその感覚にうっとりして一時テキストマイニングまんせーだったわけなんだけど、残念ながらあれから幾星霜、なのに仕組みというか理屈はそんなに進化してない気がして、しかもその原因は解決しようがない所に根っこがあるような気もして、残念な気分な訳です(よく言われる「東京都」は東京・都なのか東の京都なのか、みたいな…とかね)。いまだにぼくちゃんたちTrue Tellerとかつかってキャッキャウフフなんだろ?


追記:個人的には理屈でのきれいな解決が難しそうな以上、マシンパワーを使ったごり押し(「ビッグな」辞書データとか)総当り的なマッチョな方向で解決していくんだろうなーとうっすら思ったりしているけど、それはまた別の話。