Archive

Archive for 4月, 2009

脳が記憶するとき~LTPとは何か~

4月 29th, 2009

最近会社で、ネットサーフィンしているとき、人間はどのように考えているを議論し、新しいブラウザはこういう機能があるべきだ、そもそもタブじゃない、などとわいわいやりました。

私も、以前から「人間が情報を蓄積させるのに最も適したシステムは何か?どういったものか?」という問いを命題として考えており、データの視覚化や、脳の記憶などのアプローチから、ほそぼそと調べています。

そこで、「脳の情報表現―ニューロン・ネットワーク・数理モデル」という本を読もうとしたのですが、いかんせんむずい!3ページくらいで挫折しましたf^^; 意味不明な用語のオンパレード。
脳神経専攻の友人に泣きついたところ、池谷祐二さんを読めと言われました。名前を聞いたことがあって、探したらご本人のサイトがかなり充実していたので、ちょくちょく読みはじめました。

今回は、記憶の最も基礎的なページをまとめます。もちろん素人のまとめなので誤解も含まれているかもしれません。おかしい!と思ったらコメントいただけると幸いです。また、脳に興味がない方は飛ばしてくださいw

» 脳が記憶するとき~LTPとは何か~

※LTP(Long-Term Potentiation):長期増強

脳の可塑性

PCと同じように、脳にも0と1の状態が存在する。
つまり、1は記憶している状態(R)といえ、0は記憶していない状態(NR)と言える。
脳は、あるきっかけ(発火)を境に、NRからRに変化する。
これを、「脳の可塑性」と呼ぶ。(可塑性:個体に外力を加えて弾性限界を越えた変形を与えた時、外力を取り去っても歪がそのまま残る現象 by 広辞苑(岩波書店))

fig1

このように、記憶の状態変化があるからには、脳の記憶を司る神経細胞にも変化が生じているはずだ。
池谷さんは下記の3つの仮説を挙げ、神経細胞の数は増えることがない、シナプスの発芽には通常数時間から数日かかることから、シナプス可塑性が最も有力だとしている。

fig3

  1. 神経の増殖
    神経細胞自体が増える
  2. 発芽
    神経細胞のつながりが増える
  3. シナプス可塑性
    神経のつながりが強くなる

ヘブの法則

シナプス可塑性が記憶に関係するなら、以下の3つの性質を脳は有するという考え方は、ヘブの法則と呼ばれている。

fig4

  1. 入力特異性
    渡された信号に関係のないシナプスは影響されない。
     例: ある英単語を覚えようとして、全く関係ない日本語を覚えることはない。 
  2. 協力性
    ある一定以上の信号が来たときだけ、シナプス可塑性が生じる。記憶のしきい値。
     例: 記憶しようとしない限り、あるいは印象深い事柄ではない限り、記憶に残らない。
  3. 連合性
    一つの神経細胞に伝達される信号がしきい値に満たなくとも、関連するシナプスから刺激を受けるとシナプス可塑性が起きる。
      例: 語呂あわせ。

LTP

ある信号に対する神経細胞の反応が、長期に渡り大きくなる現象をLTPと呼ぶ。(発火とも言う?)
LTPはヘブの法則と満たす上に、海馬で観察され、さらに動物の記憶力と正の相関を示すため、記憶と深く関係すると言われている。
LTPの起きない動物を生み、観察したところ記憶力が劣っていたという報告が出た。また、LTPの形成を阻害する薬も発見されている。
LTPは多くの研究者によって、記憶の基礎メカニズムであると期待されている。 

LTPは下記の状況で生じることが観察されている。

  1. 神経伝達物質の放出増大
    神経細胞間で伝達されるグルタミン酸が増える。→神経細胞間の伝達効率がよくなる。抵抗が小さくなるイメージ。
  2. 感受性の増大
    神経伝達物質の放出量は変わらないが、受け取る方の神経細胞が、より多くの物質を受け取るようになる。神経細胞自体が変化する。

この2つの機構が、共に関与していると考えられている。

まとめ

巷で騒がれている記憶術の裏付け、という感じですね。
生活で使える情報ではないですが、勉強している際に、脳のシナプス可塑性が起きているイメージをして、記憶が定着している感じになれたのは、よかったかとw (気のせ…)

脳の情報表現―ニューロン・ネットワーク・数理モデル
朝倉書店
売り上げランキング: 222195

8maki Academia, survey

大規模分散処理を身近に、”Amazon Elastic MapReduce”のビジネス的インパクトは?

4月 3rd, 2009

logo_aws 先ほどAmazon Web Servicesから新しいサービスがBetaリリースされていましたね。

 その名も「Amazon Elastic MapReduce
 

MapReduceというのは、Googleの検索技術を支える分散処理アーキテクチャで、ようは「処理を細かいタスクに分けて、めちゃくちゃたくさんのPCに独立して処理させることで、スパコン並の能力を発揮させられる構造」という感じでしょう。
Amazon Elastic MapReduceのDemoはこちらから見れます。 
(Demoでは、ある文章の単語出現数を計算しています。) 

mapreduce

MapReduceを実装しているフレームワークで一番有名なのが、オープンソースのHadoopです。
商用化など、Tech界隈で話題のフレームワークなのですが、そもそも大規模分散処理用のインフラ技術なので人目につきにくく、ビジネス界隈では見慣れない名前ですよね。

言ってしまえば、「大規模分散処理が身近に!」ということなのですが、ビジネス的にどれくらい身近になるのか未知。
そこで、ちょっと計算してみました。(ものすごい大雑把な計算ですf^^;)

———— 計算 ———–

仮に、セットアップ・維持が3人日、処理が1台のサーバーで7日かかるシステムがあったとします。

するとそれにかかるコストは、だいたいこんな感じでしょうか。

  (セットアップおよび維持中)の人件費+10日分のサーバー費用(AmazonEC2.small:1台とS3:1台)
  =3人日×4万円(人月80万円)+(月8000円÷30×11日+1000円)
  ≒12.7万円 

それが、このAmazon Elastic MapReduceを使うと、だいたいセットアップ・維持に1人日、サーバーを4台使って2日くらいになると思います。すると、

  1人日×4万円+8000円÷30×2日×4台+1000円+MapReduce使用料:1000円くらい?
  ≒4.5万円

コストがおよそ1/3くらいになりますね。
もちろん前者の例ではAmazon EC2を使って、サーバー代をかなり浮かせているため、実質は20万円以上かかると思います。

———— 計算 ———–

小規模な処理だとコスト削減はこれくらいですが、サーバーを数百代、数千台使う処理だと雲泥の差に なるでしょう。

かつ、これだけ簡単に使えるようになると、多くの業者がこのサービスを使ったソリューションを提供することが考えられます。
昔なら100万円以上したECサイトの開設が、今や10万円以下で作れるようになり、販売のビジネスチャンスが大きく広がった、くらいのインパクトにはなりえそうですね。

もちろん重要なのは、この高性能演算システムを安価に使えて何をするか、なのですが。
今は下記くらいしか用法が思いつきません。。。

  • 大規模なクローリングとインデックス化が必要な検索エンジン
  • 機械学習によるレコメンドエンジン
  • データマイニング
  • ログファイルの解析
  • 科学的なシミュレーション
  • 生物学的な実験

まだまだ検索・レコメンドエンジンやアカデミックな領域を出ない分野ではありますが、逆にいえばものすごいチャンスでもあるので、何か面白いプロダクト・サービスを作る会社が出てくるのに期待ですね。

もちろん弊社でもバリバリ狙っていきますがw

なお、MapReduceの技術的説明は、id:nayoyaさんのブログが詳しいです。

※追記 Techcrunchでも紹介されていました。

8maki IT, proposal, survey, テクノロジー, ビジネス , ,