3/16/2008

バーチャル脳ベータ版?

最近気になった論文、IzhikevichPNAS論文

ヒト脳のDTIデータを、thalamocorticalとcorticocortical connectionの情報、
MartinたちのネコV1の解剖データを、局所回路の情報、
ラットのスライス実験でわかったデータを、シナプス応答の情報、

として使って、ダウンサイズしたヴァーチャル脳(新皮質と視床)を作っている。さらに彼が考案したいわゆるIzhikevich modelで1M個のニューロン活動をシミュレーションしている。

そのために60個のプロセッサーをもつPCクラスターを使うという力技である。

そのPNAS論文では、図4からバーチャル脳を走らせた時の特徴的な結果を示している。面白いのは図5からか。

図5では、一発のスパイクの違いという初期条件が違っただけで後に大きな違いが出てしまうことを示し、
図6では、traveling waveを再現し、
図7ではさらに、resting stateを再現している。

図6に関連して、領野によって特定のオシレーション(ベータ)のおきやすさが違う現象は解剖情報だけで再現できた、という点は興味深い。

---

ただ、これら後半の図たちで新規性はないといえばない(もちろん、リアリスティックな大規模シミュレーションをした、という点は新しいけど)。しかも通常のpeer-reviewのプロセスを通さず、Edelmanの力でPNASに出しているようだ。

この論文、一見セクシーではあるけど、ツッコミどころ満載なシミュレーションな気がする。
例えば、
全領野の局所回路をV1で置き換えて良いのか?
細胞の数という点でも領野によって違うわけで、そういう解剖情報は無視して良いのか?
シナプス応答の点で考えると、例えば、HCNの特徴を入れなくても良いのか?
apical dendriteはともかく、basal dendriteこそ重要なんではないか?
そもそもヒト、ネコ、ラットをミックスして良いのか?
DTIやcanonical circuitでは記述できていない(であろう)弱い?結合は考慮に入れなくて良いのか?
などなどなど。。。

その辺は現時点では難しいだろうけど、テクニカルな点で一つ非常に気になることがある。

このバーチャル脳、オーバーフィッティング的なことが起こりまくっているのではないか?ということ。ダウンサイズして、固定パラメーターを使ったといっても、これだけ大規模なシミュレーションをしたら、そりゃ、何でもできるでしょ、という気がしないでもない。どうなんだろう?自分にはようわからん。。。

図5のカオス的な結果を受け、最近のBrechtのネイチャー論文をdiscussionで持ち出している。が、果たして同じ次元で考えて良いのか、単なる偶然の一致なのか、ちょっとわからない。オーバーフィッティング的なことが起こっているなら、ちょっとしたノイズに過剰に反応するというのは何となく想像できる。(Brechtの論文そのものがあやしいといえば、あやしくもあるか。。。3個のinterneuronの貢献度大だし、そいつらがgap junction作ってたら1個という主張はできないし。。。)もし同じかも?と議論をするなら、1個のFS細胞のスパイクを操作した時により大きな効果がみれるかどうか興味があるところ。

このオーバーフィッティング(かもしれない)問題、モデリングに詳しい専門家が見たらどうなのだろう?単なる自分の知識不足による勘違いなのか?supplementをざっと見た感じ、そのあたりに関するコメントはないと理解した。

こういうモデリングでクロスバリデーション的なことはできるだろうか?この場合のクロスバリデーションはいったい何か?

Izhikevichのことだからそんなことは十分認識していて、とりあえず作ってから問題をデバッグして、バージョンアップをはかっていこう、という超楽観主義的発想なのかもしれない。彼のウェブには将来の見通し的な情報もある。

やはり、気になるのは、このシミュレーションから何を予言できるか?ということ。その予言を実験的に検証していくことが、この場合の「クロスバリデーション」になるのかもしれない。その意味では、この論文では予言はないと理解したので、とりあえずベータ版を作ってみました、というお披露目論文と理解したら良いのだろう。

今回のシミュレーションは睡眠状態だとして、ここから脳状態をどう変化させて、よりリアルな意識下の脳に近づけていくか?どう感覚刺激を入れて、運動出力なり、意思決定的な情報をディコードするか?

例えば、バーチャル脳ではxxxxができないとNG、といった「バーチャル脳」の必要条件を考えていく上で良い叩き台になるのかもしれない。

それにしてもこのIzhikevichという人、scholarpediaといい、出版前の本全文をPDFで公開するとか(出版後の今はさすがに公開していない)、やることがぶっ飛んでいる。。。ヤバイ研究者の一人。


文献
Proc Natl Acad Sci U S A. 2008 Mar 4;105(9):3593-8. Epub 2008 Feb 21.
Large-scale model of mammalian thalamocortical systems.
Izhikevich EM, Edelman GM.

Izhikevichの本

2 comments:

Anonymous said...

Shuzoさんへ
今回は「プロ向け」と言うことで、わたしのような“ど素人”がコメントして良いのか迷いましたが、一寸だけ書かせていただきます。
Izhikevichiさんは、60個のぷろせんっサーをクラスター化してシュミレーションされたようですが、もうこれって“スパコン”ですよね。で、気になるのは“パラメータ”のとり方ですね。これだと、Shuzoさんが仰るように、

>これだけ大規模なシミュレーションをしたら、そりゃ、何でもできるでしょ

と思います。勿論、逆から攻める手も有るわけですけど、(一番“現実に近い”シュミレーション結果が現実のパラメーターであると結論付ける)これって、(言い方は悪いですケド)“邪道”ですよね。その“パラメーター”の意味づけを慎重に考察しなけてはなりませんよね。

しかも、Izhikevichiさんのモデルはネコとラットの合成である上に、“新皮質と視床”だけをモデリングしたものですよね。で、この程度のモデリングシュミレーションで「一体何が解るのだろう」と言うのが“素人”の感想です。

>Izhikevichのことだからそんなことは十分認識していて、とりあえず作ってから問題をデバッグして、バージョンアップをはかっていこう、という超楽観主義的発想なのかもしれない。

という事ですが、デバック程度でいいのでしょうかね? それよりはモデリングを再考したほうが良い様な気がします。

この手の“バーチャル実験”では、仮説の上に仮説を重ねることになって、“現実”から乖離した“別物”になる可能性が高いような気がするのですけど。
Shuzoさんはどう思われますか?

Shuzo said...

こんにちは、阿瀬王さん。
「プロ向け」でも、気にせずコメントされて結構ですよ。

さて、この論文のパラメーターですが、私の理解が間違ってなければ、都合の良いパラメーターを選んだという感じではないようです。むしろ、シミュレーションを走らせる前に、これまでの実験結果から考えられる尤もらしいパラメーターを選んでいると思われます。

それで、それなりの結果は出せてはいるので、そう捨てたものではないような気もします。


> この程度のモデリングシュミレーションで「一体何が解るのだろう」と言うのが“素人”の感想です。

おそれいりました・・・(苦笑)
ただ、現時点で、規模の大きさとリアルさという点で、これ以上のシミュレーションをやった人は、私の知る限り、この世には存在していません。
この論文の本文中でもとりあげられているBlue Brain Projectというのがあります。これはIBMのスパコンを使って、大脳新皮質の神経回路の活動をシミュレーションしようというプロジェクトです。
このプロジェクトはリアルさという点では、今回の論文のそれより上だと思うのですが、それが対象にしているのは、大脳新皮質全体からするとごくごく一部だけだと理解しています。
ですので、再現する脳の規模の点で、Izhikevichのシミュレーションがはるかに勝っていることになります。

それから現実問題として、人の脳を完全に再現するのは限りなく不可能に近いと思って良いです。
そもそも、人の脳の神経回路を細胞・シナプスレベルで調べつくすことは、何かとんでもない革命的な計測技術が開発されない限り、不可能です。断言できます。
ですので、現在理解が進んでいる部分(ネズミやネコやサルの脳でわかったこと)をとりあえず組み合わせるのは、仕方がないのかな、という気がしています。そう思わないと先に進めませんので。。。


> この手の“バーチャル実験”では、仮説の上に仮説を重ねることになって、“現実”から乖離した“別物”になる可能性が高いような気がするのですけど。
> Shuzoさんはどう思われますか?

別物かどうかを確かめるのが、結局は「実験」になるかと思います。
実験をしている自分としては、こういうバーチャル実験から、ホントの実験で検証してみよ、といった仮説・予想が出てくれるのは大歓迎です。神経集団の活動はあまりにも複雑すぎて、何に注目して実験データを解釈して良いのか、(アホな私には)全くわかりません。ですので、どういう点に注目してデータを見たら良いのか指針を与えてくれる、という意味で、そのような予想は非常にありがたいです。

(もちろん、このケースのバーチャル実験では、細かいところまで再現しようとするので、バーチャル実験のデータ解析をどうするか?という問題もあります。。。けど、全細胞の活動・回路をトラックできる、という強みはあるかと。。。)

実験の結果、もしその予想が外れていても、なぜ外れたのかを調べて、そのバーチャル脳の精度を高め(これが私の言った「デバッグ」です。)、リアルな脳に少し近づけさせることができる気がします。
理論からの予想と実験による検証というやり方は、物理では成功しているのではないかと思いますので、神経科学でもこれからは、大規模な実験・シミュレーションを共にやって脳の理解を深めていくのはアリな気がしています。