じじぃの「歴史・思想_216_シンギュラリティ・人間の記憶容量の限界」

次世代スパコン 「富岳」

わかる!ナットク スパコン京、なぜ終了?

2020.6.5 神戸新聞NEXT
――巨額のお金をかけて開発したのに、7年でなぜ壊してしまうのですか?
京が時代の最先端でなくなり、スパコンではなくなりつつあるからです。
スパコンという“たすき”を、京から後継機の富岳へ渡す時期が来たのです。富岳は京の最大100倍の性能を目指しています。京で100日かかっていた計算を、富岳は1日でできるため、同じ時間でもっと多くのパターンを調べることができます。宇宙や気象、防災など各分野で新しい現象が発見できるかもしれません。計り知れない可能性が、そこにはあるのです。
https://www.kobe-np.co.jp/rentoku/keyword/201908/0012650487.shtml

楽天ブックス:シンギュラリティは近い 人類が生命を超越するとき

レイ・カーツワイル(著)
【目次】
第3章 人間の脳のコンピューティング能力を実現する
https://books.rakuten.co.jp/rb/14117597/

『シンギュラリティは近い[エッセンス版] 』

レイ・カーツワイル/著 NHK出版/編 2016年発行

人間の脳のコンピューティング能力を実現する より

人間の記憶容量

コンピューティング容量は、人間の記憶容量とどのように比較できるだろうか。人間の記憶容量の要件を見てみると、コンピューティング能力の場合と同様の実現スケジュールに落ち着くことがわかる。専門家がある領域でマスターする知識の「塊(チャンク)」[人間が知覚、操作、基本記憶などをする情報の単位]の数は、さまざまな領域どれをとっても、およそ105である。これらの塊は、パターン(顔など)のこともあれば、具体的な知識のこともある。たとえば、チェスの世界的な名人は、約10万種類のボード上の駒の配置を覚えているとされている。シェークスピアは2万9000個の単語を使ったが、これらが示す意味は10万に近かった。医療分野でのエキスパートシステムの開発から、人間は、ひとつの領域でおよそ10万の概念をマスターできるとわかっている。もしも、この「専門的」な知識が、人間のパターンや知識の記憶容量全体のわずか1パーセントにすぎないと想定したら、塊は全体で107あると推算される。
    ・
ここまでの分析に基づけば、人間の脳の機能を摸倣できるハードウェアが、2020年あたりにはおよそ1000ドルで手に入ると予測するのが妥当だ。人間の脳の機能性を模写するソフトウェアはその10年後には出てくるだろう。それでも、ハードウェアテクノロジーのコストパフォーマンスと容量、速度の指数関数的な成長は、その間も続き、2030年には、ひとつの村に住む人間の脳(約1000人分)が1000ドル分のコンピューティングに相当するようになる。2050年には、1000ドル分のコンピューティングが、地球上のすべての人間の脳の処理能力を超える。もちろん、この数値には、まだ生物的なニューロンしか使っていない脳も含まれる。
人間のニューロンはすばらしい創造物だが、これと同じ遅い手法を用いてコンピューティング回路を設計したりはしない(実際そうはしていない)。自然淘汰を通じて進化してきた設計は確かに精巧だが、われわれの技術で作りだせるものよりも、何桁もの規模で能力が劣る。われわれ自身の身体や脳のリバースエンジニアリングによって、自然に進化してきたシステムよりもはるかに耐久性があり、何千倍、何百万倍も速く作動するシステムを作りだせる地点に到達するだろう。今ある電子回路は、すでに、ニューロンの電気化学プロセスより100万倍以上も速く、この速度も加速化を続けている。
人間のニューロンにある複雑さのほとんどは、情報処理ではなく、生命維持機能を支えるために使われている。究極的には、われわれの精神的なプロセスを、より適切なコンピューティング回路基板に移植することが可能になるだろう。そうなれば、われわれの、精神は、こんなに小さなところに収まっている必要はなくなる。

コンピューティングの限界

人間の知能は、これからだんだんとわかっていくように、コンピューティングのプロセスのうえに成り立っている。人間の知能よりもはるかに大きい能力をもつ非生物的なコンピューティングを利用して、人間の知能を拡大し利用することで、われわれは最終的に知能のパワーを増大させることになる。よって、コンピューティングの最終的な限界について考えることは、実際には、われわれの文明はどういう運命をたどるのか、と問うているのと同じことなのだ。
本書で述べるアイデアの前にいつも立ちはだかってくるのが、指数関数的な傾向は――そうした傾向の例にもれず――いずれ限界に達するのはさけられないという問題だ。オーストラリアのウサギが有名な例だが、ある種が新たな生息地を偶然に見つけた場合、その個体数はしばらくの間、指数関数的に増大する。しかし、結果的には、環境が支えられる限界に到達する。情報の処理にも、きっと同じような制約があるはずだ。そしてじつのところ、そのとおりだ。コンピューティングには、物理の法則に基づいた限界がある。だが、指数関数的な成長がまだ続く余地は残されている――非生物的な知能のほうは、今あるコンピュータも含めた今日の人間文明のすべてより、何兆倍も強力になるまでは。
コンピューティングの限界を考える場合の主な要因は、必要とされるエネルギーの量だ。コンピューティング装置の1MIPSに必要なエネルギーは、図にあるように、指数関数的に減少している。
一方で、コンピューティング装置のMIPS数が指数関数的に成長してきていることもわかっている。エネルギーの使用量がプロセッサの速度にたいしてどの程度改善されてきているのかは、並列処理をどの程度用いているかにかかっている。
    ・
生物の進化においては、基本的にこれと同じ解決策が動物の脳の計算でとられる。人間の脳は、約100兆台のコンピュータを使っている(ニューロン間結合数、ここで処理の大部分が行なわれている)。しかし、これらのプロセッサのコンピューティング能力はとても低く、したがって、あまり熱を生じない。
ほんの最近まで、インテルは、より高速な単一チップのプロセッサの開発に力を入れていた。これらは、ますます高い温度を生じる。

今では、同社は戦略を徐々に変更して、ひとつのチップに複数のプロセッサを搭載する並列化へと向かっている。必要なエネルギーの量と熱の散逸を少量に抑えるために、チップのテクノロジーはこの方向に転換してきているようだ。