量子コンピュータでなければ1万年かかる問題、CPUのビット数を増やすと簡単に解決できることが判明 [422186189]
■ このスレッドは過去ログ倉庫に格納されています
東京理科大学の河原尊之教授らの研究チームは、回路線幅22ナノメートル(ナノは10億分の1)の相補型金属酸化膜半導体(CMOS)を使い、現在の量子コンピューターを超える計算能力を持つ大規模集積回路(LSI)システムを開発した。創薬や材料開発などに生かせる「組み合わせ最適化問題」を低消費電力かつ高速に解く。複数のチップを並列動作させることで機能を拡張し、大型の設備が必要なクラウドサービスを使わずに大規模な計算を可能にする。
河原教授らが開発したのは、複数のLSIチップをつないで機能を拡張できるスケーラブルな全結合型の「イジングLSIシステム」。これまで1チップ内に収まっていた演算機能を、複数の汎用CMOSに分けて接続することで拡張可能なことを実機で実証した。
22ナノCMOSで作製した演算LSIチップ36個と制御用FPGA(演算回路が自由に書き換えられる半導体)1個を搭載。現状のゲート方式の量子コンピューターを上回るビット数が4096個の大規模システムを試作した。チップ数を約半減できる新たな実装方式を採用して集積度を高めた。組み合わせ最適化問題の一つである4096頂点の「頂点被覆問題」が解けることを確認している。
2030年ごろまでにビット数を2メガ(メガは100万)個程度まで増やし、50年ごろに実現するとされる同方式量子コンピューターと同等以上の計算能力を目指す。
量子コンピューターは組み合わせ最適化問題を解くのが得意だが、超電導方式では極低温に冷やすために大規模な装置が必要。これに対し、既存のシリコン半導体によるLSIで同様の計算が可能になれば、創薬や材料開発、物流や金融、マーケティングなど幅広い領域において、現場で手軽に使えるなど応用の可能性が広がる。
https://newswitch.jp/p/39408 ジオン「ニュータイプ!エルメス!オールレンジ攻撃!」
連邦「それボール大量でよくね?」
みたいな感じ? 技術革新って凄いよね~。
全く書いてることわかんないけど。 線幅22nmって今どき普通?
それとも特殊な細さ? 日本の技術開発って「足りぬ足りぬは工夫が足りぬ」の精神が根底にあるから
金儲けを企ててる連中には都合が悪いのよね 因数分解だと
量子コンピューターなら桁が増えても計算量は大して増えない
従来のだとすごい勢いでふえる 量子コンピュータの潜在能力が高くても使いこなせなければ意味ないんよな >>9
今の最新プロセスは5nmなので
22nmは中国でも作れるくらいの枯れた技術
今回の研究のすごいところだね 量子コンピュータだって苦手なものはあるし
特定の条件で有効なだけで 数日前にNHKで量子コンピューターを分かりやすく解説するみたいな番組やってたけど、分かりやすくする為に例え話を多用してて結局よく分かんねー感じになってたな GAAナノシートトランジスターも日本の
技術だとレーザー要らないらしいね 現状64ビットのCPUが4096ビットになるって話なの? >>19
メモリ容量の話じゃなくてレジスタの容量の話ね
世に出ているレジスタ容量は64bit(8バイト)
64ビットCPUとか聞いたことない? 32bitと32bit二つ搭載すると64bit(級)になるらしいからドンドン足していこう! よくわからんが今まで解読不可能の暗号も簡単に突破されちゃうってこと? セガサターンと同じ事をしただけだろ
32bitCPUを2個繋いで64bitにしましたって話と同じだよ 量子コンピューターも結果確定させるのは大変だからこっちの方がマシか もちろんWindowsは動かないわけで
ここで一気にTRONで最適化させてOS業界を牛耳ろうw >>33
コストやカスタム性で考えると伸びしろは低そう
超伝導実現するには大規模な装置が必要だから
持ち運びできないし気軽に使えない 昔の、ビットスライスALU(4bit)組み合わせて16bitや32bitのCPU構成したみたいな感じかな? >>32
全然違うサーバーは昔から大量のCPUを搭載している
金は掛かるが個人でも気軽にCPU2つ搭載PCは作れる 128bitCPUのEmotionEngine最強というわけだな 10000個の重ね合わせ問題も10000人連れてきて一人1つ調べれば同じ >>43
つまり、エクセルで何でもしようとする奴らはくたばれって事だな
わかるわかる >>278
俺は Core2Quadでいい。
ただ I/Fの限界でメモリが増やせないんだよな。 結局、物理的に増やすのが手っ取り早いしコストも掛からんのよな
今のGPUとかもそれだしな 昔、癌の特効薬になりそうなもののリストアップに2000年程掛かりそうな計算をboincで投げて2年掛からないぐらいで片付いたのあったな >>21
漫画家みたいなヤツが早口でしゃべってたやつ? >>21
ようは丸投げ方式なんよな
プログラムやAIのように累積データで推論でなくてね >>19
32ビットCPUとか64ビットCPUとか聞いたことあるでしょ
ここで2メガと言っているのは2048000ビットCPUという意味 これって何が斬新なん?
富嶽とかと同じただの大規模マルチコアにしか思えないんだけど。 AMD64が出て20年になるから、そろそろ次のステップに移行しても良いわな マイクロソフトが2Mビット版Windowsの開発に乗り出すのか これ汎用じゃなくてイジングモデルだよな
組み合わせ最適化くらいしか応用出来ないな
量子コンピュータ関係の話って記事の時にいつも受け手側の勘違いを助長させるような説明つけるのどうにかならんの? >>57
マルチコアだけで解決するなら、32bitコアだけで良かったはずだよね?
なんで64bitコアのCPU出たと思う? >>57
簡単に言うと特定の問題に関しては富嶽と同性能を富嶽の半分のコア数で実現できるアーキテクチャということ >>1
://c-dle.com/wp-content/uploads/2021/06/5782-min.jpg 五十島さんが22年前に言うてたステレオ投影式と似てる(笑)>>1 ビジュアルショック!
スピードショック!
サウンドショック! 25年前には工学部の学生で高偏差値大学や一部の研究室でわかってる内容を
何故今になって持ち出してくるの?
並列処理で高速化できるのは以前からわかってたことでしょ。>>1 コアの数を指数関数で増やせばNPの問題は定数時間で解ける。
そりゃそうだけどさ😿 >>72
自民党など政治家ごり押しの科学全般は信用しない。
ただし量子力学は使っても問題は無いだろう。信用するかどうかは別問題ですよ。 >>72
あのハリセンボン似の女は結局なんだったんだ 汎用CPUじゃなく、FPGAでプログラムは知らせるとほんと速いよな。
光量子コンピューターとかNTTとかやってるけど、実計算はFPGAでやってるんじゃね?って
指摘あったよな。 スーパーコンピューターの消費電力は洒落にならなくなってる
現状でも一般家庭数万世帯と同等な電力を使ってる
コア数を増やすよりCPUのビット数を増やす方が効率的 before:AVX512って何に使うの?w
after:おっしゃAVX4096早く来い!!!wwwww
こんな感じ? VLIWですらなく、単純に超多ビットにして並列同時演算ってことか。GPUもそうだけど、並列度を上げれば解決する問題はたくさんあるってことかな。 物理的な限界はあると思う
量子の方も大きさの問題がある奴とか、冷却方式とかあるけど
過渡期の技術だから、技術蓄積して効率最小化を目指す時に
いや大艦巨砲主義でどうや?とドヤ顔されてもなぁw 宇宙戦艦キラーなモビルスーツが戦場の主役になっている時に
宇宙戦艦作ろうぜ、と言っているようなものじゃんw >>64
そりゃマルチコアよりシングルコアのほうが逐次処理が速いぶんソフト設計もしやすいわな。
ただ、この記事はシングルコアのレジスタ幅やバス幅を増やすというよりただ単にマルチコア数を増やしたと読み取れたので富嶽と何が違うん?と思った。
>>65
ありがとう。
しかし具体的な技術面では良くわかんない。
ほんの少しだけどプロセッサ技術に明るいので専門的な解説してもらえるとありがたい。 >>29
512bitくらいにしたら一挙解決ってこと? 次世代コンピュータまでの繋ぎにも次世代技術があるってこと? そんな事ニュースにしたらIBMが潰れちゃう(笑) 量子コンピューターの期待値だけで株価維持してるのに 頂点被覆問題とは簡単に言うとどんな問題なのかな?チンコ被覆問題みたいなものかな? 量子コンピュータで早く計算できる分野のひとつを
既存の半導体でやる方法を開発しただけじゃん 未だに128bitのCPUやOSが普及してないのは異常 >>101
結局マイクロコードになって8ビットづつ処理したりしてw アフターバーナーIIやセガラリーを自宅で遊べる時代が来るのか なんだ普通にプログラミング可能なPCで演算できるのか >>4
ボールの装甲やわすぎるから
ドムに蹴られて破壊されたりしてたよな? よくわからんが、既存の64bit演算器を64コで並列計算させるより
今回の仮想4096bit演算器のほうが、メモリアクセス減って
量子コンピュータくらいには計算速くなっちゃう感じ? クロック競争コア競争で打ち止め感が出た所を既存技術で伸ばせるんなら
現行メーカー優位では? >>112
米国と中国に教えれば大丈夫だろうけど… >>102
足し算しかできないならあんま意味ないな お前ら知らんだろうが、CPU処理速度の目安となるクロック周波数は2004年の最高値を未だに超えていない。
20年前と同じ周波数を使っているんだぜ。>>1 NP完全だから、開発するのは問題を頂点被覆問題に変換するとこだけでおけ 地球シミュレータは構築に500億円かかったそうですが、PS3だと同等の性能を実現するのに2259台、20GBモデル(4万9980円)だと約1.1億円で済むことに。とんでもないですねこりゃ。ヨドバシカメラで購入すれば10%還元されてお得です。 >>126
ネットワーク構築にプラスおいくら万円だろうね まぁ、要はビットシフト演算だしな
増やせば解決するわな😁 >>50
賛成多数方式だから悪意を持って51パー以上の結果を間違った結果に誘導するだけ >>93
複数のコアを結合して完全に1つのコアとして動作させる「全結合スケーラブル化」というのが本技術のキモで、
これはマルチコアでの並列処理とは完全に異なる
単位プロセッシング毎に結合したコアのbit数の演算ができるので、4096頂点の問題に4096bitのコアを使うと効率的で早いよねという話
気をつけなければいけないのは、専用の4096bitコアを作ろうと思えば作れるので、
それ作ればいいじゃんというはなしなんだけど、全結合スケーラブル化は基本の形コアユニットを1設計すれば何bitにでも拡張可能な技術であるという点
無論、光速の制約による物理スケールで遅延が発生する規模になったらそうもいかないだろうが、CPUコアの真の集積化を始めるための基幹技術と言えるだろう よくすごいとか言われるけど具体的に何の役に立ってるの? >>132
ありがとう。
「全結合スケーラブル」は初耳だったので軽くググってみたけど、バス共有やマルチポートメモリのようなレガシーでは密結合とされていた技術とは別物っぽいね。まだ良く理解できてはないけどアービトレーションによるストールが最小限に抑えられてる感じなのかな?
こういうCPUってインストラクションのワードは何ビットになってるんだろう?やっぱりそこは単位CPUのビット数に依存するのかな? >>127
PS3のcpuは最初からたくさんPS3を集めて並列処理を想定して作られてるからそんなかからんやろ qtmとctmの計算可能なクラスって一緒だったよな?
量子超越性って何だったんだ? >>136
『7nm』とか『5nm』とか、これって商品名や登録商標であって実際の配線幅を表してない
トランジスタのコレクタやゲート部分を見たらその幅の配線もあるかも知れない
現実にその太さを作れないことはないんだけども、高周波や大電流が流れた時に損失を抑えたままいける絶縁材がないから機能させられない >>10
ちょっと意味分かんない
どこの国も慈善事業での研究開発なんてやってないんで ■ このスレッドは過去ログ倉庫に格納されています