[特別寄稿]② AI高速道路を阻む「三つの壁」、今こそ打破すべき時
ジェイソン・パク 烏山(オサン)大学デジタルコンテンツデザイン学科教授
▶見えざるボトルネック
1970年7月、京釜(キョンブ)高速道路の開通式に出席した人々は、誰もアスファルトの厚さを尋ねなかった。彼らが知りたかったのはただ一つ。「この道は本当に我々を速く、安く、安全に連れて行ってくれるのか?」
50年の時が経った今、我々はまた別の高速道路の前に立っている。「AI高速道路」である。しかし、今回の問いは少し異なる。「この道を誰が走るのか?」そして、さらに重要な問い。「何が我々を阻んでいるのか?」
筆者が連続寄稿①(www.hitech.co.kr/ 2025. 11. 2日付)で指摘したように、我々はAI時代の競争力がGPUの数ではなく、インフラの速度にかかっていることを論じた。しかし、現場を覗いてみると、真のボトルネックはハードウェアの外側にある。それは「三つの見えざる壁」だ。電力と冷却、ネットワークとストレージ、そしてデータと人材、社会的慣性である。本稿では、これらの壁を越えなければ、いかに高価なGPUを買い集めても無駄であるという点を明らかにしたい。
▲第一の壁:電力と冷却—熱と電気の戦場
最新のデータセンターの現場に行くと、二つの時間が共存する。帯域幅に余裕のある区間ではモデルが軽快に前進するが、特定のラックの電力が揺らいだり、冷却が遅れたりした瞬間、すべてが停止する。
数字で見ればより明確だ。最新のH100 GPU一枚が消費する電力は700ワット。家庭用エアコン一台を1時間動かすのと同じだ。ところが、AI高速道路の一区間には、このようなGPUが10万枚も投入される。計算してみよう。70メガワットだ。これは中小都市一つ分の電力需要に匹敵する。
問題はこれで終わらない。AI学習は24時間停止しない。深夜時間帯、電力網の負荷が最も高い時にむしろ需要が急増する。既存の送電網では対応できない。
グローバルプレイヤーたちは既に対応している。マイクロソフトはアリゾナの砂漠に100メガワット級のデータセンターを建設し、太陽光で自家発電を行う。グーグルはフィンランドのマンネルヘイム湾にセンターを設立した。冷たい海水が無料の冷却材になるからだ。彼らは電力を「購入」するのではなく、「設計」しているのだ。
▷我々はどうだろうか。未だに韓国電力の料金表に依存している。
冷却はさらに冷酷だ。10万枚のGPUがフル稼働すれば、小型火力発電所一基分の熱が発生する。この熱を冷やせなければ、チップは文字通り溶け落ちる。従来の空冷では不十分だ。液体冷却が新たな標準になりつつある。GPUに直接冷却水を流し込む方式だ。効率は10倍高まるが、コストも10倍である。
ところが、ここで興味深い現象が起きる。冷却が単なる温度の問題ではないという点だ。現場では、冷却方式を転換するだけで、ストレージパスのIOPSが体感基準で70%近く改善される事例が報告されている。どのようにして冷却がI/Oを変えるのか?答えは簡単だ。発熱と電圧、クロックとエラー、再試行とキュー遅延は、一つの輪で繋がっているからだ。
PUE(電力使用効率)1.1のセンターと1.5のセンターは、単に環境配慮の点数が異なるだけではない。前者は余剰分を精密制御に投資できるが、後者は冷却に引きずられ、ピーク時間帯の性能を自ら削り取る。したがって、PUE < 1.3は環境スローガンではなく、「遅延変動性を減らすための運用KPI」とならなければならない。
さらに、廃熱活用が新たなテーマとなっている。スウェーデンのストックホルムのデータセンターは、廃熱で近隣のアパート2万世帯の暖房を賄う。我々も冬場の暖房需要が高い。データセンターの廃熱を地域暖房網に接続すれば、冷却コストを削減し、暖房コストも節減できる。一石二鳥だ。しかし、これを実現するには都市計画からエネルギー政策まで統合的に再構築する必要がある。
▲第二の壁:ネットワークとストレージ—尾が胴体を揺さぶる
AIは「同時に、同じリズムで」動く作業だ。数千のGPUが正確に同じタイミングでデータをやり取りしなければならない。ここでネットワークは、平均遅延よりも遅延の「均質性」が重要となる。
我々は目標をRTT ≤ 10msに設定する。しかし、真の勝負は、その数字を達成する日ではなく、トラフィックが集中する瞬間や障害転移の初期に、その値をどれだけ守れるかにかかっている。
現場ではこれをP95、P99遅延時間と呼ぶ。上位5%、上位1%の遅いケースを意味する。一度のマイクロバーストがInfiniBandであれEthernetであれ関係なく、テール遅延を引き延ばせば、上位1%のスローノードが集団全体の速度を支配する。GPUは待機する。我々はその待機を目にしていないだけだ。
高速道路を思い浮かべてほしい。路肩での小さな接触事故が、20km先の交通量まで変動させる。ネットワークでも同じことが起きる。パケット損失は10⁻⁶以下で管理されるべきであり、リンクアグリゲーションやECN/REDのような輻輳制御は、運用の第一ページに記されなければならない。
ストレージは、これらすべての鏡である。大規模なパラメータサーバー、サンプリング前処理、チェックポイント保存—そのどれもが順次的ではない。並列に分割された小さなリクエストがキューを埋め、キャッシュヒット率はデータセットのバージョンやサンプリング戦略に敏感に反応する。
現場の感覚を言葉に移すとこうだ。「速いディスクを買ったのに、なぜサービスは速くならないのか?」速い部品ではなく、速い「経路」を設計しなければならない。
▷これら三つの要素—電力・冷却、ネットワーク、ストレージ—は互いに独立していない。
電力の余力がネットワーク遅延の均質性に影響を与え、ネットワークのテール遅延はストレージのキューを揺さぶる。そしてストレージ遅延の分散は、再び学習スケジューラの効率を削り、GPUの遊休率を上げる。したがって、「GPU何枚」ではなく、「経路何本」を問う組織が、最終的に勝利する。
▲第三の壁:データと人材と慣性—見えざる構造的障壁
物理的インフラを完璧に構築しても、第三の壁が残る。それは人と制度の問題だ。
▷データ封建制の鉄옹城
AI高速道路の上を走る車両の燃料はデータだ。しかし現在、韓国の状況は深刻な「データ封建制」に囚われている。各公共機関、大手病院、主要産業体は、「セキュリティ」と「規制」という名目で、データを徹底的に自らの領土内に縛り付けている。
グローバルのビッグテック企業が全世界のウェブ情報やユーザー行動、膨大な研究データを統合し、巨大なデータレイクを作り出している間、我々はそれぞれが小さな池を数百個掘ることに汲々としていた。この小さな池は水質もまちまちで、サイズが小さいために巨大AIモデルを訓練させるほどのポテンシャルを持たない。
今こそ我々は視点を変えなければならない。データは保存する時ではなく、流通し結合される時に価値を生む。国家レベルで高品質な合成データ生成・共有プラットフォームを構築し、個人情報を移動させずに学習を進める連合学習技術を全面的に導入すべきだ。データの所有権を毀損することなく、AI発展のための「使用権」を保障する制度的革新が必要である。
▷システムアーキテクトの希少性
AI高速道路が要求する人材は、単なるコーダーや一般サーバー管理者ではない。巨大AIモデルを数千枚のGPUクラスタ上に乗せ、超低遅延環境で駆動させることができるインフラアーキテクトと分散システムエンジニアである。
彼らはHPC、ネットワークプロトコル、分散並列処理、オペレーティングシステムの深い理解に基づき、GPUクラスタ全体のP99遅延時間を1ミリ秒でも短縮する仕事をする。この中核技術人材は極めて少なく、既にグーグル、エヌビディア、オープンAIなどが天文学的な年俸を提示し、根こそぎ採用している。
我々はAIモデルを作る「科学者」を育てることには熱心だが、そのモデルを実戦に投入し、効率的に管理する「建設者」であり「運転手」を養成することには怠慢である。いくら良い自動運転車を作っても、その車が走る高速道路を設計し、維持補修する専門技術者がいなければ、その投資は効率性を担保できない。
▷断片化された文化的慣性
最後の障壁は、官僚的かつ文化的な慣性である。韓国のIT予算執行方式は、「統合」よりも「分離」を、「巨大プラットフォーム」よりも「パイロット事業」を好む。
AI高速道路は、単一の統合された国家的バックボーンプラットフォームであるべきにもかかわらず、各省庁や公共機関は予算確保のために「我々の省庁だけのAI」を作る、数十、数百のミニアチュアなパイロット事業を推進する。これはまるで、ソウルからプサンへ行くために、各自治体が自分の区間にだけミニトラックを個別に敷設するようなものだ。
パイロット事業が断片化するほどデータは分散し、インフラは重複投資され、規模の経済は完全に失われる。効率性の極致を追求すべきAIインフラが、非効率性の極致を走るという逆説的な状況に置かれている。
▲誰がその道を走るのか
1970年代に京釜高速道路が開通した時、その上を走る車がこれほど多くなるとは誰も想像しなかった。当時の自動車登録台数は10万台をようやく超えた程度で、高速道路は「過剰投資」という批判の中で静かに舗装された。しかし、道路ができると車が生まれ、車が生まれると人が動き、人が動くと金が回った。
AI高速道路の真の価値は「共有」から生まれる。米国は「AI Research Resource」を構築し、全国の大学や中小企業が同一のインフラを使用できるようにした。中国は「東数西算(東部のデータを西部の安価な電力で処理する)」プロジェクトを通じ、国家単位のAIインフラを運営中である。
我々も今こそ共有の設計を始めなければならない。AI高速道路は、政府が建設し民間が使うものではない。政府と民間、学界、スタートアップが共に使い、共に発展させる共同体的資産でなければならない。
◈何をすべきか
第一に、「AIエネルギー特区」を創設すべきだ。既存の規制を緩和し、電力・冷却・ネットワークを一つのパッケージとして設計できる自由な空間を提供しなければならない。沿岸部、山間地域、さらには海上プラットフォームまで考慮対象である。海水冷却、風力連携、廃熱リサイクルを一度に実験できる場所だ。
第二に、「統合設計標準」を作るべきだ。MLPerfのように、電力効率、冷却効率、ネットワーク遅延を総合的に測定するベンチマークが必要だ。この標準を満たすデータセンターのみが政府支援を受けられるようにすればよい。
第三に、「民間主導コンソーシアム」を構成すべきだ。サムスン電子、SKハイニックス、ネイバー、カカオが共に参加する「AIインフラアライアンス」が必要だ。彼らはそれぞれ半導体、メモリ、クラウド、検索において世界的技術を保有している。これらの技術を統合すれば、世界最高水準のAI高速道路を建設できる。
第四に、「データ流通エコシステム」を造成すべきだ。データの所有権と使用権を分離し、連合学習と合成データ生成を通じて、データ封建制の壁を打破しなければならない。
第五に、「インフラアーキテクト養成プログラム」を稼働すべきだ。AI時代の人材養成パラダイムを「モデル中心」から「システム中心」へと転換しなければならない。
第六に、「統合プラットフォーム構築」に着手すべきだ。数百の断片化されたパイロット事業を中断し、国家全体を網羅するただ一つのAIバックボーンプラットフォーム構築にすべてのリソースを集中しなければならない。
▲体感速度は設計から生まれる
読者の中には「結局は金の話ではないか?」と反問する方もいるだろう。その通りだ。しかし、この金は「装備の代金」ではなく、「時間の対価」である。学習サイクルを短縮し、一週間先に展開すること。同じ電力でより多くのリクエストを処理し、単価を下げること。ピーク時間帯にも遅延を守ること—すべてが時間の創り出す競争力だ。
GPUはその時間を圧縮するツールだが、時間が漏れている場所は外側にある。AI性能の90%はGPUの外部で決定される。電力・ネットワーク・ストレージが高速道路の路面、車線、インターチェンジであるならば、GPUはその上を走るエンジンだ。路面が荒れ、車線がねじれていれば、エンジンの出力はむしろ事故の確率を高めるだけだ。
▷「体感速度」は出力ではなく、設計から生まれる。
前回の寄稿①で筆者が提示した原則を再び呼び起こしたい。インフラは需要を待たない。設計が需要を創り出す。この点において、筆者の結論はやはり同じである。電力・ネットワーク・ストレージを一枚の図面にまとめ上げ、KPIを制約条件として組み込み、データと人材と制度の壁を打破した瞬間、高性能GPUは初めて真の性能を発揮する。
50年前に京釜高速道路が土地収用の困難を克服したように、今こそ我々は、データと人材、そして官僚制の壁を打ち破る「デジタル土地収用」に乗り出す勇気が必要だ。
今が最後のチャンスだ。グローバルプレイヤーたちは既に3年先を行っている。彼らが1ヶ月で成し遂げることを、我々は3ヶ月かけている。この格差は複利で開いていく。3年後には9年、5年後には25年の格差となる。
大統領室のAI首席秘書官に改めて切に提案する。AI高速道路の「三つの壁」を打破する作業を国家戦略課題に格上げし、全省庁と民間が共に設計に着手していただきたい。
50年前に我々がセメントで敷き詰めたその道のように、今こそシリコンと電子と光子で新たな道を敷く番である。その道の上を、大韓民国の次の50年が走るのだ。
▶「AI高速道路を誰が走るのか?」
答えは簡単だ。グローバルを目指す大韓民国のすべての挑戦者たちが走るだろう。彼らが走れるように、今、道を開かなければならない。それがAI時代の名分であり、使命である。
フィーザン・パーク氏は、カリフォルニア大学サンディエゴ校を卒業後、カリフォルニア州の高校教員を経て、イリノイ大学の入試審査官として勤務しました。現在は、イースタン・イリノイ大学、サウスウエスト・ミネソタ州立大学、ドイツのヨーロッパ大学の入学事務アドバイザーを務めています。また、YouTubeおよびTikTokチャンネル「ジェイソンチューブ」を運営しており、オサン大学の専任教授としても在職しています。

