今後はAI革命と円安が進みそうなので、海外のAI関連株を中心に見ていく。
・米エヌビディア
現在、「AI革命」の恩恵を最も受けている会社。AI革命は始まったばかりなので、今後も力強い成長が続きそう。ロボット分野でも膨大なチップ需要が期待できる。問題は供給過剰懸念と中国やGoogleなど競合の追い上げになる。
推論用AIチップに関しては、中国ではすでに供給超過との見方がある。ただし、学習用のハイエンドAIチップは依然として深刻な不足状態にある(11/30インフォ)。中国では最新の半導体製造装置を規制により輸入できないことなどにより、開発は難航している( 12/14インフォ)。米シンクタンクの外交問題評議会(CFR)は、米中間のAI半導体の技術力格差は今後さらに拡大すると予測している(12/24日経)。現在、中国のAI企業DeepSeekは、エヌビディア製GPUを密輸して利用している。12/10インフォ
12/24インフォにエヌビディアが、推論用半導体チップを手がける米Groqを約3兆円で”買収(技術や人材の引き抜き)”したとあった。Groq創業者はTPUの設計者なので、TPUの競合になる。TPUの原理を理解しているので、将来的にはグーグルの脅威になる可能性はある。しかし現時点では周回遅れに見えるので、エヌビディアの競争力向上は限定的になりそう。12/29インフォ
🔼・蘭ASML
最強の半導体露光装置メーカー。参入障壁が極めて高く、実質的に競合がいないところがいい。しかし、半導体の製造装置は、仕組みが非常に複雑で理解するのが大変なうえ、興味もそれほどわかないので、観察対象から外すことにした。
・米OpenAI(非上場)
11月の「Gemini3.0ショック」によりChatGPTの”天下”が終わった可能性がある。前述の通り、OpenAIは現在、AI開発において大きな壁に直面している。
一方、グーグルはこの壁を突破したもよう(11/20インフォ)。今後、両社の技術格差が拡大する可能性がある。
OpenAIが抱える最大の問題は、AIの基礎性能を高める「プレトレーニング」で成果が出にくくなっている点にある。小規模モデルでは機能していた手法が、大規模化によってバグや崩壊を引き起こし、十分に機能しなくなっているという。
最近のChatGPTの進化は、主に推論力(reasoning)の強化によるものだが、これはいわば小手先の改善に近い。AIの本質的な能力を底上げするものではなく、基礎性能が伴わなければ、実務的なパフォーマンス向上も早晩頭打ちになる。
AIモデル開発で、勝敗を分ける決定因子は、「スケールさせても性能が伸び続けるプレトレーニング能力」になる。しかし、そのプレトレーニングは次の理由から急速に難易度が上がっている。
1.高品質データの枯渇
2.モデルの大規模化によるバグや不安定化
3.既存アーキテクチャの限界(構造そのものの再発明が必要)
4.計算資源コストの指数関数的上昇
5.評価とデバッグの困難さ
*プレトレーニングの成否は途中で測定できず、推論など後工程で突然問題が顕在化するため、原因特定が極めて難しい。
グーグルはどのようにこの壁を突破したのか。
1.天才AI研究者のノアム・シャジール氏の復帰(「保有株」のところで触れたグーグルの”問題児”)
トランスフォーマーの共同発明者であり、「巨大モデルを安定して成長させる方法」を最も深く理解している研究者の一人。プレトレーニング停滞を原理レベルから修正できた。
2.モデル設計を“真のマルチモーダル前提”へ転換
従来はテキストモデルに画像理解を後付けしていたが、Gemini 3では初期のプレトレーニング段階から、画像・動画・音声を統合した。
3.データ戦略を「量」ではなく「構造と整合性」重視に転換
対照的に、OpenAIは依然として量重視の傾向が強い。
4.自社クラウド(TPU)による安定した巨大訓練環境
プレトレーニングが難しい一因は、大規模化で挙動が変わることと、バグの原因が追えないこと。TPUは訓練挙動が均質で、大規模訓練時のデバッグ速度が速い。失敗を高速に潰し、成功確率を高めることができた。
5.社内AI組織の統合
かつて競合していたBrain、DeepMind、各プロダクト研究チームが統合され、研究方向が一本化。プレトレーニングに必要な総合力が整った。
では、OpenAIは今後この壁を突破できるのか。
グーグルの事例から考えると、鍵となるのは天才研究者・高性能クラウド・潤沢な資金の3点になる。もちろん他の打開策もあり得るが、外部から見る限り、この壁は相当に厚い。
OpenAIの次世代プレトレーニング開発プロジェクト名は「Shallotpeat」とされており、その進捗が今後の最大の注目点となる。
ChatGPTの競争力低下は、致命傷になりかねない。技術リードの喪失は資金調達力を弱め、それがさらなる開発力低下を招く「負のスパイラル」に陥るリスクがある。アルトマンCEOはこの危機に対応するため、「Code Red(非常事態)」を宣言し、ChatGPT改善に全リソースを集中させている。12/1インフォ
今の流れでいくと、次回のGeminiのアップデートで勝敗が決する可能性がある。
なお、アルトマンCEOはこれまで「AIがより安価で効率的になれば、需要は指数関数的に拡大する」と述べてきた。しかし12/18インフォでは「基盤モデルが賢くなっても、ユーザー利用は以前ほど伸びていない」との認識が示されている。実際の利用は軽い質問が中心で、重い推論やDeep Research機能は大半のユーザーに常用されていないという。
アルトマン氏は「AIの勝者は巨大スケールを最速で達成した企業」という信念のもと投資を加速させているが、スケール拡大に見合う需要が立ち上がらなければ、投資回収が困難になるリスクもある。10/7インフォ
もっとも、グーグルのラリー・ペイジ氏も社内で「このレースに負けるくらいなら破産してもいい」と言っているようなので(2024/8/31NASDAQ)、まずはスケールを極限まで押し広げる戦略は間違っていないのかもしれない。
・米アンソロピック(非上場)
エンジニアから高い人気を集めるAI企業。AIの安全性を最優先する方針を掲げ、ソフトウェアの性能面でも高い評価を得ている。このような理念と実力を兼ね備えた企業こそ最終的に生き残る可能性が高い。足元の業績は絶好調。
主力AI「Claude」は特にコーディング能力に優れ、経営陣はAGI(汎用人工知能)達成に必要な条件を深く理解しているように見える。その意味で、Anthropicは有力なAGI候補企業の一つといえる。
<強化学習でAGI(汎用人工知能)は実現できるのか>
現在、トランスフォーマー構造と強化学習を組み合わせることでAGIに近づけるという見方が広がっている。実際、現行のアーキテクチャでも一部の分野では専門家レベルの性能に到達している(10/1インフォ)。
アンソロピックのアモデイCEOは、学習データ量や計算資源を増やすほど基盤モデルの性能が向上する「スケーリング則」について、「今後も継続すると確信している」と述べている。10/31日経
一方で、こうした見方に懐疑的な研究者もいる。
OpenAI共同創設者の一人であるアンドレイ・カルパシー氏は、
「AIは訓練データの範囲外の事象を本質的に推論できない」
「人間や動物のように、環境から能動的に学習できない」
と指摘し、AIが自律的に人間の仕事を代替できるようになるには「少なくとも10年はかかる」との見解を示している。
さらに同氏は、
「強化学習は正解に到達しても、その推論過程が誤っている可能性がある」
「人間のような内省的学習ができないため、AI研究そのものを自動化することはできない」
とも述べている。10/21インフォ、10/22インフォ
OpenAI共同創業者のイリヤ・スツケヴァー氏も強化学習には慎重で、
「実環境で学びながら汎用能力を獲得するAIにはなれない」
と語っている。
同氏は、AGIには単なるタスク遂行能力では不十分であり、
「実世界の中でタスクを学び取る力」、さらには人間に近い価値判断や感情に類する仕組みが必要になるとの見解を示している。AGI到達には5~20年を要すると見ている。12/1インフォ
AI研究の第一人者であり、先日メタを“クビ”になったヤン・ルカン氏も、
「LLM(大規模言語モデル)には根本的な限界がある」
と指摘している。現在のAIは事前に学習した状況には対応できるものの、人間のように未知の課題に対して新たな解決策を創出することはできない。AGIの実現には、「乳幼児のように世界を観察しながら学習する、全く新しいアーキテクチャが必要だ」と述べている。6/2日経、6/14日経
<現在のAI開発手法が抱える課題>
1.開発後に学習できない
現行の大規模AIは、追加の大規模再学習なしに新しい知識を自律的に獲得できない。継続学習が不可能であり、「経験から学ぶ能力」が欠落している。
例:医学文献に記載のない新種の腫瘍を提示されても、AIは人間のように既存知識を応用し、「新たな概念」として理解・内面化することができない。
2.汎化能力の弱さ
トレーニングデータに存在しない概念、未知のタスク、新しい問題設定に対する柔軟な一般化が苦手であり、本質的な推論ができない。そのため、医学・基礎科学における根本的なブレークスルーを生み出すことは難しい。
3.専門家依存型の学習はスケールしない
現在の性能向上は、専門家による大量の模範解答に依存しているが、人間の知識量と時間には上限がある。その上限に達すれば、AIの成長も止まる。
4.スケーリング則の限界が見え始めている
これまでの進歩は、データ量・計算資源の増加による力業だったが、この延長線上では人間並みの知能には到達しないという見方が強まっている。次のブレークスルーは、「学習の仕組みそのもの」の刷新にある。
以上を総合すると、
「現在のAIは非常に高性能だが、完成後に成長できない」という点が最大の課題になる。この壁を越えるには、経験や失敗から自律的に学習できる、全く新しいタイプのAIが必要になる。12/8インフォ
<予測市場から見たAGI到達時期>
予測市場では、AGI到達時期について以下のような見方が示されている。
・OpenAIが来年AGIを達成する確率:11~15%
・2036年以前か以後かは、ほぼ五分五分
・AGIを最初に開発する企業としては、Google DeepMindが有力との評価が多い
総じて、市場参加者は「AGIは10年以上先である可能性が高い」と見ている。
なお、予測市場は「60%と評価された事象は、実際にも約60%の確率で起きる」傾向があり、一定の予測精度を持つとされている。12/15インフォ
<AGIはいつ実現するのか—— 定義次第の結論>
AGIの到達時期は、その定義によって大きく変わる。
「感情を持ち、継続学習が可能なAGI」
「AIがAIを自律的に設計・改良できるAGI」
といった厳密な定義を採用するなら、実現時期は不透明であり、「知能爆発」がすぐに訪れる可能性は低い。
一方で、人間が現在行っている作業の99.9%を模倣できるAIが登場すれば、それは実質的に「万能」と呼べる存在であり、別の意味ではAGIとみなすこともできる。人間の行動は多くが因果パターンの集合で成り立っており、AIはそれらの学習と再現を得意とする。
この水準のAIが実現するだけでも、人間主導の研究開発は大きく加速し、ブレークスルーが生まれる確率は飛躍的に高まる。その結果として、より厳密な定義に基づくAGIへの道筋が、想定より早く開かれる可能性も否定できない。
🔼・米国市場に上場している「銅ETF」「銀ETF」「ウランETF」
銅、銀、ウランは「グリーン革命」で需要は右肩上がりだが、優良鉱山の減少や環境規制などで供給不足に陥りつつある。価格の変動がほぼ需給だけで決まるので、わかりやすいのもいい。
しかし、もうだいぶ上がってしまったので冷めてきた。
🔼・米AMD
半導体はややこしく、興味がわかないので、観察対象から外すことにする。
🔼・米インテル
同上。
・メルカドリブレ
ナスダックに上場している南米最大のEC企業。Amazon型のマーケットプレイスに加え、フィンテック事業も展開。南米は銀行口座やクレジットカードを保有していない利用者が多く、銀行口座やクレジットカードを持たない層向けに独自の決済サービスを提供している。ラテンアメリカ市場の出遅れ感から成長余地は大きい。ただし、カントリーリスクには注意が必要。
・REIT(不動産投資信託)
現在、REITのバリュエーションは歴史的な低水準にあり、「REITの黄金期が始まる」との見方が増えている。今後の経済ショックで大きな投資チャンスが訪れる可能性がある。
0 件のコメント:
コメントを投稿