今週の注目投資トピックは「How China’s new AI model DeepSeek is threatening U.S. dominance」元記事はこちら

以下、1月24日のCNBCの記事より引用。

A little-known AI lab out of China has ignited panic throughout Silicon Valley after releasing AI models that can outperform America’s best despite being built more cheaply and with less-powerful chips.

DeepSeek, as the lab is called, unveiled a free, open-source large-language model in late December that it says took only two months and less than $6 million to build, using reduced-capability chips from Nvidia called H800s.

The new developments have raised alarms on whether America’s global lead in artificial intelligence is shrinking and called into question big tech’s massive spend on building AI models and data centers.

In a set of third-party benchmark tests, DeepSeek’s model outperformed Meta
’s Llama 3.1, OpenAI’s GPT-4o and Anthropic’s Claude Sonnet 3.5 in accuracy ranging from complex problem-solving to math and coding.

DeepSeek on Monday released r1, a reasoning model that also outperformed OpenAI’s latest o1 in many of those third-party tests.

“To see the DeepSeek new model, it’s super impressive in terms of both how they have really effectively done an open-source model that does this inference-time compute, and is super-compute efficient,” Microsoft CEO Satya Nadella said at the World Economic Forum in Davos, Switzerland, on Wednesday. “We should take the developments out of China very, very seriously.”

DeepSeek also had to navigate the strict semiconductor restrictions that the U.S. government has imposed on China, cutting the country off from access to the most powerful chips, like Nvidia’s H100s. The latest advancements suggest DeepSeek either found a way to work around the rules, or that the export controls were not the chokehold Washington intended.

“They can take a really good, big model and use a process called distillation,” said Benchmark General Partner Chetan Puttagunta. “Basically you use a very large model to help your small model get smart at the thing you want it to get smart at. That’s actually very cost-efficient.”

Little is known about the lab and its founder, Liang WenFeng. DeepSeek was was born of a Chinese hedge fund called High-Flyer Quant that manages about $8 billion in assets, according to media reports.

But DeepSeek isn’t the only Chinese company making inroads.

Leading AI researcher Kai-Fu Lee has said his startup 01.ai was trained using only $3 million. TikTok parent company ByteDance on Wednesday released an update to its model that claims to outperform OpenAI’s o1 in a key benchmark test.

“Necessity is the mother of invention,” said Perplexity CEO Aravind Srinivas. “Because they had to figure out work-arounds, they actually ended up building something a lot more efficient.”
 

以下CNBCの記事を機械翻訳した文章を貼り付ける。

あまり知られていない中国のAI研究所が、より安価で性能の劣るチップで構築されているにもかかわらず、米国の最高レベルのAIモデルを上回る性能を持つAIモデルを発表し、シリコンバレー全体にパニックを引き起こした。

DeepSeekと呼ばれるこの研究所は、12月下旬に無料のオープンソースの大規模言語モデルを発表した。同研究所によると、このモデルは、NvidiaのH800と呼ばれる低性能チップを使用して、わずか2か月と600万ドル未満で構築されたという。

この新たな展開により、人工知能における米国の世界的な優位性が縮小しているのではないかという懸念が高まり、大手テクノロジー企業がAIモデルとデータセンターの構築に多額の費用を費やしていることに疑問が投げかけられている。

一連のサードパーティベンチマークテストでは、DeepSeekのモデルは、複雑な問題解決から数学やコーディングに至るまでの精度において、MetaのLlama 3.1、OpenAIのGPT-4o、AnthropicのClaude Sonnet 3.5を上回った。

DeepSeekは月曜日(1/20)、多くのサードパーティテストでOpenAIの最新のo1を上回った推論モデルr1をリリースした。

「DeepSeekの新しいモデルを見ると、推論時間計算を行うオープンソースモデルをいかに効果的に実現したか、また超計算効率がいかに優れているかという点で非常に印象的です」と、MicrosoftのCEOであるSatya Nadella氏は水曜日、スイスのダボスで開催された世界経済フォーラムで述べた。「中国での開発を非常に真剣に受け止めるべきです。」

DeepSeekはまた、米国政府が中国に課した厳しい半導体規制を乗り越える必要があった。この規制により、中国はNvidiaのH100のような最も強力なチップにアクセスできなくなった。最新の進歩は、DeepSeekが規則を回避する方法を見つけたか、輸出規制がワシントンが意図した締め付けではなかったことを示唆している。

「彼らは本当に優れた大規模なモデルを採用し、蒸留と呼ばれるプロセスを使用できます」と、BenchmarkのゼネラルパートナーであるChetan Puttagunta氏は述べた。「基本的に、非常に大きなモデルを使って、小さなモデルが賢くなってほしいことを賢くできるようにするのです。これは実は非常にコスト効率が良いのです。」

この研究所とその創設者である梁文峰についてはほとんど知られていない。メディアの報道によると、DeepSeekはHigh-Flyer Quantという中国のヘッジファンドから生まれ、約80億ドルの資産を運用している。

しかし、DeepSeekは進出している唯一の中国企業ではない。一流のAI研究者であるKai-Fu Leeは、彼のスタートアップである01.aiはわずか300万ドルでトレーニングされたと述べた。TikTokの親会社であるByteDanceは水曜日、主要なベンチマークテストでOpenAIのo1を上回ると主張するモデルのアップデートをリリースした。

「必要は発明の母です」とPerplexityのCEOであるAravind Srinivasは語った。「彼らは回避策を考えなければならなかったので、実際にははるかに効率的なものを作ることになったのです。」

機械翻訳文章ここまで。

中国のAI研究所のDeepSeekがわずか2か月未満で600万ドルで開発したAIモデル「DeepSeek-R1」がAIのゲームチェンジャーになる可能性があると話題である。Nvidiaの先端半導体の輸出が規制されている中国で低性能チップを使いMetaのLlama 3.1、OpenAIのGPT-4o、AnthropicのClaude Sonnet 3.5を上回るAIモデルを開発したのは衝撃的なニュースであった。

DeepSeek-R1の特徴について先端テクノロジー情報サイトのinnovaTopiaが解説している。(innovaTopia DeepSeek-R1、OpenAIを凌駕:中国発の革新的AIモデルが示す効率化の未来)

従来のAI開発ではより多くの計算リソースを投入する事が性能向上の王道とされてきた。しかし、DeepSeekは逆転の発想で限られたリソースを最大限に活用するアプローチを実現。DeepSeekが開発したMulti-head Latent Attention(MLA技術)はメモリ使用量を大幅に削減しながら高い性能を実現。OpenAIのo1と比較して15-50%という劇的なコスト削減を実現。オープンソース、MITライセンスでAPI利用料金が格安。 

DeepSeek-R1の登場で生成AIの開発・運用にはNvidia製の高性能GPUが不可欠とされていた原則が崩れ、Nvidiaの圧倒的な優位性が揺らぐ事になる。また、昨日2025年の設備投資が前年比6割増の600億~650億ドルと発表したMetaを始めとしたハイパースケーラーの巨額の設備投資も不必要であり、リターンが見込めないと市場で見られるようになると考えられる。

DeepSeek-R1の登場で日本株では、本日の前場では半導体関連株のアドバンテスト、東京エレクトロン、ソフトバンクグループ、また電線株のフジクラ、古河電気工業等が大幅に下落した。

DeepSeek-R1のようにGPUを大量に使用せずに高性能を発揮できるAIの登場は、AI開発のハードルが下がり、スタートアップ企業やリソースが限られたプレイヤーにも新たなチャンスが生まれ、また環境負荷の観点からも膨大な電力消費量の削減となりよりサステナブルなAI開発が可能になると思われる。