arrow-up icon

AGIとは

AGIは正式にはArtificial General Intelligence、つまり汎用的なAIです。完全なAGIはまだ存在せず、実現にはしばらく時間がかかると目されていますが、生成AIはAGIの一部の特徴を備えています。今後、よりAGIに近づくことは間違いないかと思われます。AGIは同時に大規模なAIで、AGIの世界では、ChatGPTに代表されるような全知全能のAIを目指しています。

新聞などを読んでいると、「パラメーターが大きい」といった言葉を目にすることがあると思います。今のコンピューターサイエンスでは、パラメーターが大きい方が良いAIだという流れがあります。大きなAIを作るためには、膨大な計算資源が必要で、GPUをたくさん購入できる人が有利になる、というゲームのような状況になっています。

代表的な企業としては、OpenAI、Google、マイクロソフトが挙げられます。Metaも頑張っていますね。そして、日本のソフトバンクですが、ソフトバンクの孫さんは先ほどの図で言うと、右側のGoogleの路線を狙っていて、半導体を作り、マシンを作り、ソフトウェアも自分で開発して、すべてを自社でまかなうという戦略を掲げています。

パラメーターとは

ここで、「パラメーター数」とは何かについて少し説明してみたいと思います。

パラメーターとは、AIが学習や予測を行う際に使う「掛け算」と「足し算」に使われる数値のことです。

脳のシナプスのような写真を見たことがあるかもしれませんが、AIの構造は、脳のシナプスのように、点(丸)と線が繋がったネットワークで成り立っています。それぞれの丸の中で、受け取った数値に対して掛け算や足し算が行われ、その結果が次の丸に伝わります。

脳のモデル図とAIのモデル図
脳のモデル図とAIのモデル図
AIにおけるパラメーター
AIにおけるパラメーター

このプロセスを繰り返すことで、何と不思議、答えが出るという仕組みです。

この丸の中で行われる「掛け算」と「足し算」に使われる数値がパラメーターです。掛ける数が1つのパラメーター、足す数がもう1つのパラメーターであり、基本的に各丸の中で計算が行われると考えてください。

例えば、今主流の7000億パラメーターを持つAIでは、それらを使って丸の中で掛け算と足し算を行っています。ざっくり言うと、そんな仕組みで、AIは言葉を話せるようになっているのです。

OpenAI

OpenAIについてお話します。おそらく、多くの人々がAIに目を向けるきっかけとなったのが、GPTシリーズなのではないでしょうか。2018年に最初のモデルGPT-1が発表され、以降、毎年新しいバージョンが発表されてきました。そして、2022年11月にGPT-3.5をベースにしたChatGPTがリリースされました。

このGPT-3.5ベースのChatGPTは、人類が期待していたそれまでのAIと比較して遥かに優れており、多くの方がここからAIを使い始めたのではないかと思います。その半年後にはGPT-4が登場し、さらに1年後にはGPT-4.0がリリースされ、AIの進化が驚くべきスピードで進んでいる状況です。

Google

Googleもこの競争に負けじと取り組んできました。現在のLLM(大規模言語モデル)の基礎技術は「Transformer」というのですが、これは実はもともとGoogleが研究して開発したものです。Googleはこの分野でリードしているつもりでしたが、OpenAIが急速に進歩したせいで、社内で緊急事態が宣言されたというニュースも出ていました。以来、GoogleはAIに多くのリソースを投入し、現在はGeminiというプロジェクトに取り組んでいます。

Googleの強みは検索エンジンの存在です。AIが裏で動くことで、検索エンジンの精度が向上しますし、Googleはすでにマネタイズの仕組みを持っているので、ビジネス面ではOpenAIよりも強いと僕は考えています。しかし、GeminiとChatGPT系の競争はまだまだ続き、性能もどんどん向上していくでしょう。

Googleはまた、NVIDIAのGPUを購入する必要がないという点でも有利です。独自のハードウェアを持っているため、NVIDIAを購入するよりも低コストでこの競争に参入できているのです。ソフトバンクも、もしかしたらこのやり方を真似したいのかもしれません。

Meta

次に、Meta(Facebook)についてです。Metaは少し出遅れたため、ユーザーの獲得のためにオープンソース化しているのではないかと思っています。Metaは最近、最新のNVIDIA H100 GPUを34万個購入したという話があります*1。先ほど述べたように、1台8000万円のGPUには8枚のGPUが搭載されており、1枚あたり500万円から600万円です。34万個購入すると、それだけで約1兆7000億円になります。これはGPUだけのコストで、実際にはコンピューターの筐体やその他の設備も必要ですので、おそらく総額で2兆円から3兆円に達するでしょう。そのような巨額の資金を投入してAIモデルを作り、無料で公開しているのです。

現在のライセンスでは、Llama 3は7億人まで無料で使用できるため、日本の全人口が利用しても無料です。私たちがLlama系のAIを使う限り、Metaが何兆円もかけて作ったものを無料で利用できるという時代です。

Llama 3のパラメーター数について言えば、現在公開されているのは700億(70B)パラメーターのモデルです。私たちの社内でも主にこの70Bのモデルを使っていますが、さらに大規模な400B、つまり4000億パラメーターのモデルも開発中で、近々リリースされる予定です*2

ザッカーバーグ、大量のGPUを確保…2024年中にエヌビディアの「H100」を34万個
https://www.businessinsider.jp/post-281501decoration
ザッカーバーグ、大量のGPUを確保…2024年中にエヌビディアの「H100」を34万個

Swallow

次にSwallowプロジェクトについてです。これは東京工業大学と産業技術総合研究所が取り組んでおり、国の資金で進められています。現在、AIの学習に使われるデータの約9割が英語で、残りの1割が他言語なので日本語はほんのわずかしか含まれていません。この不足を補うために、国の資金で日本語のデータを追加学習させ、日本語対応を強化しています。先日、このSwallowプロジェクトで日本語化されたLlama 3の70Bモデルがリリースされました。

先日の新聞には、KDDIがElizaという会社に投資したという記事も出ていましたが*3、基本的には同じことをやっており、Llama 3を日本語化して商用利用向けに公開するということです。一方は国の資金で無償提供され、もう一方はKDDIが資金を投入して、おそらく有償提供されていると考えられます。

Apple

アップルもAIの分野で頑張っています。AIモデルとしては8つを公開しており、アップルの半導体「Mシリーズ」も進化しています。現在はM3が主流ですが、M4が発表され、PCではなくiPadに最初に搭載されました。今Galaxyを持っている方は、自動翻訳機能が手元で動作しているかと思いますが、こうしたエッジ側のデバイス、PCやタブレット、携帯電話でAIが活発に動く日が、もう目の前に来ていると感じます。

AGIまとめ

AGIについてまとめると、兆円単位の投資が必要なため、日本のベンチャーや大企業がこのAGIの開発競争に参加するのは難しいでしょう。1兆円を持っていても勝てない時代です。このAGIを利用するには、2つの方法があります。

1つは、ChatGPTやMicrosoftのCopilotのようにAIにリクエストして答えを得るという方法があります。これには無料のものと有料のものがありますが、ビジネスでの利用には有料のものが多く、使えば使うほどコストが上がる仕組みです。

また、データが外部に流れるリスクがあり、どれほど安全と言われていても、基本的にデータが外部に流出する可能性は否定できません。独自のAIを開発するのは難しく、データのセキュリティも問題になります。さらに、デジタル貿易赤字が増えることで、日本の富が失われることを、僕個人はとても懸念しています。

2つ目は、Metaが作っている無料のAIモデルや、さまざまなオープンなモデルを活用することがあります。これらのモデルは、ダウンロードして自分のパソコンやサーバーで利用することができます。つまり、無料のAIをさまざまな方法で活用できる時代になってきています。

この方法の特徴は、守られた自社のサーバー内で利用できる点です。自社のサーバー内で独自のデータを使い、データを外部に流すことなくカスタマイズを続けることができます。また、Metaが1兆円以上かけて開発したモデルを利用できるため、そのモデルを活用したり、他のAIモデルと組み合わせて使うことも可能です。さまざまな形でAIを活用できる時代が到来しています。


AIをビジネスにどう活かすか講座

エンタープライズAI for ビジネス&研究開発

あらゆる企業のビジネスニーズに合わせて、AIを「ビジネス」や「研究開発」に活⽤するためのコンサルティングから開発運⽤までをワンストップで提供することで、ビジネス変⾰に貢献いたします。

詳しく見る