「AGI(汎用人工知能)」という言葉は、AI業界で最も頻繁に語られながら、最も曖昧なまま放置されてきた概念のひとつだ。Google DeepMindがこの問題に正面から向き合い、知性を構成する「10の認知能力」を特定した論文を発表した。AIの「賢さ」を測る物差しが存在しなかった業界に、初の通知表が誕生しようとしている。AGI実現への道筋は、この評価軸によってどう変わるのか。
「AGI」という言葉の曖昧さが、業界の最大のリスクだった
AGIとは、特定のタスクに特化した現在のAIとは異なり、人間のようにあらゆる知的作業をこなせる人工知能を指す。OpenAI、Google、Metaなど主要AI企業が「AGI実現」を旗印に巨額投資を続けているにもかかわらず、「どうなればAGIと呼べるのか」という定義は業界全体で一致していなかった。これは単なる言葉の問題ではない。評価基準がなければ、開発の進捗を測ることも、安全性を担保することも、規制当局が適切な政策を設計することも困難になる。Google DeepMindの今回の論文は、まさにこの「計測不能の問題」に切り込んだものだ。
知性を分解する——10の認知能力とは何か
同論文が提示したフレームワークは、認知科学(人間の思考や知覚を科学的に研究する学問分野)を基盤としている。具体的には、記憶・注意・推論・計画・言語理解・社会的認知など、人間の知性を構成する複数の要素を個別に評価する方式だ。「AIは頭がいいか悪いか」という一元的な問いではなく、「どの能力がどの程度備わっているか」を多次元で測定することを目指している。たとえるならば、テストの総合点だけでなく、国語・数学・理科それぞれの点数を見るようなアプローチといえる。現在のAIシステムはこの通知表のどこかに得意・不得意の凸凹を持ち、「全教科で満点」をとるシステムこそがAGIに近づいた存在と位置づけられる。
企業・規制当局への波及——「測れる」ことの経済的インパクト
このフレームワークが業界標準として普及した場合、影響は研究室の外にまで広く及ぶ。まず企業にとっては、自社AIシステムの強みと弱みを客観的に把握し、開発リソースの配分を最適化できる指針となる。採用・業務効率化にAIを導入しているビジネスパーソンにとっても、「このAIは推論は得意だが計画立案は苦手」といった形で、ツール選定の精度が上がる可能性がある。規制当局の側からすれば、AGI到達の判断基準が明確になることで、段階的な安全審査や開示義務の設計が現実的になる。EUのAI法をはじめとする規制の枠組みは、評価指標の整備なしには「絵に描いた餅」になりかねなかっただけに、このフレームワークは政策立案にも直接接続しうる。
課題は「誰が採点するか」——中立性と普及への壁
一方で、このフレームワークを提示したのがGoogle DeepMind自身であるという点は注視が必要だ。AGI開発競争の当事者が評価基準を設計することには、利益相反の懸念が伴う。競合するOpenAIやAnthropicがこの基準を受け入れるかどうかも不透明であり、業界横断的な合意形成には相当の時間と調整が必要になるとみられる。また、認知科学に基づくとはいえ、「社会的認知」や「創造性」といった能力をAIで測定すること自体の難しさも残る。フレームワークの理論的整合性と、実際の計測可能性の間には、まだ埋めるべきギャップが存在する。
まとめ
「AGIは近い」「まだ遠い」という水掛け論に終止符を打つための第一歩として、Google DeepMindのこの試みは確かな意義を持つ。評価の物差しが整備されて初めて、AIの「賢さ」は競争の武器から、社会が管理できる技術へと変わりうる。





