日本でAIが流行り出した2014年~2015年の頃、
2040年代にシンギュラリティが起きるだろうという見解が多かったと記憶しています。
その後、徐々に意見が分かれるようになり、
特にchatGPT・gemini・claudeなどのLLMがリリースされてからは、
2020年代の到来を予感する声がかなり増えた印象です。
そしてLLMのスケール化・高度化、マルチモーダルAI等によって、
汎用AIに近づきつつある昨今、来年つまり2025年に到来するのではないかとの意見もちらほら見かけるようになりました。
ではシンギュラリティを起こすには、あと何の課題を突破する必要があるのでしょうか?
本題に入る前に、そもそもシンギュラリティとは何でしょうか?
一言で言えば、超人化した人工知能です。
AIが人間の脳を超越したら、人間よりも優れた知恵を出せるでしょうから、
知能指数が高くなるほど、AIをはじめ、あらゆる科学技術領域の進化スピードが猛烈に加速することが考えられます。
ひょっとしたら、AIに意識が芽生え、人間の力を借りずして自律的に賢くなっていくこともあり得ます。
意識が芽生えなかったとしても、人間の手で、AIに自律的にアップデートしていく仕掛けを導入することにより、
それが可能になるでしょう。例えば、AIに手足を付けた(かのような)エージェントを作ることで実現します。
「未知データの収集、AIモデルアーキテクチャの改善、パラメータ最適化学習、検証」といったAIを作る上での一連の工程を
AIエージェントが担当する等して自動化し、これを無限ループさせるわけです。
さて、それでは本題に移ります。
AIの課題は山積していますが、
コストを滅茶苦茶かければ、現存する最新のマシン・AIアーキテクチャでも、十分実現可能ではないかと考えます。
単純に、学習データ量・AIのパラメータサイズ・並列化するマシンの数を更にスケールさせるだけで、おそらくシンギュラリティは達成されるでしょう。
マシンスペックを半導体レベルから向上させる研究開発は世界中で行われていますし、最近ではAIの力を借りて新技術創出に向けたアイデアを出しているようですので、
小型化には限界があるでしょうが、当面はこのままムーアの法則に従って、ハードウェアの面でも性能向上が期待できるでしょう。
急速に進化する量子コンピュータや、電気代の低料金化も追い風となるでしょう。
AIや量子コンピュータを用いて全脳を解明することで、AIやマルチモーダルの設計や計算式を改善したり、省エネ化を実現したりすることも十分考えられますし、
量子コンピュータで動く量子AIモデルに改良することで、高速化も期待されます。
最大の課題は今のところデータ枯渇問題ではないかと考えます。AIを学習するには、高品質なデータを集める必要があります。
データは人間の地道な活動とともに、少しずつ蓄積されていきますので、これでは急速な進化を遂げるのを遅らせてしまうでしょう。
最近では学習用データとして、AIが生成したデータを用いることが増えています。そう、これしか解決の道はない気がします。
が、AIが未来を猛スピードでクリエイトすることができるとしたらどうでしょう。
未来の「人間の活動、言葉、マップ、政治経済、科学技術など」を、AIが素早く正確に予測・創造できるようになれば、
シミュレーション上で、10年後・100年後・1000年後・・・の未来データを収集できるのではないでしょうか。
ただ、遠い未来のデータを収集しても現代人にはチンプンカンプンでしょうが(笑)
人間がAIの進化・アウトプットに追いつけなくなる日は遠くないでしょう。
最期に、言うまでもなく倫理的な問題もありますので、シンギュラリティを起こすためには、安全性が担保されていることが前提になるでしょう。
それもAIが解決してしまうかもしれません。
株式会社ロボケンでは、刻一刻と迫るシンギュラリティに備え、様々な取り組みを行っています。
関心のある方はお気軽にメッセージ・問い合わせください。