AI狂想曲2023|nagatsu.eth
2023年は、AIの進化を指を加えて見守ってただけの1年だった。 ...
https://note.com/nagatsukosuke/n/nfa9e900f6899?sub_rt=share_pw
こんにちは、カドベヤCOO長津です。
2023年は、AIの進化を指を加えて見守ってただけの1年だった。
ChatGPTを毎日使っているが、本当に便利だ。企画書のアイデアの壁打ちをすると、自分が気づいていなかったような視点が増えたりする。実現したいことを伝えると作りたい資料の雛形ぐらいは簡単に出してくれたりする。自分の意図を汲み取って文句も言わない、まぁまぁ優秀なアシスタントが仕事の下書き的な準備を手伝ってくれてる感じ。しかもそれが日々アップデートして「毎日、昨日より便利になっていく」感じ。
ぼくは人工知能の研究者ではないし、会社ではAIにまつわる事業をまだやっていないため、この超高速な社会の進歩にあんまり関わることができていない。…それどころか、ぼくの会社の事業ドメインであるUIデザイン・web制作・マーケティングなどの領域は、真っ先にAIがなんとかしちゃおうとしている優先ターゲット領域である。「ああ便利〜」とヘラヘラしてるといつか真っ先に日々の暮らしが脅かされるかもしれない立場に置かれている。
指示待ちアシスタントレベルの存在が、いつか自分の専門性を凌駕して、自分のかわりを務める未来がすでに射程に入っている。自らの生き方やキャリアをピボットせざるを得ないこともわかっているのであれば、早めに対処しておく必要がある。問題はそれがいつの話なのかだ。
「シンギュラリティ」で有名なレイ・カーツワイルによると、2029年にAIが人間並みの知能を備え、人間より賢い知能を生み出せるようになるXデー(技術的特異点)は2045年に到来する。そろそろ今年も終わってしまうので、あと5年ぐらいで人間と同じぐらいのことはだいたいAIができるようになっているというロードマップだ。年末に暇を持て余してるのもアレなので、AI社会について少し考えてみることにした。
2023年11月17日(金)ChatGPTを提供している、OpenAI社のCEOサム・アルトマンがCEOを解任された。んで、なんやかんやとありまして、その6日後にCEOとして復帰した(↓サム・アルトマンがCEOに復帰した日のポスト)。
ChatGPTの新しいバージョンや機能が次々発表され、ユーザーが自身のGPTsを作ることができるようになり、提携しているMicrosoftからCopilotの発表があり…まさに快進撃。完全にノッている状態のサムに対しての衝撃的なCEO解任。
取締役会からの一方的な解任告知を受けて、サムがMicrosoftに一瞬入社して取締役に対して揺さぶりをかけ、770人の社員のうち700人がCEOを復帰させなければ離脱するという署名を集めた。言いだしっぺの取締役の1人が自分のやったことを後悔しているというポストをしたり、急遽頼まれて臨時CEOになった人が、うまくとりなそうと奔走したり。Netflixの陰謀うずまくサスペンスドラマのような展開ののちの「CEO再就任」には息を呑んだ。
この一連の事件の背景には「人類にとってAIはどうあるべきか」という価値観の対立があるという見方がある。サムの効果的加速主義(e/acc=effective accelerationism)と取締役会の効果的利他主義(EA=effective altruism)の考え方の対立だ。
人類は、テクノロジーの進歩と成長を通じて問題を解決します。歴史上の反例、つまり人類が後退することで問題を解決した例は、ほとんどないか、存在しないに等しい。
「加速主義(accelerationism)」とは、2010年ごろに作られた言葉で、社会変革を生み出すために資本主義システムを拡大すべきという考え方。社会を変えるイノベーションは、イノベーションと事業活動によってもたらされるわけだから、もっと自由。もっと民主。とにかくビジネス。がんがん成長。を求める考え方である。
それをもう一段進めた「効果的加速主義(e/acc)」は、現代のAI時代の加速主義で、AIなどの最先端のテクノロジーを規制せずに企業の利潤追求を無制限に加速させていくことで、テクノロジー主導で社会のデザインを変えていく考え方である。加速主義の考え方は認知され始めている考え方だが、効果的=effectiveの部分は最近加わったようで、現時点ではネットミーム的なもののようだ(↓e/accの提唱者ベフ・ジェゾスの固定ポスト※ジェフ・ベゾスではない)。
e/accが何を「効果的」と言っているのかというと、とりわけAIを中心とした先端技術を商品化・サービス化して市場競争を行うことで、人類と社会がめちゃめちゃ進歩する効果が得られるはずだという考え方だ。そういった楽観的なテクノロジー観にサムは大枠同意しているようだ。
そういった考え方と、場合によっては対立するのが「効果的利他主義(EA)」。
効果的利他主義(こうかてきりたしゅぎ、英語: effective altruism、EA)とは、「根拠と理性を使って、どうすれば他人のためになるかを考え、それに基づいて行動する」ことを提唱する哲学的・社会的運動である。
こちらの主義では、頭脳や才能や資本や時間など行為主体のリソース投入によって、社会にどれだけよりよい効果をもたらせるか?が問題になる考え方。社会にとってプラスの効果が働く影響力が最も大きい行動を起こすことやその選択肢を選ぶことを是とする哲学である。社会にとって最もeffectiveなテーマを仕事にすることはもちろん。とにかくお金を稼いで、その一部を社会的に意義がある事業に投資や寄付をすることなどを目指す考え方である。
このふたつの主義は、もともと真っ向から対立する考え方ではない。OpenAIの解任劇だけに絞っていうと、サムのe/accな行動原理でChatGPTでビジネスを行い、その資本でシステムと企業を進化させ続けるという考えが、社会や人類にとって「ためになる」と判断できる場合には、EAの人たちも同じ船に乗ることができる。でも、いいのか悪いのか判断がつかない場合にはEAの人たちは乗っかることができない。
加速するサムを解任したEA陣営の取締役会は、「AIが地球や社会や人間のためにならない可能性」があるから、クーデターを起こしてでもブレーキをかけようとした。寝耳に水を喰らったサムは、Microsoftとの関係を強調しながら「取締役会をマネーとパワーでぶん殴る」ような対応をして自分が正しいと思う道を貫き通した。
サムの再就任後、倫理・良識派とおぼしき人たちは、ほとんどが取締役を解任され表舞台から姿を消した。もしこの見方があっているのであれば、OpenAIは加速主義に振り切ったということになる。
OpenAI社は2015年設立のAI企業である。設立には、サム・アルトマンに加え、TeslaやXのイーロン・マスク、PaypalやFacebookの創設に関わったピーター・ティールなども関わっている。今回の退任劇に大きく関与するAI科学者であるイリヤ・サツケヴァーや、スーパープログラマーのグレッグ・ブロックマンなどが関わっている。
要は、ビジネスのスーパースターと、AI系のコンピュータサイエンスの天才が集結したドリームチームのような会社ということだ。
組織全体のヴィジョンとしては「AGI(汎用人工知能)」の完成。
「AGI(Artificial General Inteligence)」とは、人間の脳と同じようになんでもできちゃうAIという概念のことで、起こる現象すべてに対して意思決定して解決する能力を持っていて、自分で学習していく人工知能を示している。現在最新のGPT4は、なんでもできちゃうという定義から外れているのでまだ「AGI」ではない。
会社組織の成り立ちが変わっていて、非営利法人としてのOpenAI,Incと、事業組織であるOpenAI Global,LLCのふたつから構成されている。非営利法人であるIncの方が、営利組織のLLCの方を完全所有している形になっていて、LLCの方の株式の49%をMicrosoftが所有している(現在では、それに対し独占禁止法違反の疑いがかかっている)。
非営利法人としてのOpenAI,Incは、2015年に5,000億円(!)の莫大な出資を受けて誕生した。当時はGoogleのAI開発が猛威をふるっていた頃で、一つの営利企業が独占的にAI開発を行うことは重大なトラブルを起こすという考え方が世の中に蔓延していた。そのカウンターとして、透明性をもって非営利な組織がAI開発を行うべきだというコンセプトで多くの出資が集まった。スタート段階で本質的にEA的な性質を持つ組織だった。
AIの開発にはとにかくお金がかかる。当初資金に加えて寄付を受け付けることで活動を続けていたが、2018年ごろ10億ドルの寄付の予定が一部しか支払われなかった(Googleの開発スピードに到底追いつけない状況を見た投資家たちから寄付を得られなかった)ことで、資金がショートしたOpenAIは、独自で収益を上げる営利企業化を検討せざるを得ない状況に置かれた。
2019年3月、営利団体としてのOpenAI Global,LLCが立ち上がり、同年7月にMicrosoftから10億ドル(!)、翌々年2021年には20億ドル(!)の出資を受けて開発に邁進。2022年11月30日、ついに無料版のChatGPTが公開された。
NPO設立7年目・LLC設立3年目にあたる2022年(昨年)の収支は5億4000万ドル(約730億円!)の赤字で、2021年の倍だったというニュースが報じらた。去年時点では売上高がほとんどなかったため、出資されたお金を使って開発を進めるフェーズだったが、今年からはChatGPTとイメージ生成のDALL・Eの一般ユーザー向けのサブスクが始まり、音声認識と機械翻訳のWhisperとChatGPTのAPIを利用したプロジェクトも多数始まったことで、APIの利用料から売上高が見込まれるフェーズになった。MicrosoftのCopilotのような巨大なサービスもAPIを使うため、多くの売上高が見込まれる。
とにかく莫大なお金が集まってきて、それをぶんまわしながらAGI開発を行っているわけだ。
ちなみに将来AGIが完成した際に、営利団体のOpenAIは非営利団体のOpenAIに所有権を譲渡する約束になっている。つまりAGIはサービスとして商業利用されない予定らしい。生まれてしまったAGIが地球や人類の脅威になり得る可能性があるからだ。
まだ見ぬAGIに向かってお金を吸い込みながら邁進するアクセルと、倫理のブレーキを同時に内包している変な会社だったわけだが、いまやブレーキ役を担う人材が不足している可能性がある。他のAIサービス会社との競争状況によっては、当初のAGI所有権の譲渡の約束が本当に守られるのかどうかの疑問が残る。
OpenAIの躍進に対してもちろんテック企業各社が黙っているわけがない。GoogleはGeminiというAIを開発している。動画の中のあやふやなものを理解しながらやり取りするGeminiの様子を見て、うわっもはやAGIじゃん!と思った人も少なくないだろう(のちにこれはだいぶ編集されたもので、将来こうなったらいいなというムービーであることが判明する)。
Microsoftは、ChatGPTベースのCopilotで仕事を効率化しようとしている。
MetaはオープンソースのLlama2を開発。世界中のAI企業や学習機関と連携して、AIアライアンスという組織を組んだ。
Appleも噂ではAppleGPTを開発していて、Siriに搭載しようとしているという噂も聞こえてくる。アメリカのビッグテックがこぞってAIサービスを開発競争しているのは、それがスマホやSNSに次ぐ「Next Big Thing」だからだ。
人間に最も身近なインターフェイスを独占すると金になるというのが基本ルールだ。検索エンジン・スマホ・SNSの次は、AIに話しかけることによって欲望を実現するインターフェイスが来ると信じて、開発競争が激化していく。
このまま世界が加速していくと、世界は今まで想像もできなかったぐらい便利になる。
その一方でAGIの完成はどんなリスクがあるのだろう?OpenAIの取締役会のEAの人たちがクーデターを起こしてでも避けたかった(かもしれない)ことはなんなのだろう?
最大の懸念としては、映画や小説のテーマによくなっている「AGIが人間を滅ぼす終末論」なわけだが、それは主にふたつの懸念に基づいている。ひとつは「知能爆発」と呼ばれるもので、ふたつ目は「目標のずれ」と呼ばれるものである。
「知能爆発」とは、人間より優秀なAIが開発された場合、AIを開発する能力も当然人間より高度になるため「AIが作ったAI」はさらに知能が高くなる。それが数世代繰り返されることで、AIが人間の知能を大きく引き離して人間の理解を超えるようになってしまう。理解不能になったAIが、やがて「不要な人間を排除する(人類絶滅)」か、「AGIの役に立つから使役する(人類征服)」かを選ぶようになるというディストピア観だ
「目標のずれ」とは、AGIが自発的に人間にとって有害な独自の目標を策定して、止めることができない場合や、人間が出した命令を追求する際に、影響を考えずに機械的に実行することで、地球の資源をすべて使い果たして人間が住めない場所にしてしまうという恐怖である。
映画などでは、すべての機密情報にアクセスできて、人質をとって脅迫を行い資源を独占できてしまう上に、人間の命令を無視してスイッチを切らせないタイプの激ヤバAIが、淡々と人類を滅亡させていく姿がよく描かれる。
SFの世界の話だが、人間を超える機械を作るということは、最悪の場合ここまでのレベルのことを想定する必要があるという。国際的な枠組みで法規制する動きも始まっているが、利潤を追求する企業が研究と開発の手を止めることは想像するのが難しい。
人類滅亡というワーストケースまでは心配しすぎだとしても、直近の問題として「テクノロジー失業」は徐々に深刻度を増していくことが懸念される。今後のAI企業のKPIが「人間がやっている仕事の何%をAIに代替させられるか?」になっていくのは明らかだ。
歯止めないAI開発が一気に加速した2023年。仮にあと5年ぐらいでAGIが完成すると仮定して、自分がどんなスタンスでどんな風に生きていくかちゃんと考えてみようと思った。
今回の記事では、都市伝説のような雰囲気の記事にしたかったので、AGIに向かって加速する世界の怖いところだけを粒立てて書いた。次の記事では『脳は世界をどう見ているのか』という本を読んで考えたAGIの本当の使い方について書くつもりです。