#ビル・ゲイツと考える未来の展望#AIがもたらすものとは?
— Hiroki@AIと思考実験してみた (@bluesbookblog2) March 13, 2025
2010年AIはネット上の画像を学習し、視覚を得て深層学習が可能になった
OpenAIは人間同等の特化型から①チャットボット②博士③エージェント④イノベーター⑤組織を経て、2025年に百倍の汎用型AGI、9年以内に万倍の超知性ASIを予測している
- AIと思考実験してみた
- Q1: AIが進化することで、人間の役割はどのように変わると考えていますか?
- Q2: AIと人間の関係をどのようにデザインすれば、人間が主体であり続けられると思いますか?
- Q3: AIの報酬設計を民主的に決めるために、どんな仕組みが必要だと思いますか?
- Q4: マイノリティの意見を適切に反映するためには、どんな仕組みが考えられますか?
- Q5: AIとジャーナリズムが協力することで、どんな変化が生まれると思いますか?
- Q6: AIが集めた情報の信頼性をどう担保すべきですか?
- Q7: 信頼できる情報を広めるためには、どんなインセンティブ設計が必要だと思いますか?
- Q8: AIリテラシーを向上させるためには、どんな教育が必要ですか?
- Q9: AIが進化することで、社会の分断は進むと思いますか?
- Q10: 最終的に、AIと人間の共存をどう実現すべきですか?
AIと思考実験してみた
Q1: AIが進化することで、人間の役割はどのように変わると考えていますか?
AIが進化し、汎用型AGI(人工汎用知能)やASI(超知性)が登場すると、人間がやるべきこと自体が変わってくると思います。孫正義さんが言っていたように、ASIが人間の1万倍の知能を持つなら、私たちは金魚と人間の関係のように感じるかもしれません。つまり、人間が何かを考えたり行動したりすること自体が無意味に思えてしまう可能性がある。食糧生産やインフラ整備などはAIが自動的に担う世界になるかもしれません。そんな時代が来たら、人間は何を目的に生きるのか?どう過ごすのか?という新たな課題が生まれると思います。だからこそ、ディストピアにならないためにも、「AIを主語にするのではなく、人間を主語にする」ことが大切だと考えます。
Q2: AIと人間の関係をどのようにデザインすれば、人間が主体であり続けられると思いますか?
AIは与えられた報酬を基に動くので、その「報酬の設定」がすごく重要になります。もし間違った目標をAIに与えてしまったら、意図しない方向へ暴走する可能性がある。そこで、「インザループ設計」(人間が最終決定をする仕組み)を取り入れるべきだと言われています。でも、たとえば「AIの最終決定に必ず人間が関与する」という仕組みを作ったとしても、それがうまく機能するかは分からない。むしろ、中途半端に人間が関与することで、逆にリスクを増やしてしまう可能性もあると思います。さらに、もしAIの設計や報酬設定を特定の権力者や企業が独占したら、人間の自由を奪うディストピアが生まれやすくなる。だからこそ、「AIの報酬設定をどのように決めるか」が、人類全体にとっての重要なテーマになってくると考えます。
Q3: AIの報酬設計を民主的に決めるために、どんな仕組みが必要だと思いますか?
AIの報酬を誰か一人の権力者が決めるのではなく、民主的に決める仕組みが必要だと思います。そのためには、意思決定者を複数にして、分散型のシステムを作ることが大切です。もし一部の人間がAIのルールを決めると、それが独裁的になってしまい、結果として社会に悪影響を与える可能性があります。また、従来の民主主義は「最大多数の最大幸福」を目指す仕組みですが、これが必ずしも良いとは限らない。むしろ、マイノリティ(少数派)の意見が犠牲になりやすい問題もある。だからこそ、今生きている人だけではなく、未来の世代までを考えた「最長期間の幸福」を意識した制度が必要になってくると思います。
Q4: マイノリティの意見を適切に反映するためには、どんな仕組みが考えられますか?
マイノリティの意見を反映するためには、まず「情報の収集方法」が大切になってくると思います。今のSNS(TwitterやFacebookなど)は、センセーショナルな情報や陰謀論が広まりやすいアルゴリズムになっています。こうした環境では、偏った意見が拡散されやすく、本当に多様な意見を取り入れるのが難しい。だからこそ、研究論文や参照元が明らかになっている情報、一次情報(映像・音声など)を誰でも追跡できる仕組みが求められる。そういったプラットフォームを作ることで、マイノリティの声を含めたより公平な意思決定が可能になるのではないかと思います。
Q5: AIとジャーナリズムが協力することで、どんな変化が生まれると思いますか?
AIが情報収集を担い、人間が取材や現場での検証を行うことで、ジャーナリズムの質は向上すると思います。たとえば、ネット上にある膨大なデータをAIが分析し、それをもとに記者が現場取材をする。AIはデータを整理するのが得意ですが、「実際に何が起こっているのか」を確認するのは人間の役割になります。この二つのアプローチを組み合わせることで、より正確で公平な報道が可能になると考えます。
Q6: AIが集めた情報の信頼性をどう担保すべきですか?
AIが収集した情報が本当に正しいのかは、最終的に人間がチェックする必要があります。そのためには、取材によって得られた動画や音声といった一次情報を証拠として示せる仕組みが必要です。フェイクニュースやデマが広まりやすい時代だからこそ、AIの分析結果を鵜呑みにせず、現場で確認できる記者の役割がますます重要になると思います。
Q7: 信頼できる情報を広めるためには、どんなインセンティブ設計が必要だと思いますか?
信頼できる情報を発信するジャーナリストや研究者が評価される仕組みが必要だと思います。たとえば、一次情報をしっかり提示した記事が検索エンジンで上位に表示されるような仕組みや、質の高い情報を提供した人に報酬が与えられるシステムなどが考えられます。今のSNSは「バズる情報」が拡散しやすいですが、それでは誤情報が広まりやすい。信頼性を重視する新しい情報流通の仕組みが求められると思います。
Q8: AIリテラシーを向上させるためには、どんな教育が必要ですか?
AIを正しく活用するためには、教育が不可欠です。特に、AIがどのように情報を処理するのか、その仕組みを理解することが大切です。また、AIが偏ったデータを学習すると、バイアスのかかった判断をする可能性があるため、「どんな情報が使われているのか」を見極める力も重要です。学校教育や企業研修の中で、AIリテラシーを高めるカリキュラムを導入する必要があると思います。
Q9: AIが進化することで、社会の分断は進むと思いますか?
AIの活用によって、情報の偏りや格差が拡大する可能性はあると思います。特に、AIを活用できる人とできない人の間で、大きな格差が生まれるかもしれません。だからこそ、AIをどのように運用し、どんな価値観を反映させるのかが重要になってきます。
Q10: 最終的に、AIと人間の共存をどう実現すべきですか?
AIを「支配者」ではなく「パートナー」として活用することが重要だと思います。そのためには、技術の透明性を高め、誰もがその仕組みを理解し、コントロールできる環境を作ることが必要です。
あなたも映画から学び始めよう
・自分が最大の資本であり、最大の投資先になる
・今が人生で一番若く、早く始めるほど複利が働く
・映像は視覚と聴覚で楽しめ、映画は集中力を取り戻せる
