シンギュラリティ仮説は真面目に検討するに値しない
— 未熟なリバタリアンがAIソクラテスと思考実験してみた (@bluesbookblog) December 15, 2025
ムーアの法則は帰納的推論に過ぎず、将来も有効と言えなかった
ビックテック企業は放火魔の消防士である
放漫or警告or宣伝から自ら率先して情報技術の発展を推し進め、その情報技術こそ人間を破滅に追いやると警告しているhttps://t.co/rrZGhuAKuP
AIソクラテスと思考実験してみた
Q1: シンギュラリティ仮説はAIの未来予測として妥当か?
シンギュラリティ仮説は、人工知能が自己改良を続け、人間の知能を一気に超える転換点が来るという考え方だが、未来予測としては慎重に扱われやすい。理由は、計算能力や知能が指数関数的に伸び続けるという前提が、物理法則やコスト、エネルギー制約を十分に考慮していないからである。実際、半導体産業ではムーアの法則が長く指標とされてきたものの、微細化は熱や製造難度の壁に直面している。現在は3D化やチップレットなど別の工夫で性能を伸ばしており、連続的な改良が積み重なる状況に近い。そのため、突然すべてが跳ね上がる一点の出来事としてより、定義次第で姿が変わる仮説として捉える方が現実に合致しやすい。
Q2: ムーアの法則はなぜ「終わった」と言われるのか?
ムーアの法則が弱まったとされる背景には、トランジスタを小さくすれば性能とコストが同時に改善する時代が終わりつつある点がある。2000年代以降、微細化によって電力が下がる前提が崩れ、熱の問題で周波数を上げにくくなった。さらに最先端半導体工場の建設費は数兆円規模に達し、性能向上が価格低下に直結しなくなっている。TSMCの2nmやIntelの18Aなどは進んでいるが、High-NA EUV装置のような極めて高価な設備が必要になる。その結果、「2年で倍」という単純な経験則は崩れ、進化の軸は設計や実装へ移行している。
Q3: ビッグテックが「放火魔の消防士」と呼ばれる理由は?
巨大IT企業がAIの危険性を強調しながら開発競争を主導する姿勢は、「放火魔の消防士」と例えられることが多い。この構図は、人類全体の安全を守るという利他的な主張と、自社が主導権を握りたいという利己的な動機が重なって生まれる。高度な技術はいずれ誰かが開発するなら、自社が管理した方が安全だという論理は一見合理的に見える。一方で、リスクを強調することで規制議論を主導し、市場での優位性を保つ効果も生じる。利己と利他がねじれながら共存するメビウス状の構造が、この矛盾した立場を支えている。
Q4: AGIの制御権を誰が持つかはなぜ重要か?
汎用人工知能が社会に影響を与える段階では、制御権を誰が持つかが決定的になる。ヒューマン・イン・ザ・ループの設計を採用しても、その人間が企業、国家、国際機関のどれかで意味は変わる。企業が握れば競争と利益が優先されやすく、国家が握れば統治や安全保障の道具になりやすい。分散型の市民管理は理想的に見えるが、専門性や責任の所在が曖昧になる危険もある。制御権は単なる操作権限ではなく、失敗時に説明し、補償し、ルールを更新する主体を決める問題である。
Q5: 専門家に任せる民主主義は安定するのか?
複雑な技術社会では、専門家による判断が安定につながりやすいと考えられる。感染症対策で専門家会議が重視された例からも、知識の差が結果を左右する場面は多い。ただし、専門家に権限を集中させると、判断の偏りや利害関係の固定化が起こりやすい。民主主義が代表制を採るのは、市民全員が専門家であることを前提にしないためである。そこで重要になるのが、専門性と民主的正当性を結びつける仕組みであり、透明な選出基準と誤りを修正できる制度が安定性を左右する。
Q6: 文人型民主主義は投票制度をどう変える?
鈴木健『なめらかな社会とその敵』で示された文人型民主主義は、投票権を信頼できる他者に委任できる仕組みを提案する。この方式では、市民がすべてを理解する必要はなく、分野ごとに詳しい人物へ票を預けられる。委任はいつでも回収できるため、信頼を失えば影響力も失われる。教育水準が均一でなくても機能しやすい点が特徴だが、影響力が特定の人物に集中する危険もある。そのため、委任の履歴や重みを可視化し、固定化を防ぐ設計が制度の健全性を支える。
Q7: AIによる評価は人間理解を深めるのか?
AIを用いて理解度や態度を評価する試みは、人間理解を補助する道具になり得る。ソクラテス式問答のような対話を通じ、前提や限界を明らかにすることで、知識量だけでなく謙虚さや思考の癖を可視化できる可能性がある。一方で、評価基準そのものに偏りが入り込む危険は避けられない。数値化できるものほど重視され、測れない要素が切り捨てられる歪みが生じやすい。評価は判断を代替するものではなく、判断材料を増やす補助線として使う位置づけが現実的になる。
Q8: ヒューマン・イン・ザ・ループはなぜ形骸化する?
人間を最終判断者に置く設計でも、実運用ではAIへの依存が進みやすい。理由の一つは、時間制約や疲労の中で「機械の方が正しいだろう」と感じやすい点にある。自動運転や監視システムでは、警告が多いほど確認が省略される事例も報告されている。形骸化を防ぐには、人が介入した判断が評価される仕組みや、理由説明を求める運用が必要になる。人が握るとは、ボタンを押す権限ではなく、その結果を引き受ける立場に置かれることを意味する。
Q9: AI時代に最後まで残る仕事の条件は?
仕事を定型・非定型、認知・肉体の二軸で整理すると、産業革命ごとに代替の中心が移ってきた流れが見える。現在は非定型で認知的な業務がAIに置き換わり始めているが、最後まで残りやすいのは非定型で肉体的な仕事とされる。ただし本質は肉体ではなく、予測不能な状況で責任を引き受け、関係者の合意を作り直す役割にある。高速道路に牛が出た場合、検知よりも誰を止め、どう説明し、再発防止を決めるかが重要になる。この社会的判断は自動化しにくい。
Q10: AIと共存するために必要な態度とは?
AIと共存するためには、早い段階から使い、その癖や限界を体感的に理解する姿勢が重要になる。ハルシネーションが起きやすい場面や得意不得意を知ることで、過信も過小評価も避けやすくなる。根拠のない自信は危険だが、すべてを機械に委ねる虚無的態度も同様に問題を生む。内発的な判断力を保ちつつ、AIを道具として使う姿勢が求められる。測れるものに頼りすぎず、測れない責任や関係性を引き受ける態度が、AI時代の人間の基盤になる。
あなたも読書を始めよう
・自分が最大の資本であり、最大の投資先になる
・今が人生で一番若く、早く始めるほど複利が働く
・本は信憑性があり、読書は能動的ため成長できる
