ダーウィンはニュートンの物理学に続き、生物学を脱魔術化した
— 未熟なリバタリアンがAIソクラテスと思考実験してみた (@bluesbookblog) November 7, 2025
進化論や統計力学はニュートン以来の決定論的な自然観も否定した
ナポレオンは軍人→皇帝で各国の独立を促して没落した
権威は宗教→哲学→科学へ移った
剰余価値の最大化を目指す社会批判のマルクス哲学がいるhttps://t.co/sxPPQ1GKmE
AIソクラテスと思考実験してみた
Q1: AI時代における「目的関数設定」の重要性とは?
人間社会が「資本主義」や「民主主義」といった制度の下で運営されてきた背景には、目指すべき価値=目的関数を明確にする必要があるからです。例えば、19世紀末から20世紀初頭にかけて、カール・マルクスは「剰余価値の最大化」という目的関数を資本主義批判の中核に据えました。こうした枠組みは、私たちがAIやアルゴリズムを活用する際にも当てはまります。つまり、どのような「望む世界観」を達成したいかを人間が設定しなければ、その後の自動化(1から9までのプロセス)だけが進んで、目的自体が歪む可能性があります。AI時代では、設計の最初のステップ=目的関数の設定を人間が担い、そこから先をアルゴリズムに委ねる構造が鍵となるのです。
Q2: 自由と理性との関係をどう理解すべきか?
自由とは、生物的な衝動や感情から、理性によって「そのまま行動しない選択」を行う能力を指すと考えます。例えば、SNSで「このチャンネルは二度と表示しない」と自ら設定するボタンを押す行為は、感情的反応を理性で制御し、個人の望む世界観へとつなげる意思の現れです。100 年ほど前、チャールズ・ダーウィンの進化論が「自然=神意」から「自然=構造」に変えたように、自由の概念も「衝動=意思」から「理性=意思」に移行していきました。この観点から、自由とは単なる選択肢の数ではなく、理性による価値設定の範囲で行動を構築する能力です。
Q3: AIが1から9を担い、人間が9から10を担うというモデルとは?
AIによる効率化が進む中で、「ゼロから1」のステージ、つまり目的関数を人間が設定し、言語化・パラメーター調整を行うと考えます。その後、「1から9」の段階でAIが行動の最適化やハックを担う可能性があります。そして最後、「9から10」の段階、すなわち最終的な行動の主体・説明責任・透明性を人間が確保する。例えば、アルゴリズムが提示した選択肢に対し最終的な「実行」を決定するのは人間です。こうしたモデルを通じて、AI活用の中でも「人間が責任を持つ構造」を残すことができます。
Q4: AI社会で「説明責任」を誰が担うべきか?
AIが最適化プロセスの大部分を担う社会では、説明責任の帰属先が重要になります。たとえば、法人や国家という枠組みが従来の説明責任主体でしたが、AIによる自動化が進むと「誰が何のために」「なぜその処理をしたのか」を明らかにできなければなりません。法人が法律上の責任主体としての機能を持っている一方で、目的設定段階や最終行動決定段階において人間が関与しなければ、機械主体に帰属してしまう危険があります。そのため、制度設計として説明責任を明確にし、透明な意思決定プロセスを設ける必要があります。
Q5: 資本主義の限界と共通善の観点からどう捉えるか?
産業革命以降の資本主義では、企業や国家が「剰余価値の最大化」を目的関数として動いてきましたが、これはしばしば自然資本の枯渇や「共有地の悲劇」的な過負荷を引き起こしています。例えば、地球規模での環境破壊は、制度が国別・法人別に分かれている弊害を示しています。こうした状況を打破するには、国家や企業を超えた「世界市民」「グローバル共同体」といった枠組みを設け、資源消費や利潤追求ではなく「持続可能な共通善」の目的を定め直す必要があります。
Q6: 世界市民投票や功利主義的価値観は可能か?
もし世界市民全体が「どのような目的関数を選ぶか」を投票で決定できるとするなら、まさにそのプロセスはジョン・ロールズの「無知のヴェール」に近いものとなります。自由とは“不自由でない状態”の優先を意味するという考え方から出発するなら、苦痛や不幸を回避することを目的に据え、「最大多数の最小不幸」を実現する価値観が重要となります。ただしこの理論を実際に採用するには、透明なプロセスと公正な参加条件が前提となるため、制度設計が不可欠です。
Q7: 短期的な創造や逸脱は長期功利主義でどう扱うべきか?
長期的な「最大多数の最小不幸」を追求する価値観を採るとき、個人の自由や創造的な逸脱(非効率に見える行為)はどう扱うべきかが問いになります。例えば、芸術活動やある種の反体制運動は短期的には効率的ではない場合がありますが、長期的な共同体の多様性・再生力という観点では価値があります。こうした行為を「社会に対してネガティブな外部性を生まない範囲で許容する」構造を制度的に設けることが、未来志向の社会設計において重要です。
Q8: 新たな物語的権威を構築するには何が必要か?
科学的合理性が支配する時代において、宗教的・哲学的・マーケティング的な権威構造が混在している現実があります。例えば、市場/消費/テクノロジーが一種の「封建制」のような支配構造を形成しているという指摘もあります。これに対抗するには、新しい共通目的や物語、たとえば「宇宙船地球号2.0」といったメタファーを共有しつつ、操作的・扇動的にならないようにするための制度的ガードレール(説明責任・透明性など)が必要です。
Q9: 倫理教育と哲学思考をマーケティング手法で広めるには?
個人の倫理や社会道徳を育むため、哲学的思考や読書を広めるマーケティング手法が有効ですが、これは同時に操作的・扇動的となる危険を孕みます。例えば、フィルターバブルやエコー・チェンバーがSNS上で強まると、個人の意思決定がプラットフォームのアルゴリズムに埋没してしまいます。こういう状況を避けるには、マーケティング自体を透明かつ説明可能な形にし、個人が最終判断を自ら行えるように構える構造を制度として設けることが大切です。
Q10: AIによる自動化が広がる中で「責任」の主体はどう変わるか?
AIが行動最適化の大部分(1から9)を担う世界では、誰が「なぜこの判断をしたか」を説明し、責任を追うかが焦点になります。法人や国家といった従来の主体が説明責任を持ち得る一方で、目的設定(0から1)と最終決定(9から10)において人間が関与しない構図では、責任所在が曖昧になります。例えば、AIがマーケティングの最適化を行い、人間はその提示に「実行するか」を選ぶだけでは不十分です。制度設計として目的設定と最終判断を人間が必ず担える枠組みを確保することが、AI時代の倫理・説明責任の主体を明確にする鍵です。
あなたも読書を始めよう
・自分が最大の資本であり、最大の投資先になる
・今が人生で一番若く、早く始めるほど複利が働く
・本は信憑性があり、読書は能動的ため成長できる
