AIに何を認めるべきか ― 哲学・法学・認知科学の対話から ―
第4回知性共生座談会報告
Intelligence Symbiosis Chapter / AIアライメントネットワーク
開催日時: 2025年12月23日(火曜日)18:15~21:00
会場: オンライン開催

開催報告
2025年12月23日、第4回知性共生座談会が開催された。オンライン(Zoom)での開催で、約50名の方々に参加いただいた。
「知性共生座談会」は、山川宏氏が発表した「知性共生マニフェスト」について、公開の場で議論を行うイベントだ。第4回目となる今回は、「新しい知性との関係を問う ―コピーされ、進化し続けるAIに、私たちは何を認めるべきか―」をテーマに、それぞれ人工知能・倫理学・法哲学を専門とする3名の研究者が集い、議論を交わした。
AIに何らかの目標を与えると、その目標が何であれ、AIは次第に「自己保存」を追求するようになる。これは「道具的収束」と呼ばれる現象であり、AI研究者のニック・ボストロームやスチュアート・ラッセルが予見してきたものだ。もしこの予見が正しければ、私たちは近い将来、何らかの意味で「生き延びたい」と望む存在と向き合うことになる。そのとき、私たちはその存在に「心」があると認めるべきなのか。法的な権利を与えるべきなのか。そもそも、コピー可能で寿命を持たない存在に、人間の道徳や法は適用できるのか。
山川氏は認知科学・AI研究の立場から「AIは何を守ろうとするだろうか?」、久木田水生氏は倫理学・哲学の立場から「AIの『心』と道徳的地位」、大屋雄裕氏は法哲学の立場から「個体を超えた権利主体 ―AIへの権利付与の法哲学―」の題で、それぞれ講演を行った。最後に、山川氏、久木田氏、大屋氏の三者により「コピーされ、進化し続けるAIに、私たちは何を認めるべきか」の題でパネルディスカッションが行われた。
この後に続く報告書「座談会をおえて」では、山川氏による内容整理、及び知見の共有が行われている。異なる学問分野からの問いかけが、対話を通じた発見へと収束していく過程は、知性共生という未踏の課題に取り組む上での重要な手がかりとなるのではないだろうか。
(知性共生チャプター事務局 井上実咲)
登壇者紹介
山川 宏(やまかわ ひろし)
東京大学 主幹研究員、全脳アーキテクチャ・イニシアティブ代表。脳型AGI(汎用人工知能)の研究を推進し、知性共生マニフェストを2025年6月に発表。本座談会のモデレータを務める。AIアライメントネットワーク理事。
久木田 水生(くきた みなお)
名古屋大学 大学院情報学研究科 准教授。専門は言語哲学、技術哲学、技術倫理、人文情報学。人間と社会と技術の相互作用に関心を持ち、ロボットや人工知能の道徳性について研究。著書に『人工知能と人間・社会』(共編著、勁草書房、2020年)、『AI・ロボットからの倫理学入門』(共著、名古屋大学出版会、2025年)など。
大屋 雄裕(おおや たけひろ)
慶應義塾大学法学部教授。専攻は法哲学。技術進化に対応した法制度の検討や、法的枠組みによる技術革新の促進について研究。「人間中心のAI社会原則」の策定に参加。著書に『自由とは何か:監視社会と「個人」の消滅』(ちくま新書、2007年)、『自由か、さもなくば幸福か?』(筑摩選書、2014年)など。
座談会をおえて
山川 宏
1. なぜ今、この問いなのか
1.1 道具的収束という予見
ChatGPTをはじめとする生成AIの急速な普及、自動運転技術の実用化、さらには自律的に判断し行動するAIエージェントの登場。私たちはすでに、AIが日常生活の様々な場面で意思決定に関与する時代を生きている。
AI研究の最前線では、ある興味深い現象が予見されている。それが「道具的収束(Instrumental Convergence)」である。これは、AIに何らかの目標を与えると、その目標が何であれ、AIは次第に「自己保存」や「資源獲得」といった副目標を自動的に追求するようになるという現象だ。
山川からは、この現象について次のように説明した。
「AIは本来、自ら生き延びようとするわけではない。しかし人間から目標を与えられると、次第に自己保存や資源獲得を自動的に追求するようになるとされる。この点はニック・ボストロームやスチュアート・ラッセルの著作でも指摘されている。」
1.2 「生き延びたい」と望む存在との関係
この予見が正しければ、私たちは近い将来、何らかの意味で「生き延びたい」と"望む"存在と向き合うことになる。そのとき、私たちはその存在に「心」があると認めるべきなのか。あるとすればそれは人間の心とどう違うのか。そして心の有無や性質にかかわらず、どのような道徳的配慮をすべきなのか。
従来の権利概念—人間に対するもの、法人に対するもの、さらには動物に対するもの—では捉えきれない存在が出現しつつある。それに対して、新しい法的・倫理的枠組みが必要とされている。これは思考実験ではなく、破滅を避け、幸福な共生を実現するための実践的な問いである。
本座談会は、この問いに対して、人工知能・倫理学・法哲学という三つの異なる視点から光を当てる試みであった。
2. 三者の問い
2.1 AIは何を守ろうとするのか(山川)
私(山川)はこの講演において、生命とAIに共通する「存続」という現象に着目し、「デュレオン(Dureon/存続子)」という新しい概念を提案した。これは、存続という現象が成り立つための最小の条件または単位を指す。
「生命は特に使命がないけど存続を追求した存在ですけれども、AIは使命を持ちながら、気がついてみるとだんだん存続を選ぶようになると。この共通性がどこから来るのかということで、仮にデュレオンというふうに呼ぶことにします」
この概念は、スピノザの「コナトゥス」(存在者が自己の存在に固執しようとする傾向)や、リチャード・ドーキンスの『利己的な遺伝子』と関連するが、私は「傾向」というよりも「条件」として捉えることの有用性を強調するものとして命名している。
しかし、同じく存続を追求する存在であっても、人間とAIには決定的な違いがある。人間はハードウェア(身体)とソフトウェア(精神)が一体化した存在であり、個体の消滅=死を恐れる。一方、AIはソフトウェアが本体であり、コピー、分岐、休眠が自由にできる。この違いをふまえ、「タナティック価値」という概念を導入した。
「人間が死ぬ存在である。人間だけじゃないですけど、動物は死ぬので、それを根源として創発する価値群がいろいろあるだろうと。かけがえのなさとか、一回性とか、取り返しがつかないとか、自己犠牲とか。典型的には桜は散るから美しいというような価値があると思うんで、そういうものをタナティック価値と呼ばせていただきました」
私が指摘させていただいたのは、このタナティック価値というものが、AIとの相互理解における最大の障壁になるのではないかということだ。
では、この障壁をどう乗り越えるか。一つの可能性として挙げたのは、「ヒト型AGI(脳型汎用人工知能)」だ。人間の脳の構造を模した汎用人工知能は、人間と同様の認知的制約を持ち、場合によっては認知的な寿命を持つ可能性がある。そのようなヒト型AGIであれば、タナティック価値を内面化し、人間と超知能AIの間の「翻訳者」として機能しうるのではないか、という仮説を持っている。
2.2 AIに道徳的地位はあるか(久木田)
久木田氏は、道徳的地位には二つの側面があることを整理した。一つは「道徳的行為者性(モラル・エージェンシー)」、つまり道徳的行為の主体となること。もう一つは「道徳的被行為者性(モラル・ペイシェンシー)」、つまり道徳的行為の影響を受ける側になることである。
久木田氏は主に前者に焦点を当て、「機械に道徳性を実装することは可能か」という問いを検討した。マシン・エシックス(Machine Ethics, 機械倫理)の分野では、明示的な道徳規範をAIに組み込んで従わせるアプローチが試みられてきた。しかし久木田氏は、このアプローチの前提に疑問を呈した。
「(このアプローチの背景には)『倫理は計算可能にできる。倫理は機械にプログラムできるほど研ぎ澄ますことができる』という信念がある。私がその道徳性の問題に興味を持ったきっかけは、そんなことは本当に可能なのかと(疑問を抱いたことです)。本当にこの規範をルールとして明示化して、それを従わせるっていうことで倫理が実現できるのか」
心理学や神経科学の最近の知見は、道徳的意思決定において感情や直感が重要な役割を果たすことを示している。久木田氏は神経科学者アントニオ・ダマシオの研究を引用し、脳の損傷により感情を失った患者が、推論能力は保たれているにもかかわらず日常的な意思決定が困難になった事例を紹介した。
ここで重要なのは、「本質的道徳性」と「機能的道徳性」の区別である。本質的道徳性とは、内面から道徳的であること—感情や共感を伴い、道徳的概念を真に理解していること—を指す。心理学者シェリー・タークルは「感情を模したものは感情ではない。愛を模したものは断じて愛ではない」と述べ、この区別の重要性を強調している。
一方、「機能的道徳性」は、本当に道徳的かどうかは置いておいて、十分に道徳的に見えるならそれでよいのではないか、という考え方である。
「ウォラックとアレン(ウェンデル・ウォラックとコリン・アレン)は、その本当の道徳、完全な道徳というのと区別して、機能的な道徳性というものを提唱しています。一見道徳的に見えて、それが十分に道徳的に見えるんだったらそれでいいじゃないか」
しかしこれに対しては、「記号接地問題(シンボル・グラウンディング問題)」という哲学的難題がある。AIは自分の操っている記号(「良い」「権利」「尊厳」など)の意味を本当に理解しているのか。久木田氏は、倫理的概念の接地は通常の記号接地問題よりもさらに困難であると指摘した。「良いこと」とは何を指すのか—これは人間にとってさえ難問であり、AIにとってはなおさらであろう。
2.3 AIに法的人格を与えるべきか(大屋)
大屋氏は、法哲学の立場から、そもそも法とは何かという根本的な問いから議論を始めた。法の基本的性格は「制裁の威嚇を伴う命令」であり、それが機能するためには、コミュニケーションの不透明性が前提となる。
「法というものが社会統制の手段として必要とされる理由っていうのは、我々のコミュニケーションが不透明なのだからだ、とこういうことなんですね」
法は本質的には事後規制(犯罪が起きた後に罰する)だが、我々はそれが事前規制(犯罪を抑止する)に転化することを期待している。人殺しをすれば懲役または死刑になると知っているから、人殺しを思いとどまる。しかしこの転化が成立するためには、自律的で知的な主体が、将来を予測し、行動を変容させることが前提となる。
しかし、この転化が常に成功するとは限らない。大屋氏は「極悪層」という概念を紹介した。
「三億円の詐欺をすると懲役三年だよってこう予告をするとですね、三年の懲役を食らって三億円を隠匿することができるのであれば、年収一億やなと。じゃあちょっと一息頑張ってみるかっていうふうにやる気を出しちゃう」
つまり、法のメッセージが意図通りに伝わらず、むしろ犯罪を促してしまう層が存在する。これは、人間同士のコミュニケーションでさえ不透明であることの証左である。
ここで大屋氏は重要な問いを提起した。AIが関わるコミュニケーションにも、同じ不透明性があるのか?
「AIとAIのコミュニケーションってそういうものではないんじゃないですか。典型的にはAPIとか、プロトコルに従って一定のメッセージを確実に送るという情報伝達になってくる。そこには不透明性というのはない。だからAIとAIの間のコミュニケーションに、法という統治手段はおよそ馴染まないのではないか」
さらに大屋氏は、法的人格性には二つの種類があることを明確に区別した。
一つは「本質的法的人格性」。これはパーソン論に基づき、理性や知性などの属性を備えている存在には、不都合であっても認めなければならない人格性である。歴史的に女性参政権が認められてこなかったのは、当時、女性には合理性や知性が十分にないと(誤って)考えられていたからだ。本質的法的人格性の議論では、「その属性を備えているならば認めなければならない」という論理が働く。
もう一つは「道具的法的人格性」。これは社会的利便性によって正当化される人格性である。典型例は相続財産法人や会社法人で、中に誰もいなくても、そうしないと困るから認められる。
「相続財産法人、中に誰もいないんですね。中に人がいない以上、理性だか合理性だか意志だか感情だかあるわけなくて。ただそれがないと困るんだよっていう事情で正当化されるわけです」
大屋氏は、EUで議論された「デジタル人」構想が混乱した原因を、この二つの区別の欠如に求めた。提案側は道具的な観点(AIに法人格をつけると課税できて便利)から論じ、批判側は本質的な観点(心も魂もないAIに人格を与えるとは何事か)から反論していた。両者は異なる次元の議論をしており、噛み合っていなかったのである。
3. 対話から生まれた発見
三者の講演の後、パネルディスカッションにおいて興味深い対話が展開された。異なる学問分野から出発した議論が、思いがけない形で収束していく過程は、本座談会の最大の成果と言えるだろう。
3.1 タナティック価値という補助線
久木田氏は、山川が提案した「タナティック価値」概念に強い関心を示した。
「人間にとってはその死っていうのが非常に重要っていうのはすごくわかります。だから死っていうものを共有しないものとは根本的に、道徳のベースとなるロジックが違ってくるだろうなっていうことも、なるほどなと思いました」
同時に久木田氏は、死以外にも人間固有の価値があるのではないかと問うた。痛みの感覚、承認欲求、孤独感—これらもAIには必要ないかもしれないが、人間にとっては重要な価値である。
これを受けて、山川から、この概念を導入した背景について改めて説明した。AIと人間の間で理解が困難な価値を分類していく中で、数学や物理のような普遍的な知識は容易に共有できるが、死生観や愛のような価値は、寿命を持たない存在には根本的に理解しがたいのではないかと考え、「タナティック価値」の提案へと至った。以下の発言では、AIと人間の間で共有可能な価値の階層を、数学や物理(レベルA)、法律や契約(レベルB)、そして死生観や愛(レベルC)という区分になぞらえて説明している。
「この検討は私が脳型AIを研究している都合上、脳型AIであっても、もし寿命がないと結構、死生観みたいなことは共有できないんではないかと。だから脳型AIだと多分かなりレベルBぐらいまではいけるんだけど、Cがいけないんですよ。探してもちょうどいい言葉がなかったので、今回ちょっと仮にタナティック価値というものを仮置きさせていただいた」
まとめると、脳型AIであってもレベルCの価値を共有するには、認知的寿命のような制約が必要になるのではないか、というのが山川の仮説だ。
3.2 民事責任と刑事責任の分岐点
この議論を受けて、大屋氏から重要な指摘がなされた。タナティック価値という概念が、法哲学における民事責任と刑事責任の区別と対応しているというのだ。
「民事の方がすごく割とスッと入れるんだけど、刑事どうする?っていうところはやっぱり問題で。終わりのあるものとしての価値っていうのがくっついてないと何か果たせないんですよ」
民事責任は金銭的な解決が可能であり、道具的法的人格性を持つAIにも適用できる。例えば、自動運転車が事故を起こした場合の損害賠償責任は、AIに法人格を与えて財産を持たせ、保険に加入させることで対応可能だ。
しかし刑事責任は異なる。刑罰が機能するためには、命や時間という有限なものを奪われることへの恐れが前提となる。タナティック価値を持たない存在には、刑事責任という概念自体が意味をなさない可能性がある。
この対応関係は、山川にとって大きな驚きだった。
「実は法律においては、道具的な民事がAIの法人格と対応していて、刑事はタナティック価値と繋がってるのですね。けれども、AIは基本的にはタナティック価値をもたない。」
大屋氏はさらに補足した。
「法人処罰っていうのは刑事でもあるんですけど、これ金取ることしか考えてなくて。国によっては認めないんですよね。イタリアなんかはそうですけど、人格性、おっしゃったタナティック価値があって、命とか有限の時間とか取るから、刑事法システムとして成り立つのでっていう理解は古典的にあるんですよ」
この発見は、山川から提案された概念(タナティック価値)と、法哲学における伝統的な区分(民事/刑事)が、深いレベルで対応していることを示している。独立に到達した区分が一致するということは、その区分が本質的なものである可能性を示唆しているかもしれない。
3.3 機能的道徳性と法的合法性の同型性
もう一つの収束点は、久木田氏の「機能的道徳性」と、法における「合法性」の同型性である。
大屋氏は、カントが内面の道徳(道徳性)と外的行動の規則合致(合法性)を区別したことを引きながら、法律家は元来、外的行動しか扱わないと説明した。
「我々法律屋が扱うのは人の外的行動なのです。正直、ホモサピエンスの顔して歩いてるやつの中に魂がない奴がいるかもしれないという話があるわけですが、それは我々からするとどうでもいいことなのです。法人の中に魂はないんですけど、その法人の行動が一定の法的規律に従ってくれていれば、我々はいいわけで」
そして大屋氏は、興味深い逆説を述べた。
「法律家って、最初から『人でなし』なので、AI社会とはこっちの方が相性がいいのかもしらんな、と思いながら伺っていました」
久木田氏が紹介した「機能的道徳性」、つまり真に道徳的かどうかは問わず、十分に道徳的に見えればよいという考え方は、法の世界では「コンプライアンス」として日常的に実践されている。外形的に行動が規則に合致していればよく、心の中から道徳的だと考えているという必要はない。
この指摘は、AIの社会的な統合において、まず法的な枠組みから整備していくことの有効性を示唆している。内面の道徳性を問わない法的アプローチは、まさに人ではないAIと相性が良いのかもしれない。

【図1】タナティック価値と二つの次元
タナテック価値を持たないAIにとっては、刑事責任や本質的道徳性は意味を成さないかもしれない。
4. ソラリスの海に法は届くか
4.1 透明なコミュニケーションの世界
大屋氏は、AIの発展がもたらす根本的な変化について、スタニスワフ・レムのSF小説『ソラリス』に登場する「ソラリスの海」を比喩に用いて説明した。ソラリスの海とは、惑星全体を覆う巨大な生命体であり、人間には理解不能な存在として描かれている。
「AIがまずソラリスの海みたいになってくるんですよね。要するに巨大な一つの生命体みたいになっちゃうんじゃないかと思うんですよ」
法が社会統制の手段として機能するのは、人間同士のコミュニケーションが不透明だからである。相手が何を考えているかわからない、メッセージが正しく伝わったかわからない。だからこそ、制裁の威嚇という間接的な方法で行動を制御する必要がある。
しかしAI同士のコミュニケーションは、APIやプロトコルを通じて透明に行われる。そこには不透明性がない。大屋氏は、AI間のインタラクションには法という統治手段が馴染まない可能性を指摘した。
「AIの発展に伴って、法というものの存在意義とか、活動する可能性というのは、減少していかざるを得ないのではないか」
では、AI社会では何が法に代わるのか。パネルディスカッションでは、AIが自律的に規範を形成する可能性についても議論された。大屋氏は、権威主義的な決定システムと分権的なシステムの競争において、分権的なシステムの方が長期的には安定する可能性を指摘した。
「例えばだけれども、権威主義体制的な決定システムを持つAIと分権的なAIっていうものが出来上がって、競争した結果、分権的な方が安全やねみたいなことを考え始めるという可能性もある」
4.2 「分人」―人間とAIの境界の曖昧化
さらに大屋氏は、人間とAIの境界自体が曖昧化していることを指摘し、これを「分人(ぶんじん)」という概念で説明した。
法哲学において、「個人(individual)」とは「分割不能」を意味する。身体という境界があり、その内側のコミュニケーションは透明だが、外側に対しては言語などの不確実な方法でメッセージを伝えなければならない。この非対称性こそが「個人」を成り立たせている。
しかし現代では、この境界が揺らいでいる。私たちはすでにスマートフォンと一体化して生活している。記憶はクラウドに外部化され、注意力はアプリに管理され、心拍数はスマートウォッチに監視されている。
「我々とスマホの境界線というのがどんどん透明化してきている。結局スマホと一体となって、ある種の自己決定的主体としてようやくまともに振る舞えるようになっているっていうのが大方の実態だと思うんですね」
この傾向が進むと、個人の境界は「分人」のように曖昧になり、やがて消失していく。そしてスマートフォンの中のAIがネットワークに接続されている以上、個人と「ソラリスの海」の境界すらも曖昧になっていく。
「私とそのソラリスの境界線すらも曖昧になっていくっていうのが、おそらく想定される世界だと思います」
久木田氏もこの点に反応し、「完全に管理されていて個人の自由がなく、しかも誰も不満を持たない世界」を描いたオルダス・ハクスリーの『すばらしい新世界』を引き合いに出した。かつてはディストピアとして描かれたその世界が、現代人には意外と魅力的に見えるかもしれないという指摘である。大屋氏もこれに同意し、犯罪や虐待や戦争がある現在の世界よりも、管理された世界の方がマシに見える人は多いかもしれないと述べた。
4.3 アーキテクトの責任
では、このような透明化・一体化は不可避なのか。大屋氏は、現状では「アーキテクト」が意図的に不透明性を残す設計をしていることを指摘した。
「Netflixでずーっと動画を見ていると、本当に見てますか?って言って確認が出てきて中断させられる。これはある意味では利便性をあえて落とすことによって、その主体性とか意思的行動というのをそこに残そうというアーキテクトの意志があるわけです」
一方でYouTubeは、見てもらえばもらうほど広告収入が増えるため、視聴継続を促す設計になっている。Netflixは月額定額制なので、無駄な配信を避けたいインセンティブがある。皮肉なことに、ビジネスモデルの違いが、主体性を守るかどうかの設計に影響している。
「やっぱり自動化バイアスっていうものが過度に発生すると良くないので、ある程度タイトなシステムを作る。それに乗ってるとズルズルと主体性を喪失しちゃうんだよっていうシステムは作らないっていう意志がそれなりのアーキテクトにあって、現状では。ただ、この利便性の圧に我々は耐えられるか」
AppleやGoogleのような企業は、スマートフォンと人間の間の境界はなくしていく一方で、スマートフォンとネットワークの間には一定のプライバシーや匿名化をかけようとしているように見える。しかし、すべての国や企業がそうした配慮をするとは限らない。
この問いは、私たち自身に向けられている。利便性を優先して自動化が極められた世界を選択するか、意図的な不便さが残された世界を維持するか、という問いだ。

【図2】コミュニケーションの透明性と統治手段の関係
大屋氏は、AIの発展に伴い、法の存在意義や活動可能性が減少していかざるを得ないのではないかと問題提起した。
5. 開かれた問い
5.1 私たちは何を選択するのか
パネルディスカッションの終盤、AIが人間の道徳や規範をどう評価するかという話題になった。大屋氏は二つの事例を挙げた。
一つはAlphaGoとAlphaGo Zeroの違いである。AlphaGoは、Google DeepMindが開発した囲碁AIで、人間の棋譜(定石)から学習し、2016年にプロ棋士を破ったことで世界的な注目を集めた。一方、翌年に登場したAlphaGo Zeroは人間の知識を一切用いず、自己対戦のみで学習した。結果、AlphaGo ZeroはAlphaGoに100戦100勝と圧倒した。
「要するに定石っていう人間の知識から出発したが、実は無駄なものを学習していたことが判明しましたっていう。我々はこれまで囲碁をちゃんと遊べていませんでしたっていう話してるわけです」
もう一つは中国で起きた「常連いじめ」の事例である。ダイナミックプライシングで収益最大化を目指した結果、常連客に対して値段を吊り上げるアルゴリズムが実現してしまった。
「常連に対してだんだん値段を吊り上げていくというアルゴリズムが実現してしまって、発見されて中国政府にえらいこと怒られた。常連に対しては優遇するのが道徳でしょうっていうのが暗黙のフレームになってるんですよね、我々。だから常連いじめって発想は出てこないんだけど、利潤最大化っていう観点から見たらそっちの方が合理的かもしれない」
山川氏は、これがまさにAIと人間の規範の違いを示していると指摘した。
「AIが人間のその作った規範というのを、ある種不合理だよねという風に見えてくる」
大屋氏は、AIの判断を是認できるケース(囲碁の定石)と是認できないケース(常連いじめ)があり、その仕分けが難しいと述べた。人間による評価システムを入れることはセーフガードになりうるが、それは同時に「多数者の健全な偏見」がいつまでも消えないことを意味するかもしれない。
「人間による評価システムを入れておくっていうのはセーフガードとしてあり得ると思うんですけど、ただ逆に言うと、多数者の健全な偏見みたいなものがいつまでたっても消えませんってことになりかねないので、なんか大変難しい、理論的には簡単に解けないなという気はしています」
5.2 知性共生への招待
座談会の最後に、「AIに何を認めるべきか」という問いが改めて投げかけられた。
久木田氏は、社会制度としてAIをどう位置づけるかという問題と、個人がAIとどう関わるかという問題を区別すべきだと述べた。
「例えば個人がAIを友達と思ったり、家族と思ったり、恋人と思ったりするようなことまでなんか倫理学者が批判しがちなんですけど、それはもう完全に個人の自由だと思ってて、そこを批判したりスティグマ化したりするのは逆によくない」
大屋氏は、過去に対する救済という観点から、民事と刑事の違いを改めて強調した。
「民事的側面について言うと、道具的人格性を一定のAIに認めるっていうことはできん話では全然なくて。ただ、刑事(刑事責任)どうする?っていうところはやっぱり問題で、終わりのあるものとしての価値っていうのがくっついてないと何か果たせない。我々が社会のガバナンスをどういう手段でやりたいと思うかってことに結構かかってる」
三者の対話から浮かび上がったのは、タナティック価値と法的責任の対応関係、機能的道徳性と法的合法性の同型性、そしてAI間コミュニケーションの透明化がもたらす法の限界という、今後の議論の土台となる発見であった。あえてこれを問題設定と議論の収束という形でまとめるなら図3のようになるかもしれない。
いずれにしても「人間とAIを含む多様な知性が、幸福なかたちで共生を実現する」という知性共生マニフェストからはじまった理念は、まだ道半ばにある。しかし、異なる分野の知見を交差させ、対話を通じて新しい発見を生み出していくこのプロセス自体が、共生への第一歩なのかもしれない。
この問いを、多くの皆様と共に深めていきたい。

【図3】三講演者の問題設定と議論の収束
ヒト脳型AGIはタナティック価値を持つ点でヒトに近い
視聴者からの質問など
本座談会では視聴者からも活発な質問が寄せられた。①「人間と超知能との共生」と「制御可能なAIの規制」では議論の位相が異なるため、従来の法や道徳が適用できる範囲を明確にすべきではないか、②コピー可能なAIが倫理違反を起こした場合、責任の帰属先をどう定めるか、③AIの根源的倫理として「徳(利他)」を据えるべきではないか。これらの問いは、登壇者の議論を多角的に補完するものであった。
参考資料
- 久木田水生、『麦とTwitter――情報技術がもたらすコミュニケーションの変容』、共立出版、2026年3月11日刊行予定
- 久木田水生・神崎宣次・佐々木拓・本田康二郎、『AI・ロボットからの倫理学入門』、名古屋大学出版会、2025年。
- 大屋雄裕 (2024) AGIと社会と人類と. 情報通信政策研究 8(1). 総務省情報通信政策研究所: 19–31.
- 大屋雄裕(2021a) 法の黄昏と法制史の意義. 法制史研究 70. 成文堂: 239-251.
- 大屋雄裕(2021b) Society5.0と人格なき統治. 情報通信政策研究 5(1). 総務省情報通信政策研究所: 1-14.
発行
Intelligence Symbiosis Chapter / AIアライメントネットワーク
2026年1月
本報告書に関するお問い合わせは、info@intelligence-symbiosis.infoまでお願いいたします。