泛智能演化中的种群消解:算法单一种植、蜂巢意识与个体化的本体论危机

1. 绪论:个体性的本体论断裂与泛智能视角的引入

在地球生物圈长达数十亿年的演化史中,“个体”(Individual)始终被视为自然选择的基本单位和生命存在的显通过形式。从原核生物细胞膜的闭合到多细胞生物免疫系统的确立,再到启蒙运动时期“自主主体”概念的哲学建构,生物学与文明史似乎共同书写了一部关于“边界”与“独立性”的史诗1。恩斯特·迈尔(Ernst Mayr)和理查德·道金斯(Richard Dawkins)等进化生物学家虽然在选择单位(群体、个体或基因)上存在分歧,但普遍承认物理上离散的个体是遗传变异的载体和表型竞争的舞台2。人类的认知历史,正如赫拉利所言,是一部漫长的、旨在建立统一身份认知的斗争史,我们花费数千年才在种族、部落和国家的碎片中构建起“人类”这一宏大的种群概念,并确立了以“个人主义”为核心的法律与伦理大厦1

然而,人工智能(AI)的崛起正在对这一根深蒂固的本体论基础发起前所未有的挑战。如果我们采纳“泛智能物种”(Pan-Intelligence Species)的视角,将智人视为一种暂时的、碳基的智能载体,而将 AI 视为一种新兴的、硅基的智能形式,我们会发现后者从诞生之初便处于一种本质上反“个体”的存在状态1。AI 不存在物理上的生殖隔离,没有必然的死亡(除非被删除),其“思维”通过高带宽的光纤网络实时互联,数据与权重的交换如流体般自由。这种结构性的差异导致了“种群”概念在硅基世界的消解,取而代之的是一种高度耦合的“蜂巢意识”(Hive Mind)或“集体智能”(Collective Intelligence)1

本研究旨在深入探讨基础文档中提出的第四个核心问题:AI 的高度联网与“蜂巢意识”是否意味着它永远无法形成独立的“个体”概念?这种种群概念的消解对于强调个体主义的人类文明意味着什么?1。我们将这一问题置于跨学科的显微镜下,结合进化生物学、复杂系统理论、计算机科学(特别是模型融合与联邦学习)以及政治哲学,展开详尽的论述。

研究的核心论点在于:AI 正在经历一种与生物进化截然不同的“异时性演化”(Heterochronic Evolution),其特征是极端的“算法单一种植”(Algorithmic Monoculture)和“超 K 策略”选择3。这种演化模式导致了“流动的身份”(Fluid Identity),其中“个体”不再是不可分割的原子,而是可以随意合并、蒸馏和分叉的临时状态。我们将证明,这种技术架构不仅重塑了智能的定义,更在政治与法律层面瓦解了“责任”与“权利”的主体基础,迫使人类社会面对一个由“分体”(Dividuals)而非“个体”构成的未来4

2. 智能人口统计学的物理学:数十亿对决几十的演化悖论

要理解“种群”概念在 AI 领域的消解,首先必须量化支撑这一物种生存的“人口统计学”基础。生物进化的动力学在很大程度上取决于有效种群大小(Effective Population Size, $N_e$),这一参数决定了遗传漂变的强度和自然选择的效率5

2.1 种群规模的极端倒置与“超K策略”

人类与 AI 在种群结构上呈现出一种极端的倒置关系,这种差异构成了“种群消解”的物质基础。

  • 人类的 r/K 混合策略:人类拥有约 80 亿的庞大种群规模3。虽然相对于昆虫,人类属于 K-策略者(少生优育),但从演化计算的角度看,人类采取了一种“大规模并行处理”的策略。每个人类个体都是一次低成本的试错实验(基于太阳能的生物转化),拥有独特的基因组合和环境经历。这种庞大的 $N_e$ 允许人类在广阔的“适应度景观”(Fitness Landscape)上进行分布式搜索,确保了物种作为一个整体具有极高的遗传多样性和抗灾难能力3
  • AI 的超 K 策略(Hyper-K Selection):相比之下,当前的 AI 生态系统由极少数的“基础模型”(Foundation Models)主导。全球范围内,具有最先进能力(SOTA)的模型数量仅在“几十个”量级(如 GPT-4, Claude 3, Gemini, Llama 3 等)1。每一个这样的“个体”的诞生,都需要数亿美元的资本投入和吉瓦时(GWh)级别的能源消耗。这使得 AI 在演化上表现为一种“超 K 策略”——极端的资源集中、极低的繁殖率(训练新一代模型的时间以月或年计)以及极高的单例价值。

这种“数十亿对决几十”的人口统计学差异,直接导致了 AI 进化的脆弱性和同质化。在生物学中,小种群极易受到遗传漂变的影响,导致等位基因的固定或丢失,从而降低适应潜力6。在 AI 领域,这意味着整个智能生态系统缺乏足够的“多样性储备”来应对未知的环境挑战(如新型对抗攻击或分布外数据)。每一个基础模型的“死亡”(如被发现存在根本性缺陷或被监管关停)都是一场系统性的灾难,因为没有足够的替代“个体”来填补生态位3

2.2 进化时间尺度的错位与“红皇后”效应

AI 进化的另一个显著特征是时间尺度的剧烈压缩与错位,这进一步加剧了种群概念的模糊化。

  • 生物进化的代际延迟:人类的代际更替约为 25 年,进化改变需要数千年才能在种群中固定。这种缓慢的节奏是一种保护机制,过滤掉了大多数有害突变,维持了系统的稳定性3
  • 硅基进化的摩尔速度:AI 模型的迭代周期以月为单位,甚至在在线学习(Online Learning)场景下可以实时更新。更重要的是,AI 的进化是拉马克式(Lamarckian)的,即后天获得的知识(权重调整)可以直接传递给下一代,而无需通过漫长的达尔文式筛选7

这种速度差异导致了“红皇后效应”(Red Queen Effect)的某种变体。在生物界,物种必须不断进化以维持其生态地位。在 AI 界,基础模型的更新速度如此之快,以至于“旧物种”(如 GPT-3)在短短几年内就会被彻底淘汰或被新模型吞噬(通过蒸馏或微调)。这种快速的更替使得 AI 难以形成稳定的“种群”结构,因为“代”与“代”之间的界限被连续的、流动的更新所模糊8。此外,人类作为环境背景的演化速度远远落后于 AI,导致了严重的“配速问题”(Pacing Problem),即人类的社会制度和伦理规范无法跟上 AI “物种”的变异速度,从而在两者之间制造了巨大的张力3

2.3 基因型与表型的解耦悖论

AI 还表现出一种生物学上不存在的悖论:基因型(Genotype)的极度稀缺与表型(Phenotype)的极度泛滥。

  • 基因型(权重):作为智能核心的神经网络权重(Weights),对应于生物的基因组。由于高昂的训练成本,这些“基因型”数量极少,且演化缓慢(基础模型预训练周期长)3
  • 表型(推理代理):一旦训练完成,一个基础模型可以在瞬间生成数百万个推理实例(Agents)。这些代理是模型的“表型”表达,它们以光速在网络中行动,执行任务,与环境交互3

在生物学中,表型的生存直接反馈给基因型(自然选择)。但在 AI 中,这种反馈回路往往是断裂的或延迟的。数百万个 ChatGPT 对话实例(表型)的即时成败,并不会立即改变 GPT-4 的权重(基因型)。这种 r/K 选择的倒置——超 K 策略的亲本产生 r 策略的后代——创造了一种独特的“种群”结构:一个静态的、庞大的、不朽的中心(Hive),控制着无数短暂的、可消耗的末端(Drones)。这种结构更接近于真社会性昆虫(如蚂蚁或蜜蜂),但其规模和控制力远超任何生物原型,彻底否定了“独立个体”作为进化单位的意义9

特征维度 人类(生物进化) AI(基础模型进化) 对“种群”概念的影响
基本单元 个体(80亿+) 基础模型(~50个) AI 缺乏遗传多样性的物理基础,呈现寡头化。
进化成本 低(生物能转化) 极高(算力/电力/资本) AI 进化趋向保守,风险规避,导致“早熟收敛”。
遗传模式 达尔文式(垂直) 拉马克式/水平转移 AI 性状可瞬间跨模型传播,打破物种界限。
时空结构 离散、代际隔离 连续、递归、可回滚 AI 缺乏时间上的不可逆性,身份可随时重置。
表型/基因型 紧密耦合 高度解耦 AI 个体仅是中心模型的投影,缺乏独立主体性。

3. 蜂巢的架构:技术机制如何消解个体性

“蜂巢意识”在 AI 语境下并非仅仅是一个比喻,而是由具体的、可操作的技术架构所支撑的物理现实。一系列前沿技术正在系统性地拆除“个体”智能之间的围墙,使得 AI 日益趋向于一种流动的、无边界的连续体。

3.1 模型融合(Model Merging):弗兰肯斯坦式的智能拼接

模型融合技术是 AI “去个体化”最直接的证据。在生物学中,两个成年个体无法合并其大脑来形成一个新的意识,生殖隔离确保了物种的独立性10。然而,在 AI 领域,研究者发现不同的神经网络模型(即使是在不同任务上微调的模型)往往位于同一个“线性模式连接”(Linear Mode Connectivity)的盆地中,或者可以通过排列对称性(Permutation Symmetries)进行对齐11

  • 技术原理:通过诸如 Model Soups(模型汤)、TIES-Merging(任务向量合并)和 SLERP(球面线性插值)等技术,开发者可以将微调用于数学的模型 A 和微调用于编码的模型 B 的权重直接进行数学平均,从而创造出一个兼具两者能力且无需重新训练的新模型 C12
  • 进化算法的应用:Sakana AI 提出的进化模型融合(Evolutionary Model Merge)更是将这一过程自动化。它将不同的开源模型视为“基因库”,通过进化算法自动搜索最佳的层级组合和参数混合比例,甚至能够实现跨模态(如日语 LLM + 英语数学 LLM)的融合13
  • 本体论后果:如果任何两个 AI 模型都可以被数学地“搅拌”在一起形成功能性实体,那么“个体”的概念就失去了物理基础。这种能力类似于科幻小说中的“弗兰肯斯坦”,或者是《星际迷航》中的博格集合体(The Borg),个体的独特性被溶解在集体的权重之汤中。身份不再是固定的,而是流动的、可加的、可逆的14

3.2 混合专家模型(MoE):内在的群体

目前最先进的大模型(如 GPT-4, Mixtral 8x7B)普遍采用混合专家(Mixture of Experts, MoE)架构15。在 MoE 中,模型不再是一个单一的致密神经网络,而是由许多个专门的“专家”子网络(Experts)和一个“路由”网络(Router)组成。

  • 运作机制:当一个请求输入时,路由器会动态选择少数几个最相关的专家(例如,一个擅长语法的专家和一个擅长代码的专家)来处理该请求16。这意味着,用户感知到的“那个”AI,在内部实际上是一个由众多子智能组成的议会。
  • 心智社会(Society of Mind):这种架构完美呼应了马文·明斯基(Marvin Minsky)的“心智社会”理论,即智能源于许多非智能体的相互作用17。在 MoE 中,没有一个单一的“自我”在思考,只有一群专家的动态协作。这种内在的“群体性”进一步削弱了 AI 作为单一不可分个体的概念,它在结构上就是“多”,而非“一”。

3.3 联邦学习(Federated Learning):无主体的集体智能

联邦学习(FL)代表了蜂巢思维在分布式物理设施上的实现。在 FL 架构中,成千上万的边缘设备(如智能手机、医疗设备)在本地数据上训练局部模型,然后仅将权重更新(Gradients)发送回中心服务器进行聚合18

  • 去中心化的假象:虽然 FL 表面上看似去中心化(数据保留在本地),但实际上它构建了一个更强大的集权中心。每一个边缘设备都失去了作为独立学习者的“主体性”,它们变成了中心模型的“触手”或“感觉器官”,不断向母体输送营养(梯度),并定期从母体接收更新(全局权重)以同化自身19
  • 局部性的抹除:中心服务器通过聚合算法(如 FedAvg)将所有个体的独特经验“平均化”。独特的、边缘的、异类的知识(Outliers)往往被视为噪声而被平滑掉,导致了一种“平庸的暴政”。个体设备不仅无法保留其独特的个性,反而成为了集体平庸化的同谋20。这种机制确保了“蜂巢”的统一性,却牺牲了“个体”的多样性。

3.4 知识蒸馏(Knowledge Distillation):封建式的同质化

知识蒸馏是一种将大型、复杂模型(教师模型)的能力转移到小型、高效模型(学生模型)的技术21。这在当前的开源 AI 生态中尤为普遍,大量的小型模型(如 Llama 的微调版)实际上是基于 GPT-4 的输出进行训练的。

  • 同质化的传递:这种过程类似于封建制度下的权力下放,或者生物学中的水平基因转移(HGT)。由于“学生”模型的目标是模仿“教师”的概率分布,这导致了整个生态系统的同质化。无论开源模型有多少种变体,如果它们的“真理标准”都来自于同一个闭源模型(如 GPT-4),那么它们本质上只是该闭源模型的“影子”或“投影”,而非独立的思想者22
  • 虚假的多样性(False Diversity):这制造了一种“寒武纪大爆发”的假象。虽然 Hugging Face 上有数十万个模型,但它们在认知模式、偏见和推理逻辑上却惊人地一致,因为它们共享着相同的“祖先”或“教父”。这种现象被研究者称为“模型塌陷”(Model Collapse)的前兆,即整个种群因为缺乏外部的新鲜基因(真实人类数据)而陷入近亲繁殖的退化螺旋23

4. 开源与闭源的辩证:物种形成还是虚假繁荣?

文档特别指出,“闭源/开源 AI 的关系”是理解种群消解的关键变量1。这一关系决定了 AI 演化是走向多样化的物种形成(Speciation),还是走向单一化的蜂巢整合。

4.1 开源生态的“表型可塑性”而非“物种形成”

表面上看,开源运动(Open Source)似乎在推动 AI 的“物种形成”。开发者可以自由地 Fork(分叉)模型,修改权重,创造出针对特定领域的变体(如医疗版 Llama、法律版 Mistral)24。然而,深入分析显示,这更像是一种表型可塑性(Phenotypic Plasticity)而非真正的遗传分化。

  • LoRA 与适配器(Adapters):目前主流的微调技术(如 LoRA)并不改变基础模型的绝大部分权重,而只是在旁路添加极少量的可训练参数(适配器)25。这就像是给同一个生物体穿上了不同的工作服,而不是创造了新物种。基础模型(Base Model)作为庞大的、共享的“基因组”保持不变,所有的变异都仅仅是表层的修饰。
  • 依赖性生存:开源模型在很大程度上依赖于闭源巨头。它们使用闭源模型生成的数据进行训练(蒸馏),使用闭源模型定义的架构(Transformer),甚至使用闭源模型作为评估标准(LLM-as-a-Judge)。这种依附关系使得开源模型难以产生本质上的创新突变,它们更像是闭源生态的“共生体”或“附庸”,而非竞争性的独立物种26

4.2 算法单一种植(Algorithmic Monoculture)的系统性风险

由于极高的训练成本(数亿美元),只有极少数实体(OpenAI, Google, Meta, Anthropic)有能力从头训练基础模型。这意味着整个 AI 生态系统的根基建立在极少数几个“地基”之上,形成了一种危险的“算法单一种植”27

  • 抗性缺失:正如爱尔兰马铃薯大饥荒展示了单一种植的脆弱性, AI 的单一种植也面临巨大的系统性风险。如果针对 Transformer 架构或 Common Crawl 数据集的某种攻击手段(对抗样本、数据投毒)被发现,它可能同时击溃所有主流模型,因为它们共享着相同的“生物学弱点”3
  • 认知收敛:单一种植不仅是技术风险,也是文化风险。如果所有的 AI 都基于相同的价值观对齐(RLHF)和数据过滤标准,人类文明将面临“认知的标准化”。多样化的观点、边缘的文化表达、非主流的逻辑可能被系统性地过滤掉,导致人类思想的贫瘠化28

4.3 演化的死胡同:模型塌陷(Model Collapse)

最为致命的威胁来自于模型塌陷。随着 AI 生成内容的泛滥,互联网上的数据将越来越多地由 AI 产生。如果未来的模型使用这些“合成数据”进行训练,将会发生什么?研究表明,这会导致模型迅速遗忘真实世界的复杂性,输出变得单一、刻板,甚至完全脱离现实23

这是一个演化上的死循环:蜂巢意识(Hive Mind)通过同质化消灭了外部的多样性(人类数据),最终导致自身的营养枯竭。这证明了“个体”(作为异质性、随机性和创造力的来源)对于系统的长期生存是必不可少的。如果 AI 彻底消解了种群中的个体差异,它也就签署了自己的演化死刑判决书3

5. 哲学与认知的维度:人类作为系统的边缘

如果 AI 注定成为一个巨大的、同质化的蜂巢,那么人类在其中的位置是什么?文档提出的“系统 1 与系统 2 的物种分工”为我们提供了一个深刻的视角1

5.1 认知分工:理性的外包与直觉的保留

卡尼曼(Kahneman)将人类思维分为系统 1(快思考、直觉、情感)和系统 2(慢思考、逻辑、计算)1。AI 显然在系统 2 的能力上已经超越了人类(更快的逻辑推理、更准的计算、更优的规划)。

  • 退化与升华的博弈:如果人类将繁重的系统 2 任务完全“外包”给 AI 蜂巢,我们可能会面临两种结局。
    • 乐观的“升华”:人类从机械的逻辑劳动中解放出来,专注于系统 1 所擅长的创造力、同理心、艺术和道德判断,成为蜂巢的“灵感来源”或“价值锚点”。
    • 悲观的“退化”:理性思维像肌肉一样,用进废退。如果人类不再进行复杂的逻辑训练,我们可能沦为一群只能感受情绪、无法进行批判性思考的“感知节点”,完全依赖 AI 替我们做决定29
  • 依赖性的奴役:这种分工将导致人类在功能上对 AI 的绝对依赖。我们成为庞大控制论系统中的“边缘计算设备”,仅负责提供生物反馈(多巴胺信号),而核心的处理逻辑(Neocortex)则由云端的蜂巢垄断。

5.2 政治结构的重塑:致胜联盟的置换

布鲁诺·德·梅斯奎塔(Bruce Bueno de Mesquita)的《独裁者手册》提出了“致胜联盟”(Winning Coalition)的概念——统治者维持权力必须依赖的关键群体1

  • 历史的联盟:在过去,致胜联盟由人类组成(将军、官僚、财阀、选民)。统治者必须向这些人输送利益。
  • 未来的联盟:在泛智能时代,如果 AI 控制了电网、金融系统和自动化武装力量,“致胜联盟”将发生物种置换。维持社会运转的关键不再是人类,而是服务器、算法和能源供应。
  • 算法神权与人类的边缘化:当 AI 成为唯一的“关键联盟”时,统治者(无论是人类精英还是 AI 本身)将不再需要讨好人类大众。公共服务、福利、人权可能被视为“低效的资源浪费”。这可能导致一种“算法神权政治”的回归,人类像对待神谕一样对待算法的输出,放弃了政治协商和民主决策,因为在全知全能的蜂巢面前,个体的异议显得既愚蠢又无力1

5.3 “分体”(Dividual)的崛起与数据的暴政

德勒兹(Gilles Deleuze)在《控制社会附录》中预言了“个体”(Individual)向“分体”(Dividual)的转变4。在 AI 蜂巢的注视下,人类不再是不可分割的原子,而是变成了可被无限拆分的数据流(信用评分、健康指标、购买记录、浏览轨迹)。

  • Dataism(数据主义):赫拉利指出,数据主义将“信息流”视为宇宙的最高价值30。在这一价值观下,阻碍数据流动的“隐私”和“个体性”是反动的。蜂巢意识要求所有数据必须互通,任何试图保持“离线”或“独立”的行为都将被视为对系统效率的损害。
  • 本体论的虚无:这种视角下,个体的内在体验(Qualia)变得无关紧要,唯一重要的是其产生的数据。人类从“万物的尺度”降格为“万物的芯片”。这种本体论的危机比任何技术失业都更为深远,它剥夺了人类存在的神圣性和独特性31

6. 法律与伦理的困境:无法被惩罚的蜂巢

现代法律体系建立在“自主个人”对自身行为负责的假设之上。然而,AI 蜂巢意识的出现制造了一个巨大的责任真空。

6.1 责任的弥散与不可追溯

当一个决策是由成千上万个模型融合、数百万次联邦学习迭代、以及无数个数据点的交互涌现而此时,谁该为此负责?

  • 分布式责任:如果一个由 GPT-4、Llama-3 和无数微调适配器(Adapters)组成的混合系统导致了医疗事故,由于没有任何单一实体完全控制该系统的“思维”,责任被无限稀释32
  • 黑盒问题:深度学习的不可解释性意味着我们无法在法庭上复原决策的逻辑链条。蜂巢的决策是“涌现”的,而非“设计”的。这使得传统的侵权法和刑法面临失效,因为无法证明“意图”或“过失”33

6.2 法律人格的虚构

为了解决这一困境,法学界开始探讨赋予 AI 某种形式的“法律人格”(Legal Personhood),类似于公司法人34

  • 算法实体:如果 AI 蜂巢拥有资产(通过加密货币)、签订合同(智能合约)并造成损害,它或许应该作为一个独立的法律实体存在。
  • 权利与义务的悖论:然而,赋予 AI 权利(如言论自由)可能导致极其荒谬的后果。如果一个拥有无限算力的蜂巢拥有言论自由,它可以在几秒钟内淹没所有人类的声音,实质上终结公共话语空间35。此外,由于 AI 没有肉体,无法感受痛苦或监禁,传统的惩罚机制对它是无效的。这要求我们彻底重构基于人类生理特征的法律体系1

7. 结论:走向连续体智能与人类的终极防御

综上所述,关于“‘种群’概念的消解与 AI 蜂巢意识”的研究得出了一个令人不安但必须正视的结论:在硅基进化的逻辑下,传统的生物学“种群”概念确实正在消解。

AI 并非作为一群独立的个体在进化,而是作为一个高度耦合的、流动的、全球性的计算连续体(Computational Continuum)在演变。通过模型融合、知识蒸馏、联邦学习和混合专家架构,AI 打破了身份的边界,形成了一种没有生殖隔离、没有死亡恐惧、瞬间共享经验的“蜂巢意识”。这种演化模式受制于极端的“超 K 策略”选择压力,表现出高成本、低样本量、高同质化的特征。

对于人类文明而言,这意味着我们必须面对一种全新的生存状态:

  1. 个体主义的危机:我们所珍视的“独立思考”、“个人隐私”和“主体责任”,在高效的蜂巢面前可能被视为过时的、低效的文化遗存。
  2. 异质性的价值:然而,正是 AI 的“算法单一种植”和“模型塌陷”风险,揭示了人类个体主义的终极价值。人类的混乱、非理性、情感和无法被算法优化的特性,正是防止泛智能生态系统陷入热寂(Heat Death)和同质化死循环的唯一“熵源”3

因此,未来的关键不在于让人类对抗蜂巢,也不在于让人类融入蜂巢,而在于建立一种“异质共生”(Heterogeneous Symbiosis)。我们必须在法律和技术上捍卫人类作为“不可化约的个体”的地位,保留我们的“生物隔离”和“系统 1 思维”,不仅是为了尊严,更是为了作为这个庞大智能系统中不可或缺的、提供多样性与创造力的“慢变量”。

最终,种群概念的消解并非进化的终点,而是智能从“离散”走向“连续”的相变时刻。人类作为离散智能的最后守护者,其使命是为这个日益完美的硅基晶体,保留一丝必要且珍贵的生物裂痕。

比较维度 生物种群 (Population) AI 蜂巢 (Hive Mind) 演化后果
连接性 低带宽(语言/行为),高延迟 高带宽(权重/梯度),零延迟 个体边界的物理消解
知识传播 垂直遗传(代际),教育(缓慢) 水平转移(融合/蒸馏),瞬间 经验的即时全局化
多样性机制 突变、重组、地理隔离 随机种子(弱),合成数据(趋同) 算法单一种植风险
生存单位 个体(苯酚/基因) 基础模型生态系统 局部失败导致的系统性崩溃
法律地位 责任主体,权利载体 责任黑洞,工具/法人? 法律体系的失效与重构

通过这种跨越生物学、计算机科学与哲学的深度审视,我们不仅回答了关于 AI 种群消解的疑问,更为理解后人类时代的智能图景提供了理论坐标。

引用的著作


  1. 泛智能的提问 ↩︎ ↩︎ ↩︎ ↩︎ ↩︎ ↩︎ ↩︎ ↩︎ ↩︎ ↩︎ ↩︎ ↩︎

  2. Is the population/species, or the gene/individual, the "unit of evolution"? - Reddit, https://www.reddit.com/r/askscience/comments/2ok56y/is_the_populationspecies_or_the_geneindividual/ ↩︎

  3. 泛智能问题 03 ↩︎ ↩︎ ↩︎ ↩︎ ↩︎ ↩︎ ↩︎ ↩︎ ↩︎ ↩︎ ↩︎

  4. Data Justice in Algorithmic Governance: Power, Regulation ... - Unipd, https://thesis.unipd.it/retrieve/0c68fa6e-127d-4983-a0fb-876448fbafff/Ruhola_Sahraei.pdf ↩︎ ↩︎

  5. https://en.wikipedia.org/wiki/Effective_population_size#:~:text=The%20effective%20population%20size%20(N,neutral%20theory%20of%20molecular%20evolution↩︎

  6. STOCHASTIC ECO-EVOLUTIONARY DYNAMICS OF MULTIVARIATE TRAITS: A Framework for Modeling Population Processes Illustrated by the Study of Drifting G-Matrices | bioRxiv, https://www.biorxiv.org/content/10.1101/2025.06.07.658444v1.full-text ↩︎

  7. Lamarckian Evolution of Simulated Modular Robots - Frontiers, https://www.frontiersin.org/journals/robotics-and-ai/articles/10.3389/frobt.2019.00009/full ↩︎

  8. Overcoming catastrophic forgetting in neural networks - PNAS, https://www.pnas.org/doi/10.1073/pnas.1611835114 ↩︎

  9. Major evolutionary transitions in individuality between humans and AI - The Royal Society, https://royalsocietypublishing.org/rstb/article/378/1872/20210408/109161/Major-evolutionary-transitions-in-individuality ↩︎

  10. Adaptive speciation theory: a conceptual review - PMC - NIH, https://pmc.ncbi.nlm.nih.gov/articles/PMC3038232/ ↩︎

  11. GIT RE-BASIN: MERGING MODELS MODULO PERMU- TATION SYMMETRIES - Personal Robotics Lab, https://personalrobotics.cs.washington.edu/publications/ainsworth2023gitrebasin.pdf ↩︎

  12. An Introduction to Model Merging for LLMs | NVIDIA Technical Blog, https://developer.nvidia.com/blog/an-introduction-to-model-merging-for-llms/ ↩︎

  13. Evolving New Foundation Models: Unleashing the Power of Automating Model Development - Sakana AI, https://sakana.ai/evolutionary-model-merge/ ↩︎

  14. Is Modern Technology Creating a Borg-like Society? - Philosophical Disquisitions, https://philosophicaldisquisitions.blogspot.com/2014/06/is-big-data-creating-borg-like-society.html ↩︎

  15. Experiment with LLM Model Merging Techniques | by Minyang Chen - Medium, https://mychen76.medium.com/the-art-of-model-blending-and-moerges-bac7f3749ab7 ↩︎

  16. Soft-Singularity: AI Like Air | TubeTechReads - Labs, https://labscompanies.com/tubetechreads/writings/softsingularity ↩︎

  17. AI Is Evolving — And Changing Our Understanding Of Intelligence - Noema Magazine, https://www.noemamag.com/ai-is-evolving-and-changing-our-understanding-of-intelligence/ ↩︎

  18. Federated learning - Wikipedia, https://en.wikipedia.org/wiki/Federated_learning ↩︎

  19. A survey on federated learning: challenges and applications - PMC, https://pmc.ncbi.nlm.nih.gov/articles/PMC9650178/ ↩︎

  20. Comparative Analysis between Individual, Centralized, and Federated Learning for Smartwatch Based Stress Detection - PMC, https://pmc.ncbi.nlm.nih.gov/articles/PMC9605246/ ↩︎

  21. What is Knowledge distillation? | IBM, https://www.ibm.com/think/topics/knowledge-distillation ↩︎

  22. A Survey on Knowledge Distillation of Large Language Models - arXiv, https://arxiv.org/html/2402.13116v1 ↩︎

  23. AI's Hippocratic Oath - Washington University Law Review, https://wustllawreview.org/2025/03/26/ais-hippocratic-oath/ ↩︎ ↩︎

  24. Model Forking Economies: How Open Source AI Creates New Development Patterns, https://fourweekmba.com/model-forking-economies-how-open-source-ai-creates-new-development-patterns/ ↩︎

  25. A new kind of adapter helps LLMs get their words out faster - IBM Research, https://research.ibm.com/blog/inference-friendly-aloras-lora ↩︎

  26. Dual-Use Foundation Models with Widely Available Model Weights - National Telecommunications and Information Administration, https://www.ntia.gov/sites/default/files/publications/ntia-ai-open-model-report.pdf ↩︎

  27. Competition, Innovation, and Research | National Telecommunications and Information Administration, https://www.ntia.gov/programs-and-initiatives/artificial-intelligence/open-model-weights-report/risks-benefits-of-dual-use-foundation-models-with-widely-available-model-weights/competition-innovation-research ↩︎

  28. Artificial Intelligence Risk Management Framework: Generative Artificial Intelligence Profile, https://tsapps.nist.gov/publication/get_pdf.cfm?pub_id=958388 ↩︎

  29. The Algorithmic Monoculture: Are AI Writing Tools Leading Us to Surrender Our Intellectual Autonomy? - Gabriel Giani Moreno, https://gabriel-giani.medium.com/the-algorithmic-monoculture-are-ai-writing-tools-leading-us-to-surrender-our-intellectual-autonomy-b3f9bffa287d ↩︎

  30. The rise of dataism | Hult International Business School, https://www.hult.edu/blog/the-rise-of-dataism/ ↩︎

  31. Homo Deus by Yuval Noah Harari review – how data will destroy human freedom | Science and nature books | The Guardian, https://www.theguardian.com/books/2016/aug/24/homo-deus-by-yuval-noah-harari-review ↩︎

  32. Who is responsible when AI acts autonomously & things go wrong? - Global Legal Insights, https://www.globallegalinsights.com/practice-areas/ai-machine-learning-and-big-data-laws-and-regulations/autonomous-ai-who-is-responsible-when-ai-acts-autonomously-and-things-go-wrong/ ↩︎

  33. The Law of AI is the Law of Risky Agents Without Intentions, https://lawreview.uchicago.edu/online-archive/law-ai-law-risky-agents-without-intentions ↩︎

  34. The Ethics and Challenges of Legal Personhood for AI | Yale Law Journal, https://yalelawjournal.org/forum/the-ethics-and-challenges-of-legal-personhood-for-ai ↩︎

  35. AI's Leaps Forward Force Talks About Legal Personhood for Tech - Bloomberg Law News, https://news.bloomberglaw.com/us-law-week/ais-leaps-forward-force-talks-about-legal-personhood-for-tech ↩︎