随着加工技术的提高,在眼用镜片(框架镜、角膜接触镜、巩膜镜、人工晶状体)的光学设计中可以使用衍射产生更多的变化,例如多焦点镜片。计算全息的方法是一种很好的设计衍射结构的方法。所以令Gemini进行了概述
本概述所有的参考文献已经放入notebookLM中:计算全息算法概述 供进一步参考与问答。
第一部分:计算全息的基础
计算全息(Computer-Generated Holography, CGH)是一项通过数值计算来模拟光的干涉与衍射过程,从而生成全息图的技术 1。与需要物理物体进行光学记录的传统全息术不同,CGH能够为虚拟或不存在的物体创建全息图,这极大地扩展了其应用范围,使其成为实现理想三维显示最有前景的技术之一 2。然而,从诞生之初,计算全息领域的发展就围绕着几个核心挑战展开,这些挑战不仅定义了其技术瓶颈,也催生了算法的不断革新。
1.1 历史里程碑:从光学记录到数字合成
全息术的历史始于1947年,物理学家丹尼斯·盖伯(Dennis Gabor)为提高电子显微镜的分辨率而发明了这项技术,并因此在1971年荣获诺贝尔物理学奖 2。盖伯的初始方案被称为“同轴全息”,其参考光与物光沿同一轴线传播,导致再现时物体的实像和虚像(即“孪生像”)会重叠,严重影响成像质量 3。
这一根本性问题在20世纪60年代得到了解决。1962年,埃米特·利思(Emmett Leith)和尤里斯·乌帕特尼克斯(Juris Upatnieks)利用激光作为相干光源,提出了“离轴全息”技术 2。通过引入一个与物光束有一定夹角的参考光束,他们成功地在空间上分离了孪生像,极大地提高了全息图的实用性,为三维显示奠定了基础 2。
然而,全息术的真正革命发生在1966年,布朗(B. R. Brown)和洛曼(A. W. Lohmann)开创性地提出了计算全息(CGH)的概念 4。他们意识到,全息图本质上是一个复杂的干涉图样,这个图样完全可以通过物理光学定律在计算机上进行数值模拟和计算,而无需真实物体的存在 5。这一思想的转变是颠覆性的,它将全息术从一门实验光学技术转变为一门计算科学。从此,人们可以为任何计算机模型(无论是真实的还是虚构的)生成全息图,这为三维显示、光学元件设计、数据存储等领域打开了全新的大门 2。CGH的诞生标志着一个新时代的开始:全息内容可以被编程、修改和优化,摆脱了物理世界的束缚。
1.2 核心物理原理:波前重建的物理学
所有计算全息算法的理论基础都源于两个核心的物理现象:光的衍射(Diffraction)和光的干涉(Interference) 6。理解这两个概念是掌握CGH算法原理的关键。
-
衍射:根据惠更斯-菲涅耳原理,波前上的每一点都可以被视为一个新的球面子波源。光在传播过程中遇到障碍物或孔径时,会偏离直线传播路径,绕过障碍物边缘继续传播,这种现象就是衍射 7。CGH正是利用了衍射原理,通过一个精心设计的衍射元件(即计算出的全息图),来精确地弯曲和塑造照明光的波前 8。
-
干涉:当两束或多束相干光波(频率相同、相位差恒定)在空间中相遇时,它们的振幅会发生叠加,形成新的光强分布。在某些区域,波峰与波峰相遇,振幅增强;在另一些区域,波峰与波谷相遇,振幅减弱。这种稳定的光强重新分布现象就是干涉 9。全息图记录的正是物体散射的“物光波”与一束“参考光波”之间形成的复杂干涉图样 3。
计算全息的过程可以被理解为对上述物理过程的逆向工程。首先,算法在计算机中定义一个虚拟三维物体,并模拟从该物体上每一点发出的光波(物光波)。然后,引入一束虚拟的参考光波。通过计算这两束波在指定平面(全息图平面)上的叠加,得到干涉条纹的强度和相位分布。这个数字化的干涉图样就是计算全息图 6。当这个计算出的全息图被加载到空间光调制器(Spatial Light Modulator, SLM)上,并用与虚拟参考光一致的相干光(如激光)照明时,SLM会调制光波,衍射出的光场将精确地重建出原始的虚拟物光波。观察者的眼睛接收到这个重建的波前,便会感知到一个逼真的三维虚拟物体,仿佛它真实地存在于空间中 2。
1.3 计算挑战:数字全息的瓶颈
尽管CGH的原理清晰,但将其应用于实际,尤其是在高分辨率、动态三维显示领域,面临着巨大的挑战。这些挑战是推动CGH算法近半个世纪以来不断演进的核心驱动力。
-
计算复杂度:这是CGH最根本的瓶颈 1。一个三维物体可以看作是由海量点光源构成的集合。要计算全息图,需要计算每个物点到全息图上每个像素的光场贡献,然后将它们全部叠加。对于一个包含 N 个物点、生成一张 M x M 像素的全息图,其直接计算的复杂度高达 O(N * M^2) 10。对于高清(如1920×1080)甚至4K分辨率的动态显示,每秒需要更新数十次全息图,所需的计算量是惊人的,常规CPU难以胜任 10。因此,追求实时计算性能成为了CGH算法研究的“最高指令”,几乎所有的算法创新,从早期的查找表法到现代的深度学习,本质上都是为了应对这一挑战。
-
图像质量:理想的全息重建需要精确地控制光波的复振幅(即振幅和相位)。然而,现有的SLM通常只能调制其中之一(振幅或相位),这导致了信息编码的损失 2。此外,由于相干光的特性,重建图像中普遍存在散斑噪声(Speckle Noise),这是一种随机的颗粒状图案,会严重降低图像的视觉质量 6。同时,零级光(未被调制的直射光)和共轭像(孪生像的残留)也会对目标图像造成干扰,降低对比度 11。
-
硬件限制:空间光调制器(SLM)是实现动态全息显示的核心器件,但其性能参数,如像素尺寸、分辨率和刷新率,直接限制了全息图像的视场角和尺寸 11。像素尺寸不够小,会导致衍射角受限,从而视场角变小;总像素数不足,则限制了可显示图像的尺寸和复杂度。这些硬件上的限制迫使算法必须在有限的条件下进行优化,以达到最佳的显示效果。
第二部分:基于物理模型的算法(非深度学习)
在深度学习方法兴起之前,CGH算法的发展完全基于对物理光学的数值模拟。这些算法不依赖于数据集训练,而是直接根据衍射理论进行计算。它们的发展脉络清晰地反映了研究者们如何在计算效率、内存占用和图像质量之间寻求平衡。
2.1 点源法:将物体模拟为发光点的集合
点源法是最直观、最基础的CGH计算方法,它直接模拟了光学全息的记录过程 1。
算法原理与公式
该方法将三维物体离散化为大量独立的点光源集合 1。根据惠更斯原理,每个点光源都会向空间中辐射球面波。在全息图平面上,来自单个点光源 (xi,yi,zi) 的复振幅分布 Ui(x,y) 可以由菲涅耳衍射积分近似描述:
$$
U_i(x, y) = \frac{A_i}{j\lambda z_i} \exp \left( j \frac{2\pi}{\lambda} z_i \right) \exp \left( j \frac{\pi}{\lambda z_i} [(x-x_i)^2 + (y-y_i)^2] \right)
$$
其中,Ai 是点光源的复振幅,λ 是光的波长,(x,y) 是全息平面上的坐标。这个公式描述的图案在光学上被称为菲涅耳波带片(Fresnel Zone Plate),它具有透镜的聚焦特性 9。
最终的全息图 H(x,y) 是由物体上所有 N 个点光源产生的波场进行相干叠加(求和)得到的 1:
$$
H(x, y) = \sum_{i=1}^{N} U_i(x, y)
$$
发展脉络与优化
-
直接计算:这是最原始的方法,即对每个物点和每个全息像素都执行一次上述复数运算。如前所述,其巨大的计算量使其不适用于实时应用 10。
-
查找表法 (Look-Up Table, LUT):为了加速计算,研究者们提出了LUT方法。其核心思想是:预先计算出不同深度(z)和横向位置(x, y)的点光源所对应的菲涅耳波带片图样,并将其存储在一个巨大的表格中。在生成全息图时,只需根据物点的坐标从表中“查找”对应的预存图样并进行累加,从而将耗时的浮点运算替换为速度更快的内存读取操作 11。
-
计算与内存的权衡:LUT方法虽然显著提升了速度,但引入了新的问题——巨大的内存消耗。为存储高分辨率、大景深场景中所有可能的点源图样,可能需要TB级别的存储空间,这在实际应用中是不可行的 11。为了解决这个问题,一系列改进的LUT方法被提出,如新颖查找表法 (N-LUT) 和 分割查找表法 (S-LUT),它们通过只存储特定深度的基础波带片或光调制因子,并利用其移位特性来生成不同横向位置的图样,从而大幅减少了内存需求 11。
-
现代优化方法:近年来,出现了更高效的点云处理技术。例如,分段点云网格化 (Segmented Point-Cloud Gridding, S-PCG) 方法将具有相似深度的点云分组到二维的深度网格中,然后对每个网格利用快速傅里叶变换(FFT)进行衍射计算。这种方法将逐点计算的复杂度转变为基于FFT的计算,极大地提高了处理大规模点云数据的效率 12。
2.2 分层法:角谱衍射理论的应用
当三维场景可以方便地表示为一系列具有深度信息的二维图像时(例如RGB-D图像),分层法成为一种更高效的选择。该方法的核心是角谱法(Angular Spectrum Method, ASM)。
算法原理
分层法首先将三维物体沿深度方向“切片”,形成一系列平行的二维层 13。接着,算法模拟光波从一层传播到下一层,最终到达全息图平面的过程。角谱法是实现这一传播计算的精确工具 13。
角谱法的计算过程如下 14:
-
傅里叶变换:对源平面上的复振幅分布 U(x,y,0) 进行二维傅里叶变换,得到其角谱 A(fx,fy,0)。这在物理上相当于将原始波前分解为一系列向不同方向传播的平面波。
$$
A(f_x, f_y, 0) = \mathcal{F}{U(x, y, 0)}
$$ -
频域传播:将角谱乘以一个传递函数 H(fx,fy,z),该函数描述了每个平面波分量在传播距离 z 后发生的相位变化。
$$
A(f_x, f_y, z) = A(f_x, f_y, 0) \cdot H(f_x, f_y, z)
$$
其中,传递函数为:
$$
H(f_x, f_y, z) = \exp \left( j \frac{2\pi z}{\lambda} \sqrt{1 - (\lambda f_x)^2 - (\lambda f_y)^2} \right)
$$ -
逆傅里叶变换:对传播后的角谱进行逆傅里叶变换,即可得到目标平面上的复振幅分布 U(x,y,z)。
$$
U(x, y, z) = \mathcal{F}^{-1} \left{ A(f_x, f_y, z) \right}
$$
整个三维物体的全息图,就是将所有二维层传播到全息平面后的复振幅进行相干叠加的结果。
优势与演进
-
高精度:角谱法是亥姆霍兹方程的精确解,没有傍轴近似(即小角度近似)的限制。这意味着它能够精确地模拟大角度衍射,对于需要宽视场角的全息显示至关重要 13。
-
高效率:由于整个计算过程可以利用高效的FFT算法实现,对于分层数据,其计算效率远高于点源法 13。
-
解决串扰问题:分层法的一个主要挑战是层间串扰(Inter-layer Crosstalk),即一个层重建的图像会对其他层的图像产生散焦噪声。为了解决这个问题,研究者们发展了迭代角谱法。该方法通常将角谱传播过程嵌入到一个迭代优化框架中(如Gerchberg-Saxton算法),通过在多个深度平面之间来回传播并施加振幅约束,协同优化整个全息图,从而有效抑制串扰,提高多深度平面的重建质量 13。
2.3 迭代相位恢复算法:全息图的优化求解
在许多应用中,我们只关心重建图像的强度(亮度)分布,而其相位是自由的。迭代相位恢复算法正是利用这一“相位自由度”来优化全息图,以满足特定的约束条件(如生成纯相位全息图以匹配SLM的特性)。其中,Gerchberg-Saxton (GS) 算法是最著名和最基础的代表。
Gerchberg-Saxton (GS) 算法
GS算法最初由Gerchberg和Saxton于1972年为解决电子显微镜中的相位恢复问题而提出 15。它很快被应用于CGH领域,成为一类被称为迭代傅里叶变换算法 (Iterative Fourier Transform Algorithm, IFTA) 的基础 16。
GS算法的迭代过程如下 17:
- 初始化:在目标图像平面,使用目标图像的振幅和一组随机的初始相位,构成一个复振幅分布。
- 逆向传播:将该复振幅从图像平面逆向传播到全息图平面(通常通过逆傅里叶变换 IFFT 实现)。
- 施加全息平面约束:在全息平面,保留上一步计算得到的相位,但将其振幅替换为系统约束所要求的振幅。例如,对于纯相位SLM,将振幅强制设为均匀的常数(例如1)。
- 正向传播:将施加约束后的新复振幅从全息平面正向传播回图像平面(通常通过傅里叶变换 FFT 实现)。
- 施加图像平面约束:在图像平面,保留上一步计算得到的相位,但将其振幅替换为原始的目标图像振幅。
- 循环:重复步骤2至5,直到重建图像的误差收敛到可接受的水平或达到预设的迭代次数。
发展与局限
GS算法虽然鲁棒,但存在明显的缺点:收敛速度慢,且容易陷入局部最优解,导致最终的重建图像质量不理想,出现停滞现象 17。为了改进其性能,研究者提出了多种变体,例如引入加权反馈因子来调整约束强度,或者在傅里叶变换中进行零填充(Zero-padding)以提高分辨率 16。
尽管有这些改进,迭代算法的计算耗时和性能瓶颈依然是其应用于实时动态全息显示的主要障碍 18。正是这种对更高速度和更优质量的追求,最终促使研究者们将目光投向了一个全新的领域:深度学习。
第三部分:基于深度学习的算法
自2017年左右以来,深度学习(Deep Learning, DL)技术开始在计算全息领域崭露头角,并迅速展现出超越传统物理算法的巨大潜力 6。深度学习方法为解决CGH的核心挑战——计算速度和图像质量——提供了一条全新的路径。
3.1 范式转变:从模拟物理到学习映射
传统算法在每次生成全息图时,都需要实时地、从头开始执行复杂的物理衍射计算。而深度学习则将这种计算模式转变为一种“学习”模式。其核心思想是,利用深度神经网络(DNN)学习从输入场景(如一张二维图片或RGB-D数据)到最终全息图之间的复杂非线性映射关系 6。
这一范式转变带来了两大核心优势:
- 前所未有的速度:一旦神经网络训练完成,生成全息图的过程就变成了一次快速的前向推理。这个过程通常只需几十毫秒,远快于需要数百甚至数千次迭代的传统算法,从而为实时动态全息显示提供了可能 19。
- 卓越的图像质量:深度学习模型不仅能学习理想的物理传播过程,还能在训练过程中“看到”并学习补偿实际光学系统中的各种缺陷,如SLM的非线性响应、光学像差等。通过 “在环相机”(Camera-in-the-loop) 等训练策略,模型可以直接根据物理系统上采集到的真实图像进行优化,从而生成能够在该特定系统上达到最佳效果的全息图 6。
3.2 CGH中的深度学习模型分类
不同的神经网络架构在CGH任务中扮演着不同的角色,各自发挥其独特的优势。
- 卷积神经网络 (CNNs):由于其在处理图像等网格状数据方面的卓越能力,CNN成为CGH中最常用的架构。它们能够有效提取输入图像的局部空间特征,并将其映射为全息图的相位或振幅分布 18。
- 生成对抗网络 (GANs):GANs通过一个生成器网络和一个判别器网络之间的对抗性训练,能够生成高度逼真的数据。在CGH中,它们被用于生成高质量的全息图,或者解决像相位解包裹这样的子问题 6。
- Transformer 与 Mamba:这些是较新的架构,其核心优势在于能够捕捉数据中的长程依赖关系。对于全息计算而言,衍射是一个全局效应,图像中的一个点会影响到全息图上的所有像素。因此,Transformer和Mamba这类模型在理论上比CNN更适合建模这种全局物理过程,尤其是在处理时间序列数据(如全息视频)时展现出巨大潜力 18。
3.3 前沿(SOTA)框架简介
近年来,多个标志性的深度学习框架将CGH的性能推向了新的高度。
- Neural Holography (HoloNet):这是该领域的开创性工作之一,它利用CNN和创新的“在环相机”训练策略,首次实现了高质量的实时二维全息图生成 19。
- Time-Multiplexed Neural Holography:该框架将神经全息术扩展到支持2D、3D(焦堆栈)和4D(光场)内容。它专为高速、低位深(heavily-quantized)的SLM设计,通过时间复用技术,以极高的帧率切换多个全息图,从而在时间和空间上积分出高质量的三维图像 20。
- Gaussian Wave Splatting (GWS):这是一项范式级的技术突破,它首次将计算机图形学中最新的神经渲染技术(3D高斯溅射)与物理波光学相结合。GWS能够将由少量照片生成的高斯场景表示,直接、高效地转换为具有精确遮挡和视图相关效果的逼真全息图 21。
- HoloMamba:这是针对全息视频生成的最前沿工作。它采用基于Mamba的轻量级网络架构,高效地处理时空信息,并结合创新的 光谱引导深度分割复用(SGDDM) 技术,首次实现了高速、高质量的全彩全息视频生成 22。
3.4 SOTA模型详解:性能与配置
为了给研究人员和开发者提供实用的参考,下表详细梳理了当前最先进的深度学习CGH模型的关键信息、性能特点以及运行配置要求。这张表格浓缩了该领域的前沿进展,是理解和复现这些先进技术的重要指南。
表1:SOTA深度学习CGH模型及其配置
| 模型名称 | 核心贡献 / 原理 | 发表 | 硬件要求 | 软件依赖与设置 |
|---|---|---|---|---|
| Neural Holography (HoloNet) | 实现实时二维全息图生成。采用CNN架构,并首创在环相机 (CITL) 训练策略,可学习并校正真实光学系统的物理缺陷 6。 | SIGGRAPH Asia 2020 | GPU:未明确指定型号,但深度学习框架和实时性能要求意味着需要一块支持CUDA的强大GPU 19。 | 框架:PyTorch (>=1.7.0,以支持原生复数张量)。设置:Conda环境 (environment_windows.yml)。SDK:完整的CITL流程需要HOLOEYE SLM SDK和FLIR相机SDK (PyCapture2) 23。 |
| Time-Multiplexed Neural Holography | 灵活支持2D、2.5D (RGBD)、3D (焦堆栈)和4D (光场)内容。专为高速、低位深SLM设计,通过时间复用技术提升图像质量。采用CNN和校准后的角谱传播模型 20。 | SIGGRAPH 2022 | GPU:要求与HoloNet类似。模型包含多个CNN和ASM传播计算,需要强大的GPU算力 20。 | 框架:PyTorch。设置:Conda环境 (environment.yml)。其官方代码库已更新为后续工作holographic-parallax 20。 |
| Gaussian Wave Splatting (GWS) | 融合神经渲染 (3D高斯溅射) 与波光学。将预训练的高斯场景表示转换为具有精确遮挡和视图相关效果的逼真全息图。推导了二维高斯到全息图的闭式变换解 21。 | SIGGRAPH 2024 | GPU:需要支持CUDA且计算能力7.0以上的GPU。其依赖的3DGS训练过程需要大量显存 (推荐24GB) 24。 | 框架:PyTorch + 自定义CUDA核心。设置:Conda环境。需要C++编译器 (如Visual Studio 2019) 和CUDA SDK 11.8+ 来编译自定义扩展 24。 |
| HoloMamba | 首个实现高速、全彩、视频CGH的框架。采用轻量级Mamba架构进行高效时空建模。引入光谱引导深度分割复用 (SGDDM) 技术,实现高保真彩色显示而不牺牲帧率 22。 | arXiv 2025 (预印本) | 硬件:已构建基于纯相位SLM的物理系统进行验证。全高清视频的性能指标表明需要一块现代高端GPU 22。 | 框架:未明确说明,但很可能是PyTorch或TensorFlow。模型被描述为“端到端”和“轻量级”,表明其为高效部署进行了优化 22。 |
第四部分:对比分析与未来展望
在详细探讨了基于物理模型和深度学习的两大类算法之后,本部分将对它们进行一个全面的对比分析,并展望计算全息技术的未来发展方向。
4.1 性能基准:迭代算法 vs. 深度学习方法
将传统迭代算法与现代深度学习方法进行直接比较,可以发现它们各自的优势领域和固有的权衡。这种比较揭示了一个重要的事实:算法的选择并非绝对,而是高度依赖于具体的应用场景和约束条件。
例如,虽然深度学习方法在处理高分辨率图像(如2K或4K)时,在峰值信噪比(PSNR)和结构相似性(SSIM)等指标上通常优于GS等迭代算法,但在极低分辨率(如256x256)的情况下,情况可能会反转 18。这背后的原因在于,神经网络需要足够丰富的数据和特征才能学习到有效的映射关系;当输入信息过于稀疏时,其性能可能会下降。相比之下,GS算法作为一种基于确定性物理模型的优化方法,在数据量不足的情况下表现得更为稳健。这表明,在为特定任务选择算法时,必须综合考虑分辨率、计算资源、实时性要求等多种因素。
下表从多个维度对不同类别的CGH算法进行了战略性总结,为决策者和研究者提供了一个清晰的参考框架。
表2:CGH算法类别对比分析
| 算法类别 | 速度 | 重建质量 | 灵活性 / 普适性 | 开发开销 |
|---|---|---|---|---|
| 直接物理模拟 (点源/分层法) | 慢 (点源法) 到中等 (基于FFT的分层法),但非迭代。 | 中等。未经优化时容易产生串扰等伪影。 | 高。可直接应用于任何三维数据格式。 | 低。直接实现物理公式。但可能产生高内存成本 (LUT)。 |
| 迭代优化 (GS / IFTA) | 慢。需要大量迭代才能收敛,通常不适用于实时应用。 | 高。可以达到非常好的质量,但可能陷入局部最优解。 | 高。非常灵活,被广泛用于各种优化任务。 | 中等。算法本身成熟,但为特定问题调整参数以保证收敛可能很复杂。 |
| 深度学习 (DL) | 极快 (在推理阶段)。能够实现实时性能。 | 非常高。SOTA模型能产生逼真效果,并能校正系统误差。 | 中到低。模型通常为特定任务/数据类型训练,泛化能力可能有限。 | 非常高。需要大规模数据集、大量的训练时间和计算资源,以及机器学习专业知识。 |
4.2 新兴挑战与未来轨迹
计算全息技术正处在一个激动人心的十字路口,物理学、计算机科学和光学工程的交叉融合正在催生新的研究方向。
- 混合模型 (物理信息AI):未来的趋势并非是AI完全取代物理模拟,而是两者的深度融合。一个关键方向是在神经网络中嵌入代表物理传播过程的可微层(如基于ASM的传播层)6。这种“物理信息神经网络”(Physics-Informed Neural Network, PINN)的方法,将深度学习的强大拟合能力与物理模型的先验知识相结合,有望在提高模型泛化能力的同时,减少对海量训练数据的依赖。
- 与神经渲染的融合:Gaussian Wave Splatting的成功是一个里程碑式的事件,它标志着计算机图形学与计算光学两个领域的深度融合 21。未来的研究将探索更多先进的神经场景表示方法(如NeRFs)在全息计算中的应用,目标是构建从几张照片输入到最终逼真全息图输出的端到端渲染管线。这将彻底改变高质量三维全息内容的创作方式。
- 软硬件协同设计:像Time-Multiplexed Neural Holography这样专为下一代SLM特性而设计的算法,凸显了未来发展的一个核心方向:光学硬件与驱动算法的协同设计 20。未来的技术突破将越来越依赖于光学元件(如SLM、超表面)和计算算法之间的紧密配合与联合优化,以最大化整个系统的性能 25。
- 尚存的挑战:尽管取得了巨大进展,计算全息技术要走向大规模应用仍面临诸多挑战。这包括:如何处理和传输全息视频所需的巨大数据带宽;如何提升深度学习模型的泛化能力,使其能够应对更多样化的场景;以及如何开发尺寸更大、速度更快、像素更小的SLM,以实现更宽的视场角和更大的显示尺寸,最终将实验室中的原型转化为消费者手中的产品 6。
综上所述,计算全息算法的演进历程,是一部不断追求更高计算效率和更优图像质量的创新史。从基于物理的精确模拟,到数据驱动的智能生成,该领域正以前所未有的速度向前发展。随着AI与光学技术的进一步融合,我们有理由相信,那个曾被认为是科幻的、能够完美再现三维世界的全息显示,正在加速向我们走来。
参考文献
-
Review of fast methods for point-based computer-generated ..., 访问时间为 十月 13, 2025, https://opg.optica.org/prj/abstract.cfm?uri=prj-6-9-837 ↩︎ ↩︎ ↩︎ ↩︎ ↩︎
-
(PDF) Review of computer-generated hologram algorithms for color dynamic holographic three-dimensional display - ResearchGate, 访问时间为 十月 13, 2025, https://www.researchgate.net/publication/362254447_Review_of_computer-generated_hologram_algorithms_for_color_dynamic_holographic_three-dimensional_display ↩︎ ↩︎ ↩︎ ↩︎ ↩︎ ↩︎ ↩︎
-
Computer generated holograms: an historical review - Optica Publishing Group, 访问时间为 十月 13, 2025, https://opg.optica.org/fulltext.cfm?uri=ao-26-20-4351 ↩︎ ↩︎
-
Computer-generated holography - Wikipedia, 访问时间为 十月 13, 2025, https://en.wikipedia.org/wiki/Computer-generated_holography ↩︎
-
Computer-generated holography (Chapter 7) - Introduction to Modern Digital Holography, 访问时间为 十月 13, 2025, https://www.cambridge.org/core/books/introduction-to-modern-digital-holography/computergenerated-holography/C8FBFA824E206A5B2DE764A0E041713A ↩︎
-
Deep-Learning Computational Holography: A Review - Frontiers, 访问时间为 十月 13, 2025, https://www.frontiersin.org/journals/photonics/articles/10.3389/fphot.2022.854391/full ↩︎ ↩︎ ↩︎ ↩︎ ↩︎ ↩︎ ↩︎ ↩︎ ↩︎ ↩︎
-
1 Laboratory #8: Computer-Generated Holograms, 访问时间为 十月 13, 2025, https://www.cis.rit.edu/class/simg455/lab8-20073-cgh.pdf ↩︎
-
COMPUTER GENERATED DISPLAY HOLOGRAPHY, 访问时间为 十月 13, 2025, https://diglib.eg.org/bitstream/handle/10.2312/egt20171031/t3.pdf ↩︎
-
Holography - Wikipedia, 访问时间为 十月 13, 2025, https://en.wikipedia.org/wiki/Holography ↩︎ ↩︎
-
Hardware implementations of computer-generated holography: a review, 访问时间为 十月 13, 2025, https://www.spiedigitallibrary.org/journals/optical-engineering/volume-59/issue-10/102413/Hardware-implementations-of-computer-generated-holography-a-review/10.1117/1.OE.59.10.102413.full ↩︎ ↩︎ ↩︎
-
Study on basic problems in real-time 3D holographic display - ResearchGate, 访问时间为 十月 13, 2025, https://www.researchgate.net/publication/269325569_Study_on_basic_problems_in_real-time_3D_holographic_display ↩︎ ↩︎ ↩︎ ↩︎ ↩︎
-
Segmented Point Cloud Gridding Method for a Full-Color Holographic System With Real Objects - Frontiers, 访问时间为 十月 13, 2025, https://www.frontiersin.org/journals/photonics/articles/10.3389/fphot.2022.831267/full ↩︎
-
Three-dimensional computer-generated holography based on the hybrid iterative angular spectrum algorithm - Optica Publishing Group, 访问时间为 十月 13, 2025, https://opg.optica.org/abstract.cfm?uri=oe-31-23-39169 ↩︎ ↩︎ ↩︎ ↩︎ ↩︎
-
Example: Holographic Projections Using The Angular Spectrum Method - k-Wave, 访问时间为 十月 13, 2025, http://www.k-wave.org/documentation/example_tvsp_angular_spectrum.php ↩︎
-
Gerchberg–Saxton algorithm - Wikipedia, 访问时间为 十月 13, 2025, https://en.wikipedia.org/wiki/Gerchberg%E2%80%93Saxton_algorithm ↩︎
-
Weighted Constraint Iterative Algorithm for Phase Hologram Generation - MDPI, 访问时间为 十月 13, 2025, https://www.mdpi.com/2076-3417/10/10/3652 ↩︎ ↩︎
-
Modified Gerchberg–Saxton (G-S) Algorithm and Its Application - MDPI, 访问时间为 十月 13, 2025, https://www.mdpi.com/1099-4300/22/12/1354 ↩︎ ↩︎
-
Performance Evaluation of Computer-Generated ... - DiVA portal, 访问时间为 十月 13, 2025, http://www.diva-portal.org/smash/get/diva2:1948914/FULLTEXT02.pdf ↩︎ ↩︎ ↩︎ ↩︎
-
Computational Imaging Neural Holography | SIGGRAPH 2020, 访问时间为 十月 13, 2025, https://www.computationalimaging.org/publications/neuralholography/ ↩︎ ↩︎ ↩︎
-
Time-multiplexed Neural Holography | SIGGRAPH 2022, 访问时间为 十月 13, 2025, https://www.computationalimaging.org/publications/time-multiplexed-neural-holography/ ↩︎ ↩︎ ↩︎ ↩︎ ↩︎
-
Gaussian Wave Splatting for Computer-Generated Holography | SIGGRAPH 2025, 访问时间为 十月 13, 2025, https://www.youtube.com/watch?v=ttDCDbhEf7Q ↩︎ ↩︎ ↩︎
-
High-Speed FHD Full-Color Video Computer-Generated Holography - arXiv, 访问时间为 十月 13, 2025, https://arxiv.org/html/2508.19579v1 ↩︎ ↩︎ ↩︎ ↩︎
-
GitHub - computational-imaging/neural-holography, 访问时间为 十月 13, 2025, https://github.com/computational-imaging/neural-holography ↩︎
-
graphdeco-inria/gaussian-splatting: Original reference ... - GitHub, 访问时间为 十月 13, 2025, https://github.com/graphdeco-inria/gaussian-splatting ↩︎ ↩︎
-
On the use of deep learning for computer-generated holography ..., 访问时间为 十月 13, 2025, https://pmc.ncbi.nlm.nih.gov/articles/PMC12146661/ ↩︎