知识讲堂

← 返回日报
算法理论 第一讲

平衡传输语音增强

普通扩散模型像从北京坐绿皮火车绕道拉萨再到上海,Schrödinger Bridge则是直接找到北京到上海的最短高铁路线——两者都能到达,但后者不绕弯路。
历史演进

扩散模型在语音增强中的核心矛盾是:迭代采样质量高但推理慢,单步方法快但质量差——平衡传输(Schrödinger Bridge)的出现,正是为了从数学上彻底解决"两个任意分布之间最优随机传输"这一根本问题。

1931–1932
Schrödinger问题的物理起源

奥地利物理学家Erwin Schrödinger在研究布朗粒子时提出了一个思想实验:若已知粒子在时刻0和时刻T的边际分布,如何找到最"经济"的随机过程连接它们?这个问题在物理上是熵最小化问题,在数学上等价于在所有满足边界条件的随机过程中寻找与参考布朗运动KL散度最小的那个。这一问题沉寂了数十年,因为缺乏计算工具。

1991–2000
最优传输理论奠基

Cédric Villani、Yann Brenier等人系统发展了最优传输(Optimal Transport)理论。Brenier定理证明了从分布$p_0$到$p_1$的确定性最优传输映射存在且唯一(在连续分布下)。Schrödinger Bridge可视为最优传输的随机化推广:当扩散系数趋于零时,SB退化为确定性OT。这一联系为后续计算方法铺路。

2015–2021
扩散模型兴起与局限暴露

DDPM(Ho et al., NeurIPS 2020)将扩散过程定义为从数据分布$p_{data}$到标准高斯$\mathcal{N}(0,I)$的固定前向过程,逆向过程通过神经网络学习去噪。在语音增强中,SGMSE(Richter et al., INTERSPEECH 2022)将带噪语音作为扩散起点,干净语音作为终点,但仍需30步以上迭代。问题根源在于:标准扩散的前向过程是固定的(加噪到高斯),而非针对两个任意数据分布定制的。

2021–2023
Schrödinger Bridge重新进入机器学习视野

De Bortoli et al.(NeurIPS 2021)提出DSBM(Diffusion Schrödinger Bridge Matching),将SB问题转化为可训练的神经网络问题。Shi et al.(ICLR 2024)提出Iterative Proportional Fitting的神经网络版本。核心洞见:SB不要求前向过程必须走向高斯噪声,而是直接在$p_{noisy}$和$p_{clean}$之间建立最优随机桥,大幅减少所需步数。

2024–2025
单步语音增强的实现

DriftSE(即本文[21])将SB框架应用于语音增强,将去噪问题表述为"平衡问题"(Balanced Problem):前向过程从干净语音漂移到带噪语音,逆向过程通过学习演化映射函数(evolution map)的前推分布(pushforward distribution)直接匹配干净语音分布,实现真正的单步推理,无需迭代采样。

核心思想
Schrödinger Bridge在两个任意概率分布之间寻找熵最小的随机传输路径,本质是把"从噪声到数据"的漫长扩散旅程,替换为"从带噪语音直接飞向干净语音"的最短随机桥,从而用一步推理替代数十步迭代。
数学结构

Schrödinger Bridge问题的数学核心是约束熵正则化最优传输。 设参考过程为标准维纳过程(布朗运动)$\mathbb{W}$,目标是在所有满足边界条件 $p_0 = p_{noisy}$,$p_T = p_{clean}$ 的随机过程 $\mathbb{P}$ 中,找到与参考过程KL散度最小的那个: $$\mathbb{P}^* = \arg\min_{\mathbb{P}: p_0=p_{noisy}, p_T=p_{clean}} \mathrm{KL}(\mathbb{P} \| \mathbb{W})$$ 其解满足如下随机微分方程(SDE): $$dx_t = \left[f(x_t, t) + g^2(t)\nabla_{x_t}\log\psi(x_t, t)\right]dt + g(t)dW_t$$ 其中 $f(x_t,t)$ 是漂移项,$g(t)$ 是扩散系数,$\psi(x_t,t)$ 是Schrödinger势函数,满足前向-后向PDE系统(Kolmogorov方程对): $$\partial_t \varphi = -\frac{g^2}{2}\Delta\varphi - f\cdot\nabla\varphi, \quad \partial_t \hat\varphi = \frac{g^2}{2}\Delta\hat\varphi - \nabla\cdot(f\hat\varphi)$$ 边界条件为 $\varphi(x,0)\hat\varphi(x,0)=p_{noisy}(x)$,$\varphi(x,T)\hat\varphi(x,T)=p_{clean}(x)$。 DriftSE的关键简化:将演化映射 $\Phi_t: x_0 \mapsto x_t$ 参数化为神经网络,直接学习前推分布 $(\Phi_t)_\# p_{noisy} \to p_{clean}$,损失函数为: $$\mathcal{L} = \mathbb{E}_{t, x_0\sim p_{noisy}}\left[\|\Phi_\theta(x_0, t) - x_{clean}\|^2\right]$$ 这样绕开了迭代求解PDE系统的计算瓶颈,$t=T$ 时一步输出即为增强语音。

工作机制

DriftSE的整体逻辑是:用神经网络参数化Schrödinger Bridge的演化映射,将带噪语音分布"一步传输"到干净语音分布,彻底消除迭代采样开销。

Step 1构建平衡问题框架

将语音增强定义为两个分布之间的平衡传输:$p_0 = p(x_{noisy})$(带噪语音分布)和 $p_T = p(x_{clean})$(干净语音分布)。与标准扩散不同,这里不引入任何人工高斯噪声中间站,两个端点都是真实数据分布。这一设计的深意在于:标准扩散必须先"破坏"数据再"重建",而SB直接在两个有意义的分布间架桥,信息损耗更小。实现上,训练数据对 $(x_{noisy}, x_{clean})$ 天然构成联合分布,无需额外设计前向过程。

Step 2参数化演化映射

定义演化映射 $\Phi_\theta(x_0, t): \mathbb{R}^d \times [0,T] \to \mathbb{R}^d$,以带噪语音 $x_0$ 和时间 $t$ 为输入,输出时刻 $t$ 的中间状态。网络架构通常采用U-Net或Conformer骨干,时间条件通过正弦嵌入注入。关键设计:$\Phi_\theta$ 在 $t=0$ 时恒等映射(输出 $x_0$),在 $t=T$ 时输出干净语音估计。这一边界约束通过参数化 $\Phi_\theta(x_0,t) = x_0 + t\cdot\Delta_\theta(x_0,t)$ 自然满足,$\Delta_\theta$ 是网络预测的"位移场"。

Step 3前推分布匹配训练

训练目标是使 $(\Phi_T)_\# p_{noisy} = p_{clean}$,即演化映射在终点的前推分布等于干净语音分布。实践中用回归损失近似:对每个训练对 $(x_0, x_{clean})$,最小化 $\|\Phi_\theta(x_0, T) - x_{clean}\|_2^2$。为增强中间轨迹的平滑性,还引入中间时刻的插值监督:$\Phi_\theta(x_0, t)$ 应接近 $(1-t/T)x_0 + (t/T)x_{clean}$,这等价于对SB轨迹的线性插值先验施加软约束,防止网络学到"捷径"但不连续的映射。

Step 4单步推理与后处理

推理时,给定带噪语音 $x_0$,直接计算 $\hat{x}_{clean} = \Phi_\theta(x_0, T)$,无需任何迭代。与SGMSE等需要30步的方法相比,推理延迟降低约30倍。可选地,对输出在频域施加相位一致性约束(将预测幅度谱与输入相位组合),进一步减少相位伪影。实时系统中,可将 $T$ 设为帧级别,实现流式单步增强。

python # 推理伪代码 def enhance(x_noisy, model, T=1.0):     # 单步前向,无循环     x_clean_hat = model(x_noisy, t=T)     return x_clean_hat
长远价值

Schrödinger Bridge为语音增强提供了理论最优的随机传输框架,已在INTERSPEECH、ICASSP等顶会持续出现。工业落地上,单步推理使实时语音增强(RTC、助听器、会议系统)的延迟从数百毫秒降至个位数毫秒。Meta的SeamlessStreaming、微软Teams的噪声抑制模块均在探索类似的单步生成范式。SB框架的普适性使其同样适用于图像修复、医学影像去噪,长期价值远超语音领域。

前沿动向

当前开放问题包括:①如何在非配对数据(无平行语料)下训练SB模型;②SB与Flow Matching的统一理论框架尚不完整(两者在 $\sigma\to0$ 极限下等价,但有限扩散系数下的差异未被充分利用);③多说话人、多噪声类型的条件SB建模;④SB在极低信噪比(<-5dB)场景下的鲁棒性仍弱于迭代方法。

工程·思维 第二讲

深度学习理论形成

深度学习理论就像给一座运转良好但无人看懂图纸的工厂画设计图——工厂一直在生产,但有了图纸之后,工程师才能预测哪里会出故障、如何扩产最省钱。
历史演进

深度学习理论长期处于"实践领先理论数十年"的尴尬状态——从业者凭直觉和经验构建了GPT、AlphaFold等改变世界的系统,但没有人能从数学上严格解释"为什么它能工作",这一根本性认知缺口正在被填补。

1980s–2000s
理论工具的错配时代

早期神经网络理论借用统计学习理论的工具:VC维、Rademacher复杂度、PAC学习框架。这些工具对线性模型和浅层网络有效,但应用于深度网络时给出的泛化界极度宽松——一个有数十亿参数的网络按理论预测应该严重过拟合,但实验中它泛化得很好。Bartlett等人(JMLR 2002)的工作已预感到这一矛盾,但无法解决。理论与实践的裂缝在深度学习崛起后变成了鸿沟。

2017
过参数化悖论的正式提出

Zhang et al.(ICLR 2017,"Understanding Deep Learning Requires Rethinking Generalization")做了一个震惊社区的实验:用随机标签训练ResNet,网络能完美记忆随机标签(训练误差为零),但在真实标签上泛化良好。这证明传统泛化理论完全失效——网络的"容量"远超任何已知理论界,但它选择了泛化而非记忆。这篇论文成为理论研究的催化剂,明确了核心问题:是什么隐式机制让过参数化网络偏向泛化解?

2018–2019
神经正切核与无限宽网络理论

Jacot et al.(NeurIPS 2018)提出神经正切核(NTK):当网络宽度趋于无穷时,梯度下降训练等价于在NTK定义的再生核希尔伯特空间中做核回归。这一理论给出了无限宽网络的精确训练动力学,但代价是:无限宽网络不学习特征(NTK在训练中保持不变),而实际有限宽网络的强大恰恰来自特征学习。Du et al.(ICLR 2019)用NTK证明了过参数化网络梯度下降的全局收敛性。NTK是第一个严格的深度学习理论,但它描述的不是我们真正使用的网络。

2020–2022
隐式偏置与损失景观研究

Gunasekar et al.、Soudry et al.等人系统研究了梯度下降的隐式正则化:对线性网络,梯度下降隐式最小化参数的$\ell_2$范数;对深度线性网络,隐式偏向低秩解。Li et al.(NeurIPS 2021)发现损失景观中存在大量"平坦极小值",而SGD天然偏向这些平坦区域,平坦极小值与更好的泛化相关(Hochreiter & Schmidhuber 1997年的早期直觉得到验证)。同期,双下降现象(Belkin et al., PNAS 2019)统一了过拟合和过参数化的矛盾,提出插值阈值概念。

2023–2025
理论框架收敛的信号

本文[34]所引的14位作者联署论文,汇总了五条证据表明深度学习理论框架正在形成:①特征学习的均场理论(Mean Field Theory of Feature Learning)开始描述有限宽网络;②机制可解释性(Mechanistic Interpretability)发现了电路级别的可重复结构;③标度律(Scaling Laws)提供了跨模型的预测性理论;④相变现象(Phase Transitions)在训练动力学中被系统记录;⑤信息论框架(如信息瓶颈)与实验观测开始吻合。理论与实践的距离从"无法解释"缩短到"部分可预测"。

核心思想
深度学习理论的核心问题是:为什么过参数化的神经网络不过拟合?答案正在从三个方向汇聚——隐式正则化(优化器偏向平坦极小值)、特征学习动力学(有限宽网络的均场理论)、以及标度律(损失与计算量的幂律关系),三者共同构成一个不完整但正在成形的理论框架。
数学结构

深度学习理论的三个核心数学结构: 1. 神经正切核(NTK):设网络输出为 $f_\theta(x)$,NTK定义为: $$K(x, x') = \nabla_\theta f_\theta(x)^\top \nabla_\theta f_\theta(x')$$ 无限宽极限下,$K$ 在训练中保持不变,训练动力学退化为线性ODE:$\dot{\mathbf{u}} = -\eta K \mathbf{u}$,其中 $\mathbf{u} = f_\theta(X) - y$ 为残差向量。这给出了精确的收敛速率,但丢失了特征学习。 2. 隐式偏置(Implicit Bias):对线性分类器用梯度下降,Soudry et al. 证明参数收敛方向为: $$\hat\theta \propto \arg\min_\theta \|\theta\|_2 \quad \text{s.t.} \quad y_i \langle\theta, x_i\rangle \geq 1$$ 即梯度下降隐式实现了最大间隔分类器(SVM),无需任何显式正则化项。 3. 标度律(Scaling Laws):Hoffmann et al.(Chinchilla, 2022)给出: $$L(N, D) \approx \frac{A}{N^\alpha} + \frac{B}{D^\beta} + L_\infty$$ 其中 $N$ 为参数量,$D$ 为训练token数,$\alpha\approx\beta\approx0.5$,$L_\infty$ 为不可约损失。这一幂律关系跨越6个数量级保持稳定,是深度学习理论中罕见的定量预测工具。

工作机制

深度学习理论的工程价值在于:将"玄学调参"转化为"有据可查的设计决策",以下是理论如何指导实践的四个层次。

Step 1用损失景观理论指导优化器选择

损失景观研究(Li et al., 2018可视化工作)表明:残差连接(ResNet)使损失景观从"崎岖山地"变为"平滑盆地",这解释了为何ResNet比VGG更易训练。工程含义:当训练不稳定时,优先检查是否缺少跳跃连接,而非盲目调整学习率。SAM(Sharpness-Aware Minimization,Foret et al., ICLR 2021)直接将"寻找平坦极小值"作为优化目标,在ImageNet上提升约1%准确率,已被Google生产系统采用。

python # SAM优化器核心逻辑:两步梯度更新 # Step 1: 找到使损失最大的扰动方向(爬坡) grad = compute_gradient(loss, params) perturbation = rho * grad / (grad.norm() + eps) params_perturbed = params + perturbation # Step 2: 在扰动参数处计算梯度,更新原始参数(下山) grad_perturbed = compute_gradient(loss, params_perturbed) params = params - lr * grad_perturbed
Step 2用标度律指导计算预算分配

Chinchilla定律给出了参数量与数据量的最优比例:$N_{opt} \propto C^{0.5}$,$D_{opt} \propto C^{0.5}$,即给定计算预算 $C$,应将一半用于模型规模,一半用于数据量。这一理论直接改变了LLM训练策略:GPT-3(175B参数,300B tokens)被Chinchilla(70B参数,1.4T tokens)在相同计算量下超越。工程师现在可以在训练前用标度律预测最终损失,避免资源浪费。

Step 3用隐式偏置理论理解正则化失效

当观察到模型在验证集上突然性能下降(grokking现象,Power et al., 2022),隐式偏置理论给出解释:网络先记忆训练数据(高范数解),经过足够长训练后,优化器的隐式正则化效应才将参数推向低范数泛化解。工程对策:延长训练时间(而非早停),或显式加入权重衰减加速这一过程。这一洞见改变了"早停是万能正则化"的工程迷信。

Step 4用机制可解释性指导模型调试

Anthropic的机制可解释性研究(Elhage et al., 2022)发现Transformer中存在可重复的"电路"结构:归纳头(Induction Heads)负责上下文学习,注意力头专门化处理特定语法关系。工程价值:当模型在特定任务上失败时,可通过激活修补(Activation Patching)定位是哪个注意力层/头出了问题,而非盲目增加数据或调整架构。这已成为大模型调试的标准工具链之一。

长远价值

深度学习理论的工程价值正在从"事后解释"转向"事前预测"。标度律已被OpenAI、DeepMind、Anthropic用于训练预算规划;SAM优化器进入Google生产;NTK理论指导了无限宽网络的核方法研究。对音视频大模型工程师而言,理解隐式偏置可以解释为什么某些架构选择(如归一化层位置)对生成质量有非直觉的影响,从而减少盲目消融实验的成本。

前沿动向

当前最热的开放问题:①特征学习的均场理论(μP参数化,Yang & Hu, 2022)能否推广到Transformer以外的架构;②涌现能力(Emergent Abilities)是真实相变还是度量伪影(Schaeffer et al., 2023的反驳);③机制可解释性能否扩展到百亿参数模型;④标度律在多模态(视频、音频)模型上是否成立,数据质量如何进入方程。

往期讲解档案 82 个知识点

2026年04月28日语义进度函数原理Semantic Progress FunctionDiffusion TrajectoryNonlinear Denoising
2026年04月28日大模型OCR选型认知OCR BenchmarkModel Selection BiasCost-Performance Tradeoff
2026年04月27日说话人验证核心原理Speaker Verificationd-vectorECAPA-TDNN
2026年04月27日GPU核函数语言选型GPU Kernel EngineeringCuTe DSLCUTLASS
2026年04月26日时长控制TTS原理Duration ModelingProsody ControlAutoregressive TTS
2026年04月26日AI研究价值评估困境Research EvaluationPublication BiasPeer Review
2026年04月25日全双工对话建模原理Full-Duplex DialogueTurn-TakingVoice Activity Detection
2026年04月25日流式TTS文本规范化Text NormalizationStreaming TTSInverse Text Normalization
2026年04月24日离散扩散语言模型原理Discrete DiffusionMasked Diffusion Language ModelAbsorbing Diffusion
2026年04月24日跟进ML研究的认知工程Information OverloadResearch TriageSpaced Repetition
2026年04月23日一致性正则化ASR原理Consistency RegularizationUnified ASRTransducer
2026年04月23日流式TTS文本规范化工程Text NormalizationStreaming TTSInverse Text Normalization
2026年04月22日神经编码器伪影检测Neural Audio CodecArtifact DetectionForensic Residual
2026年04月22日AI研究复现危机工程Reproducibility CrisisML EngineeringExperimental Rigor
2026年04月21日扩散SNR偏差校正原理Signal-to-Noise RatioDiffusion Timestep BiasScore Matching
2026年04月21日论文复现危机根治工程Reproducibility CrisisAblation StudyExperimental Rigor
2026年04月20日音频时序定位原理Temporal GroundingAudio Event DetectionCross-modal Alignment
2026年04月20日论文复现危机根因Reproducibility CrisisBenchmark OverfittingEvaluation Validity
2026年04月19日流匹配对齐原理Flow Matching AlignmentReward Gradient BackpropagationTrajectory Optimization
2026年04月19日分布式训练任务编排Distributed Training OrchestrationCluster SchedulingFault Tolerance
2026年04月18日最优传输信号融合Optimal TransportWasserstein BarycenterTime-Frequency Resolution
2026年04月18日分布式训练任务调度Distributed Training OrchestrationJob SchedulingCluster Resource Management
2026年04月17日扩散语音识别原理Masked Diffusion Language ModelDiscrete DiffusionASR Decoding
2026年04月17日Mel尺度跨文化偏差Mel ScalePsychoacousticsCultural Bias
2026年04月16日音频水印对抗原理Audio WatermarkingSemi-FragilePsychoacoustic Masking
2026年04月16日推测解码草稿树工程Speculative DecodingDraft TreeBlock Diffusion
2026年04月15日对抗流模型原理Continuous Normalizing FlowAdversarial TrainingFlow Matching
2026年04月15日代理状态可观测性工程Agent ObservabilityDistributed TracingState Machine Debugging
2026年04月14日过程奖励模型原理Process Reward ModelStep-level SupervisionReasoning Chain
2026年04月13日离散令牌音源分离Discrete Token ModelingSource SeparationConditional Generation
2026年04月13日超算API工程哲学Distributed Training OrchestrationSupercomputer API DesignFault Tolerance
2026年04月12日信息瓶颈原理演进Information BottleneckVariational IBDisentanglement
2026年04月12日Safetensors格式工程哲学SafetensorsModel SerializationMemory-Mapped IO
2026年04月11日归一化层演进原理Layer NormalizationRMS NormalizationBatch Normalization
2026年04月11日GEMM自调优后端工程GEMM AutotuningTorchInductorCuteDSL
2026年04月10日多令牌预测原理Multi-Token PredictionSpeculative DecodingMedusa Heads
2026年04月10日ML从业者认知校准Calibration BiasCapability IllusionBenchmark Overfitting
2026年04月09日编码器-解码器LM原理Encoder-Decoder LMCross-Attention ConditioningSequence-to-Sequence
2026年04月09日torch.compile归一化优化torch.compileLayerNormRMSNorm
2026年04月08日KV缓存压缩原理KV Cache CompressionRoPE Position EncodingAttention Score Estimation
2026年04月08日音效基础模型工程Sound Effect GenerationFoundation ModelFoley Synthesis
2026年04月07日可验证奖励强化学习Verifiable RewardRLVRProcess Reward Model
2026年04月07日LLM技能退化认知机制Cognitive OffloadingSkill AtrophyDesirable Difficulty
2026年04月06日音素可解释说话人验证Phoneme-aware Speaker VerificationInterpretable BiometricsLocal Acoustic Evidence
2026年04月06日音频幻觉攻击评估Hallucination AttackAudio Language Model ReliabilityAdversarial Probing
2026年04月05日潜在空间推理原理Latent Space ReasoningContinuous RepresentationToken-Free Inference
2026年04月05日mRNA模型极低成本训练Biology Foundation ModelCross-Species TransferLow-Budget Training
2026年04月04日编码器-解码器TTS原理Encoder-Decoder TTSText ConditioningPositional Capacity
2026年04月04日大模型训练的MXFP8工程MXFP8MicroscalingMixed Precision Training
2026年04月03日在线知识蒸馏原理Online DistillationKnowledge TransferStudent-Teacher
2026年04月03日MoE专家并行调度工程Expert ParallelismMixture of ExpertsAll-to-All Communication
2026年04月02日波形潜空间扩散TTSwaveform latent diffusionnon-autoregressive TTSlatent space acoustic modeling
2026年04月02日波形隐空间扩散原理waveform latent spacediffusion TTSVAE audio codec
2026年04月02日LLM量化权重工程weight quantizationLLM compression4-bit quantization
2026年04月02日扩散语言模型离散生成Discrete DiffusionMasked Diffusion Language ModelNon-autoregressive TTS
2026年04月02日LLM后训练库工程演进RLHF engineeringPPO training stabilityreward hacking
2026年04月02日声学证据瓶颈原理Audio Evidence BottleneckAcoustic GroundingAudio Language Model
2026年04月02日状态空间模型音频建模State Space ModelMambaSelective Scan
2026年04月02日实时语音增强工程选型Real-time Speech EnhancementNoise SuppressionStreaming Inference
2026年04月02日对话上下文压缩原理Context CompressionAbstractive SummarizationCross-Attention Fusion
2026年04月02日说话人匿名化工程Speaker AnonymizationVoice ConversionStreaming Inference
2026年04月02日视听语音识别融合Audio-Visual Speech RecognitionLip ReadingViseme
2026年04月02日GPU训练吞吐加速工程MXFP8MoE TrainingExpert Parallelism
2026年04月01日熵驱动多样性生成diversity samplingtypicality biasrepulsion in latent space
2026年04月01日说话人分割工程选型speaker diarizationbenchmark methodologystreaming ASR pipeline
2026年03月31日转向检测联合建模turn-taking detectionvoice activity detectionjoint acoustic-linguistic modeling
2026年03月31日基准测试的系统性失效benchmark contaminationevaluation validityLLM judge reliability
2026年03月31日扩散模型声学生成diffusion modelscore matchingstochastic differential equation
2026年03月31日TTS开源生态竞争open-weight TTStime-to-first-audiomultilingual speech synthesis
2026年03月30日注意力机制变体演进Multi-Head AttentionGrouped Query AttentionMulti-head Latent Attention
2026年03月30日设备端语音推理架构on-device inferenceExecuTorchvoice agent pipeline
2026年03月29日混合自回归流匹配TTSautoregressive semantic tokensflow matching acoustic decoderhybrid TTS architecture
2026年03月29日NCCL超时诊断方法论NCCL watchdog timeoutdistributed training debuggingcollective communication
2026年03月29日混合架构音频表示Mambastate space modelaudio representation learning
2026年03月29日DeepSeek预训练加速工程MXFP8 trainingexpert parallelismMoE pretraining
2026年03月27日说话人验证度量学习speaker verificationmetric learningcurriculum learning
2026年03月27日MX浮点格式加速训练MXFP8microscalingmixed precision training
2026年03月26日TTS模型极限压缩model compressionknowledge distillationTTS on-device
2026年03月26日小模型极限压缩哲学model compressionknowledge distillationquantization
2026年03月25日流匹配生成原理flow matchingrectified flowODE
2026年03月25日神经音频编解码器neural audio codecresidual vector quantizationEnCodec
2026年03月25日推测解码加速推理speculative decodingdraft modeltoken verification