摘要


研究动机与方法概述


Results

结构总览

编码器(全局表征)

解码器(任务专属)

训练可优化性与效率

设计动机与领域先验

Image

--- # 数据与训练

1. 数据与预处理

2. 标签策略

$$ y(t) = \begin{cases} 1, & t \in [t_P,, t_S + 1.4,(t_S - t_P)] \\ 0, & \text{otherwise} \end{cases} $$

3. 训练配置

4. 数据增强与并行管线

增强 目的 概率
次震叠加(空白段) 重叠事件鲁棒性 0.3
高斯噪声注入 噪声鲁棒性 0.5
事件随机平移(数组旋转) 时移不变性 0.99
噪声段插零间隙 缺失/跳变鲁棒性 0.2
丢弃 1–2 通道 传感器异常鲁棒性 0.3

5. 关键内联量


注意力机制可视化与解释

关键观点

实务意义

术语内联


结果与方法对比

一、测试设置与可视化

二、连续数据的工程流程

三、检测性能

四、拾取性能


区域外应用与结果

1. 测试设置

2. 目录与完整性

$$ log_{10}N(M)=a-bM,\quad M_c \text{ 为拐点/最大曲率处} $$

3. 拾取一致性

4. 实务要点

5. 关键内联


讨论

1. 性能增益来源

2. 不确定性与误报控制

3. 影响拾取稳定性的观测条件

4. 泛化与数据规模

5. 标注与训练流程的重要性

6. 与传统方法对比

1. 公平对比的挑战与倡议

2. 传统拾取器 vs 深度方法

3. 日本应用的泛化与效率

4. 方法学与贡献

5. 实务建议


方法:相关工作

1. 代表性工作脉络

2. 共性与差异

3. 痛点与建议

4. 评测指标提示


方法:网络设计

结构与动机

架构范式

计算考量

关键内联


方法:超深编码器

设计动机

结构要点

关键机理

复杂度提示

$$ \text{Self-Attention Memory} \sim O(T^2) $$

内联符号


注意力机制

1. 记号与核心公式

$$ e_{t,t'}=\sigma!\Big(W_2^{\top}\big[\tanh(W_1^{\top}h_t+W_1^{\top}h_{t'}+b_1)\big]+b_2\Big) $$

$$ \alpha_{t,t'}=\frac{\exp(e_{t,t'})}{\sum_{t'}\exp(e_{t,t'})},\qquad c_t=\sum_{t'=1}^{n}\alpha_{t,t'},h_{t'} $$

$$ FF(x)=\max(0,,xW_1+b_1),W_2+b_2 $$

2. 架构落地

3. 直观理解(内联)


不确定性估计

核心概念

方法要点:MC Dropout(近似贝叶斯)

$$ \bar{\mathbf{p}}(y\mid x)\approx \frac{1}{M}\sum_{m=1}^{M}\hat{\mathbf{p}}^{(m)}(y\mid x) $$

$$ \mathrm{Var}[\mathbf{p}(y\mid x)]\approx \frac{1}{M}\sum_{m=1}^{M}\left(\hat{\mathbf{p}}^{(m)}(y\mid x)-\bar{\mathbf{p}}(y\mid x)\right)^{2} $$

实务价值

关键内联

Paper Link

转载请注明出处