Abstract

SeisCLIP: 基于对比学习的地震学基础模型


1.Introduction

** 研究背景**

预训练策略

地震学基础模型

结论


2.Methods

A. 地震学基础模型的架构

1. 研究目标

2. 网络架构

3. 训练策略

B. 预训练和验证的数据准备

下游任务数据集

(1)地震定位(Localization)

(2)震源机制分析(Focal Mechanism Analysis)

数据预处理

C. 通过对比学习(Contrastive Learning)预训练 SeisCLIP

预训练策略

训练细节

D. SeisCLIP 在下游任务中的应用

下游任务: 事件分类(Event Classification);地震定位(Earthquake Localization);震源机制分析(Focal Mechanism Analysis)

训练策略

基线模型对比


3.RESULTS

##A. 事件分类(Event Classification)

评估方法

结果分析

泛化能力

B. 事件定位(Event Location)

震中距离预测

震源深度预测

其他定位因素

结论

C. 震源机制分析(Focal Mechanism Analysis)

任务定义

评估方法

3. 结果分析


4. DISCUSSION

1. SeisCLIP 预训练特征分析与可视化

SeisCLIP 采用 预训练(Pretraining)+ 微调(Fine-Tuning) 方式,在多个地震学任务中展现优异性能。
通过 t-SNE 降维分析,可视化 Frozen、Scratch、Fine-Tuned 三种训练策略的特征分布,以理解模型学习到的特征。

预训练与微调

t-SNE 降维分析

2. STFT 参数对 SeisCLIP 模型的影响与计算成本分析

SeisCLIP 预训练时采用 短时傅里叶变换(STFT) 进行地震波形到频谱的转换,不同 STFT 参数对模型分类与定位任务的影响显著。

STFT 设定

STFT 参数对任务表现的影响

2.3 计算成本分析

3. 多台站任务的计算效率与 SeisCLIP 适用性分析

SeisCLIP 在 多台站任务 中计算效率和适用性成为关键因素。

计算效率分析
..
SeisCLIP 适用性


5.CONCLUSION

SeisCLIP 作为地震学基础模型

预训练 + 微调的优势

多区域数据集测试

SeisCLIP 的未来潜力


附录 A:评估指标(Evaluation Metrics)

1. 二分类任务的评估方法

对于 二分类任务(如地震 vs. 爆炸),我们采用 ROC 曲线(Receiver Operating Characteristic Curve)AUC(Area Under the Curve) 作为主要评估指标。

1.1 预测分类方式

模型输出 每个类别的概率(地震或爆炸),通过设定 阈值(Threshold),决定测试集中的事件属于 地震(Earthquake) 还是 爆炸(Explosion)。计算 混淆矩阵(Confusion Matrix) 的关键指标:

1.2 评估指标计算公式

$$ Precision = \frac{TP}{TP + FP} $$

$$ TPR = Recall = \frac{TP}{TP + FN} $$

$$ FPR = \frac{FP}{FP + TN} $$

$$ F1 = 2 \times \frac{Precision \times Recall}{Precision + Recall} $$

1.3 ROC 曲线与 AUC

通过 改变阈值,计算不同点的 $TPR$ 和 $FPR$,绘制 ROC 曲线
AUC(曲线下面积) 代表分类器在不同阈值下的整体性能:


2. 多分类任务的评估方法

对于 多分类任务(如地震、爆炸、地表事件),我们采用 一对多(One-vs-Rest) 方法,将其转换为多个 二分类问题

2.1 One-vs-Rest 方法

我们对 每个类别单独计算 ROC 曲线和 AUC,具体方式如下:

2.2 宏平均(Macro Average)

我们计算多个类别的 $AUC$ 值的算术平均值,作为整体分类性能的衡量指标:

$$
Macro\ Average = \frac{AUC_1 + AUC_2 + AUC_3}{3}
$$
宏平均(Macro Average)能够衡量模型在所有类别上的平均分类能力,确保其不偏向某一特定类别。


3. 结论

附录 B:训练细节(Training Details)

1. 训练优化策略

在训练过程中,SeisCLIP 采用 ADAM 优化方法(ADAM Optimizer),并针对 不同的训练过程 采用不同的 损失函数(Loss Function)、学习率(Learning Rate)、训练轮数(Epochs)和批量大小(Batch Size)(详见 表 IV)。

2. 训练损失曲线分析

图 11 展示了 预训练(Pretraining)和各下游任务(Downstream Tasks) 训练集和验证集的 损失曲线(Loss Curves)
所有模型均基于 验证集(Validation Dataset)上的最佳表现 进行选择:

3. SeisCLIP 性能的关键因素

SeisCLIP 的 优异表现(Superior Performance) 主要归因于其 预训练编码器(Pre-Trained Encoder) 具有 大规模参数量(Substantial Parameter Volume)

4. 可训练参数对比

为了评估模型的计算开销,我们对 不同模型的可训练参数数量(Trainable Parameters) 进行了比较(详见 表 V)。
该分析有助于理解:

结论

Image

Paper Link

转载请注明出处