Skip to content

Commit 0a62d0c

Browse files
【Hackathon 5th No.63】 PhyCRNet: Physics-informed Convolutional-Recurrent Network for Solving Spatiotemporal PDEs (#674)
* Add files via upload * Create readme.md * Add files via upload * Update __init__.py * Add files via upload * Add files via upload * add * add * add * add * add * add * add * add * add * add * a * a * Update phycrnet.md * Update phycrnet.md * Update phycrnet.md * a * d * d * a * a * a * a * a * a * p * a * a * a * update .md file * update .md file * update .md file * fix * edit md * eval * m * m * edit * edit --------- Co-authored-by: WG <39621324+wangguan1995@users.noreply.github.com> Co-authored-by: wangguan <772359200@qq.com>
1 parent ff34fa0 commit 0a62d0c

File tree

10 files changed

+1526
-0
lines changed

10 files changed

+1526
-0
lines changed

docs/zh/api/arch.md

Lines changed: 1 addition & 0 deletions
Original file line numberDiff line numberDiff line change
@@ -18,6 +18,7 @@
1818
- ModelList
1919
- AFNONet
2020
- PrecipNet
21+
- PhyCRNet
2122
- UNetEx
2223
- USCNN
2324
- NowcastNet

docs/zh/examples/phycrnet.md

Lines changed: 190 additions & 0 deletions
Original file line numberDiff line numberDiff line change
@@ -0,0 +1,190 @@
1+
# PhyCRNet
2+
3+
<a href="https://aistudio.baidu.com/projectdetail/7296776" class="md-button md-button--primary" style>AI Studio快速体验</a>
4+
5+
=== "模型训练命令"
6+
7+
``` sh
8+
# linux
9+
wget -nc https://paddle-org.bj.bcebos.com/paddlescience/datasets/PhyCRNet/burgers_1501x2x128x128.mat -P ./data/
10+
11+
# windows
12+
# curl https://paddle-org.bj.bcebos.com/paddlescience/datasets/PhyCRNet/burgers_1501x2x128x128.mat --output ./data/burgers_1501x2x128x128.mat
13+
14+
python main.py DATA_PATH=./data/burgers_1501x2x128x128.mat
15+
```
16+
17+
=== "模型评估命令"
18+
19+
``` sh
20+
# linux
21+
wget -nc https://paddle-org.bj.bcebos.com/paddlescience/datasets/PhyCRNet/burgers_1501x2x128x128.mat -P ./data/
22+
# windows
23+
# curl https://paddle-org.bj.bcebos.com/paddlescience/datasets/PhyCRNet/burgers_1501x2x128x128.mat --output ./data/burgers_1501x2x128x128.mat
24+
25+
python main.py mode=eval DATA_PATH=./data/burgers_1501x2x128x128.mat EVAL.pretrained_model_path=https://paddle-org.bj.bcebos.com/paddlescience/models/phycrnet/phycrnet_burgers.pdparams
26+
```
27+
| 预训练模型 | 指标 |
28+
|:--| :--|
29+
| [phycrnet_burgers_pretrained.pdparams](https://paddle-org.bj.bcebos.com/paddlescience/models/phycrnet/phycrnet_burgers.pdparams) | a-RMSE: 3.20e-3 |
30+
31+
## 1. 背景简介
32+
33+
复杂时空系统通常可以通过偏微分方程(PDE)来建模,它们在许多领域都十分常见,如应用数学、物理学、生物学、化学和工程学。求解PDE系统一直是科学计算领域的一个关键组成部分。
34+
本文的具体目标是为了提出一种新颖的、考虑物理信息的卷积-递归学习架构(PhyCRNet)及其轻量级变体(PhyCRNet-s),用于解决没有任何标签数据的多维时间空间PDEs。本项目主要目标是使用PaddleScience复现论文所提供的代码,并与代码的精度对齐。
35+
36+
该网络有以下优势:
37+
38+
1、 使用ConvLSTM(enconder-decoder Convolutional Long Short-Term Memory network) 可以充分提取低维空间上的特征以及学习其时间上的变化。
39+
40+
2、使用一个全局的残差迭代从而可以严格地执行时间上的迭代过程。
41+
42+
3、使用基于高阶有限差分格式的滤波从而能够精确求解重要的偏微分方程导数值。
43+
44+
4、使用强制边界条件是的所求解的数值解可以满足原方程所要求的初值以及边界条件。
45+
46+
## 2. 问题定义
47+
48+
在本模型中,我们考虑的是含有时间和空间的PDE模型,此类模型在推理过程中会存在时间上的误差累积的问题,因此,本文通过设计循环卷积神经网络试图减轻每一步时间迭代的误差累积。而我们所求解的问题为以高斯分布随机得到的值为初值的二维Burgers' Equation:
49+
50+
$$u_t+u\cdot \nabla u -\nu u =0$$
51+
52+
二维Burgers' Equation 刻画了复杂的非线性的反应扩散相互作用的问题,因此,经常被用来当作benchmark来比较各种科学计算算法。
53+
54+
## 3. 问题求解
55+
56+
### 3.1 模型构建
57+
在这一部分中,我们介绍 PhyCRNet 的架构,包括编码器-解码器模块、残差连接、自回归(AR)过程和基于过滤的微分。网络架构如图所示。编码器(黄色Encoder,包含3个卷积层),用于从输入状态变量 $u(t=i),i = 0,1,2,..,T-1$ 学习低维潜在特征,其中 $T$ 表示总时间步。我们应用 ReLU 作为卷积层的激活函数。然后,我们将ConvLSTM层的输出(Encoder得到的低分辨率),潜在特征的时间传播器(绿色部分),其中,输出的LSTM的记忆单元 $C_i$ 和LSTM的隐藏变量单元 $h_i$ 会作为下一个时间步的输入。这样做的好处是对低维变量的基本动态进行建模,能够准确地捕获时间依赖性,同时有助于减轻记忆负担。 使用 LSTM 的另一个优势来自输出状态的双曲正切函数,它可以保持平滑的梯度曲线,并将值控制在 -1 和 1 之间。在建立低分辨率LSTM卷积循环方案后,我们基于上采样操作Decoder(蓝色部分)直接将低分辨率潜在空间重建为高分辨率量。特别注明,应用了子像素卷积层(即像素shuffle),因为与反卷积相比,它具有更好的效率和重建精度,且伪像更少。 最后,我们添加另一个卷积层,用于将有界潜变量空间输出,缩放回原始的物理空间。该Decoder后面没有激活函数。 此外,值得一提的是,鉴于输入变量数量有限及其对超分辨率的缺陷,我们在 PhyCRNet 中没有考虑 batch normalization。 作为替代,我们使用 batch normalization 来训练网络,以实现训练加速和更好的收敛性。受到动力学中,Forward Eular Scheme 的启发,我们在输入状态变量 $u_i$ 和输出变量 $u_{i+1}$ 之间附加全局残差连接。具体网络结构如下图所示:
58+
59+
![image](https://paddle-org.bj.bcebos.com/paddlescience/docs/phycrnet/PhyCRnet.png)
60+
61+
接下来,剩下的挑战是,如何进行物理嵌入,来融合N-S方程带来的精度提升。我们应用无梯度卷积滤波器,来表示离散数值微分,以近似感兴趣的导数项。 例如,我们在本文中考虑的基于 Finite Difference 有限差分的滤波器是2阶和4阶中心差分格式,来计算时间和空间导数。
62+
63+
时间差分:
64+
65+
$$K_t = [-1,0,1] \times \frac{1}{2 \delta t},$$
66+
67+
空间差分:
68+
69+
$$K_s = \begin{bmatrix}
70+
0 & 0 & -1 & 0 & 0 \\
71+
0 & 0 & 16 & 0 & 0 \\
72+
-1 & 16 & -60 & 16 & -1 \\
73+
0 & 0 & 16 & 0 & 0 \\
74+
0 & 0 & -1 & 0 & 0 \\
75+
\end{bmatrix} \times \frac{1}{12 (\delta x)^2},$$
76+
77+
其中 $\delta t$ 和 $\delta x$ 表示时间步长和空间步长。
78+
79+
此外需要注意无法直接计算边界上的导数,丢失边界差异信息的风险可以通过接下来引入的在传统有限差分中经常使用的鬼点填充机制来减轻,其主要核心是在矩阵外围填充一层或多层鬼点(层数取决于差分格式,即,过滤器的大小),以下图为例,在迪利克雷边界条件(Dirichlet BCs)下,我们只需要把常值鬼点在原矩阵外围填充即可;在诺伊曼边界条件(Neumann BCs)下,我们需要根据其边界条件导数值确定鬼点的值。
80+
81+
![image](https://paddle-org.bj.bcebos.com/paddlescience/docs/phycrnet/Hard_IC_BC.png)
82+
83+
``` py linenums="43"
84+
--8<--
85+
examples/phycrnet/main.py:43:45
86+
--8<--
87+
```
88+
89+
``` yaml linenums="34"
90+
--8<--
91+
examples/phycrnet/conf/burgers_equations.yaml:34:42
92+
--8<--
93+
```
94+
95+
### 3.2 数据载入
96+
我们使用RK4或者谱方法生成的数据(初值为使用正态分布生成),需要从.mat文件中将其读入,:
97+
``` py linenums="54"
98+
--8<--
99+
examples/phycrnet/main.py:54:72
100+
--8<--
101+
```
102+
103+
### 3.3 约束构建
104+
105+
设置约束以及相关损失函数:
106+
107+
``` py linenums="74"
108+
--8<--
109+
examples/phycrnet/main.py:74:90
110+
--8<--
111+
```
112+
113+
### 3.4 评估器构建
114+
115+
设置评估数据集和相关损失函数:
116+
117+
``` py linenums="92"
118+
--8<--
119+
examples/phycrnet/main.py:92:109
120+
--8<--
121+
```
122+
123+
### 3.6 优化器构建
124+
125+
训练过程会调用优化器来更新模型参数,此处选择 `Adam` 优化器并设定 `learning_rate`
126+
127+
``` py linenums="112"
128+
--8<--
129+
examples/phycrnet/main.py:112:116
130+
--8<--
131+
```
132+
133+
### 3.7 模型训练与评估
134+
135+
为了评估所有基于神经网络的求解器产生的解决方案精度,我们分两个阶段评估了全场误差传播:训练和外推。在时刻 τ 的全场误差 $\epsilon_\tau$ 的定义为给定 b 的累积均方根误差 (a-RMSE)。
136+
137+
$$
138+
\epsilon_\tau=\sqrt{\frac{1}{N_\tau} \sum_{k=1}^{N_\tau} \frac{\left\|\mathbf{u}^*\left(\mathbf{x}, t_k\right)-\mathbf{u}^\theta\left(\mathbf{x}, t_k\right)\right\|_2^2}{m n}}
139+
$$
140+
141+
这一步需要通过设置外界函数来进行,因此在训练过程中,我们使用`function.transform_out`来进行训练
142+
``` py linenums="47"
143+
--8<--
144+
examples/phycrnet/main.py:47:51
145+
--8<--
146+
```
147+
而在评估过程中,我们使用`function.tranform_output_val`来进行评估,并生成累计均方根误差。
148+
``` py linenums="142"
149+
--8<--
150+
examples/phycrnet/main.py:142:142
151+
--8<--
152+
```
153+
完成上述设置之后,只需要将上述实例化的对象按顺序传递给 `ppsci.solver.Solver`
154+
155+
``` py linenums="117"
156+
--8<--
157+
examples/phycrnet/main.py:117:129
158+
--8<--
159+
```
160+
161+
最后启动训练、评估即可:
162+
163+
``` py linenums="132"
164+
--8<--
165+
examples/phycrnet/main.py:132:140
166+
--8<--
167+
```
168+
169+
## 4. 完整代码
170+
171+
``` py linenums="1" title="phycrnet"
172+
--8<--
173+
examples/phycrnet/main.py
174+
--8<--
175+
```
176+
177+
## 5. 结果展示
178+
179+
本文通过对Burgers' Equation进行训练,所得结果如下,根据精度和扩展能力的对比我们可以得出,我们的模型在训练集(t=1.0,2.0)以及拓展集(t=3.0,4.0)上均有良好的表现效果。pred为使用网络预测的速度的第一分量u在定义域上的contour图,truth为真实的速度第一分量u在定义域上的contour图,Error为预测值与真实值之间在整个定义域差值。
180+
181+
![image](https://paddle-org.bj.bcebos.com/paddlescience/docs/NSFNet/PhyCRNet_Burgers.jpeg)
182+
183+
## 6. 结果说明
184+
185+
求解偏微分方程是在科学计算中的一个基本问题,而神经网络求解偏微分方程在求解逆问题以及数据同化问题等在传统方法上具有挑战性的问题上具有显著效果,但是,现有神经网络求解方法受限制于可扩展性,误差传导以及泛化能力等问题。因此,本论文通过提出一个新的神经网络PhyCRNet,通过将传统有限差分的思路嵌入物理信息神经网络中,针对性地解决原神经网络缺少对长时间数据的推理能力、误差累积以及缺少泛化能力的问题。与此同时,本文通过类似于有限差分的边界处理方式,将原本边界条件的软限制转为硬限制,大大提高了神经网络的准确性。新提出的网络可以有效解决上述提到的数据同化问题以及逆问题。
186+
187+
## 7. 参考资料
188+
189+
- [PhyCRNet: Physics-informed Convolutional-Recurrent Network for Solving Spatiotemporal PDEs](https://arxiv.org/abs/2106.14103)
190+
- <https://github.com/isds-neu/PhyCRNet>
Lines changed: 65 additions & 0 deletions
Original file line numberDiff line numberDiff line change
@@ -0,0 +1,65 @@
1+
hydra:
2+
run:
3+
# dynamic output directory according to running time and override name
4+
dir: burgers/${now:%Y-%m-%d}/${now:%H-%M-%S}/${hydra.job.override_dirname}
5+
job:
6+
name: ${mode} # name of logfile
7+
chdir: false # keep current working direcotry unchanged
8+
config:
9+
override_dirname:
10+
exclude_keys:
11+
- TRAIN.checkpoint_path
12+
- TRAIN.pretrained_model_path
13+
- EVAL.pretrained_model_path
14+
- mode
15+
- output_dir
16+
- log_freq
17+
sweep:
18+
# output directory for multirun
19+
dir: ${hydra.run.dir}
20+
subdir: ./
21+
22+
# general settings
23+
mode: train # running mode: train/eval
24+
seed: 66
25+
output_dir: ${hydra:run.dir}
26+
DATA_PATH: ./data/burgers_2001x2x128x128.mat
27+
case_name: 2D Burgers' equation
28+
num_convlstm: 1
29+
# set working condition
30+
TIME_STEPS: 1001
31+
DT: 0.002
32+
DX: [1.0, 128]
33+
TIME_BATCH_SIZE: 1000
34+
35+
# model settings
36+
MODEL:
37+
input_channels: 2
38+
hidden_channels: [8, 32, 128, 128]
39+
input_kernel_size: [4, 4, 4, 3]
40+
input_stride: [2, 2, 2, 1]
41+
input_padding: [1, 1, 1, 1]
42+
num_layers: [3, 1]
43+
upscale_factor: 8
44+
45+
# training settings
46+
TRAIN:
47+
epochs: 24000
48+
iters_per_epoch: 1
49+
lr_scheduler:
50+
epochs: ${TRAIN.epochs}
51+
iters_per_epoch: ${TRAIN.iters_per_epoch}
52+
step_size: 50
53+
gamma: 0.99
54+
learning_rate: 6.0e-4
55+
save_freq: 50
56+
eval_with_no_grad: true
57+
pretrained_model_path: null
58+
checkpoint_path: null
59+
60+
# evaluation settings
61+
EVAL:
62+
pretrained_model_path: null
63+
eval_with_no_grad: true
64+
TIME_BATCH_SIZE: 2000
65+
TIME_STEPS: 2001
Lines changed: 63 additions & 0 deletions
Original file line numberDiff line numberDiff line change
@@ -0,0 +1,63 @@
1+
hydra:
2+
run:
3+
# dynamic output directory according to running time and override name
4+
dir: fitzhugh/${now:%Y-%m-%d}/${now:%H-%M-%S}/${hydra.job.override_dirname}
5+
job:
6+
name: ${mode} # name of logfile
7+
chdir: false # keep current working direcotry unchanged
8+
config:
9+
override_dirname:
10+
exclude_keys:
11+
- TRAIN.checkpoint_path
12+
- TRAIN.pretrained_model_path
13+
- EVAL.pretrained_model_path
14+
- mode
15+
- output_dir
16+
- log_freq
17+
sweep:
18+
# output directory for multirun
19+
dir: ${hydra.run.dir}
20+
subdir: ./
21+
22+
# general settings
23+
mode: train # running mode: train/eval
24+
seed: 66
25+
output_dir: ${hydra:run.dir}
26+
DATA_PATH: ./data/FN_1001x2x128x128.mat
27+
case_name: fitzhugh_nagumo
28+
num_convlstm: 1
29+
# set working condition
30+
TIME_STEPS: 751
31+
DT: 0.006
32+
DX: [128.0, 128]
33+
TIME_BATCH_SIZE: 750
34+
35+
# model settings
36+
MODEL:
37+
input_channels: 2
38+
hidden_channels: [8, 32, 128, 128]
39+
input_kernel_size: [4, 4, 4, 3]
40+
input_stride: [2, 2, 2, 1]
41+
input_padding: [1, 1, 1, 1]
42+
num_layers: [3, 1]
43+
upscale_factor: 8
44+
45+
# training settings
46+
TRAIN:
47+
epochs: 30000
48+
iters_per_epoch: 1
49+
lr_scheduler:
50+
epochs: ${TRAIN.epochs}
51+
iters_per_epoch: ${TRAIN.iters_per_epoch}
52+
step_size: 50
53+
gamma: 0.995
54+
learning_rate: 5.0e-5
55+
save_freq: 50
56+
eval_with_no_grad: true
57+
pretrained_model_path: null
58+
checkpoint_path: null
59+
60+
# evaluation settings
61+
EVAL:
62+
pretrained_model_path: null
63+
eval_with_no_grad: true
Lines changed: 63 additions & 0 deletions
Original file line numberDiff line numberDiff line change
@@ -0,0 +1,63 @@
1+
hydra:
2+
run:
3+
# dynamic output directory according to running time and override name
4+
dir: lambda_omega/${now:%Y-%m-%d}/${now:%H-%M-%S}/${hydra.job.override_dirname}
5+
job:
6+
name: ${mode} # name of logfile
7+
chdir: false # keep current working direcotry unchanged
8+
config:
9+
override_dirname:
10+
exclude_keys:
11+
- TRAIN.checkpoint_path
12+
- TRAIN.pretrained_model_path
13+
- EVAL.pretrained_model_path
14+
- mode
15+
- output_dir
16+
- log_freq
17+
sweep:
18+
# output directory for multirun
19+
dir: ${hydra.run.dir}
20+
subdir: ./
21+
22+
# general settings
23+
device: 'gpu:3'
24+
mode: train # running mode: train/eval
25+
seed: 66
26+
output_dir: ${hydra:run.dir}
27+
DATA_PATH: ./data/reaction_diffusion.mat
28+
case_name: lambda_omega
29+
# set working condition
30+
TIME_STEPS: 201
31+
DT: 0.025
32+
DX: [20.0, 512]
33+
TIME_BATCH_SIZE: 200
34+
num_convlstm: 1
35+
# model settings
36+
MODEL:
37+
input_channels: 2
38+
hidden_channels: [8, 32, 128, 128]
39+
input_kernel_size: [4, 4, 4, 3]
40+
input_stride: [2, 2, 2, 1]
41+
input_padding: [1, 1, 1, 1]
42+
num_layers: [3, 1]
43+
upscale_factor: 8
44+
45+
# training settings
46+
TRAIN:
47+
epochs: 24000
48+
iters_per_epoch: 1
49+
lr_scheduler:
50+
epochs: ${TRAIN.epochs}
51+
iters_per_epoch: ${TRAIN.iters_per_epoch}
52+
step_size: 100
53+
gamma: 0.99
54+
learning_rate: 5.0e-4
55+
save_freq: 50
56+
eval_with_no_grad: true
57+
pretrained_model_path: null
58+
checkpoint_path: null
59+
60+
# evaluation settings
61+
EVAL:
62+
pretrained_model_path: null
63+
eval_with_no_grad: true

0 commit comments

Comments
 (0)