溫馨提示×

Python torch.nn.SiLU怎么使用

小億
158
2023-10-24 10:24:35
欄目: 編程語言

在使用Python中的`torch.nn.SiLU`之前,需要先導(dǎo)入`torch`和`torch.nn`模塊。`torch.nn.SiLU`是PyTorch中的一個激活函數(shù),也稱為Swish激活函數(shù)。

以下是一個簡單的示例,展示了如何使用`torch.nn.SiLU`:

```python
import torch
import torch.nn as nn

# 創(chuàng)建一個輸入張量
x = torch.randn(1, 10)

# 初始化SiLU激活函數(shù)
silu = nn.SiLU()

# 將輸入張量傳遞給SiLU激活函數(shù)
output = silu(x)

print(output)
```

在上面的示例中,我們首先導(dǎo)入了`torch`和`torch.nn`模塊。然后,我們創(chuàng)建一個大小為`(1, 10)`的隨機(jī)輸入張量`x`。

接下來,使用`nn.SiLU()`初始化了一個SiLU激活函數(shù)的實(shí)例,即`silu`。最后,我們將輸入張量`x`傳遞給`silu`激活函數(shù),并將結(jié)果存儲在`output`變量中。

最后,我們打印輸出結(jié)果`output`。

0