网站首页 > 技术文章 正文
张量,即多维数组,是现代机器学习框架的支柱。操纵这些张量可能会变得冗长且难以阅读,尤其是在处理高维数据时。Einops 使用简洁的符号简化了这些操作。
NSDT工具推荐: Three.js AI纹理开发包 - YOLO合成数据生成器 - GLTF/GLB在线编辑 - 3D模型格式在线转换 - 可编程3D场景编辑器 - REVIT导出3D模型插件 - 3D模型语义搜索引擎 - Three.js虚拟轴心开发包 - 3D模型在线减面 - STL模型在线切割
Einops (Einstein-Inspired Notation for operations),受爱因斯坦运算符号启发的张量操作库,已成为AI工程师无缝操控张量以产生AI的必备工具。这是我编写的简单教程,旨在帮助没有 Einops 经验的人创建复杂而实用的神经网络。
在开始之前,让我们先使用 pip 安装 Einops:
pip install einops
1、Einops的3个基本操作
Einops 围绕三个核心操作:重排、规约和重复。让我们通过示例深入探讨每个操作。
1.1 重排
重排(rearrange)让你可以通过一个容易看懂的操作符改变张量的维度和形状。
import torch
from einops import rearrange
# Create a 4D tensor of shape (batch, channels, height, width)
tensor = torch.rand(10, 3, 32, 32) # Example: a batch of 10 RGB images 32x32
# Rearrange to (batch, height, width, channels) for image processing libraries that expect this format
rearranged = rearrange(tensor, 'b c h w -> b h w c')
上面的操作将通道 c移至最后一个维度,这是 matplotlib 等库中图像处理的常见要求。
1.2 规约
规约(reduce) 对张量的指定维度(如总和、平均值或最大值)应用规约操作,从而简化张量聚合任务。
from einops import reduce
# Reduce the tensor's channel dimension by taking the mean, resulting in a grayscale image
grayscale = reduce(tensor, 'b c h w -> b h w', 'mean')
此操作通过对通道 c 进行平均,将我们的 RGB 图像转换为灰度图像。
1.3 重复
重复(repeat)沿任意维度复制张量,从而轻松实现数据增强或张量扩展。
from einops import repeat
# Repeat each image in the batch 4 times along a new dimension
repeated = repeat(tensor, 'b c h w -> (repeat b) c h w', repeat=4)
上面的操作通过重复每个图像来增加数据集的大小,这对于数据增强非常有用。
2、Einops的高级模式
Einops 以其直观处理复?杂重塑模式的能力而出名。
2.1 拆分和合并通道
将 RGB 通道拆分为单独的张量,对其进行处理,然后合并回去。
# Split channels
red, green, blue = rearrange(tensor, 'b (c rgb) h w -> rgb b c h w', rgb=3)
# Example processing (identity here)
processed_red, processed_green, processed_blue = red, green, blue
# Merge channels back
merged = rearrange([processed_red, processed_green, processed_blue], 'rgb b c h w -> b (rgb c) h w')
2.2 展平和反展平
展平完全连接层的空间维度,然后反展平。
# Flatten spatial dimensions
flattened = rearrange(tensor, 'b c h w -> b (c h w)')
# Example neural network operation
# output = model(flattened)
# Unflatten back to spatial dimensions (assuming output has shape b, features)
# unflattened = rearrange(output, 'b (c h w) -> b c h w', c=3, h=32, w=32)
2.3 批量图像裁剪
批量裁剪图像中心。
# Assuming tensor is batch of images b, c, h, w
crop_size = 24
start = (32 - crop_size) // 2
cropped = rearrange(tensor, 'b c (h crop) (w crop) -> b c h w', crop=crop_size, h=start, w=start)
上面的操作从批次中的每个 32x32 图像中提取居中的 24x24 裁剪图像。
3、高级用例:实现注意力机制
注意力机制,尤其是自注意力(self attention),已成为现代深度学习架构(如 Transformers)的基石。让我们看看 Einops 如何简化自注意力机制的实现。
自注意力允许模型衡量输入数据不同部分的重要性。它是使用从输入数据中得出的查询 (Q)、键 (K) 和值 (V) 来计算的。
3.1 示例:简化的自注意力
为简单起见,我们将演示自注意力的基本版本。请注意,实际实现(如 Transformers 中的实现)包括掩码和缩放等其他步骤。
import torch
import torch.nn.functional as F
from einops import rearrange
def simplified_self_attention(q, k, v):
"""
A simplified self-attention mechanism.
Args:
q, k, v (torch.Tensor): Queries, Keys, and Values. Shape: [batch_size, num_tokens, feature_dim]
Returns:
torch.Tensor: The result of the attention mechanism.
"""
# Compute the dot product between queries and keys
scores = torch.matmul(q, k.transpose(-2, -1))
# Apply softmax to get probabilities
attn_weights = F.softmax(scores, dim=-1)
# Multiply by values
output = torch.matmul(attn_weights, v)
return output
# Example tensors representing queries, keys, and values
batch_size, num_tokens, feature_dim = 10, 16, 64
q = torch.rand(batch_size, num_tokens, feature_dim)
k = torch.rand(batch_size, num_tokens, feature_dim)
v = torch.rand(batch_size, num_tokens, feature_dim)
# Apply self-attention
attention_output = simplified_self_attention(q, k, v)
print("Output shape:", attention_output.shape)
在此示例中,为简单起见,使用 torch.matmul 来计算点积。Einops 在这些操作之前或之后重新排列张量时特别有用,可确保它们在矩阵乘法等操作中正确对齐。
3.2 进一步利用 Einops
除了基本的重排、规约和重复之外,Einops 还可用于更复杂的张量操作,这在多头注意力中经常遇到,其中将特征维度拆分为多个“头”可以简洁地表达:
def multi_head_self_attention(q, k, v, num_heads=8):
"""
Multi-head self-attention using Einops for splitting and merging heads.
"""
batch_size, num_tokens, feature_dim = q.shape
head_dim = feature_dim // num_heads
# Split into multiple heads
q, k, v = [
rearrange(x, 'b t (h d) -> b h t d', h=num_heads)
for x in (q, k, v)
]
# Apply self-attention to each head
output = simplified_self_attention(q, k, v)
# Merge the heads back
output = rearrange(output, 'b h t d -> b t (h d)')
return output
# Apply multi-head self-attention
multi_head_attention_output = multi_head_self_attention(q, k, v)
print("Multi-head output shape:", multi_head_attention_output.shape)
此示例展示了 Einops 在轻松处理复杂张量重塑任务方面的强大功能,使您的代码更具可读性和可维护性。
4、结束语
Einops 是一种多功能且功能强大的张量操作工具,可以显著简化深度学习模型中复杂操作的实现。通过掌握 Einops,你将能够编写更简洁、可读和高效的张量操作代码,从而提升你的深度学习项目。无论是实现复杂的神经网络架构(如 Transformers)还是执行基本的张量重塑任务,Einops 都能满足你的需求。
- 上一篇: 标量、向量、矩阵、张量之间的区别和联系
- 下一篇: 【css】打造独特风格的浏览器滚动条
猜你喜欢
- 2024-10-03 标量、向量、矩阵、张量之间的区别和联系
- 2024-10-03 深度学习初学者必读:张量究竟什么?
- 10-02基于深度学习的铸件缺陷检测_如何控制和检测铸件缺陷?有缺陷铸件如何处置?
- 10-02Linux Mint 22.1 Cinnamon Edition 搭建深度学习环境
- 10-02AWD-LSTM语言模型是如何实现的_lstm语言模型
- 10-02NVIDIA Jetson Nano 2GB 系列文章(53):TAO模型训练工具简介
- 10-02使用ONNX和Torchscript加快推理速度的测试
- 10-02tensorflow GPU环境安装踩坑日记_tensorflow配置gpu环境
- 10-02Keye-VL-1.5-8B 快手 Keye-VL— 腾讯云两卡 32GB GPU保姆级部署指南
- 10-02Gateway_gateways
- 最近发表
-
- 基于深度学习的铸件缺陷检测_如何控制和检测铸件缺陷?有缺陷铸件如何处置?
- Linux Mint 22.1 Cinnamon Edition 搭建深度学习环境
- AWD-LSTM语言模型是如何实现的_lstm语言模型
- NVIDIA Jetson Nano 2GB 系列文章(53):TAO模型训练工具简介
- 使用ONNX和Torchscript加快推理速度的测试
- tensorflow GPU环境安装踩坑日记_tensorflow配置gpu环境
- Keye-VL-1.5-8B 快手 Keye-VL— 腾讯云两卡 32GB GPU保姆级部署指南
- Gateway_gateways
- Coze开源本地部署教程_开源canopen
- 扣子开源本地部署教程 丨Coze智能体小白喂饭级指南
- 标签列表
-
- cmd/c (90)
- c++中::是什么意思 (84)
- 标签用于 (71)
- 主键只能有一个吗 (77)
- c#console.writeline不显示 (95)
- pythoncase语句 (88)
- es6includes (74)
- sqlset (76)
- apt-getinstall-y (100)
- node_modules怎么生成 (87)
- chromepost (71)
- flexdirection (73)
- c++int转char (80)
- mysqlany_value (79)
- static函数和普通函数 (84)
- el-date-picker开始日期早于结束日期 (76)
- js判断是否是json字符串 (75)
- c语言min函数头文件 (77)
- asynccallback (87)
- localstorage.removeitem (74)
- vector线程安全吗 (70)
- java (73)
- js数组插入 (83)
- mac安装java (72)
- 无效的列索引 (74)