如何高效地从二维张量的每一行中提取不同范围的子张量
发布时间 - 2026-01-06 00:00:00 点击率:次本文介绍一种无需显式循环、利用 pytorch 的 `gather` 和广播机制,批量从二维张量各行中按动态起始索引提取固定长度子序列的方法。
在深度学习和张量处理中,常需对二维张量(如 batch × seq_len)的每一行独立切片——例如按每条样本的动态起始位置截取固定长度的子序列。若使用 Python 循环或列表推导式,不仅低效,还破坏了张量计算的并行性与可微性。幸运的是,PyTorch 提供了完全向量化(vectorized)的解决方案:结合 torch.arange 构造索引矩阵 + torch.gather 沿指定维度收集元素。
核心思想是:为每行生成一个长度为 chunksize 的连续索引序列(即 start[i], start[i]+1, ..., start[i]+chunksize-1),堆叠成二维索引张量;再用 gather(dim=1) 沿列方向依据该索引矩阵从原数据中“拾取”对应列值。
以下为完整实现:
import torch
def batch_slice_rows(data: torch.Tensor, start_indices: torch.Tensor, chunksize: int, dim: int = 1) -> torch.Tensor:
"""
向量化地从 data 的每一行(dim=1)中提取长度为 chunksize 的子序列。
Args:
data: 输入二维张量,形状为 (N, M)
start_indices: 起始索引张量,形状为 (N,),dtype=torch.long
chunksize: 每个子序列的固定长度(必须为正整数)
dim: 切片维度(默认为 1,即按行切列)
Returns:
输出张量,形状为 (N, chunksize)
"""
if dim != 1:
raise NotImplementedError("仅支持 dim=1(按行切片)的向量化实现")
# 验证输入类型与范围
assert start_indices.dtype in (torch.long, torch.int64), "start_indices 必须为 long 类型"
assert (start_indices >= 0).all() and (s
tart_indices + chunksize <= data.size(1)).all(), \
f"索引越界:start_indices={start_indices}, data.shape={data.shape}, chunksize={chunksize}"
# 为每行构造 [start[i], start[i]+1, ..., start[i]+chunksize-1]
# 使用广播:(N, 1) + (1, chunksize) → (N, chunksize)
offsets = torch.arange(chunksize, device=data.device, dtype=start_indices.dtype)
index_tensor = start_indices.unsqueeze(1) + offsets.unsqueeze(0) # shape: (N, chunksize)
# 沿 dim=1 收集数据(等价于按行索引列)
return torch.gather(data, dim=1, index=index_tensor)
# 示例使用
data = torch.tensor([[ 1., 2., 3., 4., 5.],
[ 6., 7., 8., 9., 10.],
[11., 12., 13., 14., 15.]])
start_idx = torch.tensor([0, 3, 1], dtype=torch.long)
result = batch_slice_rows(data, start_idx, chunksize=2)
print(result)
# 输出:
# tensor([[ 1., 2.],
# [ 9., 10.],
# [12., 13.]])✅ 关键优势:
- 完全免循环,GPU 友好,支持梯度回传(gather 是可微操作);
- 时间复杂度 O(N×chunksize),远优于循环版的 O(N×chunksize×Python开销);
- 索引张量通过广播生成,内存高效,避免 stack + 列表推导的 Python 层开销(原答案中 torch.stack([...]) 在大数据量下易成瓶颈)。
⚠️ 注意事项:
- start_indices 必须为 torch.long 类型(浮点型索引不被 gather 接受);
- 所有 start[i] + chunksize 必须 ≤ data.size(1),否则触发越界错误;
- 当 chunksize 不固定时,需改用 torch.nested(PyTorch 2.0+)或 padding + mask 方案,无法纯向量化。
总结:该方法以简洁、高效、可扩展的方式解决了“按行动态切片”的典型需求,是构建高性能数据预处理流水线与自定义层的重要技巧。
# python
# 大数据
# ai
# 深度学习
# pytorch
相关栏目:
【
网站优化151355 】
【
网络推广146373 】
【
网络技术251813 】
【
AI营销90571 】
相关推荐:
制作电商网页,电商供应链怎么做?
如何登录建站主机?访问步骤全解析
详解Nginx + Tomcat 反向代理 负载均衡 集群 部署指南
详解vue.js组件化开发实践
laravel怎么为API路由添加签名中间件保护_laravel API路由签名中间件保护方法
uc浏览器二维码扫描入口_uc浏览器扫码功能使用地址
Laravel Eloquent:优雅地将关联模型字段扁平化到主模型中
北京网站制作公司哪家好一点,北京租房网站有哪些?
Python文件操作最佳实践_稳定性说明【指导】
java获取注册ip实例
米侠浏览器网页图片不显示怎么办 米侠图片加载修复
敲碗10年!Mac系列传将迎来「触控与联网」双革新
中山网站制作网页,中山新生登记系统登记流程?
香港服务器建站指南:免备案优势与SEO优化技巧全解析
标题:Vue + Vuex + JWT 身份认证的正确实践与常见误区解析
JavaScript 输出显示内容(document.write、alert、innerHTML、console.log)
Chrome浏览器标签页分组怎么用_谷歌浏览器整理标签页技巧【效率】
邀请函制作网站有哪些,有没有做年会邀请函的网站啊?在线制作,模板很多的那种?
如何为不同团队 ID 动态生成多个非值班状态按钮
JavaScript中如何操作剪贴板_ClipboardAPI怎么用
Laravel怎么清理缓存_Laravel optimize clear命令详解
个人网站制作流程图片大全,个人网站如何注销?
EditPlus 正则表达式 实战(3)
VIVO手机上del键无效OnKeyListener不响应的原因及解决方法
如何基于云服务器快速搭建个人网站?
如何快速搭建自助建站会员专属系统?
如何在云指建站中生成FTP站点?
东莞专业网站制作公司有哪些,东莞招聘网站哪个好?
PHP正则匹配日期和时间(时间戳转换)的实例代码
Python结构化数据采集_字段抽取解析【教程】
如何快速搭建支持数据库操作的智能建站平台?
利用vue写todolist单页应用
Laravel如何自定义分页视图?(Pagination示例)
EditPlus中的正则表达式实战(5)
laravel服务容器和依赖注入怎么理解_laravel服务容器与依赖注入解析
Laravel如何创建自定义中间件?(Middleware代码示例)
Laravel如何与Pusher实现实时通信?(WebSocket示例)
Win11怎么设置默认图片查看器_Windows11照片应用关联设置
Laravel如何安装使用Debugbar工具栏_Laravel性能调试与SQL监控插件【步骤】
深圳网站制作设计招聘,关于服装设计的流行趋势,哪里的资料比较全面?
node.js报错:Cannot find module 'ejs'的解决办法
Laravel如何处理跨站请求伪造(CSRF)保护_Laravel表单安全机制与令牌校验
如何用PHP快速搭建CMS系统?
胶州企业网站制作公司,青岛石头网络科技有限公司怎么样?
Laravel如何使用Service Provider服务提供者_Laravel依赖注入与容器绑定【深度】
Laravel如何创建自定义Artisan命令?(代码示例)
晋江文学城电脑版官网 晋江文学城网页版直接进入
Win11怎么关闭透明效果_Windows11辅助功能视觉效果设置
Windows10电脑怎么查看硬盘通电时间_Win10使用工具检测磁盘健康
Laravel怎么创建控制器Controller_Laravel路由绑定与控制器逻辑编写【指南】


tart_indices + chunksize <= data.size(1)).all(), \
f"索引越界:start_indices={start_indices}, data.shape={data.shape}, chunksize={chunksize}"
# 为每行构造 [start[i], start[i]+1, ..., start[i]+chunksize-1]
# 使用广播:(N, 1) + (1, chunksize) → (N, chunksize)
offsets = torch.arange(chunksize, device=data.device, dtype=start_indices.dtype)
index_tensor = start_indices.unsqueeze(1) + offsets.unsqueeze(0) # shape: (N, chunksize)
# 沿 dim=1 收集数据(等价于按行索引列)
return torch.gather(data, dim=1, index=index_tensor)
# 示例使用
data = torch.tensor([[ 1., 2., 3., 4., 5.],
[ 6., 7., 8., 9., 10.],
[11., 12., 13., 14., 15.]])
start_idx = torch.tensor([0, 3, 1], dtype=torch.long)
result = batch_slice_rows(data, start_idx, chunksize=2)
print(result)
# 输出:
# tensor([[ 1., 2.],
# [ 9., 10.],
# [12., 13.]])