pytorch把图⽚数据转化成tensor的操作
摘要:
在图像识别当中,⼀般步骤是先读取图⽚,然后把图⽚数据转化成tensor格式,再输送到⽹络中去。本⽂将介绍如何把图⽚转换成tensor。
⼀、数据转换
把图⽚转成成torch的tensor数据,⼀般采⽤函数:ansforms。通过⼀个例⼦说明,先⽤opencv读取⼀张图⽚,然后在转换;注意⼀点是:opencv储存图⽚的格式和torch的储存⽅式不⼀样,opencv储存图⽚格式是(H,W,C),⽽torch储存的格式是(C,H,W)。
ansforms as transforms
import cv2 as cv
img = cv.imread('image/000001.jpg')
正则化定义print(img.shape) # numpy数组格式为(H,W,C)
transf = transforms.ToTensor()
img_tensor = transf(img) # tensor数据格式是torch(C,H,W)
print(img_tensor.size())
注意:使⽤ansforms时要注意⼀下,其⼦函数 ToTensor() 是没有参数输⼊的,以下⽤法是会报错的
img_tensor = transforms.ToTensor(img)
必须是先定义和赋值转换函数,再调⽤并输⼊参数,正确⽤法:
img = cv.imread('image/000001.jpg')
transf = transforms.ToTensor()
img_tensor = transf(img)
再转换过程中正则化
在使⽤ transforms.ToTensor() 进⾏图⽚数据转换过程中会对图像的像素值进⾏正则化,即⼀般读取的图⽚像素值都是8 bit 的⼆进制,那么它的⼗进制的范围为 [0, 255],⽽正则化会对每个像素值除以255,也就是把像素值正则化成 [0.0, 1.0]的范围。通过例⼦理解⼀下:
ansforms as transforms
import cv2 as cv
img = cv.imread('image/000001.jpg')
transf = transforms.ToTensor()
img_tensor = transf(img)
print('opencv', img)
print('torch', img_tensor)
三、⾃⾏修改正则化的范围
使⽤transforms.Compose函数可以⾃⾏修改正则化的范围,下⾯举个例⼦正则化成 [-1.0, 1.0] transf2 = transforms.Compose(
[
transforms.ToTensor(),
transforms.Normalize(mean=(0.5, 0.5, 0.5), std=(0.5, 0.5, 0.5))
]
)
img_tensor2 = transf2(img)
print(img_tensor2)
计算⽅式就是:
C=(C-mean)/ std
C为每个通道的所有像素值,彩⾊图⽚为三通道图像(BGR),所以mean和std是三个数的数组。
使⽤transforms.ToTensor()时已经正则化成 [0,0, 0,1]了,那么(0.0 - 0.5)/0.5=-1.0,(1.0 - 0.5)/0.5=1.0,所以正则化成 [-1.0, 1.0]补充:Python: 记录⼀个关于图⽚直接转化为sor和numpy.array的不同之处的问题
img = Image.open(img_path).convert("RGB")
img2 = _tensor(img)
print(img2)
img1 = np.array(img)
print(img1)
输出是这样的:
不仅shape不⼀样,⽽且值也是不⼀样的。
解释如下:
tensor = torch.from_numpy(np.asarray(PIL.Image.open(path))).permute(2, 0, 1).float() / 255
tensor = _tensor(PIL.Image.open(path)) # 两种⽅法是⼀样的
PIL.Image.open()得到HWC格式,直接使⽤numpy 去转换得到(h,w,c)格式,⽽⽤to_tensor得到(c,h,w)格式且值已经除了255。byte()相当于to(torch.uint8),tensor.numpy()是把tensor 转化为numpy.array格式。
在这⾥需要注意的是PIL和OPENCV的图像读取得到的格式都是HWC格式,⼀般模型训练使⽤的是CHW格式, H为Y轴是竖直⽅向,W为X轴⽔平⽅向。
且_tensor()对所有输⼊都是有变换操作。
以上为个⼈经验,希望能给⼤家⼀个参考,也希望⼤家多多⽀持。如有错误或未考虑完全的地⽅,望不吝赐教。
版权声明:本站内容均来自互联网,仅供演示用,请勿用于商业和其他非法用途。如果侵犯了您的权益请与我们联系QQ:729038198,我们将在24小时内删除。
发表评论