python - MemoryError.无法分配115: 无法为形状为(1122, 1122, 12288)、数据类型为float64的数组分配115. 形状为(1122, 1122, 12288),数据类型为float64的数组无法分配115.GiB。
我试图通过一个函数来返回一个扁平化的图像和标签数组,我的操作系统是Windows 10。此外,当我尝试调用该函数时,我在标题中描述的错误
MemoryError: Unable to allocate 115. GiB for an array with shape (1122, 1122, 12288) and data type float64
我想做的是:我想从数据集中提取带有关键点的特征,在一个函数内,并对我的数据集使用training_test_split,但即使我尝试扁平化带有关键点的图像,它也会给我带来错误,扁平化的唯一方法是没有关键点的相同图像。
我是这样尝试的。
def load_image_files(fullpath, dimension=(35, 35)):
flat_data = []
orb = cv2.ORB_create(edgeThreshold=1, nfeatures=22)
key_points = [cv2.KeyPoint(64, 9, 10),
cv2.KeyPoint(107, 6, 10),
cv2.KeyPoint(171, 10, 10)]
kp, des = orb.compute(imageList, key_points)
kparray = cv2.drawKeypoints(imageList, kp, None, flags=cv2.DRAW_MATCHES_FLAGS_DRAW_RICH_KEYPOINTS);
img_resized = resize(kparray, dimension, anti_aliasing=True, mode='reflect')
img_resized = img_resized.flatten()
flat_data.append(img_resized)
images.append(flat_data)
flat_data = np.array(flat_data)
images = np.array(images)
return Bunch(data=flat_data,
images=images)
【回答】:
在这里,在你的函数中.你正在将所有的扁平化图像追加到一个单一的列表中,这导致了这个内存错误.相反,你可以使用dask数组来存储它们.dask数组使用硬盘来存储数据,这是非常大的,以适应内存.Dask是一个类似于sparks的python库,它已被设计为大数据。