Tensorflow datových souborů: Plodina/změna Velikosti obrázků na dávky po dataset.šarže()

0

Otázka

Je možné Oříznout/změnit Velikost obrázků v jedné dávce ?

Používám Tensorflow soubor údajů API, jak je uvedeno níže:

dataset = dataset.shuffle().repeat().batch(batch_size, drop_remainder=True)

Chci, v rámci dávkového všechny obrázky by měly mít stejnou velikost. Nicméně po dávkách to může mít různé velikosti.

Například, 1. várka má všechny obrazy tvar (batch_size, 300, 300, 3). Další dávka může mít obrazy tvar (batch_size, 224, 224, 3). Další dávku můžete mít obrazy tvar (batch_size, 400, 400, 3).

V podstatě chci mít dymanically ve tvaru dávkách, nicméně všechny obrázky v dávce statické tvary.

Pokud to uděláme následovně:

dataset = dataset.shuffle().repeat().batch(batch_size, drop_remainder=True).map(lambda x, y: map_fn(x, y))

Dělá výše .mapa() platí pro každou dávku samostatně nebo přes celý dataset ?

Pokud výše uvedené .mapa() neplatí pro každou dávku zvlášť, jak to můžeme udělat ? Můžeme definovat libovolný iterator po dataset.šarže(), platí tf.obraz.crop_and_resize() nad každý obrázek na dávce a později použít dataset.concatenate() spojit všechny transformované dávkách ?

Jsem vytvořit soubor údajů, jak je uvedeno níže:

# Dataset creation (read image data from files of COCO dataset)
dataset = tf.data.Dataset.list_files(self._file_pattern, shuffle=False)
dataset = dataset.shard(dataset_num_shards, dataset_shard_index)
dataset = dataset.shuffle(tf.cast(256 / dataset_num_shards, tf.int64))
dataset = dataset.interleave(map_func=tf.data.TFRecordDataset(filename).prefetch(1), cycle_length=32, block_length=1, num_parallel_calls=tf.data.experimental.AUTOTUNE)
dataset = dataset.map(tf_example_decoder.TfExampleDecoder().decode, num_parallel_calls=64)
dataset = dataset.shuffle(64).repeat()
# Parse each image for preprocessing
dataset = dataset.map(lambda data, _: _parse_example(data), num_parallel_calls=64)
dataset = dataset.batch(batch_size=batch_size, drop_remainder=True)

# Below code suggested by you to resize images to fixed shape in each batch
def resize_data(images, labels):
    tf.print('Original shape -->', tf.shape(images))
    SIZE = (300, 300)
    return tf.image.resize(images, SIZE), labels
dataset = dataset.map(resize_data)
dataset = dataset.prefetch(tf.data.experimental.AUTOTUNE)

tf.estimator.Estimator(...).train(
        input_fn=dataset,
        steps=steps,
        hooks=train_hooks)
python tensorflow tensorflow-datasets
2021-11-24 05:50:45
1

Nejlepší odpověď

1

Obecně platí, že můžete zkusit něco jako tohle:

import tensorflow as tf
import numpy as np

dataset1 = tf.data.Dataset.from_tensor_slices(np.random.random((32, 300, 300, 3)))
dataset2 = tf.data.Dataset.from_tensor_slices(np.random.random((32, 224, 224, 3)))
dataset3 = tf.data.Dataset.from_tensor_slices(np.random.random((32, 400, 400, 3)))
dataset = dataset1.concatenate(dataset2.concatenate(dataset3))
dataset = dataset.shuffle(1).repeat().batch(32, drop_remainder=True)

def resize_data(images):
  tf.print('Original shape -->', tf.shape(images))
  SIZE = (180, 180)

  return tf.image.resize(images, SIZE)

dataset = dataset.map(resize_data)

for images in dataset.take(3):
  tf.print('New shape -->', tf.shape(images))
Original shape --> [32 300 300 3]
New shape --> [32 180 180 3]
Original shape --> [32 224 224 3]
New shape --> [32 180 180 3]
Original shape --> [32 400 400 3]
New shape --> [32 180 180 3]

Dalo by se také použít tf.image.resize_with_crop_or_pad pokud chcete:

def resize_data(images):
  tf.print('Original shape -->', tf.shape(images))
  SIZE = (180, 180)
  return tf.image.resize_with_crop_or_pad(images, SIZE[0], SIZE[1])

dataset = dataset.map(resize_data)

for images in dataset.take(3):
  tf.print('New shape -->', tf.shape(images))

Všimněte si, že použití repeat() bude vytvářet nekonečné dataset.

Aktualizace 1

Pokud chcete náhodně velikost pro každou dávku, zkusit něco jako tohle:

import tensorflow as tf
import numpy as np

dataset1 = tf.data.Dataset.from_tensor_slices(np.random.random((32, 300, 300, 3)))
dataset2 = tf.data.Dataset.from_tensor_slices(np.random.random((32, 224, 224, 3)))
dataset3 = tf.data.Dataset.from_tensor_slices(np.random.random((32, 400, 400, 3)))
dataset = dataset1.concatenate(dataset2.concatenate(dataset3))
dataset = dataset.batch(32, drop_remainder=True).shuffle(96)


def resize_data(images):
  batch_size = tf.shape(images)[0]
  images_resized = tf.TensorArray(dtype=tf.float32, size = 0, dynamic_size=True)
  SIZE = tf.random.uniform((2,), minval=300, maxval=500, dtype=tf.int32)
  for i in range(batch_size):
    images_resized = images_resized.write(images_resized.size(), tf.image.resize(images[i], SIZE))
  return images_resized.stack()

dataset = dataset.map(resize_data)

for images in dataset:
  tf.print('New shape -->', tf.shape(images))
New shape --> [32 392 385 3]
New shape --> [32 468 459 3]
New shape --> [32 466 461 3]

Aktualizace 2

Velmi flexibilní volbu, která pracuje pro každou velikost šarže by vypadat takto:

import tensorflow as tf
import numpy as np

dataset1 = tf.data.Dataset.from_tensor_slices(np.random.random((32, 300, 300, 3)))
dataset2 = tf.data.Dataset.from_tensor_slices(np.random.random((32, 224, 224, 3)))
dataset3 = tf.data.Dataset.from_tensor_slices(np.random.random((32, 400, 400, 3)))
dataset = dataset1.concatenate(dataset2.concatenate(dataset3))

def resize_and_batch(dataset, batch_size):
  final_dataset = None
  duration = len(dataset)//batch_size
  random_sizes = [tf.random.uniform((2,), minval=300, maxval=500, dtype=tf.int32) for _ in range(duration)]

  for i, size in zip(range(duration), random_sizes):
    idx = i * batch_size
    if i == 0:
      final_dataset = tf.data.Dataset.from_tensor_slices([tf.image.resize(x, size) for x in dataset.take(batch_size)])
    else:
      final_dataset = final_dataset.concatenate(tf.data.Dataset.from_tensor_slices([tf.image.resize(x, size) for x in dataset.skip(idx).take(batch_size)]))
  return final_dataset

batch_size = 10
ds = resize_and_batch(dataset, batch_size)
ds = ds.batch(batch_size).shuffle(len(ds))
for images in ds:
 tf.print('New shape -->', images.shape)
New shape --> TensorShape([10, 399, 348, 3])
New shape --> TensorShape([10, 356, 329, 3])
New shape --> TensorShape([10, 473, 373, 3])
New shape --> TensorShape([10, 489, 489, 3])
New shape --> TensorShape([10, 421, 335, 3])
New shape --> TensorShape([10, 447, 455, 3])
New shape --> TensorShape([10, 355, 382, 3])
New shape --> TensorShape([10, 310, 396, 3])
New shape --> TensorShape([10, 345, 356, 3])
2021-12-01 14:51:04

To vypadá dobře. Nicméně stále to není práce pro mě. Když se snažím trénovat modelu, to dává chybu jako níže: INVALID_ARGUMENT: Cannot add tensor to the batch: number of elements does not match. Shapes are: [tensor]: [640,426,3], [batch]: [480,640,3] I když jsem dal VELIKOST = (300, 300) v tf.obraz.velikost(obrázky, VELIKOST), šarže má VELIKOST = (480, 640). A jako další obrázek má jinou VELIKOST = (640, 426), to se nepodařilo přidat do dávky. To znamená, že to nějak není schopen aplikovat .map() funkce na každé jednotlivé šarže. Pomoc/nápad ?
Avid Learner

Můžete přidat kód na to, jak si vytvořit své soubory na vaši otázku? Myslím, že mám tušení, kde by mohl být problém.
AloneTogether

Aktualizoval jsem na otázku, s jak mám vytvořit dataset. Čekám na vaši odpověď.
Avid Learner

Aktualizováno odpověď-
AloneTogether

batch_size=16. Je to hází stejnou chybu s batch_size > 1.
Avid Learner

Je těžké pochopit, co přesně děláte, bez přístupu do datové sady, kterou používáte, a proměnné definované někde jinde. Problém je pravděpodobně, že každá šarže nemá obrázky, všechny stejného tvaru.
AloneTogether

Avid Learner

V jiných jazycích

Tato stránka je v jiných jazycích

Русский
..................................................................................................................
Italiano
..................................................................................................................
Polski
..................................................................................................................
Română
..................................................................................................................
한국어
..................................................................................................................
हिन्दी
..................................................................................................................
Français
..................................................................................................................
Türk
..................................................................................................................
Português
..................................................................................................................
ไทย
..................................................................................................................
中文
..................................................................................................................
Español
..................................................................................................................
Slovenský
..................................................................................................................