PERGUNTA

uso tensores placeholder

Bom dia! Estou aprendendo tensorflow e surgiu uma dúvida sobre o uso de tensores do tipo placeholder para armazenar as variáveis preditivas.

Pelo que eu entendo o que justifica o uso de tensores do tipo placeholder é quando precisamos armazenas matrizes que irão mudar o tamanho do shape ao longo do processo de treinamento.

Contudo, é uma prática comum usar epochs e o batch_size para que o processo de treinamento do modelo seja feita por lote. por exemplo: se temos um amostra de 10.000 e um batchsize de 500 e 10 epochs; para cada época será processado lotes de 500 em 500 amostras até que 10.000 sejam processadas.

Bem, se eu tenho um tamanho fixo que é meu batch_size para que eu preciso usar o x = tf.placeholder(tf.float32, {None, n_entrada})?


Agradeço a ajuda previamente


Respostas 0

Consegue ajudar? A comunidade agradece

Ainda não há respostas para essa pergunta.