Hay un número de maneras de hacerlo. La mayoría de estos ya han sido cubiertos en un número de puestos de StackOverflow, Quora y contenido de otros sitios web.
Para resumir, la mayoría de las técnicas mencionadas pueden ser agrupados en dos clases de soluciones, es decir,
- Transformaciones
- Inherentes A La Propiedad De La Red
En las transformaciones, uno puede buscar técnicas tales como
- Cambiar el tamaño, que es la más sencilla de todas las técnicas mencionadas
- De los cultivos, que se puede hacer como una ventana corrediza o de un cultivo, con una pérdida de información
Se puede ver también en las redes que tienen propiedad inherente al ser inmune a el tamaño de la entrada por la virtud de la capa de comportamiento que se crea la red. Ejemplos de esto se pueden encontrar en términos de,
Totalmente convolucional redes (FCN), que no tienen limitaciones en el tamaño de entrada, porque una vez que el kernel y tamaños de paso se describe, la convolución en cada capa puede generar dimensión adecuada de las salidas de acuerdo a las entradas correspondientes.
Espacial de la Pirámide de la Agrupación (SPP), FCNs no tienen totalmente conectado capa densa y por lo tanto son independientes del tamaño de la imagen, pero dicen que si uno quería usar capa densa, sin considerar la entrada de transformaciones, entonces no es un interesante documento que explica la capa en un aprendizaje profundo de la red.
Referencias:
- https://www.quora.com/How-are-variably-shaped-and-sized-images-given-inputs-to-convoluted-neural-networks
- https://ai.stackexchange.com/questions/2008/how-can-neural-networks-deal-with-varying-input-sizes
- https://discuss.pytorch.org/t/how-to-create-convnet-for-variable-size-input-dimension-images/1906
P. S. yo podría haber perdido por citar algunos de las técnicas. No afirma que esta es una lista exhaustiva.