EDITAR 3:
Compartí este post en Quora con mi profesor de CompGraphics y él cree que también podría estar relacionado con un algoritmo de supresión de ruido. Esto tiene sentido ya que este tipo de algoritmos combaten el ruido en áreas con poca luz al observar las áreas circundantes en busca de texturas que puedan extenderse.
EDIT 2:
Resulta que, el Nexus 5 en modo Automático usa HDR + en ciertas situaciones, incluso cuando no está explícitamente encendido. Estoy casi completamente seguro de que esto se debe a un error de procesamiento de HDR. No es un problema poco común en el procesamiento posterior de imágenes.
- ¿Qué software recomendaría para eliminar fotografías duplicadas, para una Mac?
- ¿Hay algún sitio web que muestre el nombre de esa persona cuando publicamos su foto?
- ¿Dónde vendo mis fotos en línea?
- ¿Qué aplicación me puede decir el nombre de una planta por su foto?
- ¿Cuál es el registro fotográfico más antiguo conocido de la aurora boreal?
EDITAR:
Tuve el presentimiento de que estaba relacionado con la imagen de Beier-Neely, y al buscar una relación entre su método de composición y el modo HDR en el Nexus 5, encontré este artículo: http://www.lvdiwang.com/publicat…
El software de la cámara debe haber pensado que los leggings eran un área subexpuesta, y trató de mapear la textura de la pared de ladrillo para compensar. Problema resuelto. Hay más información sobre la implementación específica de HDR + de Google aquí: HDR +: fotografía con poca luz y alto rango dinámico en la aplicación de la cámara de Google
Sin embargo, al parecer, la cámara no estaba en modo HDR en el momento de tomar esta fotografía. Las áreas subexpuestas en la parte posterior parecen estar de acuerdo (pero para empezar, no es como si el Nexus 5 tuviera un increíble sistema de cámara). Lo más extraño que noté fue en la página HDR + de Google: muchas de las imágenes de muestra desarrollan artefactos similares en regiones oscuras con HDR habilitado. Todavía creo que este artefacto está relacionado con la composición de artefactos, es la explicación más simple para el mapeo de texturas que se está haciendo.
Respuesta original abajo
Esto realmente me interesó ya que estoy trabajando en un proyecto de procesamiento de imágenes en este momento. Hay un método particular de composición de imágenes llamado Beier-Neely Morph que utiliza segmentos de línea para alinear y unir dos imágenes. Vi que mencionaste en los comentarios que la cámara usó fue un Nexus 5, y recuerdo que uno de los puntos de venta es la implementación de “HDR +” de Google. Por lo general, el HDR consiste en tomar varias fotos y unirlas lo mejor que puedan, pero también hay una restricción de tiempo: es una cámara de teléfono celular y necesita guardar la imagen lo más rápido posible.
Mi mejor conjetura es que es solo un artefacto de procesamiento HDR.