Las cámaras de los teléfonos han recorrido un largo camino … pero un poco de perspectiva. Un “teléfono inteligente” hoy en día es una computadora de bolsillo con una red siempre encendida, un dispositivo de comunicaciones que se adapta prácticamente a cada nueva forma de comunicación, un SatNav con mapas siempre actuales, un bloc de notas, un dispositivo de dictado, una máquina de juegos, un asistente virtual, y de paso, también una cámara.
El módulo de la cámara en la mayoría de los teléfonos inteligentes de gama alta cuesta entre $ 15 y $ 20. Tengo un lente para mi sistema sin espejo Olympus que cuesta $ 1400, y para mi cuadro completo de Canon, podría gastar más en un lente que en mi último automóvil (no tengo ese lente). Ese fotograma completo de Canon 6D me costó alrededor de $ 1800 … solo para la cámara. Así que puedes imaginar que hay alguna razón por la que la gente todavía compra equipo profesional.
El moderno módulo de cámara es una cosa bastante sorprendente. Los fabricantes como Sony han recorrido un largo camino para garantizar que los fabricantes de teléfonos, la mayoría de los cuales no son fabricantes de “cámaras reales”, no puedan arruinar las cosas. Todo el procesamiento analógico, las partes que tienen ruido, se realiza en los modernos módulos de cámara. Esto elimina el ruido y la variabilidad adicionales que ocurrieron cuando las señales analógicas tenían que viajar desde el sensor al procesador de señales. Y, por supuesto, cada teléfono tiene un buen procesador de señal, más potencia que la que se encuentra en las cámaras reales. El procesamiento de la señal no puede realmente mejorar la imagen, pero puede hacerte pensar que es mejor ocultando o al menos minimizando los aspectos más problemáticos de una imagen ruidosa, al menos en las primeras etapas del ruido. Cada fabricante de cámaras y teléfonos tiene su propia “salsa especial” para la reducción del ruido, la gestión del color, la creación de JPEG, etc.
El rendimiento de la luz escasa de su sensor sin procesar se basa en algunas cosas, pero en gran medida, se basa en la generación del sensor de la cámara, el tamaño del sensor de la cámara y, especialmente, el tamaño de los píxeles en ese sensor. Todo esto realmente está diciendo una cosa: se trata de ruido.
ruido
Cada sistema eléctrico tiene ruido aleatorio en él. Parte de eso se debe al calor … a menos que se encuentre en el cero absoluto, el calor de su entorno excita los electrones de manera aleatoria. Eso crea un nivel de ruido llamado piso de ruido térmico. Ninguna pieza de equipo puede ser más silenciosa que eso.
También hay una cosa llamada ruido de lectura: el procesador de una cámara que lee su sensor crea un ruido adicional que no estaba en la imagen oculta dentro del sensor. Las mejoras a lo largo del tiempo en la forma en que se han diseñado los sensores de la cámara han reducido en gran medida este tipo de ruido. Todavía hay algunos que pueden eliminarse, pero el ritmo de mejora aquí se está desacelerando.
Y, finalmente, una cosa llamada ruido de píxeles. Esto no es realmente ruido en el sentido convencional, sino que es una falla de las estadísticas que hacen que la fotografía funcione … en cierto modo. En una foto normal y bien expuesta en cualquier cámara digital, los fotones vuelan desde el sujeto, son enfocados por su lente e impactan su sensor de cámara. Cuando un fotón golpea un píxel en su sensor, envía un electrón volando: ese píxel es en realidad un diodo fotográfico, y eso es lo que hacen los diodos fotográficos. Esos electrones se acumulan en un condensador llamado “carga bien” durante la exposición. En algún punto, ese píxel se lee, la carga se convierte a un voltaje, posiblemente se amplifica, y se ejecuta en un convertidor analógico a digital, que produce un número de 10, 12, posiblemente 14 bits que representa el nivel de ese voltaje .
Así que bien … en una escena bien iluminada, hay tantos fotones que el reproductor de imágenes reproduce una imagen muy precisa de la escena. Pero en condiciones de poca luz, hay menos fotones, tiene sentido, ¿no? A medida que se oscurece, la escasez de fotones comienza a significar que los fotones reales capturados para dos píxeles diferentes, al ver algo que veríamos como la misma iluminación, variarán lo suficiente como para que los píxeles adyacentes no se vean igual en la foto. .
Así que sume todo esto, y es posible que tenga un ruido de píxeles que posiblemente haga que cada píxel en la misma iluminación sea un poco diferente (algunas cámaras pueden realmente disparar un montón de fotos y promediarlas, lo que reduce el ruido). La cantidad de fotones recopilados también produce un voltaje muy bajo en la electrónica de su cámara, por lo que se requiere un alto valor de amplificación, lo que hace que la mayor parte de la lectura o el ruido térmico sean visibles como fluctuaciones aleatorias de píxel a píxel. El resultado final: una imagen muy granulada y ruidosa.
Tamaño del pixel
Así que cada cámara tendrá ruido. Pero a medida que aumenta el tamaño de un píxel, tiene más área para la recolección de píxeles. Entonces, bajo la misma luz, un sensor más grande recolectará más electrones por píxel, lo que hará menos probable el ruido de los píxeles, lo que requerirá menos amplificación, ocultando mejor el ruido de lectura y el ruido térmico. Así que aquí está la escala de la cosa. El iPhone 4 de Apple tiene un sensor denominado 1 / 3.2 “. El tamaño real es de 4.54 mm x 3.42 mm, o 15.50 mm [matemáticas] ^ 2 [/ matemáticas]. Es un sensor de 5 megapíxeles, por lo que tiene píxeles que son 1.75 µm de tamaño, con una lente f / 2.4. En el iPhone 6, tiene un sensor de 1/3 “, que en realidad mide 4.8mm x 3.6mm, área de 17.3mm [math] ^ 2 [/ math] con un Lente f / 2.2. Es un sensor de 8Míxeles, por lo que tiene píxeles de 1.5 µm de tamaño … en realidad es un poco más pequeño que los del iPhone 4. Claro, es un sensor más moderno, pero no puede esperar milagros. No es muy diferente al sensor del iPhone 4.

Mi cámara sin espejo Olympus OM-D E-M5II tiene un sensor doblado de 4/3 “, que mide 17.3mm x 13mm, un área de 225mm [math] ^ 2 [/ math], o un área general de 13x la del iPhone 6. Este es un sensor de 16Míxeles, por lo que con el doble de píxeles en un área mucho más grande, obtiene píxeles de 3.7 µm en un borde … 6 veces la capacidad de captación de luz. Entonces, si la tecnología del sensor es comparable (probablemente, ya que ‘ ambos hechos por Sony), eso significa que el OM-D obtiene una ventaja de 4 f-stop sobre el iPhone 6. Con una lente rápida, podría extenderse a 6 f-stops. Esa es la diferencia entre una habitación interior y un brillante día iluminado por el sol.
Mi otra cámara del sistema es una Canon EOS 6D, que es una cámara réflex digital de 35 mm de fotograma completo. Eso significa, por supuesto, que el sensor digital es del mismo tamaño que la imagen de película de rollo de 35 mm estándar, 36 mm x 24 mm, o 864 mm [matemáticas] ^ 2 [/ matemáticas]. Eso es casi 50 veces el área del sensor del iPhone 6. Los píxeles tienen un tamaño de 6,55 µm, por lo que 19 veces el área, o alrededor de 7 paradas en F en general … la 6D es una cámara de 20Míxeles.
¿Qué podrían hacer ellos?
Así que esa es la historia. El iPhone podría mejorarse un poco más con un sensor más grande. Mi nuevo LG V10 tiene un sensor de 1 / 2.6 “(aproximadamente 24 mm [math] ^ 2 [/ math]) y una lente f / 1.8, por lo que entra más luz, pero también es un sensor de 16Mpixel, así que en general, píxeles más pequeños. Teléfono las compañías seguirán haciendo esto, porque agregar píxeles le da a su cámara una imagen potencialmente mejor con luz brillante, y se mezcla en condiciones de poca luz, ya que pueden obtener más procesamiento de imágenes para eliminar el ruido. Más píxeles significa la misma cantidad de filtrado Por supuesto, Apple está haciendo su propio software de procesamiento de imágenes, pero compran los sensores Sony al igual que muchas otras compañías. Se quedan con sensores más pequeños y lentes más lentas en comparación con otros teléfonos premium, para mantener el iPhone muy compacto y compacto. evite la “joroba de la cámara” de algunos teléfonos, o un teléfono más grueso, como el V10. Por supuesto, Apple fue al bisel alrededor de la cámara, que en realidad se comporta como una joroba, evita que el teléfono quede perfectamente plano, incluso si Esto más o menos conserva la estética de Apple.
La otra cosa que LG hizo en el V10 es incluir estabilización óptica de imagen. Esto permite una exposición más prolongada sin que la cámara se mueva … lo que permitiría un ajuste ISO más lento, lo que significa menos amplificación frente al ADC, lo que significa un ruido más bajo, en términos relativos. Apple incluyó estabilización de imagen en el iPhone 6S Plus, pero no en el iPhone 6 o 6s.