La interfaz hombre-máquina evolucionó desde tarjetas perforadas y teclados hasta la última pantalla táctil. ¿Lo que sigue?

Ya hay mucho más que pantallas táctiles, pero en términos generales, este es el paso actual de la evolución.

Existe una gama de desarrollos adicionales, como el control de gestos, el control de voz y el control de la mirada. Cualquiera de los dos funciona bien para diferentes propósitos, ya que cada uno tiene ventajas y desventajas distintas.

Personalmente, soy un fanático de las interfaces controladas por la mirada, ya que he desarrollado algunas de ellas en el pasado. Pero si bien son muy buenos para dejarte señalar objetos con tus ojos, la selección efectiva de esos objetos sigue siendo un problema un tanto sin resolver. Hay una gama de soluciones por ahí, pero ninguna es ideal.
El problema es básicamente el “toque midas”, ya que no quieres seleccionar todo lo que estás viendo, pero al mismo tiempo no quieres un mecanismo de selección incómodo.
Ahora, si combina la mirada fija con la selección de voz, por ejemplo, o la selección de gestos, las cosas comienzan a ser más interesantes. Es probable que esta combinación de diferentes tecnologías sea el próximo paso en la evolución de cómo interactuamos con las ‘máquinas’.

Telepatía, esto ya está en fase de investigación, la máquina lee nuestras ondas cerebrales y actúa. Hace unos meses, hubo un experimento en el que los pensamientos de una persona en la India eran “leídos” por una máquina, luego los datos derivados se transmitían a través de Internet a una máquina en Francia, que “entregaba” el pensamiento a una persona. conectado a ella.

La noticia se cubrió ampliamente entre septiembre y octubre de 2014. Uno de ellos (en la revista Smithsonian) está aquí:
Historia, Viajes, Arte, Ciencia, Gente, Lugares

Entonces, prácticamente, estamos en el umbral de tener máquinas que puedan leer nuestra mente y actuar.