Por múltiples razones:
- Estamos recolectando más y más datos en una variedad de campos, desde la atención de la salud hasta el pronóstico del clima y la ingeniería, etc. Los datos de estos diferentes campos de conocimiento no son fácilmente accesibles a los modelos científicos tradicionales. Por ejemplo, aunque, en principio, conocemos las ecuaciones de movimiento que gobiernan el movimiento de las nubes, no podemos resolver estas ecuaciones analíticamente. De manera similar, aunque hemos comprendido los conceptos básicos de la estructura genética, todavía no podemos, de manera analítica, usar estos principios para estudiar enfermedades y sus posibles curas. Lo mismo se aplica a múltiples disciplinas en ingeniería, ciencia de materiales, ingeniería química, etc. La capacidad de usar estos datos para hacer predicciones que eventualmente pueden ayudarnos a avanzar en todos estos campos (p. Ej., Utilizar la composición genética para comprender y tratar los fenotipos disfuncionales en la atención médica) Ser un gran avance. AI o, más específicamente, la subdisciplina del aprendizaje automático, sería instrumental en ese sentido.
- Imagine que eventualmente alcanzamos la Inteligencia General Artificial, es decir, le damos a la máquina la capacidad de “pensar” como lo hace un ser humano, excepto que este AGI tendría recursos informáticos e informativos (por ejemplo, Internet y la enorme capacidad informática de las granjas de servidores) tan lejos Superan a las de un solo ser humano y quizás de la humanidad en su conjunto. ¿Qué no podría entender un AGI de este tipo? Por supuesto, AGI es una tarea difícil y estamos muy lejos de ello y, obviamente, existen riesgos asociados con la obtención de una inteligencia que sería muy superior a la nuestra. Pero para quienes estén dispuestos a correr ese riesgo y confiados en que lo controlan, sin duda valdría la pena.
El punto 1 anterior es sin duda la principal preocupación de Silicon Valley, ya que tiene un impacto económico directo. El punto 2 es más discutible.