Leo en el último número del Time un reportaje sobre un movimiento denominado "Singularity". En pocas palabras, considera que el avance exponencial de la potencia de cálculo de los ordenadores permitirá crear, en un futuro no muy lejano, máquinas mucho más inteligentes que el ser humano. Estos autores piensan que no somos más que un ordenador sofisticado, y que sólo es cuestión de tiempo que podamos construir una máquina mucho más perfecta que nuestro cerebro. En ese momento, la humanidad estaría en serio peligro de extinción.
La idea no parece muy original, ya que conocemos obras literarias y películas que tienen una tesis similar. Lo que resulta más escalofriante es que los autores son tecnólogos que están convencidos en sus predicciones. Hasta le ponen fecha: 2045. Según sus cálculos en 2015 se conseguirá crear máquinas que piensen al nivel de un ratón, en 2023 a nivel de un cerebro humano, y en 2045 se sobrepasará la capacidad de todos los cerebros humanos juntos. Lo que eso llevará consigo, asumiendo que pueda conseguirse ese objetivo, es cuando menos preocupante; recuerda el ordenador central de la película "2001: una odisea en el espacio", que controlaba completamente a las personas.
¿Somos en realidad sólo máquinas sofisticadas? ¿Es reproducible la inventiva humana? No me cabe duda que un ordenador es capaz de almacenar y recuperar información mucho más rápidamente que una persona. Tampoco me cabe duda que son capaces de ejecutar tareas máquinas de manera más eficiente. Ahora bien, ¿serán en algún momento capaces de crear poesía, arte, de tener sentimientos? Para los partidarios del la "Singularidad" así es; para muchos otros, se trata de dimensiones que escapan a la lógica matemática. Hay ordenadores que construyen música o literatura, con unas reglas determinadas, pero el producto dista mucho de tener "significado": un ordenador puede analizar cualquier componente físico o químico del lienzo donde se representa El Cristo de Velázquez, pero, ¿es capaz de saber lo que realmente significa esa figura? De momento, aún con la tremenda potencia de los ordenadores, no son capaces de traducir correctamente de un idioma a otro, pues una traducción requiere no sólo conocer las palabras, sino el sentido, el significado profundo de un mensaje.
¿Será una máquina capaz de tener autoconciencia? En mi opinión, no, pues la conciencia no es una capacidad mecánica, sino espiritual, y el cerebro es un componente material de nuestra naturaleza, pero no actúa independiente del espíritu: somos algo más que máquinas sofisticadas. El "Big Blue" diseñado por IBM ganó un concurso de ajedrez a Kasparov, pero estoy convencido que no sería capaz de pintar algo similar a las Meninas.
Las predicciones que auguran la aparición a corto plazo de máquinas tan inteligentes como el hombre, no es algo nuevo. Hace 50 años con la aparición de la Inteligencia Artificial, la rama fuerte ya consideraba que en un corto período de tiempo se conseguiría una inteligencia similar a la del hombre y se ha visto que no ha sido así. La I.A. es ciencia y es ingeniería. Como ingeniería se ha desarrollado mucho en todo este tiempo, apoyada en el avance tecnológico expresado por la Ley de Moore. Como ciencia aún no ha conseguido crear una teoría computable del conocimiento. Por eso, en mi opinión, ahora mismo una máquina no podría tener autoconciencia y probablemente en el 2045 tampoco. Aunque no puedo saber si alguna vez se conseguirá. Yo sí creo que la conciencia podría ser una capacidad mecánica, aunque se desconozca como funciona realmente. Puede que el cerebro no actúe de forma independiente al espíritu porque el espíritu es el cerebro. Lo que sí creo es que el ser humano debería utilizar la I.A. para resolver problemas y no para crearlos. De poco sirve que una máquina pase el test de Turing.
ResponderEliminar