Cada ser humano es como los demás seres humanos, como algunos otros seres humanos y como ningún ser humano.
@blog_trca

jueves, 23 de mayo de 2013

¿Pueden pensar las máquinas?

Uno de los temas controvertidos suscitado por la reflexión sobre la mente y el cerebro del ser humano es la posibilidad de construir una inteligencia artificial que pueda ser capaz de realizar las mismas tareas que el hombre. Sin embargo, la posibilidad de que una máquina sustituya al ser humano da que pensar y suscita muchos temores que han sido representados en multitud de ocasiones en novelas y películas que hablan de una "revolución de los autómatas pensantes" para hacerse con el dominio de la humanidad. Sin embargo, el tema es serio y requiere ser pensado en profundidad. Algunos autores plantean objeciones a la posibilidad de que una máquina piense, por ejemplo, planteando cosas que los hombre sí pueden hacer y las máquinas no: no tendrían libertad, no podrían asumir la validez del error en el aprendizaje, no tendrían creatividad, no podrían tener sentimientos... Muchas de estas objeciones se ven también criticadas; por ejemplo, se afirmó que nunca una máquina podría vencer a un maestro en una partida de ajedrez, pero llegó Deep Blue.


En 1997, Gari Kaspárov, el mejor ajedrecista del mundo en ese momento, se enfrentó a Deep Blue, un ordenador de 1'4 toneladas y 1'92 metros de altura, creado por un equipo de IBM. Antes del duelo, Kaspárov afirmaba:

Es una cuestión de la supremacía del género humano sobre las máquinas en el terreno puramente intelectual. Se trata de defender la superioridad del hombre en un área que define a la humanidad. Una victoria de Deep Blue sería un importante y espantoso hito en la historia de la humanidad. Las futuras generaciones mirarían este hecho como el momento en que, por primera vez, una máquina superó al género humano en el aspecto puramente intelectual. Estoy convencido de que ocurrirá. Lo que intento es posponerlo lo más posible. Pero, cuando ocurra, no acabará con el ajedrez. Deep Blue nos muestra que el concepto de la estrategia de las máquinas es muy distinto al del cerebro humano y, aun así, produce inteligencia. El hombre tendrá que aceptar que las facultades específicas del cerebro humano no son las únicas para resolver los problemas intelectuales.

Deep Blue ganó. Si alguien analiza la partida sin saber quién jugaba con blancas o con negras, no podría distinguir quién era el humano y quién la máquina. La pregunta es: ¿Deep Blue es realmente inteligente?

1. El ser humano será sustituido por la máquina
Nos aproximamos al momento en que prácticamente todas las funciones humanas esenciales, físicas y mentales, tendrán su equivalente artificial. El prototipo de la unión de todos los resultados del desarrollo cultural será el robot inteligente, una máquina que podrá pensar y actuar como un ser humano, aunque física y mentalmente no lo sea. Estas máquinas podrán llevar a cabo nuestra evolución cultural, incluyendo su propia construcción, y perfeccionarse cada vez más sin nosotros y sin nuestros genes. Cuando esto suceda, nuestro ADN se encontrará sin trabajo y, además, habrá perdido la carrera evolutiva en un nuevo tipo de competición.
H. Moravec, El hombre mecánico

2. Las máquinas no pueden pensar
Alan M. Turing
1912-1954
¿Puede pensar una máquina? ¿Puede una máquina tener pensamientos conscientes en el mismo y preciso sentido que los tenemos usted y yo?
No son pocos los investigadores en inteligencia artificial (IA) convencidos de que esta pregunta tiene respuesta afirmativa; esto es, creen que al diseñar los programas adecuados, y dotándolos de los oportunos ingresos y salidas, están literalmente creando mentes. Creen, además, disponer de un criterio científico para determinar si han triunfado o fracasado en tal empresa, a saber, el test de Turing, ideado por Alan M. Turing, padre fundador de la IA.
La IA fuerte es una tesis insólita en las teorías de la mente, en dos aspectos cuando menos: puede ser formulada claramente y admite una refutación sencilla y decisiva. La refutación es tal que cualquier persona puede juzgarla por sí misma. Reza como sigue. Tomemos un idioma que no comprendemos; en mi caso tal idioma puede ser el chino. Por lo que a mí se refiere, un escrito en chino me parece una serie de garabatos ininteligibles. Supongamos ahora que me instalan en una habitación que contiene cestas repletas de símbolos chinos. Supongamos también que me proporcionan un libro de instrucciones en español, con reglas que estipulan cómo han de emparejarse unos símbolos chinos con otros. Las reglas permiten reconocer los símbolos puramente por su forma y no requieren que yo comprenda ninguno de ellos.
Imaginemos que personas situadas fuera de la habitación y que sí comprenden el chino me van entregando pequeños grupos de símbolos, y que, en respuesta, yo manipulo los símbolos de acuerdo con las reglas del libro y les entrego pequeños grupos de símbolos. Ahora, el libro de instrucciones es el "programa informático"; las personas que lo escribieron son los "programadores" y yo soy el "ordenador". Los cestos llenos de símbolos constituyen la "base de datos", los pequeños grupos que me son entregados son las "preguntas" y los grupos que yo entrego, las "respuestas".
Supongamos ahora que el libro de instrucciones está escrito de modo tal que mis "respuestas" a las "preguntas" resulten indistinguibles de las de un chino nativo. Por ejemplo, la gente del exterior podría entregarme ciertos símbolos, desconocidos por mí, que significan: "¿Cuál es su color favorito?", y que tras consultar las instrucciones del libro yo devuelvo símbolos, también desconocidos por mí, que significan: "Mi favorito es el azul, pero también me gusta mucho el verde". Estoy superando el test de Turing en lo que a comprender el chino concierne. Y, al mismo tiempo, ignoro totalmente el chino. Y en el sistema que estoy describiendo no hay forma de que yo llegue a comprender el chino, pues no hay forma de que yo pueda aprender el significado de ninguno de los símbolos. Estoy manipulando símbolos, lo mismo que un ordenador, pero sin adscribir significados a los símbolos.
El propósito de este experimento mental es el siguiente: si yo comprendo el chino basándome solamente en el funcionamiento de un programa informático para comprender el chino, tampoco lo comprende entones, con ese mismo fundamento, ningún otro ordenador digital. Los ordenadores digitales se limitan a manipular símbolos de acuerdo con las reglas del programa.
Lo dicho para el chino vale igual para otras formas de cognición. La mera manipulación de símbolos no basta por sí misma para garantizar cognición, percepción, comprensión, pensamiento, y así sucesivamente. Y dado que los ordenadores, en su cualidad de tales, son dispositivos de manipulación de símbolos, la mera ejecución del programa no basta para garantizar la cognición.
J. Searle, ¿Es la mente un programa informático?

No hay comentarios:

Publicar un comentario