¿Qué es la mente? ¿Qué es el pensamiento? ¿Cuándo podemos decir que algo o que alguien piensa? Todas estas preguntas han estado y están presentes a lo largo de la tradición filosófica occidental. Esto significa que durante más de 2000 años de reflexión no hemos sabido encontrar respuestas adecuadas para estos interrogantes. Sin embargo, el siglo XX ha traído consigo el desarrollo de una nueva ciencia, la ciencia de la computación, que puede ser útil para la elucidación de estas cuestiones, y si no, al menos de la última. Hoy en día, hablamos en ese sentido, del desarrollo de la Inteligencia Artificial (IA).
Existen dos posiciones contrapuestas acerca de la capacidad de los ordenadores para poder producir pensamiento. Por un lado están los que afirman que, como Paul y Patricia Churchland, diseñando los programas adecuados y dotándolos de los oportunos ingresos y salidas de información, se estaría creando mentes. En el bando opuesto se encuentran aquellos que, como John Searle, sostienen que un programa informático jamás será capaz de auténtica cognición.
Según el bando de los que opinan que sí es posible que un ordenador produzca pensamiento, se puede dar cuenta de sus pretensiones mediante un criterio diseñado por Alan Turing. Dicho criterio consiste, expresado de un modo rudimentario, en que si un ordenador puede actuar de tal modo que un experto sea incapaz de distinguir la actuación del ordenador de la de un humano con capacidad cognitiva en, pongamos por caso, una conversación por chat, entonces el ordenador posee esa misma facultad también.
A continuación, voy a intentar mostrar, del modo más esquemático e inteligible posible, la argumentación que realiza John Searle para intentar invalidar la pretensión de que los ordenadores sean capaces de pensar. Se desgrana en cuatro axiomas y en otras tantas consecuencias o conclusiones, siendo el primero de los axiomas o premisas acompañado del experimento mental que lleva el nombre de esta entrada: La habitación china.
Axioma 1: Los programas informáticos son formales (sintácticos). Y el experimento es el siguiente: Supongamos que me instalan en una habitación que contiene cestas repletas de símbolos chinos. Supongamos, además, que me proporcionan un libro de instrucciones en español que me dice cómo debo manipular esos símbolos chinos, cómo se emparejan, etc. Las reglas permiten reconocer los símbolos puramente por su forma y no requieren que yo comprenda ninguno de ellos. Finalmente imaginemos una persona fuera de la habitación que sí comprende chino y me va entregando paquetes de símbolos, y que en respuesta, yo manipulo los símbolos de acuerdo con las reglas del libro y le entrego, a su vez, conjuntos de símbolos. Y así hasta que no tengamos nada que decirnos. Bien. si yo soy el ordenador, el libro de instrucciones es el programa informático y las personas que lo escribieron son los programadores, entonces a efectos prácticos, se superaría el test de Turing. Pero yo sigo sin comprender que significan los símbolos. Sólo los manipulo en virtud de su forma.
Axioma 2: La mente humana posee contenidos mentales (semánticos). Cuando hablamos nuestra lengua materna sabemos y entendemos que decimos cuando hablamos.
Axioma 3: La sintáxis, por sí misma, no es constitutiva ni suficiente para la semántica. Las reglas que me permitían responder con cadenas de símbolos en chino no me permitían comprender qué demonios estaba diciendo, qué estaba significando con esos símbolos.
De la conjunción de esas premisas se sigue que:
Conclusión 1: Los programas informáticos ni son constitutivos de mentes, ni suficientes.
Pero puesto que los cerebros no se limitan a dar un ejemplo concreto de una pauta formal o de un programa, sino que causa estados mentales en virtud de procesos neurobiológicos; podemos decir:
Axioma 4: Los cerebros causan mentes.
De la conclusión 1 y el axioma 4 se infiere que:
Conclusión 2: Cualquier otro sistema capaz de causar mentes habría de poseer poderes causales equivalentes a los de los cerebros.
De todo lo dicho anteriormente hasta ahora se sigue que:
Conclusión 3: Cualquier artefacto que produjera fenómenos mentales, cualquier cerebro artificial, habría de ser capaz de duplicar las potencias causales específicas de los cerebros, cosa que no podría hacer limitándose a hacer funcionar un programa formal.
Finalmente, por contraposición de la conclusión anterior:
Conclusión 4: La forma en que los cerebros humanos producen, en realidad, fenómenos mentales no puede deberse exclusivamente a la ejecución de un programa informático.
En resumen, el punto arquimédico de la argumentación de John Searle se basa en la distinción entre sintaxis y semántica. Cualquier ordenador puede manipular signos en virtud de la operatividad y de las consiguientes relaciones entre ellos que puedan existir. Sin embargo lo que no puede hacer es interpretar esos símbolos, no puede darles contenido a esos signos.
Para los que, como John Searle, defienden la imposibilidad de verdadero pensamiento en una computadora, simulación no es lo mismo que duplicación, y ese hecho reviste igual importancia, ya se trate de aritmética o de sentir angustia. La clave no está en que el ordenador se quede a mitad de campo (sintaxis) y no llegue a la portería contraria (semántica). La clave está en que el ordenador ni siquiera hace el saque; no está jugando a ese juego.
Existen dos posiciones contrapuestas acerca de la capacidad de los ordenadores para poder producir pensamiento. Por un lado están los que afirman que, como Paul y Patricia Churchland, diseñando los programas adecuados y dotándolos de los oportunos ingresos y salidas de información, se estaría creando mentes. En el bando opuesto se encuentran aquellos que, como John Searle, sostienen que un programa informático jamás será capaz de auténtica cognición.
Según el bando de los que opinan que sí es posible que un ordenador produzca pensamiento, se puede dar cuenta de sus pretensiones mediante un criterio diseñado por Alan Turing. Dicho criterio consiste, expresado de un modo rudimentario, en que si un ordenador puede actuar de tal modo que un experto sea incapaz de distinguir la actuación del ordenador de la de un humano con capacidad cognitiva en, pongamos por caso, una conversación por chat, entonces el ordenador posee esa misma facultad también.
A continuación, voy a intentar mostrar, del modo más esquemático e inteligible posible, la argumentación que realiza John Searle para intentar invalidar la pretensión de que los ordenadores sean capaces de pensar. Se desgrana en cuatro axiomas y en otras tantas consecuencias o conclusiones, siendo el primero de los axiomas o premisas acompañado del experimento mental que lleva el nombre de esta entrada: La habitación china.
Axioma 1: Los programas informáticos son formales (sintácticos). Y el experimento es el siguiente: Supongamos que me instalan en una habitación que contiene cestas repletas de símbolos chinos. Supongamos, además, que me proporcionan un libro de instrucciones en español que me dice cómo debo manipular esos símbolos chinos, cómo se emparejan, etc. Las reglas permiten reconocer los símbolos puramente por su forma y no requieren que yo comprenda ninguno de ellos. Finalmente imaginemos una persona fuera de la habitación que sí comprende chino y me va entregando paquetes de símbolos, y que en respuesta, yo manipulo los símbolos de acuerdo con las reglas del libro y le entrego, a su vez, conjuntos de símbolos. Y así hasta que no tengamos nada que decirnos. Bien. si yo soy el ordenador, el libro de instrucciones es el programa informático y las personas que lo escribieron son los programadores, entonces a efectos prácticos, se superaría el test de Turing. Pero yo sigo sin comprender que significan los símbolos. Sólo los manipulo en virtud de su forma.
Axioma 2: La mente humana posee contenidos mentales (semánticos). Cuando hablamos nuestra lengua materna sabemos y entendemos que decimos cuando hablamos.
Axioma 3: La sintáxis, por sí misma, no es constitutiva ni suficiente para la semántica. Las reglas que me permitían responder con cadenas de símbolos en chino no me permitían comprender qué demonios estaba diciendo, qué estaba significando con esos símbolos.
De la conjunción de esas premisas se sigue que:
Conclusión 1: Los programas informáticos ni son constitutivos de mentes, ni suficientes.
Pero puesto que los cerebros no se limitan a dar un ejemplo concreto de una pauta formal o de un programa, sino que causa estados mentales en virtud de procesos neurobiológicos; podemos decir:
Axioma 4: Los cerebros causan mentes.
De la conclusión 1 y el axioma 4 se infiere que:
Conclusión 2: Cualquier otro sistema capaz de causar mentes habría de poseer poderes causales equivalentes a los de los cerebros.
De todo lo dicho anteriormente hasta ahora se sigue que:
Conclusión 3: Cualquier artefacto que produjera fenómenos mentales, cualquier cerebro artificial, habría de ser capaz de duplicar las potencias causales específicas de los cerebros, cosa que no podría hacer limitándose a hacer funcionar un programa formal.
Finalmente, por contraposición de la conclusión anterior:
Conclusión 4: La forma en que los cerebros humanos producen, en realidad, fenómenos mentales no puede deberse exclusivamente a la ejecución de un programa informático.
En resumen, el punto arquimédico de la argumentación de John Searle se basa en la distinción entre sintaxis y semántica. Cualquier ordenador puede manipular signos en virtud de la operatividad y de las consiguientes relaciones entre ellos que puedan existir. Sin embargo lo que no puede hacer es interpretar esos símbolos, no puede darles contenido a esos signos.
Para los que, como John Searle, defienden la imposibilidad de verdadero pensamiento en una computadora, simulación no es lo mismo que duplicación, y ese hecho reviste igual importancia, ya se trate de aritmética o de sentir angustia. La clave no está en que el ordenador se quede a mitad de campo (sintaxis) y no llegue a la portería contraria (semántica). La clave está en que el ordenador ni siquiera hace el saque; no está jugando a ese juego.
No hay comentarios:
Publicar un comentario