Habitación china

La habitación china es un experimento mental, propuesto originalmente por John Searle y popularizado por Roger Penrose, mediante el cual se trata de rebatir la validez del Test de Turing y de la creencia de que una máquina puede llegar a pensar.[1]

Searle se enfrenta a la analogía entre mente y ordenador cuando se trata de abordar la cuestión de la conciencia. La mente implica no sólo la manipulación de símbolos, sino que además posee una sintaxis y una semántica.

Descripción

Searle y la Inteligencia Artificial Fuerte

En 1995, cuando Herbert Simon y Allen Newell Simon escribieron que "Ahora hay máquinas que leen, aprenden y pueden crear",[2] se trataba de dar a entender que se había dado una solución al problema mente-cuerpo.

Pero Searle en su texto de Mentes, Cerebros, Ciencia ataca este pensamiento, y con el experimento de la Habitación China muestra cómo una máquina puede realizar una acción sin siquiera entender lo que hace y el por qué lo hace. Por lo tanto según Searle la lógica usada por las computadoras es nada más que una que no busca el contenido en la acción como la usada por los seres humanos.

El experimento de la habitación china

Supongamos que han pasado muchos años, y que el ser humano ha construido una máquina aparentemente capaz de entender el idioma chino, la cual recibe ciertos datos de entrada que le da un hablante natural de ese idioma, estas entradas serían los signos que se le introducen a la computadora, la cual más tarde proporciona una respuesta en su salida. Supóngase a su vez que esta computadora fácilmente supera la Prueba de Turing, ya que convence al hablante del idioma chino de que sí entiende completamente el idioma, y por ello el chino dirá que la computadora entiende su idioma.

Ahora Searle nos pide que supongamos que él está dentro de ese computador completamente aislado del exterior, salvo por algún tipo de dispositivo (una ranura para hojas de papel, por ejemplo) por el que pueden entrar y salir textos escritos en chino.

Supongamos también que fuera de la sala o computador está el mismo chino que creyó que la computadora entendía su idioma y dentro de esta sala está Searle que no sabe ni una sola palabra en dicho idioma, pero está equipado con una serie de manuales y diccionarios que le indican las reglas que relacionan los caracteres chinos (algo parecido a "Si entran tal y tal caracteres, escribe tal y tal otros").

De este modo Searle, que manipula esos textos, es capaz de responder a cualquier texto en chino que se le introduzca, ya que tiene el manual con las reglas del idioma, y así hacer creer a un observador externo que él sí entiende chino, aunque nunca haya hablado o leído ese idioma.

Dada esta situación cabe preguntarse:

  • ¿Cómo puede Searle responder si no entiende el idioma chino?
  • ¿Acaso los manuales saben chino?
  • ¿Se puede considerar todo el sistema de la sala (diccionarios, Searle y sus respuestas) como un sistema que entiende chino?

De acuerdo a los creadores del experimento, los defensores de la inteligencia artificial fuerte -los que afirman que programas de ordenador adecuados pueden comprender el lenguaje natural o poseer otras propiedades de la mente humana, no simplemente simularlas- deben admitir que, o bien la sala comprende el idioma chino, o bien el pasar el test de Turing no es prueba suficiente de inteligencia. Para los creadores del experimento ninguno de los componentes del experimento comprende el chino, y por tanto, aunque el conjunto de componentes supere el test, el test no confirma que en realidad la persona entienda chino, ya que como sabemos Searle no conoce ese idioma.

El argumento de la habitación china

Esto es así en el contexto de la siguiente argumentación:

  1. Si la Inteligencia Artificial Fuerte es verdadera, hay un programa para el idioma chino tal que cualquier mecanismo que lo ejecute entiende chino.
  2. Una persona puede ejecutar mecánicamente un programa para el idioma chino sin entender el idioma chino.
  3. Los argumentos de la inteligencia artificial fuerte son falsos porque en realidad el sistema no entiende chino, nada más simula entender.

Una puntualización importante: Searle no niega que las máquinas puedan pensar -el cerebro es una máquina y piensa-, niega que al hacerlo apliquen un programa.

Other Languages
беларуская (тарашкевіца)‎: Кітайскі пакой
English: Chinese room
فارسی: اتاق چینی
français: Chambre chinoise
galego: Sala chinesa
Bahasa Indonesia: Ruangan Tionghoa
italiano: Stanza cinese
ქართული: ჩინური ოთახი
한국어: 중국어 방
lietuvių: Kinų kambarys
Nederlands: Chinese kamer
português: Quarto chinês
српски / srpski: Кинеска соба
українська: Китайська кімната
中文: 中文房间