Conexionismo

El conexionismo es un conjunto de enfoques en los ámbitos de la inteligencia artificial, psicología cognitiva, ciencia cognitiva, neurociencia y filosofía de la mente, que presenta los fenómenos de la mente y del comportamiento como procesos que emergen de redes formadas por unidades sencillas interconectadas. Hay muchas formas de conexionismo, pero las formas más comunes son los modelos de redes neuronales.

Principios básicos

El principio central del conexionismo es que los fenómenos mentales pueden ser descritos por redes de unidades sencillas y frecuentemente iguales que se interconectan. La forma de las conexiones y de las unidades varía de un modelo a otro. Por ejemplo, las unidades de la red podrían representar neuronas y las conexiones podrían representar sinapsis. Otro modelo podría hacer cada unidad de la red una palabra, y cada conexión una indicación de similitud semántica.

Propagación de activación

En la mayoría de los modelos conexionistas las redes cambian con el tiempo. Un aspecto estrechamente relacionado y muy común de los modelos conexionistas es la activación. En cualquier momento, una unidad de la red se activa mediante un valor numérico que pretende representar algún aspecto de la unidad. Por ejemplo, si las unidades del modelo son neuronas, la activación puede representar a la probabilidad de que la neurona genere un pico en su potencial de acción. Si se trata de un modelo de propagación de activación, entonces con el tiempo la activación de una unidad se extenderá a todas las demás unidades conectadas a ella. La propagación de activación es siempre una característica de los modelos de redes neuronales, y es muy común en los modelos conexionistas utilizados en psicología cognitiva.

Redes neuronales artificiales

Las redes neuronales son los modelos conexionistas más utilizados hoy en día. Muchas investigaciones en las que se utilizan redes neuronales son denominadas con el nombre más genérico de "conexionistas". Aunque hay gran variedad de modelos de redes neuronales, casi siempre siguen dos principios básicos relativos a la mente:

  1. Cualquier estado mental puede ser descrito como un vector (N)-dimensional de los valores numéricos de activación en las unidades neurales de una red.
  2. La memoria se crea cuando se modifican los valores que representan la fuerza de las conexiones entre las unidades neurales. La fuerza de las conexiones, o "pesos", son generalmente representados como una matriz de (N × N) dimensiones.

La mayoría de los distintos modelos de redes neuronales aparecen por:

  • La Interpretación de sus unidades: Se pueden interpretar como neuronas individuales o como grupos de estas.
  • La Definición de la activación: Hay multitud de formas de definir la activación. Por ejemplo, en una máquina de Boltzmann la activación se interpreta como la probabilidad de generar un pico de potencial de acción, y se determina a través de una función logística sobre la base de la suma de las entradas de cada unidad.
  • El algoritmo de aprendizaje: Cada tipo de red modifica sus conexiones de distinta forma. Por lo general, cualquier cambio matemáticamente definido que se dé en los pesos de las conexiones a lo largo del tiempo será definido como un "algoritmo de aprendizaje".

Los conexionistas están de acuerdo en que las redes neuronales recurrentes (en las cuales las conexiones de la red pueden formar un ciclo dirigido) son un modelo del cerebro mejor que las redes neuronales feedforward (redes sin ciclos dirigidos). Muchos modelos recurrentes conexionistas también incorporan la teoría de los sistemas dinámicos. Muchos investigadores, como Paul Smolensky, han argumentado que los modelos conexionistas evolucionarán hacia sistemas dinámicos no lineales con un enfoque plenamente continuo y de múltiples dimensiones.

Realismo biológico

La rama de las redes neuronales del conexionismo sugiere que el estudio de la actividad mental es en realidad el estudio de los sistemas neurales. Esto enlaza el conexionismo con la neurociencia, con modelos que implican diferentes grados de realismo biológico. Los trabajos conexionistas por lo general no necesitan ser biológicamente realistas, pero algunos investigadores de redes neuronales, los neurocientíficos computacionales, intentan modelar los aspectos biológicos de los sistemas naturales neuronales muy cerca de las denominadas "redes neuromórficas". A muchos autores les atrae del conexionismo la clara relación que se puede encontrar entre la actividad neuronal y la cognición. Esto ha sido criticado[1] por ser excesivamente reduccionista.

Aprendizaje

Los conexionistas por lo general subrayan la importancia del aprendizaje en sus modelos. Así han creado muchos procedimientos sofisticados de aprendizaje para redes neuronales. El aprendizaje siempre implica la modificación de los pesos de conexión. Esto generalmente conlleva el uso de fórmulas matemáticas para determinar el cambio de los pesos cuando se tienen un conjunto de datos consistente en vectores de activación para un subconjunto de unidades neuronales.

Para formalizar el aprendizaje de esta manera los conexionistas tienen muchas herramientas. Una estrategia muy común de los métodos conexionista de aprendizaje es la incorporación del descenso de gradiente sobre una superficie de error en un espacio definido por la matriz de pesos. Todo el aprendizaje por descenso de gradiente en los modelos conexionistas implica el cambio de cada peso mediante la derivada parcial de la superficie de error con respecto al peso. El algoritmo de retropropagación se hizo popular en la década de 1980 y es probablemente el algoritmo conexionista de descenso de gradiente más conocido en la actualidad.

Other Languages
العربية: اتصالية
English: Connectionism
français: Connexionnisme
Bahasa Indonesia: Koneksionisme
italiano: Connessionismo
Nederlands: Connectionisme
polski: Koneksjonizm
português: Conexionismo
српски / srpski: Конекционизам
中文: 联结主义