Singularidad tecnológica

La singularidad tecnológica es el advenimiento hipotético de inteligencia artificial general (también conocida como " IA fuerte", del inglés strong AI). La singularidad tecnológica implica que un equipo de cómputo, red informática, o un robot podrían ser capaces de auto-mejorarse recursivamente, o en el diseño y construcción de computadoras o robots mejores que él mismo. Se dice que las repeticiones de este ciclo probablemente darían lugar a un efecto fuera de control -una explosión de inteligencia[3]

La singularidad tecnológica ocasionará, según Albert Cortina y Miquel-Ángel Serra, cambios sociales inimaginables, imposibles de comprender o de predecir por cualquier humano. En esa fase de la evolución se producirá la fusión entre tecnología y también inteligencia humana, en donde la tecnología dominará los métodos de la biología hasta dar lugar a una era en que se impondrá la inteligencia no biológica de los posthumanos, que se expandirá por el universo. [4]

Origen

El primer uso del término «singularidad» fue en 1958 por el matemático y físico húngaro John von Neumann. Ese año en una conversación con von Neumann, Stanislaw Ulam describió "el cada vez más rápido progreso tecnológico y los cambios en el modo de la vida humana, lo que da la apariencia de que se acerca alguna singularidad esencial en la historia de la raza humana más allá de sus propios asuntos tales como los conocemos, no puede seguir".[5]

Una conversación se centró en los avances cada vez más acelerados de la tecnología y los cambios en el modo de la vida humana, lo que da la apariencia de que se acerca una singularidad esencial en la historia más allá de los asuntos humanos, y tal como los conocemos, no podrán continuar.[5]

Ray Kurzweil citó el uso de von Neumann del término en un prólogo de von Neumann del clásico The Computer and the Brain. Años más tarde, en 1965, I.J. Good escribió primero sobre una "explosión de inteligencia", la cual sugiere que si las máquinas pudieran superar ligeramente el intelecto humano, podrían mejorar sus propios diseños en formas imprevisibles para sus diseñadores, y por lo tanto aumentar recursivamente a sí mismos haciéndolas mucho más inteligentes. La primera de esas mejoras puede ser pequeña, pero a medida que la máquina se vuelve más inteligente, podría dar lugar a una cascada de auto-mejora y un aumento repentino de la superinteligencia (o una singularidad).

Pero no es hasta 1983 en donde el término se populariza por el matemático y escritor Vernor Vinge, quien sostiene que tanto la inteligencia artificial, la mejora biológica humana, o los interfaces cerebro-ordenador podrían ser las posibles causas de la singularidad. Popularizó enormemente la noción de una explosión de inteligencia de Good en una serie de escritos, abordando primero el tema de forma impresa en la edición de enero de 1983 de la revista Omni. En este artículo de opinión, Vinge parece haber sido el primero en utilizar el término "singularidad" de tal manera que estaba atado específicamente a la creación de máquinas inteligentes,[7]​por escrito:

Pronto crearemos inteligencias superiores a la nuestra. Cuando esto suceda, la historia humana habrá alcanzado una especie de singularidad, una transición intelectual tan impenetrable como el espacio-tiempo anudado en el centro de un agujero negro, y el mundo va a pasar mucho más allá de nuestra comprensión. Esta singularidad, creo, que ya persiguen una serie de escritores de ciencia ficción. Esto hace que la extrapolación realista a un futuro interestelar imposible. Para escribir una historia ambientada más de un siglo, por lo tanto, se necesita una guerra nuclear en el medio ... para que el mundo siga siendo inteligible.

Other Languages
Bahasa Indonesia: Singularitas teknologi
srpskohrvatski / српскохрватски: Tehnološka singularnost
српски / srpski: Tehnološka singularnost