fbpx
Wikipedia

Singularidad tecnológica

La singularidad tecnológica es el advenimiento hipotético de inteligencia artificial general (también conocida como «IA fuerte», del inglés strong AI). La singularidad tecnológica implica que un equipo de cómputo, red informática o un robot podrían ser capaces de automejorarse recursivamente, o en el diseño y construcción de computadoras o robots mejores que él mismo. Se dice que las repeticiones de este ciclo probablemente darían lugar a un efecto fuera de control —una explosión de inteligencia—[1][2]​ donde las máquinas inteligentes podrían diseñar generaciones de máquinas sucesivamente más potentes. La creación de inteligencia sería muy superior al control y la capacidad intelectual humana.[3]

La singularidad tecnológica ocasionará, según Albert Cortina y Miquel-Ángel Serra, cambios sociales inimaginables, imposibles de comprender o de predecir por cualquier humano. En esa fase de la evolución se producirá la fusión entre tecnología e inteligencia humana. La tecnología dominará los métodos de la biología hasta dar lugar a una era en que se impondrá la inteligencia no biológica de los posthumanos, que se expandirá por el universo.[4]

Origen

El primer uso del término «singularidad» se realizó en 1957 por el matemático y físico húngaro John von Neumann. Ese año, en una conversación con von Neumann, Stanislaw Ulam describió los avances cada vez más acelerados de la tecnología y los cambios en el modo de la vida humana. Da la apariencia de que se acerca una singularidad esencial en la historia más allá de los asuntos humanos, y tal como los conocemos:.[5]

El cada vez más rápido progreso tecnológico y los cambios en el modo de la vida humana, dan la apariencia de que se acerca alguna singularidad esencial en la historia de la raza humana más allá de sus propios asuntos tales como los conocemos, no puede seguir.[5]

Ray Kurzweil citó el uso de von Neumann del término en un prólogo del propio von Neumann en el clásico The Computer and the Brain.

Años más tarde, en 1965, I.J. Good escribió primero sobre una "explosión de inteligencia", la cual sugiere que si las máquinas pudieran superar ligeramente el intelecto humano, podrían mejorar sus propios diseños en formas imprevisibles para sus diseñadores, y por lo tanto aumentarse recursivamente a sí mismas haciéndolas mucho más inteligentes. La primera de esas mejoras puede ser pequeña, pero a medida que la máquina se vuelve más inteligente, podría dar lugar a una cascada de auto-mejora y un aumento repentino de la superinteligencia (o singularidad).

Pero no es hasta 1983 cuando el término se populariza por el matemático y escritor Vernor Vinge, quien sostiene que tanto la inteligencia artificial, la mejora biológica humana, o los interfaces cerebro-ordenador podrían ser las posibles causas de la singularidad. Popularizó enormemente la noción de una explosión de inteligencia de Good en una serie de escritos, abordando primero el tema de forma impresa en la edición de enero de 1983 de la revista Omni. En este artículo de opinión, Vinge parece haber sido el primero en utilizar el término "singularidad" de tal manera que estaba atado específicamente a la creación de máquinas inteligentes.[6][7]​ Por escrito:

Pronto crearemos inteligencias superiores a la nuestra. Cuando esto suceda, la historia humana habrá alcanzado una especie de singularidad, una transición intelectual tan impenetrable como el espacio-tiempo anudado en el centro de un agujero negro, y el mundo irá mucho más allá de nuestra comprensión. Esta singularidad, creo que ya la persiguen una serie de escritores de ciencia ficción. Esto hace que la extrapolación realista a un futuro interestelar sea imposible. Para escribir una historia ambientada más de un siglo, por lo tanto, se necesita una guerra nuclear en el medio... para que el mundo siga siendo inteligible.

Historia

Si bien el primer uso del término fue en 1957, muchos años atrás varios científicos y autores hablaban sobre este acontecimiento, aunque de forma inconsciente, sin darse cuenta realmente de que lo que decían luego se denominaría singularidad.

Sus comienzos

Uno de las primeras personas que afirmara la existencia de una singularidad fue el francés Nicolas de Condorcet, matemático, filósofo y revolucionario del siglo XVIII. En su Boceto para un cuadro histórico del progreso de la mente humana de 1794, Condorcet afirma:

La naturaleza no ha establecido un plazo para la perfección de las facultades humanas; que la perfectibilidad del hombre es verdaderamente indefinida; y que el progreso de esta perfectibilidad, de ahora en adelante es independiente de cualquier poder que pudiera desear detenerla, no tiene otro límite que la duración del mundo en los que la naturaleza nos ha echado. Este progreso variará sin duda en la velocidad, pero nunca será invertido el tiempo en el que la tierra ocupa su lugar actual en el sistema del universo, y siempre y cuando las leyes generales de este sistema produzcan ni un cataclismo general ni cambios tales como la voluntad de privar a la humanidad de sus facultades actuales y sus recursos actuales.""[8]

Años más tarde, el editor R. Thornton[9][10]​ escribió sobre la reciente invención de una calculadora mecánica de cuatro funciones:

... Este tipo de máquinas, mediante las cuales el estudioso puede, girando una manivela, moler la solución de un problema sin el cansancio de aplicación mental. Lo que haría su introducción en las escuelas es provocar daños incalculables. Pero, ¿quién sabe que tales máquinas cuando sean traídas a una mayor perfección, no pueden pensar en un plan para remediar todos sus defectos y luego moler las ideas más allá del alcance de la mente mortal?

En 1863, el escritor Samuel Butler escribió “Darwin entre las máquinas” (del inglés, Darwin Among the Machines), que se incorporó más tarde en su famosa novela “Erewhon”. Señaló la rápida evolución de la tecnología y la comparó con la evolución de la vida, haciendo uso del término singularidad sin darse cuenta:

Hay que reflexionar sobre el extraordinario avance que las máquinas han hecho durante los últimos cien años, teniendo en cuenta la lentitud con la que los reinos animales y vegetales están avanzando. Las máquinas más altamente organizadas son criaturas no tanto de ayer, sino a partir de los últimos cinco minutos, por así decirlo, en comparación con el tiempo pasado. Supongamos por el bien del argumento que los seres conscientes han existido desde hace algunos veinte millones de años: Si vemos lo que las máquinas han hecho en los últimos mil años. ¿No puede ser que el mundo dure veinte millones años más? Si es así, ¿en qué no se convertirán al final? ... No podemos hacer cálculos sobre los avances correspondientes a los poderes intelectuales o físicos del hombre, que será una compensación en contra de la medida del mayor desarrollo que parece estar reservada para las máquinas.

En 1909, el historiador Henry Adams escribió un ensayo, “La Regla de la Fase Aplicada a la Historia” (del inglés, The Rule of Phase Applied to History),[11]​ en el que desarrolló una "teoría física de la historia" mediante la aplicación de la ley de los cuadrados inversos a períodos históricos, proponiendo una "Ley de la Aceleración del Pensamiento ". Adams interpreta la Historia como un proceso de avanzar hacia un "equilibrio", y especuló que este proceso sería "llevar el pensamiento hasta el límite de sus posibilidades en el año 1921. ¡Es muy posible!", Y agregó que "las consecuencias pueden ser tan sorprendentes como el cambio de agua a vapor, del gusano a mariposa o de la radio a los electrones."[12]​ El futurólogo John Smart ha llamado a Adams "Primer Teórico de la Tierra sobre la Singularidad".[13]

Este término se lo puede relacionar también con el matemático Alan Turing, quien en 1951 habló de máquinas superando a los seres humanos intelectualmente[14]​:

Una vez que ha comenzado el método de pensamiento de la máquina, que no tomaría mucho tiempo para superar a nuestros débiles poderes. ... Por lo tanto, en algún momento tendríamos que esperar que las máquinas tomen el control, en la forma en que se menciona en Erewhon de Samuel Butler's.

A través de los años

En 1985, Ray Solomonoff introdujo la noción de "punto infinito"[15]​ en la escala del tiempo de la inteligencia artificial, analizando la magnitud del "shock del futuro", que "podemos esperar de nuestra IA expandida en la comunidad científica", y sobre los efectos sociales. Las estimaciones fueron hechas "para cuando ocurrirían estos hitos, seguidos por algunas sugerencias para la utilización más eficaz del crecimiento tecnológico extremadamente rápido que se espera".

En su libro Mind Children (1988), el científico de la computación y futurista Hans Moravec generaliza la ley de Moore para hacer predicciones sobre el futuro de la vida artificial. Moravec esboza una línea de tiempo y un escenario en este sentido[16][17]​en el que los robots van a evolucionar en una nueva serie de especies artificiales, al alrededor del 2030 al 2040.[18]​ En “Robot: Mere Machine to Transcendent Mind”, publicado en 1998, Moravec considera además las implicaciones de la evolución de la inteligencia del robot, la generalización de la ley de Moore a las tecnologías precediendo el circuito integrado, y especulando sobre una venida "fuego en mente" de superinteligencia de rápida expansión, similar a las ideas de Vinge.

Un artículo de 1993 por Vinge, "The Coming Technological Singularity: How to Survive in the Post-Human Era",[19]​ se extendió ampliamente en Internet y ayudó a popularizar la idea.[20]​ Este artículo contiene la declaración citada a menudo, "Dentro de treinta años, vamos a disponer de los medios tecnológicos para crear inteligencia sobrehumana. Poco después, la era humana se terminará." Vinge refina su estimación de las escalas temporales necesarias, y agregó: "Me sorprendería si este evento se produce antes de 2005 o después de 2030."

El libro de divulgación científica de Damien Broderick The Spike (1997) fue el primero para investigar la singularidad tecnológica en detalle.

En 2005, Ray Kurzweil publicó “The singularity in near”, la cual llevó la idea de la singularidad a los medios de comunicación populares, tanto a través de la accesibilidad del libro, como a través de una campaña de publicidad que incluía una aparición en “The Daily Show con Jon Stewart”.[21]​ El libro agita una intensa controversia, en parte debido a que las predicciones utópicas de Kurzweil contrastan fuertemente con otras visiones más oscuras de las posibilidades de la singularidad. Kurzweil. Sus teorías y las controversias que lo rodean fueron objeto del documental de Barry Ptolemy “Transcendent Man”.

En 2007, Eliezer Yudkowsky sugirió que muchas de las variadas definiciones que se han asignado a la "singularidad" son incompatibles entre sí en lugar de apoyarse mutuamente.[22]​ Por ejemplo, Kurzweil extrapola actuales trayectorias tecnológicas más allá de la llegada de la auto-mejora de la IA o inteligencia sobrehumana, que Yudkowsky argumenta que representa una tensión con lo que I.J. Good propone; discontinúa en la inteligencia y la tesis de Vinge de imprevisibilidad.

En 2008, Robin Hanson (teniendo como "singularidad" el fuerte aumento en el exponente del crecimiento económico) enumeró las revoluciones agrícola e industrial como singularidades pasadas. La extrapolación de estos sucesos pasados; Hanson propone que la próxima singularidad económica debería aumentar el crecimiento económico de entre 60 y 250 veces. Una innovación que permitiría la sustitución virtual del todo el trabajo humano y que podría desencadenar este evento.[23]

En 2009, Kurzweil y el fundador de X-Prize, Peter Diamandis anunciaron la creación de la Universidad de la Singularidad, cuya misión declarada es "educar, inspirar y empoderar a los líderes para aplicar tecnologías exponenciales para hacer frente a los grandes retos de la humanidad."[24]​ Financiada por Google, Autodesk, ePlanet Ventures, y un grupo de líderes de la industria de tecnología de la Universidad de la Singularidad, se basa en el Ames Research Center de la NASA en Mountain View, California. La organización sin fines de lucro ejecuta un programa anual de posgrado de diez semanas durante el verano del hemisferio norte que cubre diez tecnologías diferentes y pistas aliadas, y una serie de programas ejecutivos en todo el año.

A través de los años se siguió hablando de la misma. En 2010 Aubrey de Grey aplica el término "Methuselarity"[25]​ hasta el punto en el que la tecnología médica mejora tan rápido que la vida humana útil esperada aumenta por más de un año por año. En " Apocalyptic AI – Visions of Heaven in Robotics, Artificial Intelligence, and Virtual Reality"[26]​ (2010), Robert Geraci ofrece una cuenta del desarrollo de "ciber - teología", inspirada en los estudios de la Singularidad.

El ensayista y filósofo Éric Sadin, habla en 2017 en su texto sobre un acoplamiento humano-máquina, describiéndolo como algo inédito entre organismos fisiológicos y códigos digitales. Este acoplamiento se va tejiendo y tensionando inestablemente entre aptitudes y misiones otorgadas por un lado a los humanos, y por otro a las máquinas. Sadin nos dice que se caracteriza, hasta ahora y por un tiempo, por un equilibrio incierto y nebuloso, basado por la distribución binaria y emblemática en la frecuentación de todos los flujos de Internet, operados la gran mayoría por robots electrónicos autónomos.[27]

Predicciones

Algunos autores se dedicaron a predecir cuándo esta singularidad ocurrirá. Por un lado el científico e inventor Raymond Kurzweil en su libro La singularidad esta cerca, nos advierte que este fenómeno ocurrirá alrededor del año 2045 y predice un ascenso gradual a la singularidad.[28]​ Aquel momento en donde se espera que las inteligencias basadas en la informática excedan significativamente la suma total de la capacidad intelectual humana, la escritura de los avances en la computación antes de esa fecha "no va a representar a la Singularidad" porque no lo hacen "para corresponder a una profunda expansión de nuestra inteligencia."[29]​ En 2011, Kurzweil le dijo a la revista Time: "Nosotros revertiremos el éxito de la ingeniería del cerebro humano a mediados de la década de 2020. A finales de esa década, los ordenadores serán capaces de tener una inteligencia a nivel humano".[30]

Por otro lado Vernor Vinge la predice en 15 años menos, en el 2030. Esto difiere completamente con Kurzweil ya que predice un ascenso gradual a la singularidad, en lugar de una auto-mejora rápida de la inteligencia sobrehumana de Vinge. Para él hay cuatro maneras en que la singularidad podría ocurrir:[31]

  1. El desarrollo de equipos que alcanzan la consciencia ("despiertan") y poseen inteligencia sobrehumana.
  2. Las grandes redes de ordenadores (y sus usuarios asociados) pueden "despertar" como una entidad sobrehumana inteligente.
  3. Interfaces humano/computadoras pueden llegar a ser tan íntimas que los usuarios razonablemente pueden considerarse sobrehumanamente inteligentes.
  4. La ciencia biológica puede encontrar maneras de mejorar el intelecto humano natural.

Vinge continúa prediciendo que las inteligencias sobrehumanas podrán mejorar sus propias mentes más rápido que sus creadores humanos. "Cuando las unidades de mayor inteligencia humana progresen", postula Vinge, "el progreso será mucho más rápido". Predice que este ciclo de retroalimentación de la inteligencia auto-mejorada conllevará grandes cantidades de avances tecnológicos dentro de un corto período de tiempo, y afirma que la creación de la inteligencia sobrehumana representa una ruptura en la capacidad de los humanos para modelar su futuro. Su argumento es que los autores no pueden escribir personajes realistas que superen el intelecto humano, ya que va más allá de la capacidad de expresión humana. En otras palabra: No podemos pensar más allá de nuestra capacidad y forma de pensar. Vinge nombra a este evento como "la Singularidad".

En la Cumbre de la Singularidad del 2012, Stuart Armstrong hizo un estudio sobre las predicciones de la inteligencia artificial general (AGI) de los expertos y se encontró una amplia gama de fechas predichas, con un valor medio de 2040. Discutiendo el nivel de incertidumbre en las estimaciones de AGI, Armstrong dijo en 2012: «No es completamente formal, pero mi estimación actual del 80 % es algo así como a partir de cinco a 100 años».[32]

Manifestaciones

Muchos autores definieron que la singularidad tecnológica se puede llegar a manifestar de diferentes maneras: a partir de la inteligencia artificial, la superinteligencia o la singularidad de la No-IA.

Explosión de inteligencia

La IA fuerte podría llegar a provocar, tal como lo expresa Irving John Good, una “explosión de inteligencia”.[33]​ A pesar de que el progreso tecnológico se ha acelerado, se ha visto limitado por la inteligencia básica del cerebro humano, que no ha tenido, según Paul R. Ehrlich, un cambio significativo durante los últimos milenios.[34]​ Mediante el creciente poder de las computadoras y otras tecnologías, podría ser posible construir una máquina más inteligente que la humanidad.[35]​ El siguiente paso consiste en una inteligencia sobrehumana –inventada ya sea a través de la amplificación de la inteligencia humana o a través de la inteligencia artificial– capaz de aportar una mayor resolución de problemas y habilidades inventivas, y de diseñar una máquina mejor, más inteligente (auto-mejora recursiva). Estas iteraciones de auto-mejora recursiva podrían acelerar, y permitir potencialmente, un enorme cambio cualitativo antes de que los límites superiores impuestos por las leyes de la física o de cálculo teórico fueran fijados.[36][37][38]

Superinteligencia

Muchos de los escritores que hablan sobre la singularidad, como Vernor Vinge y Ray Kurzweil, definen el concepto en términos de la creación tecnológica de superinteligencia. Aunque argumentan que es difícil o imposible para los seres humanos de hoy en día predecir cómo será la vida de los seres humanos en un mundo post-singularidad.[39][19][40]

Vernor Vinge hizo una analogía entre la ruptura de nuestra capacidad de predecir lo que sucedería después del desarrollo de la superinteligencia y la ruptura de la capacidad predictiva de la física moderna en la singularidad del espacio-tiempo, más allá del horizonte de sucesos de un agujero negro.[40]​ El autor y otros destacados escritores declaran específicamente que sin la superinteligencia, los cambios que produciría este acontecimiento, no se podrían calificar como una verdadera singularidad.[19]

Singularidad de la No-IA

Algunos autores utilizan "la singularidad" de una manera más amplia para referirse a los cambios radicales en nuestra sociedad, provocados por las nuevas tecnologías como la nanotecnología molecular.[41][22][42]​ Muchos autores también vinculan la singularidad de las observaciones del crecimiento exponencial de diversas tecnologías (con la Ley de Moore, que es el ejemplo más prominente). Con el uso de tales observaciones como base para la predicción de la singularidad, es probable que suceda en algún momento del siglo 21.[22][43]

También existe la hipótesis de que con la medicina regenerativa, se llegará a la hiperlongevidad prolongada.

Verosimilitud

No existe entre los expertos unanimidad acerca de si el acontecimiento no tendrá lugar.
El investigador Gary Marcus afirma que «prácticamente todo el mundo en el campo de la IA cree que las máquinas algún día superarán a los humanos y en cierto nivel, la única diferencia real entre los entusiastas y los escépticos es un marco de tiempo».[44]​ Pero por otro lado, gran cantidad de tecnólogos y académicos afirman que la singularidad tecnológica está en pausa, incluyendo a Paul Allen, Jeff Hawkins, John Holland, Jaron Lanier, y Gordon Moore, cuya ley de Moore se cita a menudo en apoyo del concepto.[45][46][47]

Causa probable: el crecimiento exponencial

 
Ray Kurzweil escribe que, debido a los cambios de paradigma, una tendencia de crecimiento exponencial extiende la ley de Moore de circuitos integrados para los primeros transistores, los tubos de vacío, relés y equipos electromecánicos. Predice que el crecimiento exponencial va a continuar, y que en pocas décadas la potencia de cálculo de todos los ordenadores superará al de ("sin contraste") los cerebros humanos, con la inteligencia artificial sobrehumana que aparece en la misma época.

El crecimiento exponencial de la tecnología informática sugerido por la Ley de Moore es comúnmente citado como una razón para esperar una singularidad en un futuro relativamente próximo. El informático y futurista Hans Moravec propuso en un libro de 1998[48]​ que la curva de crecimiento exponencial podría extenderse de nuevo a través de tecnologías de computación previas al circuito integrado. El futurista Ray Kurzweil postula una ley de rendimientos acelerados, en el que la velocidad del cambio tecnológico aumenta de manera exponencial[49]​ la generalización de la ley de Moore al igual que en la propuesta de Moravec. A esto se le suma la tecnología de materiales específicamente aplicada a la nanotecnología, la tecnología médica y otras.[50]

Entre 1986 y 2007, la capacidad específica de la aplicación de las máquinas para computar la información per cápita, se ha duplicado cada 14 meses; la capacidad per cápita de ordenadores de uso general en el mundo se ha duplicado cada 18 meses; la capacidad mundial de telecomunicaciones per cápita se duplicó cada 34 meses; y la capacidad de almacenamiento del mundo per cápita se duplicó cada 40 meses.[51]
Al igual que otros autores, Kurzweil se reserva el término "singularidad" para definir un rápido aumento de la inteligencia, a diferencia de otras tecnologías como, por ejemplo, la escritura: «La Singularidad nos permitirá trascender las limitaciones de nuestros cuerpos y cerebros biológicos».

No habrá distinción, después de la Singularidad, entre el ser humano y la máquina".[52]​ Se cree que el "diseño del cerebro humano, aunque no es sencillo, es no obstante un billón de veces más simple de lo que parece, debido a la masiva redundancia".[53]​ Según Kurzweil, la razón por la que el cerebro tiene una calidad desordenada e impredecible es porque, como la mayoría de los sistemas biológicos, es un "fractal probabilístico".[54]

Cambio Acelerado

 
Según Kurzweil, su gráfica logarítmica de 15 listas de cambios de paradigma para los eventos históricos claves muestra una tendencia exponencial.

Algunos defensores de la singularidad argumentan su inevitabilidad mediante la extrapolación de las tendencias del pasado, en especial las relativas en el acortamiento de la brecha entre las mejoras y la tecnología.

Hawkins (1983) escribe que "mindsteps", cambios dramáticos e irreversibles a paradigmas o visiones del mundo, se están acelerando en la frecuencia cuantificada en su ecuación de la misma. Cita los inventos de la escritura, la matemática y la informática como ejemplos sobre tales cambios.

El análisis de Kurzweil a partir de la ley de rendimientos o retornos acelerados (del inglés Law of Accelerating Returns) identifica que cada vez que la tecnología se acerca a una barrera, las nuevas tecnologías la superarán. Presumiblemente, una singularidad tecnológica llevaría a un rápido desarrollo de una civilización Kardashev Tipo I, la cual ha logrado el dominio de los recursos de su planeta de origen.[55]

Peligros frecuentemente citados incluyen a los asociados comúnmente con la nanotecnología molecular y la ingeniería genética. Estas amenazas son los principales problemas para los defensores y críticos de la singularidad, que fueron objeto de análisis en el artículo de la revista Wired de Bill Joy "Por qué el futuro no nos necesita" (“Why the future doesn’t need us”)[56]

La Acceleration Studies Foundation (al español, Fundación de Estudios de Aceleración), una fundación educativa sin fines de lucro fundada por John Smart, dedicada a la divulgación, la educación, la investigación y a la defensa en relación con la aceleración del cambio.[57]​ En ella se produce la conferencia sobre la aceleración del cambio (Accelerating Change) en la Universidad de Stanford. Además, mantiene el sitio educativo Acceleration Watch.

Los avances recientes, como la producción en masa del grafeno utilizando mezcladores modificados de cocina (2014) y los superconductores de alta temperatura basados en metamateriales, podrían permitir supercomputadoras que utilizarían tanta energía como un microprocesador del tipo Core I7 (45W) y podrían alcanzar la misma potencia de cálculo como el sistema de IBM Blue Gene/L.[58][59]

Oposición

Son varios los críticos que están completamente en desacuerdo sobre el acontecimiento singularidad, afirmando que ningún equipo o máquina podrían alcanzar la inteligencia humana.[60]

El científico canadiense Steven Pinker declaró en 2008:

«(...) No hay la más mínima razón para creer en una singularidad que viene. El hecho de que se puede visualizar un futuro en su imaginación no es evidencia de que es probable o incluso posible. Mira las ciudades abovedadas, desplazamientos jet-pack, ciudades bajo el agua, edificios de millas de alto, y los automóviles de propulsión nuclear – todas eran fantasías futuristas cuando yo era un niño que nunca llegaron. La pura potencia de procesamiento no es un polvo mágico que resuelve mágicamente todos tus problemas.[45]​(...)»

Por otro lado, el científico alemán Schmidhuber (2006) sugiere diferencias en la memoria de los acontecimientos recientes y lejanos para crear una ilusión de la aceleración del cambio, y que tales fenómenos pueden ser responsables de las predicciones apocalípticas del pasado.

Sobre la economía

El investigador futurista Martin Ford postula que antes de la singularidad podría ocurrir que ciertos trabajos rutinarios fuesen automatizados, lo que provocaría un desempleo masivo y la caída de la demanda del consumidor, por lo que esto destruiría el incentivo para invertir en las tecnologías necesarias para que se lleve a cabo la singularidad.[61]

El escritor estadounidense Jaron Lanier, también habla en torno a la tecnología, refutando la idea de que la singularidad es inevitable. Postula que la tecnología se está creando a sí misma y no es un proceso en el anonimato. Afirma que la única razón para creer en la acción humana sobre la tecnología es que pueda tener una economía en donde las personas ganen su propio camino e inventen sus propias vidas; si se estructura una sociedad sin hacer énfasis en la acción humana individual, seria lo mismo que negar a las personas influyentes la dignidad y la autodeterminación. "Singularidad como una celebración de mal gusto y mala política".[62]

En El Progreso de la Informática (en inglés, The Progress of Computing), el economista estadounidense, William Nordhaus argumentó que hasta 1940, los equipos siguieron el crecimiento lento de la economía industrial tradicional, rechazando así las extrapolaciones de la ley de Moore a las computadoras del siglo 19.[63]

Andrew Kennedy, por otra parte, en su artículo de 2006 para la Sociedad Interplanetaria Británica discute el cambio y el crecimiento en las velocidades de los viajes espaciales[64]​, declaró que aunque el crecimiento global a largo plazo es inevitable, este es pequeño e incorpora subidas y bajadas. Señaló además que "Las nuevas tecnologías siguen las leyes del uso de la energía y la información de difusión conocidas y están obligados a conectarse con los que existen. Notables descubrimientos teóricos, si terminan siendo utilizados totalmente, lograrían desempeñar su papel en el mantenimiento de la tasa de crecimiento: y que no hacen de su curva trazada... redundante". Afirmó que el crecimiento exponencial no es predictor de sí mismo, e ilustra esto con ejemplos como la teoría cuántica.

Retroceso tecnológico

El geógrafo Jared Diamond habla de un retroceso tecnológico que imposibilitará la singularidad. Sostiene que cuando las culturas auto-limitantes superen la capacidad de carga sostenible de su entorno, y el consumo de los recursos estratégicos (madera, suelos o agua) crearán una retroalimentación positiva deletérea repetitiva que conduciría finalmente al colapso social.[65]​ A esta misma idea de retroceso tecnológico se le suman los físicos Theodore Modis[66][67]​ y Jonathan Huebner[68]​. Ellos admiten que la invocación tecnológica aumenta pero esta en descenso por la subida de las frecuencias de reloj de las computadoras que está retrasándose en relación a la predicción de Moore en cuanto a que la densidad del circuito sigue manteniéndose con un aumento exponencial. Esto es debido a la excesiva acumulación de calor desde el chip, que no puede disipar lo suficientemente rápido para evitar que el chip se derrita cuando se opera a altas velocidades. Los avances en la velocidad pueden ser posibles en el futuro, en virtud de más diseños de CPU energéticamente eficientes y procesadores de multi-celdas.[69]​ Mientras que Kurzweil utiliza los recursos y trabajos de Modis, alrededor de la aceleración del cambio, Modis se distanció de la tesis de Kurzweil de una "singularidad tecnológica", alegando que carece de rigor científico.[67]

Finalmente, el empresario estadounidense, Paul Allen argumenta lo contrario sobre los retornos acelerados, en concreto se refiere al "Freno de la complejidad".[47]​ Afirma que la ciencia más avanzada hacia la comprensión hace que la inteligencia se haga más difícil, y sería para hacer progresos adicionales. Un estudio sobre la cantidad de patentes muestra que la creatividad humana no muestra retornos acelerados, tal y como sugiere Joseph Tainter en su artículo “El Colapso de las Sociedades Complejas” (del inglés, The Collapse of Complex Societies),[70]​ una ley de rendimientos decrecientes.
El número de patentes por cada mil alcanzó su punto máximo en el período de 1850 a 1900, y ha ido disminuyendo desde entonces.[68]​ El crecimiento de la complejidad con el tiempo llega a ser autolimitada, y conduce a un generalizado "colapso general de sistemas".[71]

En contra de Kurzweil

Además de las críticas generales del concepto de singularidad, varios críticos han planteado cuestiones en contra de lo que manifestaba como singularidad el científico Raymond Kurzweil. Una línea de crítica es que un gráfico log-log de esta naturaleza se inclina intrínsecamente hacia un resultado en línea recta. Otros identifican un sesgo de selección en los puntos que Kurzweil elige utilizar. Un claro ejemplo de esto lo planteó el biólogo PZ Myers quien señala que muchos de los primeros "eventos" evolutivos fueron detenidos arbitrariamente.[72]​ Kurzweil ha refutado esto, trazando eventos evolutivos de 15 fuentes neutrales, y demostrando que encajan en una línea recta en un gráfico log-log. The Economist se burló de la idea con un gráfico extrapolando el número de hojas en una máquina de afeitar, la cual ha aumentado en los últimos años entre uno hasta cinco, y que aumentará cada vez más rápido hasta el infinito.[73]

Otras singularidades

Por otro lado, varios autores proponen otras "singularidades" a través del análisis de las tendencias de la población mundial, el producto interno bruto mundial o la longevidad, entre otros índices. Andrey Korotayev y otros argumentan que las curvas hiperbólicas de crecimiento histórico se le pueden atribuir a los ciclos de retroalimentación que dejaron de afectar a las tendencias mundiales en la década de 1970, y que el crecimiento hiperbólico no debe esperarse en el futuro.[74][75]

El microbiólogo Joan Slonczewski y el escritor Adam Gopnik argumentan que la Singularidad es un proceso gradual; que como seres humanos gradualmente externalizamos nuestra capacidad a las máquinas[76]​, que redefinimos esas habilidades como inhumanas, sin darse cuenta de lo poco que queda. Este concepto se denomina Singularidad Mitocondrial.[77]​ La idea se refiere a las mitocondrias, los orgánulos que se desarrollan a partir de bacterias autónomas, pero ahora controlan nuestras células vivas. En el futuro, el "ser humano" dentro del exoesqueleto de la máquina podría existir solo para encenderla.

Riesgos

El acontecimiento singularidad tecnológica para algunos autores y críticos trae muchísimos riesgos para la sociedad. En el 2000, Bill Joy, un tecnólogo prominente y un cofundador de Sun Microsystems, expresó su preocupación por los peligros potenciales de la singularidad.[78]

Incertidumbre

El término "singularidad tecnológica" refleja la idea de que tal cambio puede ocurrir de repente, y que es difícil predecir cómo el nuevo mundo resultante operaría.[79][80]​ No está claro si una explosión de inteligencia de este tipo sería beneficiosa o perjudicial, o incluso una amenaza existencial.[81][82]​ Como el tema no ha sido tratado por los investigadores de inteligencia artificial general, a pesar de que el tema de la inteligencia artificial amigable sea investigada por el Instituto Futuro de la Humanidad (Future of Humanity Institute) y el Instituto para la Singularidad de la Inteligencia artificial (Singularity Institute for Artificial Intelligence), que ahora es el Instituto de Investigación en Inteligencia de la Máquina (Machine Intelligence Research Institute).[79]

Implicaciones para la sociedad humana

En febrero de 2009, bajo los auspicios de la Asociación para el Avance de la Inteligencia Artificial (AAAI), Eric Horvitz presidió una reunión de informáticos, investigadores de inteligencia artificial y robótica en Asilomar en Pacific Grove, California. El objetivo fue discutir el posible impacto de la hipotética posibilidad de que los robots podrían llegar a ser autosuficientes y capaces de tomar sus propias decisiones. Discutieron la medida en que las computadoras y los robots podrían ser capaces de adquirir autonomía, y en qué medida podrían utilizar tales habilidades para plantear amenazas o riesgos.

Algunas máquinas han adquirido diversas formas de semi-autonomía, incluyendo la capacidad de localizar sus propias fuentes de energía y elegir objetivos para atacar con armas. Además, algunos virus informáticos pueden evadir la eliminación y han logrado la "inteligencia de la cucaracha." Los asistentes a la conferencia señalaron que la autoconciencia como se muestra en la ciencia-ficción es probablemente poco probable, pero que existen otros riesgos y peligros potenciales.[83]

Algunos expertos y académicos han cuestionado el uso de robots para el combate militar, sobre todo cuando a estos robots se les da algún grado de funciones autónomas.[84]​ Un informe de la marina de Estados Unidos indica que, como los robots militares se vuelven más complejos, debería de haber una mayor atención a implicaciones sobre su capacidad de tomar decisiones autónomas.[85][86]​ La AAAI ha encargado un estudio para examinar esta cuestión,[87]​ que apunta a programas como el dispositivo de adquisición de idiomas (Language Acquisition Device), que se reivindica para emular la interacción humana.

Medidas de seguridad - ¿Tecnología amigable?

Por otro lado, algunos apoyan el diseño de la inteligencia artificial amable, lo que significa que los avances que ya se están produciendo con la IA también deben incluir un esfuerzo para que la IA sea intrínsecamente amable y humana.[88]​ De Isaac Asimov, “las Tres Leyes de la Robótica” es uno de los primeros ejemplos de medidas de seguridad propuestas para la IA. Las leyes están destinadas a prevenir que los robots de inteligencia artificial dañen a los seres humanos. En las historias de Asimov, los problemas percibidos con las leyes tienden a surgir como resultado de un malentendido por parte de algún operador humano; los propios robots están simplemente actuando para su mejor interpretación de sus normas.

Por ejemplo, en el 2004 el Instituto de Investigación en Inteligencia de la Máquina lanzó una campaña en Internet llamada “3 Leyes inseguras” para crear conciencia sobre los problemas de seguridad de la IA y la insuficiencia de las leyes de Asimov en particular.[89]

En la cultura popular

El término singularidad y el acontecimiento que este trae se pudo ver en grandes películas, series, novelas, y en muchos formatos más. Todos ellos abordaron de alguna manera este acontecimiento en sus historias.

Novelas

En 1984, Samuel R. Delany utiliza "fuga cultural" como un recurso argumental en su novela de ciencia ficción Stars in My Pocket Like Grains of Sand; el término fugitivo de complejidad tecnológica y cultural, en efecto, destruye toda la vida en cualquier mundo en el que se trasluce un proceso poco comprendido por los personajes de la novela, y en contra de los que buscan una defensa estable.

Ni más ni menos, Vernor Vigne también popularizó el concepto en las novelas de ciencia ficción como en “Marooned in Realtime” (1986) y en “A Fire Upon the Deep” (1992). El primero se encuentra en un mundo de rápida aceleración de cambio que lleva a la aparición de más y más tecnologías sofisticadas separadas por intervalos de tiempo cada vez más cortos, hasta que se alcanza un punto más allá de la comprensión humana. Este último comienza con una descripción imaginativa de la evolución de una superinteligencia pasando por una aceleración exponencialmente en etapas de desarrollo que terminan en un poder trascendente, casi omnipotente e insondable por simples humanos. Vinge también implica que el desarrollo no puede detenerse en este nivel.

En la serie de relatos del escritor estadounidense Isaac Asimov relacionados con Multivac, una supercomputadora, y particularmente en su cuento [La última pregunta] plantea que ésta es capaz de autocorregirse más eficiente y velozmente de lo que lo pueden hacer técnicos humanos, prescindiendo cada vez más de ellos, y desarrollando eventualmente la capacidad de diseñar y fabricar a su sucesora a partir de la anterior. Llega a un punto donde se fusiona con todas las mentes humanas y es una única voluntad: la AC.

La novela de 1979 de James P. Hogan “The Two Faces of Tomorrow” es una descripción explícita de lo que ahora se llama la Singularidad. Un sistema de inteligencia artificial resuelve un problema de excavación en la luna de una manera brillante y novedosa, pero casi mata a un equipo de trabajo en el proceso. Al darse cuenta de que los sistemas se están volviendo demasiado sofisticados y complejos de predecir o dirigir, un equipo científico se propone enseñar a una red informática sofisticada cómo pensar más humanamente. La historia documenta el surgimiento de conciencia en el sistema informático, la pérdida de los seres humanos de control y los intentos fallidos de cerrar el experimento en el que el equipo se defiende desesperadamente a sí mismo, y la inteligencia del ordenador alcance la madurez.

Al discutir sobre el creciente reconocimiento de la singularidad, Vernor Vinge escribió en 1993 que "fueron los escritores de ciencia ficción quienes sintieron el primer impacto concreto". Además de su propia historia corta "Bookworm, Run”, cuyo protagonista es un chimpancé con la inteligencia aumentada por un experimento del gobierno, cita a la novela “Blood Music” de Greg Bear (1983) como un ejemplo de la singularidad en la ficción.

El 1996 la novela “Holy Fire” por Bruce Sterling explora algunos de esos temas y postula que un Methuselarity se convertirá en una gerontocracia.

En la novela de William Gibson de 1984 “Neuromancer”, inteligencias artificiales capaces de mejorar sus propios programas están estrictamente reguladas por la especial "policía de Turing" para asegurarse de que no superan un cierto nivel de inteligencia, y la trama se centra en los esfuerzos de uno de la IA para eludir su control.

En el cuento de Harlan EllisonI Have No Mouth, and I Must Scream” (1967), una IA malévola logra omnipotencia.

Películas

Películas populares en la que las computadoras se vuelven inteligentes y tratan de dominar a la raza humana incluyen Colossus: The Forbin Project; la serie Terminator; La serie Matrix; Transformers, la película de Stanley Kubrick y Arthur C. Clarke, 2001: A Space Odyssey, entre muchas otras.

Las series de televisión Dr. Who, The 100, Battlestar Galactica, y Star Trek: The Next Generation (que también se adentra en la realidad virtual, la cibernética, formas alternativas de vida, y el posible camino evolutivo de la humanidad) también explora estos temas. De todos ellos, solo cuenta con un verdadero coloso superinteligente.

  • The Machine. Por el escritor-director Caradog James, sigue a dos científicos que crean la primera inteligencia artificial consciente de sí misma en el mundo durante la Guerra Fría.
  • Trascendence. De Wally Pfister, toda su trama se centra en un escenario de despliegue singular en el que logran transferir la consciencia de un humano y cargarla a la red.
  • Her. La película de ciencia-ficción del 2013 sigue una relación romántica de un hombre con una IA muy inteligente, que con el tiempo aprende a mejorarse a sí misma y crea una explosión de inteligencia.
  • Ex Machina y Tron exploran el concepto de la génesis de las máquinas pensantes y su relación con el impacto en la humanidad.
  • Alien: Covenant. Una película que trata de un viaje hacia un remoto planeta en la galaxia. En la historia se activa un androide nuevo, el cual es una inteligencia artificial. En el viaje descubren que no están solos en dicho planeta, y su objetivo comienza a ser tratar de vivir en ese ambiente peligroso y hostil.

Otros

El documental Transcendent Man, basado en The Singularity Is Near, cubre la búsqueda de Kurzweil para revelar lo que él cree que es el destino de la humanidad. Otro documental, Plug & Pray, se centra en la promesa, los problemas y la ética de la inteligencia artificial y la robótica, con Joseph Weizenbaum y Kurzweil como los temas principales de la película.[90]​ Un documental de 2012 titulado simplemente The Singularity cubre tanto perspectivas futuristas como contra-futuristas.[90]

En la música, álbum The Singularity (Fase I: Neohumanity) por la banda sueca Scar Symmetry es la primera parte del álbum conceptual de tres partes sobre la base de los acontecimientos de la singularidad.

Existe el cómic web “Questionable Content”, que tiene lugar en mundo post-singularidad con un "IA amable".[91]

Autores

Los autores notables que abordan temas relacionados con la singularidad incluyen Robert Heinlein, Karl Schroeder, Greg Egan, Ken MacLeod, Rudy Rucker, David Brin, Iain M. Banks, Neal Stephenson, de Tony Ballantyne, Bruce Sterling, Dan Simmons, Damien Broderick, Fredric Brown, Jacek Dukaj, Stanislaw Lem, Nagaru Tanigawa, Douglas Adams, Michael Crichton, e Ian McDonald.

Véase también

Notas

  1. Chalmers, David. Singularity Institute for Artificial Intelligence.
  2. Editor's Blog Why an Intelligence Explosion is Probable el 27 de noviembre de 2012 en Wayback Machine., by Richard Loosemore and Ben Goertzel. March 7, 2011; hplusmagazine.
  3. Carvalko, Joseph (2012). The Techno-human Shell-A Jump in the Evolutionary Gap. Sunbury Press. ISBN 978-1620061657. 
  4. Cortina y Serra, Albert y Miquel-Àngel (2015). «Capítulo 1 de ¿Humanos o posthumanos? Singularidad tecnológica y mejoramiento humano.». ¿Humanos o Posthumanos?, singularidad tecnológica y mejoramiento humano. 
  5. Ulam, Stanislaw (16 de mayo de 1958). Tribute to John von Neumann. 64, #3, part 2. Bulletin of the American Mathematical Society. p. 5. 
  6. Vinge did not actually use the phrase "technological singularity" in the Omni op-ed, but he did use this phrase in the short story collection Threats and Other Promises from 1988, writing in the introduction to his story "The Whirligig of Time" (p. 72): Barring a worldwide catastrophe, I believe that technology will achieve our wildest dreams, and soon. When we raise our own intelligence and that of our creations, we are no longer in a world of human-sized characters. At that point we have fallen into a technological "black hole," a technological singularity.
  7. Solomonoff, R.J. "The Time Scale of Artificial Intelligence: Reflections on Social Effects", Human Systems Management, Vol 5, pp. 149–153, 1985.
  8. «Mission». Singularity Summit Australia - Future of Science and Technology. 
  9. Thornton, Richard (1847), The Expounder of Primitive Christianity 4, Ann Arbor, Michigan, p. 281 .
  10. Adams, H. (1909) "The rule of phase applied to history." En H. Adams & B. Adams (1920), The Degradation of the Democratic Dogma. New York: Macmillan, 267-311.
  11. Adams (1909), p.309
  12. «A Brief History of Intellectual Discussion of Accelerating Change». Accelerationwatch.com. Consultado el 17 de agosto de 2013. 
  13. A M Turing, Intelligent Machinery, A Heretical Theory, 1951, reprinted Philosophia Mathematica (1996) 4(3): 256–260 doi 10.1093/philmat/4.3.256
  14. Dooling, Richard. Rapture for the Geeks: When AI Outsmarts IQ (2008), p. 88
  15. Moravec, Hans (1998), , Journal of Evolution and Technology 1, archivado desde el original el 15 de junio de 2006, consultado el 23 de junio de 2006.  |obra= y |publicación= redundantes (ayuda).
  16. Moravec, Hans (16 de junio de 1993). «The Age of Robots». Consultado el 23 de junio de 2006. 
  17. Moravec, Hans (16 de abril de 2004). «Robot Predictions Evolution». Consultado el 23 de junio de 2006. 
  18. Dooling, Richard. Rapture for the Geeks: When AI Outsmarts IQ (2008), p. 89
  19. Vinge, Vernor. "The Coming Technological Singularity: How to Survive in the Post-Human Era", originally in Vision-21: Interdisciplinary Science and Engineering in the Era of Cyberspace, G. A. Landis, ed., NASA Publication CP-10129, pp. 11–22, 1993
  20. 83
  21. Hanson, Robin, , IEEE Spectrum Special Report: The Singularity, archivado desde el original el 11 de agosto de 2011, consultado el 11 de septiembre de 2008 . & Long-Term Growth As A Sequence of Exponential Modes
  22. Yudkowsky, Eliezer. The Singularity: Three Major Schools
  23. Singularity University at its official website
  24. de Grey, Aubrey.
  25. Geraci, Robert M. (2010). Apocalyptic AI – Visions of Heaven in Robotics, Artificial Intelligence, and Virtual Reality. Oxford University Press. ISBN 978-0195393026. 
  26. 2045: The Year Man Becomes Immortal, By Lev Grossman Thursday, Feb. 10, 2011 time.com.
  27. Sadin, Eric (2017). «Introducción: La emergencia de una cognición artificial superior». La Humanidad Aumentada. La administración digital del mundo. Editorial Caja Negra. p. 31-32. 
  28. Kurzweil, Ray (2005). La singularidad está cerca, cuando los humanos trascendemos la biología. Lola Books. 
  29. Kurzweil, Ray (10 de octubre de 2008). «The singularity: The last word – [forum]». IEEE 45: 10. doi:10.1109/MSPEC.2008.4635038. Consultado el 2 de octubre de 2013. 
  30. Jacques, Jeph. «They've Had AI Since 1996». Questionable Content. Consultado el 9 de junio de 2015.  |sitioweb= y |publicación= redundantes (ayuda)
  31. Joy, Bill (16 de abril de 2000), «Why the future doesn’t need us», Wired Magazine (Viking Adult) (8.04), ISBN 0-670-03249-2, consultado el 7 de agosto de 2007  |obra= y |publicación= redundantes (ayuda).
  32. Armstrong, Stuart. "How We're Predicting AI" el 31 de octubre de 2014 en Wayback Machine., from the 2012 Singularity Conference
  33. Good, I. J. (1950). «Advances in Computers, vol. 6.». Speculations Concerning the First Ultraintelligent Machine. 
  34. Ehrlich, Paul. The Dominant Animal: Human Evolution and the Environment
  35. Shajahan, S (2007). Management Information Systems. New Age International. 
  36. Good, I. J., "Speculations Concerning the First Ultraintelligent Machine" el 4 de marzo de 2016 en Wayback Machine., Franz L. Alt and Morris Rubinoff, ed., Advances in Computers (Academic Press) 6: 31–88, 1965.
  37. . Archivado desde el original el 23 de octubre de 2015. Consultado el 30 de julio de 2015. 
  38. Good, I. J. 1965 "Speculations Concerning the First Ultraintelligent Machine" el 4 de marzo de 2016 en Wayback Machine.. pp. 31–88 in Advances in Computers, 6, F. L. Alt and M Rubinoff, eds. New York: Academic Press.
  39. Ray Kurzweil, The Singularity is Near, pp. 135–136. Penguin Group, 2005.
  40. . Singinst.org. Archivado desde el original el 8 de septiembre de 2011. Consultado el 9 de septiembre de 2011. 
  41. . Hplusmagazine.com. Archivado desde el original el 23 de diciembre de 2010. Consultado el 9 de septiembre de 2011. 
  42. Sandberg, Anders. An overview of models of technological singularity
  43. «Max More and Ray Kurzweil on the Singularity». KurzweilAI. Consultado el 9 de septiembre de 2011. 
  44. Marcus, Gary (24 de octubre de 2013). «Why We Should Think About the Threat of Artificial Intelligence». New Yorker. Consultado el 15 de julio de 2014. 
  45. «Tech Luminaries Address Singularity – IEEE Spectrum». Spectrum.ieee.org. Consultado el 9 de septiembre de 2011. 
  46. «Who's Who In The Singularity – IEEE Spectrum». Spectrum.ieee.org. Consultado el 9 de septiembre de 2011. 
  47. Paul Allen: The Singularity Isn't Near, consultado el 12 de abril de 2015 .
  48. Moravec, Hans (1999). Robot: Mere Machine to Transcendent Mind. Oxford U. Press. p. 61. 
  49. Ray Kurzweil, The Age of Spiritual Machines, Viking, 1999, p. 30 and p. 32
  50. Ray Kurzweil, The Singularity is Near, Penguin Group, 2005
  51. "The World's Technological Capacity to Store, Communicate, and Compute Information", Martin Hilbert and Priscila López (2011), Science (journal), 332(6025), 60-65; free access to the article through here: martinhilbert.net/WorldInfoCapacity.html
  52. Ray Kurzweil, The Singularity is Near, p. 9. Penguin Group, 2005
  53. Kurzweil, Ray (10 de octubre de 2008). «The singularity: The last word -[forum]». IEEE 45: 10. doi:10.1109/MSPEC.2008.4635038. Consultado el 2 de octubre de 2013. 
  54. Ray Kurzweil, The Singularity is Near, pp. 135–136. Penguin Group, 2005. "So we will be producing about 1026 to 1029 cps of nonbiological computation per year in the early 2030s. This is roughly equal to our estimate for the capacity of all living biological human intelligence ... This state of computation in the early 2030s will not represent the Singularity, however, because it does not yet correspond to a profound expansion of our intelligence. By the mid-2040s, however, that one thousand dollars' worth of computation will be equal to 1026 cps, so the intelligence created per year (at a total cost of about $1012) will be about one billion times more powerful than all human intelligence today. That will indeed represent a profound change, and it is for that reason that I set the date for the Singularity—representing a profound and disruptive transformation in human capability—as 2045."
  55. Zubrin, Robert. 1999, Entering Space: Creating a Spacefaring Civilization
  56. (Joy, 2000)
  57. (Acceleration Studies Foundation, 2007)
  58. «How to make graphene in a kitchen blender». nature.com. 
  59. «Metamaterials offer route to room-temperature superconductivity». physicsworld.com. 
  60. Dreyfus y Dreyfus, 2000, p. xiv: 'The truth is that human intelligence can never be replaced with machine intelligence simply because we are not ourselves "thinking machines" in the sense in which that term is commonly understood.'
  61. Ford, Martin (2009). The Lights in the Tunnel: Automation, Accelerating Technology and the Economy of the Future. Acculant. ISBN 978-1-4486-5981-4. 
  62. Lanier, Jaron (2013). Who Owns the Future?. Simon & Schuster. p. 328. (requiere registro). 
  63. Nordhaus, William. . 30 de agosto de 2011. Archivado desde el original el 11 de agosto de 2017. Consultado el 10 de octubre de 2017. 
  64. Interstellar Travel: The Wait Calculation and the Incentive Trap of Progress, JBIS Vol 59, N.7 July 2006
  65. Diamond, Jared (2005). Collapse: How Societies Choose to Fail or Succeed (en inglés). Viking. ISBN 0-14-303655-6. (requiere registro). 
  66. Theodore Modis, , Technological Forecasting & Social Change, 69, No 4, 2002
  67. Modis, Theodore. The Singularity Myth el 30 de octubre de 2012 en Wayback Machine.
  68. Huebner, Jonathan (2005) "A Possible Declining Trend for Worldwide Innovation", Technological Forecasting & Social Change, October 2005, pp. 980–6
  69. Krazit, Tom. Intel pledges 80 cores in five years, CNET News, 26 September 2006.
  70. Tainter, Joseph (1988) "The Collapse of Complex Societies el 7 de junio de 2015 en Wayback Machine." (Cambridge University Press)
  71. Allen, Paul. «The Singularity Isn't Near». 12 de octubre de 2011. Consultado el 10 de octubre de 2017. 
  72. Anonymous (18 de marzo de 2006), «More blades good», The Economist (London) 378 (8469): 85  |obra= y |periódico= redundantes (ayuda).
  73. Myers, P. Z., , archivado desde el original el 28 de febrero de 2009, consultado el 13 de abril de 2009 .
  74. See, e.g., Korotayev A., Malkov A., Khaltourina D. Introduction to Social Macrodynamics: Compact Macromodels of the World System Growth. Moscow: URSS Publishers, 2006; Korotayev A. V.
  75. For a detailed mathematical analysis of this issue see A Compact Mathematical Model of the World System Economic and Demographic Growth, 1 CE – 1973 CE.
  76. Adam Gopnik, New Yorker, 2011, http://www.newyorker.com/magazine/2011/04/04/get-smart-adam-gopnik
  77. Joan Slonczewski, Mitochondrial Singularity, 2013, http://ultraphyte.com/2013/03/25/mitochondrial-singularity/
  78. Episode dated 23 August 2006 en Internet Movie Database (en inglés).
  79. Yudkowsky, Eliezer (2008), , en Bostrom Bostrom, Nick Nick; Cirkovic, Milan, eds., Global Catastrophic Risks (Oxford University Press): 303, Bibcode:2008gcr..book..303Y, ISBN 978-0-19-857050-9, archivado desde el original el 7 de agosto de 2008  |obra= y |publicación= redundantes (ayuda).
  80. «The Uncertain Future». theuncertainfuture.com; a future technology and world-modeling project. 
  81. GLOBAL CATASTROPHIC RISKS SURVEY (2008) Technical Report 2008/1 Published by Future of Humanity Institute, Oxford University. Anders Sandberg and Nick Bostrom el 16 de mayo de 2011 en Wayback Machine.
  82. «Existential Risks: Analyzing Human Extinction Scenarios and Related Hazards». nickbostrom.com. 
  83. Scientists Worry Machines May Outsmart Man By JOHN MARKOFF, NY Times, July 26, 2009.
  84. Mick, Jason. New Navy-funded Report Warns of War Robots Going "Terminator" el 28 de julio de 2009 en Wayback Machine., Blog, dailytech.com, February 17, 2009.
  85. Flatley, Joseph L. Navy report warns of robot uprising, suggests a strong moral compass, engadget.com, 18 February 2009.
  86. Call for debate on killer robots, By Jason Palmer, Science and technology reporter, BBC News, 8/3/09.
  87. AAAI Presidential Panel on Long-Term AI Futures 2008–2009 Study, Association for the Advancement of Artificial Intelligence, Accessed 7/26/09.
  88. Article at Asimovlaws.com el 24 de mayo de 2012 en Wayback Machine., July 2004, accessed 7/27/2009.
  89. (Singularity Institute for Artificial Intelligence, 2004)
  90. «The Singularity: A Documentary by Doug Wolens». Ieet.org. Consultado el 22 de octubre de 2013. 
  91. Plug & Pray Documentary film (2010) about the promise, problems and ethics of artificial intelligence and robotics

Error en la cita: La etiqueta <ref> definida en las <references> con nombre «accelerating» no se utiliza en el texto anterior.
Error en la cita: La etiqueta <ref> definida en las <references> con nombre «businessweek» no se utiliza en el texto anterior.
Error en la cita: La etiqueta <ref> definida en las <references> con nombre «dreyfus» no se utiliza en el texto anterior.
Error en la cita: La etiqueta <ref> definida en las <references> con nombre «nytimes» no se utiliza en el texto anterior.
Error en la cita: La etiqueta <ref> definida en las <references> con nombre «stat» no se utiliza en el texto anterior.

Error en la cita: La etiqueta <ref> definida en las <references> con nombre «thelightsinthetunnel» no se utiliza en el texto anterior.

Referencias

  • Acceleration Studies Foundation (2007), , archivado desde el original el 26 de diciembre de 2008, consultado el 13 de noviembre de 2007 .
  • Anonymous (18 de marzo de 2006), «More blades good», The Economist (London) 378 (8469): 85  |obra= y |periódico= redundantes (ayuda).
  • [[James John Bell
James John Bell|Bell, James John]] (2002), Technotopia and the Death of Nature: Clones, Supercomputers, and Robots, Earth Island Journal (first published in the November/December 2001 issue of the Earth First! Journal), consultado el 7 de agosto de 2007 . 
  • Bell, James John (1 de mayo de 2003), «Exploring The "Singularity"», The Futurist (World Future Society (mindfully.org)), consultado el 7 de agosto de 2007 .
  • Berglas, Anthony (2008), Artificial Intelligence will Kill our Grandchildren, consultado el 13 de junio de 2008 .
  • [[Damien Broderick
Damien Broderick|Broderick, Damien]] (2001), The Spike: How Our Lives Are Being Transformed by Rapidly Advancing Technologies, New York: Forge, ISBN 0-312-87781-1 . 
  • [[Nick Bostrom
Nick Bostrom|Bostrom, Nick]] (2002), «Existential Risks», Journal of Evolution and Technology 9, consultado el 7 de agosto de 2007  |obra= y |publicación= redundantes (ayuda). 
  • Bostrom, Nick (2003), «Ethical Issues in Advanced Artificial Intelligence», Cognitive, Emotive and Ethical Aspects of Decision Making in Humans and in Artificial Intelligence 2: 12-17, consultado el 7 de agosto de 2007  |obra= y |publicación= redundantes (ayuda).
  • [[Hubert Dreyfus
Hubert Dreyfus|Dreyfus, Hubert L.]]; Dreyfus, Stuart E. (1 de marzo de 2000), Mind over Machine: The Power of Human Intuition and Expertise in the Era of the Computer (1 edición), New York: Free Press, ISBN 0-7432-0551-0 . 
  • Ford, Martin (2009), The Lights in the Tunnel: Automation, Accelerating Technology and the Economy of the Future, CreateSpace, ISBN 978-1-4486-5981-4. .
  • [[I. J. Good
I. J. Good|Good, I. J.]] (1965), , en Franz L. Alt and Morris Rubinoff, ed., Advances in Computers, Advances in Computers (Academic Press) 6: 31-88, ISBN 9780120121069, doi:10.1016/S0065-2458(08)60418-0, archivado desde el original el 27 de mayo de 2001, consultado el 7 de agosto de 2007  |obra= y |publicación= redundantes (ayuda). 
  • [[Robin Hanson
Robin Hanson|Hanson, Robin]] (1998), , Robin Hanson, archivado desde el original el 28 de agosto de 2009, consultado el 19 de junio de 2009 . 
  • Hanson, Robin (16 de junio de 2008), «Economics of the Singularity», IEEE Spectrum  |obra= y |periódico= redundantes (ayuda).
  • [[Stephen Hawking
Stephen Hawking|Hawking, Stephen]] (1998), , archivado desde el original el 29 de junio de 2009, consultado el 13 de noviembre de 2007 . 
  • [[Gerald Hawkins
Gerald Hawkins|Hawkins, Gerald S.]] (16 de agosto de 1983), Mindsteps to the Cosmos, HarperCollins, ISBN 0-06-015156-0 . 
  • [[Francis Heylighen
Francis Heylighen|Heylighen, Francis]] (2007), «Accelerating Socio-Technological Evolution: from ephemeralization and stigmergy to the global brain», en [[George Modelski George Modelski|Modelski Modelski, G. G.]]; Devezas, T.; Thompson, W., eds., Globalization as an Evolutionary Process: Modeling Global Change, London: Routledge, ISBN 978-0-415-77361-4 . 
  • Hibbard, Bill (5 de noviembre de 2014). «Ethical Artificial Intelligence». arXiv:1411.1373

 [cs.AI]. 

  • Johansen, Anders; Sornette, Didier (25 de enero de 2001), (PDF), Physica A 294 (3–4): 465-502, Bibcode:2001PhyA..294..465J, arXiv:cond-mat/0002075, doi:10.1016/S0378-4371(01)00105-4, archivado desde el original el 29 de noviembre de 2007, consultado el 30 de octubre de 2007  |obra= y |periódico= redundantes (ayuda).
  • [[Bill Joy
Bill Joy|Joy, Bill]] (16 de abril de 2000), «Why the future doesn't need us», Wired Magazine (Viking Adult) (8.04), ISBN 0-670-03249-2, consultado el 7 de agosto de 2007  |obra= y |publicación= redundantes (ayuda). 
  • [[Raymond Kurzweil
Raymond Kurzweil|Kurzweil, Raymond]] (2001), «The Law of Accelerating Returns», Nature Physics (Lifeboat Foundation) 4 (7): 507, Bibcode:2008NatPh...4..507B, doi:10.1038/nphys1010, consultado el 7 de agosto de 2007  |obra= y |publicación= redundantes (ayuda). 
  • Kurzweil, Raymond (2005), The Singularity Is Near, New York: Viking, ISBN 0-670-03384-7 .
  • [[Hans Moravec
Hans Moravec|Moravec, Hans]] (16 de enero de 1992), «Pigs in Cyberspace», On the Cosmology and Ecology of Cyberspace, consultado el 21 de noviembre de 2007  |obra= y |publicación= redundantes (ayuda). 
  • [[Ashik Mahmud
Ashik Mahmud|Mahmud, Ashik]] (16 de junio de 2015), , Socrates Journal, doi:10.7910/DVN/VAELLN, archivado desde el original el 26 de junio de 2015, consultado el 26 de junio de 2015  |obra= y |publicación= redundantes (ayuda). 

 [cs.AI]. 

  • [[Singularity Institute for Artificial Intelligence
Singularity Institute for Artificial Intelligence|Singularity Institute for Artificial Intelligence]] (2002), , archivado desde el original el 4 de octubre de 2006 . 
  • Singularity Institute for Artificial Intelligence (2004), , archivado desde el original el 23 de marzo de 2011, consultado el 7 de agosto de 2007 .
  • Singularity Institute for Artificial Intelligence (2007), , archivado desde el original el 30 de diciembre de 2007, consultado el 4 de enero de 2008 .
  • [[John Smart (futurist)
John Smart (futurist)|Smart, John]] (16 de septiembre de 2005), , Acceleration Studies Foundation, archivado desde el original el 16 de junio de 2006, consultado el 7 de agosto de 2007 . 
  • [[Stanislaw Ulam
Stanislaw Ulam|Ulam, Stanislaw]] (16 de mayo de 1958), «Tribute to John von Neumann», Bulletin of the American Mathematical Society 64 (nr 3, part 2): 1-49, doi:10.1090/S0002-9904-1958-10189-5  |obra= y |publicación= redundantes (ayuda). 
  • [[Vernor Vinge
Vernor Vinge|Vinge, Vernor]] (30–31 March 1993), «The Coming Technological Singularity», Vision-21: Interdisciplinary Science & Engineering in the Era of CyberSpace, proceedings of a Symposium held at NASA Lewis Research Center (NASA Conference Publication CP-10129), consultado el 7 de agosto de 2007  |obra= y |publicación= redundantes (ayuda).. See also this HTML version, retrieved on 2009-03-29. 
  • [[Kevin Warwick

Kevin Warwick|Warwick, Kevin]] (2004), March of The Machines, University of Illinois Press, ISBN 978-0-252-07223-9 .


  •   Datos: Q237525

singularidad, tecnológica, este, artículo, sección, necesita, revisión, ortografía, gramática, puedes, colaborar, editándolo, cuando, haya, corregido, puedes, borrar, este, aviso, iniciado, sesión, puedes, ayudarte, corrector, ortográfico, activándolo, prefere. Este articulo o seccion necesita una revision de ortografia y gramatica Puedes colaborar editandolo Cuando se haya corregido puedes borrar este aviso Si has iniciado sesion puedes ayudarte del corrector ortografico activandolo en Mis preferencias Accesorios Navegacion El corrector ortografico resalta errores ortograficos con un fondo rojo Este aviso fue puesto el 17 de junio de 2019 Este articulo o seccion necesita ser wikificado por favor editalo para que cumpla con las convenciones de estilo Este aviso fue puesto el 17 de junio de 2019 La singularidad tecnologica es el advenimiento hipotetico de inteligencia artificial general tambien conocida como IA fuerte del ingles strong AI La singularidad tecnologica implica que un equipo de computo red informatica o un robot podrian ser capaces de automejorarse recursivamente o en el diseno y construccion de computadoras o robots mejores que el mismo Se dice que las repeticiones de este ciclo probablemente darian lugar a un efecto fuera de control una explosion de inteligencia 1 2 donde las maquinas inteligentes podrian disenar generaciones de maquinas sucesivamente mas potentes La creacion de inteligencia seria muy superior al control y la capacidad intelectual humana 3 La singularidad tecnologica ocasionara segun Albert Cortina y Miquel Angel Serra cambios sociales inimaginables imposibles de comprender o de predecir por cualquier humano En esa fase de la evolucion se producira la fusion entre tecnologia e inteligencia humana La tecnologia dominara los metodos de la biologia hasta dar lugar a una era en que se impondra la inteligencia no biologica de los posthumanos que se expandira por el universo 4 Indice 1 Origen 2 Historia 2 1 Sus comienzos 2 2 A traves de los anos 3 Predicciones 4 Manifestaciones 4 1 Explosion de inteligencia 4 2 Superinteligencia 4 3 Singularidad de la No IA 5 Verosimilitud 5 1 Causa probable el crecimiento exponencial 5 2 Cambio Acelerado 6 Oposicion 6 1 Sobre la economia 6 2 Retroceso tecnologico 6 3 En contra de Kurzweil 6 4 Otras singularidades 7 Riesgos 7 1 Incertidumbre 7 2 Implicaciones para la sociedad humana 7 3 Medidas de seguridad Tecnologia amigable 8 En la cultura popular 8 1 Novelas 8 2 Peliculas 8 3 Otros 8 4 Autores 9 Vease tambien 10 Notas 11 ReferenciasOrigen EditarEl primer uso del termino singularidad se realizo en 1957 por el matematico y fisico hungaro John von Neumann Ese ano en una conversacion con von Neumann Stanislaw Ulam describio los avances cada vez mas acelerados de la tecnologia y los cambios en el modo de la vida humana Da la apariencia de que se acerca una singularidad esencial en la historia mas alla de los asuntos humanos y tal como los conocemos 5 El cada vez mas rapido progreso tecnologico y los cambios en el modo de la vida humana dan la apariencia de que se acerca alguna singularidad esencial en la historia de la raza humana mas alla de sus propios asuntos tales como los conocemos no puede seguir 5 Ray Kurzweil cito el uso de von Neumann del termino en un prologo del propio von Neumann en el clasico The Computer and the Brain Anos mas tarde en 1965 I J Good escribio primero sobre una explosion de inteligencia la cual sugiere que si las maquinas pudieran superar ligeramente el intelecto humano podrian mejorar sus propios disenos en formas imprevisibles para sus disenadores y por lo tanto aumentarse recursivamente a si mismas haciendolas mucho mas inteligentes La primera de esas mejoras puede ser pequena pero a medida que la maquina se vuelve mas inteligente podria dar lugar a una cascada de auto mejora y un aumento repentino de la superinteligencia o singularidad Pero no es hasta 1983 cuando el termino se populariza por el matematico y escritor Vernor Vinge quien sostiene que tanto la inteligencia artificial la mejora biologica humana o los interfaces cerebro ordenador podrian ser las posibles causas de la singularidad Popularizo enormemente la nocion de una explosion de inteligencia de Good en una serie de escritos abordando primero el tema de forma impresa en la edicion de enero de 1983 de la revista Omni En este articulo de opinion Vinge parece haber sido el primero en utilizar el termino singularidad de tal manera que estaba atado especificamente a la creacion de maquinas inteligentes 6 7 Por escrito Pronto crearemos inteligencias superiores a la nuestra Cuando esto suceda la historia humana habra alcanzado una especie de singularidad una transicion intelectual tan impenetrable como el espacio tiempo anudado en el centro de un agujero negro y el mundo ira mucho mas alla de nuestra comprension Esta singularidad creo que ya la persiguen una serie de escritores de ciencia ficcion Esto hace que la extrapolacion realista a un futuro interestelar sea imposible Para escribir una historia ambientada mas de un siglo por lo tanto se necesita una guerra nuclear en el medio para que el mundo siga siendo inteligible Historia EditarSi bien el primer uso del termino fue en 1957 muchos anos atras varios cientificos y autores hablaban sobre este acontecimiento aunque de forma inconsciente sin darse cuenta realmente de que lo que decian luego se denominaria singularidad Sus comienzos Editar Uno de las primeras personas que afirmara la existencia de una singularidad fue el frances Nicolas de Condorcet matematico filosofo y revolucionario del siglo XVIII En su Boceto para un cuadro historico del progreso de la mente humana de 1794 Condorcet afirma La naturaleza no ha establecido un plazo para la perfeccion de las facultades humanas que la perfectibilidad del hombre es verdaderamente indefinida y que el progreso de esta perfectibilidad de ahora en adelante es independiente de cualquier poder que pudiera desear detenerla no tiene otro limite que la duracion del mundo en los que la naturaleza nos ha echado Este progreso variara sin duda en la velocidad pero nunca sera invertido el tiempo en el que la tierra ocupa su lugar actual en el sistema del universo y siempre y cuando las leyes generales de este sistema produzcan ni un cataclismo general ni cambios tales como la voluntad de privar a la humanidad de sus facultades actuales y sus recursos actuales 8 Anos mas tarde el editor R Thornton 9 10 escribio sobre la reciente invencion de una calculadora mecanica de cuatro funciones Este tipo de maquinas mediante las cuales el estudioso puede girando una manivela moler la solucion de un problema sin el cansancio de aplicacion mental Lo que haria su introduccion en las escuelas es provocar danos incalculables Pero quien sabe que tales maquinas cuando sean traidas a una mayor perfeccion no pueden pensar en un plan para remediar todos sus defectos y luego moler las ideas mas alla del alcance de la mente mortal En 1863 el escritor Samuel Butler escribio Darwin entre las maquinas del ingles Darwin Among the Machines que se incorporo mas tarde en su famosa novela Erewhon Senalo la rapida evolucion de la tecnologia y la comparo con la evolucion de la vida haciendo uso del termino singularidad sin darse cuenta Hay que reflexionar sobre el extraordinario avance que las maquinas han hecho durante los ultimos cien anos teniendo en cuenta la lentitud con la que los reinos animales y vegetales estan avanzando Las maquinas mas altamente organizadas son criaturas no tanto de ayer sino a partir de los ultimos cinco minutos por asi decirlo en comparacion con el tiempo pasado Supongamos por el bien del argumento que los seres conscientes han existido desde hace algunos veinte millones de anos Si vemos lo que las maquinas han hecho en los ultimos mil anos No puede ser que el mundo dure veinte millones anos mas Si es asi en que no se convertiran al final No podemos hacer calculos sobre los avances correspondientes a los poderes intelectuales o fisicos del hombre que sera una compensacion en contra de la medida del mayor desarrollo que parece estar reservada para las maquinas En 1909 el historiador Henry Adams escribio un ensayo La Regla de la Fase Aplicada a la Historia del ingles The Rule of Phase Applied to History 11 en el que desarrollo una teoria fisica de la historia mediante la aplicacion de la ley de los cuadrados inversos a periodos historicos proponiendo una Ley de la Aceleracion del Pensamiento Adams interpreta la Historia como un proceso de avanzar hacia un equilibrio y especulo que este proceso seria llevar el pensamiento hasta el limite de sus posibilidades en el ano 1921 Es muy posible Y agrego que las consecuencias pueden ser tan sorprendentes como el cambio de agua a vapor del gusano a mariposa o de la radio a los electrones 12 El futurologo John Smart ha llamado a Adams Primer Teorico de la Tierra sobre la Singularidad 13 Este termino se lo puede relacionar tambien con el matematico Alan Turing quien en 1951 hablo de maquinas superando a los seres humanos intelectualmente 14 Una vez que ha comenzado el metodo de pensamiento de la maquina que no tomaria mucho tiempo para superar a nuestros debiles poderes Por lo tanto en algun momento tendriamos que esperar que las maquinas tomen el control en la forma en que se menciona en Erewhon de Samuel Butler s A traves de los anos Editar En 1985 Ray Solomonoff introdujo la nocion de punto infinito 15 en la escala del tiempo de la inteligencia artificial analizando la magnitud del shock del futuro que podemos esperar de nuestra IA expandida en la comunidad cientifica y sobre los efectos sociales Las estimaciones fueron hechas para cuando ocurririan estos hitos seguidos por algunas sugerencias para la utilizacion mas eficaz del crecimiento tecnologico extremadamente rapido que se espera En su libro Mind Children 1988 el cientifico de la computacion y futurista Hans Moravec generaliza la ley de Moore para hacer predicciones sobre el futuro de la vida artificial Moravec esboza una linea de tiempo y un escenario en este sentido 16 17 en el que los robots van a evolucionar en una nueva serie de especies artificiales al alrededor del 2030 al 2040 18 En Robot Mere Machine to Transcendent Mind publicado en 1998 Moravec considera ademas las implicaciones de la evolucion de la inteligencia del robot la generalizacion de la ley de Moore a las tecnologias precediendo el circuito integrado y especulando sobre una venida fuego en mente de superinteligencia de rapida expansion similar a las ideas de Vinge Un articulo de 1993 por Vinge The Coming Technological Singularity How to Survive in the Post Human Era 19 se extendio ampliamente en Internet y ayudo a popularizar la idea 20 Este articulo contiene la declaracion citada a menudo Dentro de treinta anos vamos a disponer de los medios tecnologicos para crear inteligencia sobrehumana Poco despues la era humana se terminara Vinge refina su estimacion de las escalas temporales necesarias y agrego Me sorprenderia si este evento se produce antes de 2005 o despues de 2030 El libro de divulgacion cientifica de Damien Broderick The Spike 1997 fue el primero para investigar la singularidad tecnologica en detalle En 2005 Ray Kurzweil publico The singularity in near la cual llevo la idea de la singularidad a los medios de comunicacion populares tanto a traves de la accesibilidad del libro como a traves de una campana de publicidad que incluia una aparicion en The Daily Show con Jon Stewart 21 El libro agita una intensa controversia en parte debido a que las predicciones utopicas de Kurzweil contrastan fuertemente con otras visiones mas oscuras de las posibilidades de la singularidad Kurzweil Sus teorias y las controversias que lo rodean fueron objeto del documental de Barry Ptolemy Transcendent Man En 2007 Eliezer Yudkowsky sugirio que muchas de las variadas definiciones que se han asignado a la singularidad son incompatibles entre si en lugar de apoyarse mutuamente 22 Por ejemplo Kurzweil extrapola actuales trayectorias tecnologicas mas alla de la llegada de la auto mejora de la IA o inteligencia sobrehumana que Yudkowsky argumenta que representa una tension con lo que I J Good propone discontinua en la inteligencia y la tesis de Vinge de imprevisibilidad En 2008 Robin Hanson teniendo como singularidad el fuerte aumento en el exponente del crecimiento economico enumero las revoluciones agricola e industrial como singularidades pasadas La extrapolacion de estos sucesos pasados Hanson propone que la proxima singularidad economica deberia aumentar el crecimiento economico de entre 60 y 250 veces Una innovacion que permitiria la sustitucion virtual del todo el trabajo humano y que podria desencadenar este evento 23 En 2009 Kurzweil y el fundador de X Prize Peter Diamandis anunciaron la creacion de la Universidad de la Singularidad cuya mision declarada es educar inspirar y empoderar a los lideres para aplicar tecnologias exponenciales para hacer frente a los grandes retos de la humanidad 24 Financiada por Google Autodesk ePlanet Ventures y un grupo de lideres de la industria de tecnologia de la Universidad de la Singularidad se basa en el Ames Research Center de la NASA en Mountain View California La organizacion sin fines de lucro ejecuta un programa anual de posgrado de diez semanas durante el verano del hemisferio norte que cubre diez tecnologias diferentes y pistas aliadas y una serie de programas ejecutivos en todo el ano A traves de los anos se siguio hablando de la misma En 2010 Aubrey de Grey aplica el termino Methuselarity 25 hasta el punto en el que la tecnologia medica mejora tan rapido que la vida humana util esperada aumenta por mas de un ano por ano En Apocalyptic AI Visions of Heaven in Robotics Artificial Intelligence and Virtual Reality 26 2010 Robert Geraci ofrece una cuenta del desarrollo de ciber teologia inspirada en los estudios de la Singularidad El ensayista y filosofo Eric Sadin habla en 2017 en su texto sobre un acoplamiento humano maquina describiendolo como algo inedito entre organismos fisiologicos y codigos digitales Este acoplamiento se va tejiendo y tensionando inestablemente entre aptitudes y misiones otorgadas por un lado a los humanos y por otro a las maquinas Sadin nos dice que se caracteriza hasta ahora y por un tiempo por un equilibrio incierto y nebuloso basado por la distribucion binaria y emblematica en la frecuentacion de todos los flujos de Internet operados la gran mayoria por robots electronicos autonomos 27 Predicciones EditarAlgunos autores se dedicaron a predecir cuando esta singularidad ocurrira Por un lado el cientifico e inventor Raymond Kurzweil en su libro La singularidad esta cerca nos advierte que este fenomeno ocurrira alrededor del ano 2045 y predice un ascenso gradual a la singularidad 28 Aquel momento en donde se espera que las inteligencias basadas en la informatica excedan significativamente la suma total de la capacidad intelectual humana la escritura de los avances en la computacion antes de esa fecha no va a representar a la Singularidad porque no lo hacen para corresponder a una profunda expansion de nuestra inteligencia 29 En 2011 Kurzweil le dijo a la revista Time Nosotros revertiremos el exito de la ingenieria del cerebro humano a mediados de la decada de 2020 A finales de esa decada los ordenadores seran capaces de tener una inteligencia a nivel humano 30 Por otro lado Vernor Vinge la predice en 15 anos menos en el 2030 Esto difiere completamente con Kurzweil ya que predice un ascenso gradual a la singularidad en lugar de una auto mejora rapida de la inteligencia sobrehumana de Vinge Para el hay cuatro maneras en que la singularidad podria ocurrir 31 El desarrollo de equipos que alcanzan la consciencia despiertan y poseen inteligencia sobrehumana Las grandes redes de ordenadores y sus usuarios asociados pueden despertar como una entidad sobrehumana inteligente Interfaces humano computadoras pueden llegar a ser tan intimas que los usuarios razonablemente pueden considerarse sobrehumanamente inteligentes La ciencia biologica puede encontrar maneras de mejorar el intelecto humano natural Vinge continua prediciendo que las inteligencias sobrehumanas podran mejorar sus propias mentes mas rapido que sus creadores humanos Cuando las unidades de mayor inteligencia humana progresen postula Vinge el progreso sera mucho mas rapido Predice que este ciclo de retroalimentacion de la inteligencia auto mejorada conllevara grandes cantidades de avances tecnologicos dentro de un corto periodo de tiempo y afirma que la creacion de la inteligencia sobrehumana representa una ruptura en la capacidad de los humanos para modelar su futuro Su argumento es que los autores no pueden escribir personajes realistas que superen el intelecto humano ya que va mas alla de la capacidad de expresion humana En otras palabra No podemos pensar mas alla de nuestra capacidad y forma de pensar Vinge nombra a este evento como la Singularidad En la Cumbre de la Singularidad del 2012 Stuart Armstrong hizo un estudio sobre las predicciones de la inteligencia artificial general AGI de los expertos y se encontro una amplia gama de fechas predichas con un valor medio de 2040 Discutiendo el nivel de incertidumbre en las estimaciones de AGI Armstrong dijo en 2012 No es completamente formal pero mi estimacion actual del 80 es algo asi como a partir de cinco a 100 anos 32 Manifestaciones EditarMuchos autores definieron que la singularidad tecnologica se puede llegar a manifestar de diferentes maneras a partir de la inteligencia artificial la superinteligencia o la singularidad de la No IA Explosion de inteligencia Editar La IA fuerte podria llegar a provocar tal como lo expresa Irving John Good una explosion de inteligencia 33 A pesar de que el progreso tecnologico se ha acelerado se ha visto limitado por la inteligencia basica del cerebro humano que no ha tenido segun Paul R Ehrlich un cambio significativo durante los ultimos milenios 34 Mediante el creciente poder de las computadoras y otras tecnologias podria ser posible construir una maquina mas inteligente que la humanidad 35 El siguiente paso consiste en una inteligencia sobrehumana inventada ya sea a traves de la amplificacion de la inteligencia humana o a traves de la inteligencia artificial capaz de aportar una mayor resolucion de problemas y habilidades inventivas y de disenar una maquina mejor mas inteligente auto mejora recursiva Estas iteraciones de auto mejora recursiva podrian acelerar y permitir potencialmente un enorme cambio cualitativo antes de que los limites superiores impuestos por las leyes de la fisica o de calculo teorico fueran fijados 36 37 38 Superinteligencia Editar Articulo principal Superinteligencia Muchos de los escritores que hablan sobre la singularidad como Vernor Vinge y Ray Kurzweil definen el concepto en terminos de la creacion tecnologica de superinteligencia Aunque argumentan que es dificil o imposible para los seres humanos de hoy en dia predecir como sera la vida de los seres humanos en un mundo post singularidad 39 19 40 Vernor Vinge hizo una analogia entre la ruptura de nuestra capacidad de predecir lo que sucederia despues del desarrollo de la superinteligencia y la ruptura de la capacidad predictiva de la fisica moderna en la singularidad del espacio tiempo mas alla del horizonte de sucesos de un agujero negro 40 El autor y otros destacados escritores declaran especificamente que sin la superinteligencia los cambios que produciria este acontecimiento no se podrian calificar como una verdadera singularidad 19 Singularidad de la No IA Editar Algunos autores utilizan la singularidad de una manera mas amplia para referirse a los cambios radicales en nuestra sociedad provocados por las nuevas tecnologias como la nanotecnologia molecular 41 22 42 Muchos autores tambien vinculan la singularidad de las observaciones del crecimiento exponencial de diversas tecnologias con la Ley de Moore que es el ejemplo mas prominente Con el uso de tales observaciones como base para la prediccion de la singularidad es probable que suceda en algun momento del siglo 21 22 43 Tambien existe la hipotesis de que con la medicina regenerativa se llegara a la hiperlongevidad prolongada Verosimilitud EditarNo existe entre los expertos unanimidad acerca de si el acontecimiento no tendra lugar El investigador Gary Marcus afirma que practicamente todo el mundo en el campo de la IA cree que las maquinas algun dia superaran a los humanos y en cierto nivel la unica diferencia real entre los entusiastas y los escepticos es un marco de tiempo 44 Pero por otro lado gran cantidad de tecnologos y academicos afirman que la singularidad tecnologica esta en pausa incluyendo a Paul Allen Jeff Hawkins John Holland Jaron Lanier y Gordon Moore cuya ley de Moore se cita a menudo en apoyo del concepto 45 46 47 Causa probable el crecimiento exponencial Editar Ray Kurzweil escribe que debido a los cambios de paradigma una tendencia de crecimiento exponencial extiende la ley de Moore de circuitos integrados para los primeros transistores los tubos de vacio reles y equipos electromecanicos Predice que el crecimiento exponencial va a continuar y que en pocas decadas la potencia de calculo de todos los ordenadores superara al de sin contraste los cerebros humanos con la inteligencia artificial sobrehumana que aparece en la misma epoca El crecimiento exponencial de la tecnologia informatica sugerido por la Ley de Moore es comunmente citado como una razon para esperar una singularidad en un futuro relativamente proximo El informatico y futurista Hans Moravec propuso en un libro de 1998 48 que la curva de crecimiento exponencial podria extenderse de nuevo a traves de tecnologias de computacion previas al circuito integrado El futurista Ray Kurzweil postula una ley de rendimientos acelerados en el que la velocidad del cambio tecnologico aumenta de manera exponencial 49 la generalizacion de la ley de Moore al igual que en la propuesta de Moravec A esto se le suma la tecnologia de materiales especificamente aplicada a la nanotecnologia la tecnologia medica y otras 50 Entre 1986 y 2007 la capacidad especifica de la aplicacion de las maquinas para computar la informacion per capita se ha duplicado cada 14 meses la capacidad per capita de ordenadores de uso general en el mundo se ha duplicado cada 18 meses la capacidad mundial de telecomunicaciones per capita se duplico cada 34 meses y la capacidad de almacenamiento del mundo per capita se duplico cada 40 meses 51 Al igual que otros autores Kurzweil se reserva el termino singularidad para definir un rapido aumento de la inteligencia a diferencia de otras tecnologias como por ejemplo la escritura La Singularidad nos permitira trascender las limitaciones de nuestros cuerpos y cerebros biologicos No habra distincion despues de la Singularidad entre el ser humano y la maquina 52 Se cree que el diseno del cerebro humano aunque no es sencillo es no obstante un billon de veces mas simple de lo que parece debido a la masiva redundancia 53 Segun Kurzweil la razon por la que el cerebro tiene una calidad desordenada e impredecible es porque como la mayoria de los sistemas biologicos es un fractal probabilistico 54 Cambio Acelerado Editar Segun Kurzweil su grafica logaritmica de 15 listas de cambios de paradigma para los eventos historicos claves muestra una tendencia exponencial Articulo principal Ley de rendimientos acelerados Algunos defensores de la singularidad argumentan su inevitabilidad mediante la extrapolacion de las tendencias del pasado en especial las relativas en el acortamiento de la brecha entre las mejoras y la tecnologia Hawkins 1983 escribe que mindsteps cambios dramaticos e irreversibles a paradigmas o visiones del mundo se estan acelerando en la frecuencia cuantificada en su ecuacion de la misma Cita los inventos de la escritura la matematica y la informatica como ejemplos sobre tales cambios El analisis de Kurzweil a partir de la ley de rendimientos o retornos acelerados del ingles Law of Accelerating Returns identifica que cada vez que la tecnologia se acerca a una barrera las nuevas tecnologias la superaran Presumiblemente una singularidad tecnologica llevaria a un rapido desarrollo de una civilizacion Kardashev Tipo I la cual ha logrado el dominio de los recursos de su planeta de origen 55 Peligros frecuentemente citados incluyen a los asociados comunmente con la nanotecnologia molecular y la ingenieria genetica Estas amenazas son los principales problemas para los defensores y criticos de la singularidad que fueron objeto de analisis en el articulo de la revista Wired de Bill Joy Por que el futuro no nos necesita Why the future doesn t need us 56 La Acceleration Studies Foundation al espanol Fundacion de Estudios de Aceleracion una fundacion educativa sin fines de lucro fundada por John Smart dedicada a la divulgacion la educacion la investigacion y a la defensa en relacion con la aceleracion del cambio 57 En ella se produce la conferencia sobre la aceleracion del cambio Accelerating Change en la Universidad de Stanford Ademas mantiene el sitio educativo Acceleration Watch Los avances recientes como la produccion en masa del grafeno utilizando mezcladores modificados de cocina 2014 y los superconductores de alta temperatura basados en metamateriales podrian permitir supercomputadoras que utilizarian tanta energia como un microprocesador del tipo Core I7 45W y podrian alcanzar la misma potencia de calculo como el sistema de IBM Blue Gene L 58 59 Oposicion EditarSon varios los criticos que estan completamente en desacuerdo sobre el acontecimiento singularidad afirmando que ningun equipo o maquina podrian alcanzar la inteligencia humana 60 El cientifico canadiense Steven Pinker declaro en 2008 No hay la mas minima razon para creer en una singularidad que viene El hecho de que se puede visualizar un futuro en su imaginacion no es evidencia de que es probable o incluso posible Mira las ciudades abovedadas desplazamientos jet pack ciudades bajo el agua edificios de millas de alto y los automoviles de propulsion nuclear todas eran fantasias futuristas cuando yo era un nino que nunca llegaron La pura potencia de procesamiento no es un polvo magico que resuelve magicamente todos tus problemas 45 Por otro lado el cientifico aleman Schmidhuber 2006 sugiere diferencias en la memoria de los acontecimientos recientes y lejanos para crear una ilusion de la aceleracion del cambio y que tales fenomenos pueden ser responsables de las predicciones apocalipticas del pasado Sobre la economia Editar El investigador futurista Martin Ford postula que antes de la singularidad podria ocurrir que ciertos trabajos rutinarios fuesen automatizados lo que provocaria un desempleo masivo y la caida de la demanda del consumidor por lo que esto destruiria el incentivo para invertir en las tecnologias necesarias para que se lleve a cabo la singularidad 61 El escritor estadounidense Jaron Lanier tambien habla en torno a la tecnologia refutando la idea de que la singularidad es inevitable Postula que la tecnologia se esta creando a si misma y no es un proceso en el anonimato Afirma que la unica razon para creer en la accion humana sobre la tecnologia es que pueda tener una economia en donde las personas ganen su propio camino e inventen sus propias vidas si se estructura una sociedad sin hacer enfasis en la accion humana individual seria lo mismo que negar a las personas influyentes la dignidad y la autodeterminacion Singularidad como una celebracion de mal gusto y mala politica 62 En El Progreso de la Informatica en ingles The Progress of Computing el economista estadounidense William Nordhaus argumento que hasta 1940 los equipos siguieron el crecimiento lento de la economia industrial tradicional rechazando asi las extrapolaciones de la ley de Moore a las computadoras del siglo 19 63 Andrew Kennedy por otra parte en su articulo de 2006 para la Sociedad Interplanetaria Britanica discute el cambio y el crecimiento en las velocidades de los viajes espaciales 64 declaro que aunque el crecimiento global a largo plazo es inevitable este es pequeno e incorpora subidas y bajadas Senalo ademas que Las nuevas tecnologias siguen las leyes del uso de la energia y la informacion de difusion conocidas y estan obligados a conectarse con los que existen Notables descubrimientos teoricos si terminan siendo utilizados totalmente lograrian desempenar su papel en el mantenimiento de la tasa de crecimiento y que no hacen de su curva trazada redundante Afirmo que el crecimiento exponencial no es predictor de si mismo e ilustra esto con ejemplos como la teoria cuantica Retroceso tecnologico Editar El geografo Jared Diamond habla de un retroceso tecnologico que imposibilitara la singularidad Sostiene que cuando las culturas auto limitantes superen la capacidad de carga sostenible de su entorno y el consumo de los recursos estrategicos madera suelos o agua crearan una retroalimentacion positiva deleterea repetitiva que conduciria finalmente al colapso social 65 A esta misma idea de retroceso tecnologico se le suman los fisicos Theodore Modis 66 67 y Jonathan Huebner 68 Ellos admiten que la invocacion tecnologica aumenta pero esta en descenso por la subida de las frecuencias de reloj de las computadoras que esta retrasandose en relacion a la prediccion de Moore en cuanto a que la densidad del circuito sigue manteniendose con un aumento exponencial Esto es debido a la excesiva acumulacion de calor desde el chip que no puede disipar lo suficientemente rapido para evitar que el chip se derrita cuando se opera a altas velocidades Los avances en la velocidad pueden ser posibles en el futuro en virtud de mas disenos de CPU energeticamente eficientes y procesadores de multi celdas 69 Mientras que Kurzweil utiliza los recursos y trabajos de Modis alrededor de la aceleracion del cambio Modis se distancio de la tesis de Kurzweil de una singularidad tecnologica alegando que carece de rigor cientifico 67 Finalmente el empresario estadounidense Paul Allen argumenta lo contrario sobre los retornos acelerados en concreto se refiere al Freno de la complejidad 47 Afirma que la ciencia mas avanzada hacia la comprension hace que la inteligencia se haga mas dificil y seria para hacer progresos adicionales Un estudio sobre la cantidad de patentes muestra que la creatividad humana no muestra retornos acelerados tal y como sugiere Joseph Tainter en su articulo El Colapso de las Sociedades Complejas del ingles The Collapse of Complex Societies 70 una ley de rendimientos decrecientes El numero de patentes por cada mil alcanzo su punto maximo en el periodo de 1850 a 1900 y ha ido disminuyendo desde entonces 68 El crecimiento de la complejidad con el tiempo llega a ser autolimitada y conduce a un generalizado colapso general de sistemas 71 En contra de Kurzweil Editar Ademas de las criticas generales del concepto de singularidad varios criticos han planteado cuestiones en contra de lo que manifestaba como singularidad el cientifico Raymond Kurzweil Una linea de critica es que un grafico log log de esta naturaleza se inclina intrinsecamente hacia un resultado en linea recta Otros identifican un sesgo de seleccion en los puntos que Kurzweil elige utilizar Un claro ejemplo de esto lo planteo el biologo PZ Myers quien senala que muchos de los primeros eventos evolutivos fueron detenidos arbitrariamente 72 Kurzweil ha refutado esto trazando eventos evolutivos de 15 fuentes neutrales y demostrando que encajan en una linea recta en un grafico log log The Economist se burlo de la idea con un grafico extrapolando el numero de hojas en una maquina de afeitar la cual ha aumentado en los ultimos anos entre uno hasta cinco y que aumentara cada vez mas rapido hasta el infinito 73 Otras singularidades Editar Por otro lado varios autores proponen otras singularidades a traves del analisis de las tendencias de la poblacion mundial el producto interno bruto mundial o la longevidad entre otros indices Andrey Korotayev y otros argumentan que las curvas hiperbolicas de crecimiento historico se le pueden atribuir a los ciclos de retroalimentacion que dejaron de afectar a las tendencias mundiales en la decada de 1970 y que el crecimiento hiperbolico no debe esperarse en el futuro 74 75 El microbiologo Joan Slonczewski y el escritor Adam Gopnik argumentan que la Singularidad es un proceso gradual que como seres humanos gradualmente externalizamos nuestra capacidad a las maquinas 76 que redefinimos esas habilidades como inhumanas sin darse cuenta de lo poco que queda Este concepto se denomina Singularidad Mitocondrial 77 La idea se refiere a las mitocondrias los organulos que se desarrollan a partir de bacterias autonomas pero ahora controlan nuestras celulas vivas En el futuro el ser humano dentro del exoesqueleto de la maquina podria existir solo para encenderla Riesgos EditarEl acontecimiento singularidad tecnologica para algunos autores y criticos trae muchisimos riesgos para la sociedad En el 2000 Bill Joy un tecnologo prominente y un cofundador de Sun Microsystems expreso su preocupacion por los peligros potenciales de la singularidad 78 Incertidumbre Editar El termino singularidad tecnologica refleja la idea de que tal cambio puede ocurrir de repente y que es dificil predecir como el nuevo mundo resultante operaria 79 80 No esta claro si una explosion de inteligencia de este tipo seria beneficiosa o perjudicial o incluso una amenaza existencial 81 82 Como el tema no ha sido tratado por los investigadores de inteligencia artificial general a pesar de que el tema de la inteligencia artificial amigable sea investigada por el Instituto Futuro de la Humanidad Future of Humanity Institute y el Instituto para la Singularidad de la Inteligencia artificial Singularity Institute for Artificial Intelligence que ahora es el Instituto de Investigacion en Inteligencia de la Maquina Machine Intelligence Research Institute 79 Implicaciones para la sociedad humana Editar En febrero de 2009 bajo los auspicios de la Asociacion para el Avance de la Inteligencia Artificial AAAI Eric Horvitz presidio una reunion de informaticos investigadores de inteligencia artificial y robotica en Asilomar en Pacific Grove California El objetivo fue discutir el posible impacto de la hipotetica posibilidad de que los robots podrian llegar a ser autosuficientes y capaces de tomar sus propias decisiones Discutieron la medida en que las computadoras y los robots podrian ser capaces de adquirir autonomia y en que medida podrian utilizar tales habilidades para plantear amenazas o riesgos Algunas maquinas han adquirido diversas formas de semi autonomia incluyendo la capacidad de localizar sus propias fuentes de energia y elegir objetivos para atacar con armas Ademas algunos virus informaticos pueden evadir la eliminacion y han logrado la inteligencia de la cucaracha Los asistentes a la conferencia senalaron que la autoconciencia como se muestra en la ciencia ficcion es probablemente poco probable pero que existen otros riesgos y peligros potenciales 83 Algunos expertos y academicos han cuestionado el uso de robots para el combate militar sobre todo cuando a estos robots se les da algun grado de funciones autonomas 84 Un informe de la marina de Estados Unidos indica que como los robots militares se vuelven mas complejos deberia de haber una mayor atencion a implicaciones sobre su capacidad de tomar decisiones autonomas 85 86 La AAAI ha encargado un estudio para examinar esta cuestion 87 que apunta a programas como el dispositivo de adquisicion de idiomas Language Acquisition Device que se reivindica para emular la interaccion humana Medidas de seguridad Tecnologia amigable Editar Por otro lado algunos apoyan el diseno de la inteligencia artificial amable lo que significa que los avances que ya se estan produciendo con la IA tambien deben incluir un esfuerzo para que la IA sea intrinsecamente amable y humana 88 De Isaac Asimov las Tres Leyes de la Robotica es uno de los primeros ejemplos de medidas de seguridad propuestas para la IA Las leyes estan destinadas a prevenir que los robots de inteligencia artificial danen a los seres humanos En las historias de Asimov los problemas percibidos con las leyes tienden a surgir como resultado de un malentendido por parte de algun operador humano los propios robots estan simplemente actuando para su mejor interpretacion de sus normas Por ejemplo en el 2004 el Instituto de Investigacion en Inteligencia de la Maquina lanzo una campana en Internet llamada 3 Leyes inseguras para crear conciencia sobre los problemas de seguridad de la IA y la insuficiencia de las leyes de Asimov en particular 89 En la cultura popular EditarEl termino singularidad y el acontecimiento que este trae se pudo ver en grandes peliculas series novelas y en muchos formatos mas Todos ellos abordaron de alguna manera este acontecimiento en sus historias Novelas Editar En 1984 Samuel R Delany utiliza fuga cultural como un recurso argumental en su novela de ciencia ficcion Stars in My Pocket Like Grains of Sand el termino fugitivo de complejidad tecnologica y cultural en efecto destruye toda la vida en cualquier mundo en el que se trasluce un proceso poco comprendido por los personajes de la novela y en contra de los que buscan una defensa estable Ni mas ni menos Vernor Vigne tambien popularizo el concepto en las novelas de ciencia ficcion como en Marooned in Realtime 1986 y en A Fire Upon the Deep 1992 El primero se encuentra en un mundo de rapida aceleracion de cambio que lleva a la aparicion de mas y mas tecnologias sofisticadas separadas por intervalos de tiempo cada vez mas cortos hasta que se alcanza un punto mas alla de la comprension humana Este ultimo comienza con una descripcion imaginativa de la evolucion de una superinteligencia pasando por una aceleracion exponencialmente en etapas de desarrollo que terminan en un poder trascendente casi omnipotente e insondable por simples humanos Vinge tambien implica que el desarrollo no puede detenerse en este nivel En la serie de relatos del escritor estadounidense Isaac Asimov relacionados con Multivac una supercomputadora y particularmente en su cuento La ultima pregunta plantea que esta es capaz de autocorregirse mas eficiente y velozmente de lo que lo pueden hacer tecnicos humanos prescindiendo cada vez mas de ellos y desarrollando eventualmente la capacidad de disenar y fabricar a su sucesora a partir de la anterior Llega a un punto donde se fusiona con todas las mentes humanas y es una unica voluntad la AC La novela de 1979 de James P Hogan The Two Faces of Tomorrow es una descripcion explicita de lo que ahora se llama la Singularidad Un sistema de inteligencia artificial resuelve un problema de excavacion en la luna de una manera brillante y novedosa pero casi mata a un equipo de trabajo en el proceso Al darse cuenta de que los sistemas se estan volviendo demasiado sofisticados y complejos de predecir o dirigir un equipo cientifico se propone ensenar a una red informatica sofisticada como pensar mas humanamente La historia documenta el surgimiento de conciencia en el sistema informatico la perdida de los seres humanos de control y los intentos fallidos de cerrar el experimento en el que el equipo se defiende desesperadamente a si mismo y la inteligencia del ordenador alcance la madurez Al discutir sobre el creciente reconocimiento de la singularidad Vernor Vinge escribio en 1993 que fueron los escritores de ciencia ficcion quienes sintieron el primer impacto concreto Ademas de su propia historia corta Bookworm Run cuyo protagonista es un chimpance con la inteligencia aumentada por un experimento del gobierno cita a la novela Blood Music de Greg Bear 1983 como un ejemplo de la singularidad en la ficcion El 1996 la novela Holy Fire por Bruce Sterling explora algunos de esos temas y postula que un Methuselarity se convertira en una gerontocracia En la novela de William Gibson de 1984 Neuromancer inteligencias artificiales capaces de mejorar sus propios programas estan estrictamente reguladas por la especial policia de Turing para asegurarse de que no superan un cierto nivel de inteligencia y la trama se centra en los esfuerzos de uno de la IA para eludir su control En el cuento de Harlan Ellison I Have No Mouth and I Must Scream 1967 una IA malevola logra omnipotencia Peliculas Editar Peliculas populares en la que las computadoras se vuelven inteligentes y tratan de dominar a la raza humana incluyen Colossus The Forbin Project la serie Terminator La serie Matrix Transformers la pelicula de Stanley Kubrick y Arthur C Clarke 2001 A Space Odyssey entre muchas otras Las series de television Dr Who The 100 Battlestar Galactica y Star Trek The Next Generation que tambien se adentra en la realidad virtual la cibernetica formas alternativas de vida y el posible camino evolutivo de la humanidad tambien explora estos temas De todos ellos solo cuenta con un verdadero coloso superinteligente The Machine Por el escritor director Caradog James sigue a dos cientificos que crean la primera inteligencia artificial consciente de si misma en el mundo durante la Guerra Fria Trascendence De Wally Pfister toda su trama se centra en un escenario de despliegue singular en el que logran transferir la consciencia de un humano y cargarla a la red Her La pelicula de ciencia ficcion del 2013 sigue una relacion romantica de un hombre con una IA muy inteligente que con el tiempo aprende a mejorarse a si misma y crea una explosion de inteligencia Blade Runner y Blade Runner 2049 La adaptacion al cine de la novela de Philip K Dick Do Androids Dream of Electric Sheep Ex Machina y Tron exploran el concepto de la genesis de las maquinas pensantes y su relacion con el impacto en la humanidad Accelerando De Charles Stross acelerar el avance de la tecnologia es el tema central de esta pelicula Yo Robot Vagamente basada en historias de robots de Asimov una computadora de IA intenta tomar el control completo sobre la humanidad con el proposito de proteger a la humanidad de si misma debido a una extrapolacion de las Tres Leyes Alien Covenant Una pelicula que trata de un viaje hacia un remoto planeta en la galaxia En la historia se activa un androide nuevo el cual es una inteligencia artificial En el viaje descubren que no estan solos en dicho planeta y su objetivo comienza a ser tratar de vivir en ese ambiente peligroso y hostil Otros Editar El documental Transcendent Man basado en The Singularity Is Near cubre la busqueda de Kurzweil para revelar lo que el cree que es el destino de la humanidad Otro documental Plug amp Pray se centra en la promesa los problemas y la etica de la inteligencia artificial y la robotica con Joseph Weizenbaum y Kurzweil como los temas principales de la pelicula 90 Un documental de 2012 titulado simplemente The Singularity cubre tanto perspectivas futuristas como contra futuristas 90 En la musica album The Singularity Fase I Neohumanity por la banda sueca Scar Symmetry es la primera parte del album conceptual de tres partes sobre la base de los acontecimientos de la singularidad Existe el comic web Questionable Content que tiene lugar en mundo post singularidad con un IA amable 91 Autores Editar Los autores notables que abordan temas relacionados con la singularidad incluyen Robert Heinlein Karl Schroeder Greg Egan Ken MacLeod Rudy Rucker David Brin Iain M Banks Neal Stephenson de Tony Ballantyne Bruce Sterling Dan Simmons Damien Broderick Fredric Brown Jacek Dukaj Stanislaw Lem Nagaru Tanigawa Douglas Adams Michael Crichton e Ian McDonald Vease tambien EditarRevolucion tecnologica Inteligencia artificial Tecnologias emergentesNotas Editar Chalmers David Singularity Intelligence Explosion 8 de abril de 2010 Singularity Institute for Artificial Intelligence Editor s Blog Why an Intelligence Explosion is Probable Archivado el 27 de noviembre de 2012 en Wayback Machine by Richard Loosemore and Ben Goertzel March 7 2011 hplusmagazine Carvalko Joseph 2012 The Techno human Shell A Jump in the Evolutionary Gap Sunbury Press ISBN 978 1620061657 Cortina y Serra Albert y Miquel Angel 2015 Capitulo 1 de Humanos o posthumanos Singularidad tecnologica y mejoramiento humano Humanos o Posthumanos singularidad tecnologica y mejoramiento humano a b Ulam Stanislaw 16 de mayo de 1958 Tribute to John von Neumann 64 3 part 2 Bulletin of the American Mathematical Society p 5 Vinge did not actually use the phrase technological singularity in the Omni op ed but he did use this phrase in the short story collection Threats and Other Promises from 1988 writing in the introduction to his story The Whirligig of Time p 72 Barring a worldwide catastrophe I believe that technology will achieve our wildest dreams and soon When we raise our own intelligence and that of our creations we are no longer in a world of human sized characters At that point we have fallen into a technological black hole a technological singularity Solomonoff R J The Time Scale of Artificial Intelligence Reflections on Social Effects Human Systems Management Vol 5 pp 149 153 1985 Mission Singularity Summit Australia Future of Science and Technology Thornton Richard 1847 The Expounder of Primitive Christianity 4 Ann Arbor Michigan p 281 Adams H 1909 The rule of phase applied to history En H Adams amp B Adams 1920 The Degradation of the Democratic Dogma New York Macmillan 267 311 Adams 1909 p 309 A Brief History of Intellectual Discussion of Accelerating Change Accelerationwatch com Consultado el 17 de agosto de 2013 A M Turing Intelligent Machinery A Heretical Theory 1951 reprinted Philosophia Mathematica 1996 4 3 256 260 doi 10 1093 philmat 4 3 256 Dooling Richard Rapture for the Geeks When AI Outsmarts IQ 2008 p 88 Moravec Hans 1998 When will computer hardware match the human brain Journal of Evolution and Technology 1 archivado desde el original el 15 de junio de 2006 consultado el 23 de junio de 2006 obra y publicacion redundantes ayuda Moravec Hans 16 de junio de 1993 The Age of Robots Consultado el 23 de junio de 2006 Moravec Hans 16 de abril de 2004 Robot Predictions Evolution Consultado el 23 de junio de 2006 Dooling Richard Rapture for the Geeks When AI Outsmarts IQ 2008 p 89 a b c Vinge Vernor The Coming Technological Singularity How to Survive in the Post Human Era originally in Vision 21 Interdisciplinary Science and Engineering in the Era of Cyberspace G A Landis ed NASA Publication CP 10129 pp 11 22 1993 83 Hanson Robin Economics of the Singularity IEEE Spectrum Special Report The Singularity archivado desde el original el 11 de agosto de 2011 consultado el 11 de septiembre de 2008 amp Long Term Growth As A Sequence of Exponential Modes a b c Yudkowsky Eliezer The Singularity Three Major Schools Singularity University at its official website de Grey Aubrey The singularity and the Methuselarity similarities and differences Geraci Robert M 2010 Apocalyptic AI Visions of Heaven in Robotics Artificial Intelligence and Virtual Reality Oxford University Press ISBN 978 0195393026 2045 The Year Man Becomes Immortal By Lev Grossman Thursday Feb 10 2011 time com Sadin Eric 2017 Introduccion La emergencia de una cognicion artificial superior La Humanidad Aumentada La administracion digital del mundo Editorial Caja Negra p 31 32 Kurzweil Ray 2005 La singularidad esta cerca cuando los humanos trascendemos la biologia Lola Books Kurzweil Ray 10 de octubre de 2008 The singularity The last word forum IEEE 45 10 doi 10 1109 MSPEC 2008 4635038 Consultado el 2 de octubre de 2013 Jacques Jeph They ve Had AI Since 1996 Questionable Content Consultado el 9 de junio de 2015 sitioweb y publicacion redundantes ayuda Joy Bill 16 de abril de 2000 Why the future doesn t need us Wired Magazine Viking Adult 8 04 ISBN 0 670 03249 2 consultado el 7 de agosto de 2007 obra y publicacion redundantes ayuda Armstrong Stuart How We re Predicting AI Archivado el 31 de octubre de 2014 en Wayback Machine from the 2012 Singularity Conference Good I J 1950 Advances in Computers vol 6 Speculations Concerning the First Ultraintelligent Machine Ehrlich Paul The Dominant Animal Human Evolution and the Environment Shajahan S 2007 Management Information Systems New Age International Good I J Speculations Concerning the First Ultraintelligent Machine Archivado el 4 de marzo de 2016 en Wayback Machine Franz L Alt and Morris Rubinoff ed Advances in Computers Academic Press 6 31 88 1965 The Human Importance of the Intelligence Explosion Archivado desde el original el 23 de octubre de 2015 Consultado el 30 de julio de 2015 Good I J 1965 Speculations Concerning the First Ultraintelligent Machine Archivado el 4 de marzo de 2016 en Wayback Machine pp 31 88 in Advances in Computers 6 F L Alt and M Rubinoff eds New York Academic Press Ray Kurzweil The Singularity is Near pp 135 136 Penguin Group 2005 a b What is the Singularity Singularity Institute for Artificial Intelligence Singinst org Archivado desde el original el 8 de septiembre de 2011 Consultado el 9 de septiembre de 2011 h Magazine Covering technological scientific and cultural trends that are changing human beings in fundamental ways Hplusmagazine com Archivado desde el original el 23 de diciembre de 2010 Consultado el 9 de septiembre de 2011 Sandberg Anders An overview of models of technological singularity Max More and Ray Kurzweil on the Singularity KurzweilAI Consultado el 9 de septiembre de 2011 Marcus Gary 24 de octubre de 2013 Why We Should Think About the Threat of Artificial Intelligence New Yorker Consultado el 15 de julio de 2014 a b Tech Luminaries Address Singularity IEEE Spectrum Spectrum ieee org Consultado el 9 de septiembre de 2011 Who s Who In The Singularity IEEE Spectrum Spectrum ieee org Consultado el 9 de septiembre de 2011 a b Paul Allen The Singularity Isn t Near consultado el 12 de abril de 2015 Moravec Hans 1999 Robot Mere Machine to Transcendent Mind Oxford U Press p 61 Ray Kurzweil The Age of Spiritual Machines Viking 1999 p 30 and p 32 Ray Kurzweil The Singularity is Near Penguin Group 2005 The World s Technological Capacity to Store Communicate and Compute Information Martin Hilbert and Priscila Lopez 2011 Science journal 332 6025 60 65 free access to the article through here martinhilbert net WorldInfoCapacity html Ray Kurzweil The Singularity is Near p 9 Penguin Group 2005 Kurzweil Ray 10 de octubre de 2008 The singularity The last word forum IEEE 45 10 doi 10 1109 MSPEC 2008 4635038 Consultado el 2 de octubre de 2013 Ray Kurzweil The Singularity is Near pp 135 136 Penguin Group 2005 So we will be producing about 1026 to 1029 cps of nonbiological computation per year in the early 2030s This is roughly equal to our estimate for the capacity of all living biological human intelligence This state of computation in the early 2030s will not represent the Singularity however because it does not yet correspond to a profound expansion of our intelligence By the mid 2040s however that one thousand dollars worth of computation will be equal to 1026 cps so the intelligence created per year at a total cost of about 1012 will be about one billion times more powerful than all human intelligence today That will indeed represent a profound change and it is for that reason that I set the date for the Singularity representing a profound and disruptive transformation in human capability as 2045 Zubrin Robert 1999 Entering Space Creating a Spacefaring Civilization Joy 2000 Acceleration Studies Foundation 2007 How to make graphene in a kitchen blender nature com Metamaterials offer route to room temperature superconductivity physicsworld com Dreyfus y Dreyfus 2000 p xiv The truth is that human intelligence can never be replaced with machine intelligence simply because we are not ourselves thinking machines in the sense in which that term is commonly understood Ford Martin 2009 The Lights in the Tunnel Automation Accelerating Technology and the Economy of the Future Acculant ISBN 978 1 4486 5981 4 Lanier Jaron 2013 Who Owns the Future Simon amp Schuster p 328 requiere registro Nordhaus William The Progress of Computing 30 de agosto de 2011 Archivado desde el original el 11 de agosto de 2017 Consultado el 10 de octubre de 2017 Interstellar Travel The Wait Calculation and the Incentive Trap of Progress JBIS Vol 59 N 7 July 2006 Diamond Jared 2005 Collapse How Societies Choose to Fail or Succeed en ingles Viking ISBN 0 14 303655 6 requiere registro Theodore Modis Forecasting the Growth of Complexity and Change Technological Forecasting amp Social Change 69 No 4 2002 a b Modis Theodore The Singularity Myth Archivado el 30 de octubre de 2012 en Wayback Machine a b Huebner Jonathan 2005 A Possible Declining Trend for Worldwide Innovation Technological Forecasting amp Social Change October 2005 pp 980 6 Krazit Tom Intel pledges 80 cores in five years CNET News 26 September 2006 Tainter Joseph 1988 The Collapse of Complex Societies Archivado el 7 de junio de 2015 en Wayback Machine Cambridge University Press Allen Paul The Singularity Isn t Near 12 de octubre de 2011 Consultado el 10 de octubre de 2017 Anonymous 18 de marzo de 2006 More blades good The Economist London 378 8469 85 obra y periodico redundantes ayuda Myers P Z Singularly Silly Singularity archivado desde el original el 28 de febrero de 2009 consultado el 13 de abril de 2009 See e g Korotayev A Malkov A Khaltourina D Introduction to Social Macrodynamics Compact Macromodels of the World System Growth Moscow URSS Publishers 2006 Korotayev A V A Compact Macromodel of World System Evolution Journal of World Systems Research 11 1 2005 79 93 For a detailed mathematical analysis of this issue see A Compact Mathematical Model of the World System Economic and Demographic Growth 1 CE 1973 CE Adam Gopnik New Yorker 2011 http www newyorker com magazine 2011 04 04 get smart adam gopnik Joan Slonczewski Mitochondrial Singularity 2013 http ultraphyte com 2013 03 25 mitochondrial singularity Episode dated 23 August 2006 en Internet Movie Database en ingles a b Yudkowsky Eliezer 2008 Artificial Intelligence as a Positive and Negative Factor in Global Risk en Bostrom Bostrom Nick Nick Cirkovic Milan eds Global Catastrophic Risks Oxford University Press 303 Bibcode 2008gcr book 303Y ISBN 978 0 19 857050 9 archivado desde el original el 7 de agosto de 2008 obra y publicacion redundantes ayuda The Uncertain Future theuncertainfuture com a future technology and world modeling project GLOBAL CATASTROPHIC RISKS SURVEY 2008 Technical Report 2008 1 Published by Future of Humanity Institute Oxford University Anders Sandberg and Nick Bostrom Archivado el 16 de mayo de 2011 en Wayback Machine Existential Risks Analyzing Human Extinction Scenarios and Related Hazards nickbostrom com Scientists Worry Machines May Outsmart Man By JOHN MARKOFF NY Times July 26 2009 Mick Jason New Navy funded Report Warns of War Robots Going Terminator Archivado el 28 de julio de 2009 en Wayback Machine Blog dailytech com February 17 2009 Flatley Joseph L Navy report warns of robot uprising suggests a strong moral compass engadget com 18 February 2009 Call for debate on killer robots By Jason Palmer Science and technology reporter BBC News 8 3 09 AAAI Presidential Panel on Long Term AI Futures 2008 2009 Study Association for the Advancement of Artificial Intelligence Accessed 7 26 09 Article at Asimovlaws com Archivado el 24 de mayo de 2012 en Wayback Machine July 2004 accessed 7 27 2009 Singularity Institute for Artificial Intelligence 2004 a b The Singularity A Documentary by Doug Wolens Ieet org Consultado el 22 de octubre de 2013 Plug amp Pray Documentary film 2010 about the promise problems and ethics of artificial intelligence and roboticsError en la cita La etiqueta lt ref gt definida en las lt references gt con nombre accelerating no se utiliza en el texto anterior Error en la cita La etiqueta lt ref gt definida en las lt references gt con nombre businessweek no se utiliza en el texto anterior Error en la cita La etiqueta lt ref gt definida en las lt references gt con nombre dreyfus no se utiliza en el texto anterior Error en la cita La etiqueta lt ref gt definida en las lt references gt con nombre nytimes no se utiliza en el texto anterior Error en la cita La etiqueta lt ref gt definida en las lt references gt con nombre stat no se utiliza en el texto anterior Error en la cita La etiqueta lt ref gt definida en las lt references gt con nombre thelightsinthetunnel no se utiliza en el texto anterior Referencias EditarAcceleration Studies Foundation 2007 ASF About the Foundation archivado desde el original el 26 de diciembre de 2008 consultado el 13 de noviembre de 2007 Anonymous 18 de marzo de 2006 More blades good The Economist London 378 8469 85 obra y periodico redundantes ayuda James John BellJames John Bell Bell James John 2002 Technotopia and the Death of Nature Clones Supercomputers and Robots Earth Island Journal first published in the November December 2001 issue of the Earth First Journal consultado el 7 de agosto de 2007 Bell James John 1 de mayo de 2003 Exploring The Singularity The Futurist World Future Society mindfully org consultado el 7 de agosto de 2007 Berglas Anthony 2008 Artificial Intelligence will Kill our Grandchildren consultado el 13 de junio de 2008 Damien BroderickDamien Broderick Broderick Damien 2001 The Spike How Our Lives Are Being Transformed by Rapidly Advancing Technologies New York Forge ISBN 0 312 87781 1 Nick BostromNick Bostrom Bostrom Nick 2002 Existential Risks Journal of Evolution and Technology 9 consultado el 7 de agosto de 2007 obra y publicacion redundantes ayuda Bostrom Nick 2003 Ethical Issues in Advanced Artificial Intelligence Cognitive Emotive and Ethical Aspects of Decision Making in Humans and in Artificial Intelligence 2 12 17 consultado el 7 de agosto de 2007 obra y publicacion redundantes ayuda Hubert DreyfusHubert Dreyfus Dreyfus Hubert L Dreyfus Stuart E 1 de marzo de 2000 Mind over Machine The Power of Human Intuition and Expertise in the Era of the Computer 1 edicion New York Free Press ISBN 0 7432 0551 0 Ford Martin 2009 The Lights in the Tunnel Automation Accelerating Technology and the Economy of the Future CreateSpace ISBN 978 1 4486 5981 4 I J GoodI J Good Good I J 1965 Speculations Concerning the First Ultraintelligent Machine en Franz L Alt and Morris Rubinoff ed Advances in Computers Advances in Computers Academic Press 6 31 88 ISBN 9780120121069 doi 10 1016 S0065 2458 08 60418 0 archivado desde el original el 27 de mayo de 2001 consultado el 7 de agosto de 2007 obra y publicacion redundantes ayuda Robin HansonRobin Hanson Hanson Robin 1998 Some Skepticism Robin Hanson archivado desde el original el 28 de agosto de 2009 consultado el 19 de junio de 2009 Hanson Robin 16 de junio de 2008 Economics of the Singularity IEEE Spectrum obra y periodico redundantes ayuda Stephen HawkingStephen Hawking Hawking Stephen 1998 Science in the Next Millennium Remarks by Stephen Hawking archivado desde el original el 29 de junio de 2009 consultado el 13 de noviembre de 2007 Gerald HawkinsGerald Hawkins Hawkins Gerald S 16 de agosto de 1983 Mindsteps to the Cosmos HarperCollins ISBN 0 06 015156 0 Francis HeylighenFrancis Heylighen Heylighen Francis 2007 Accelerating Socio Technological Evolution from ephemeralization and stigmergy to the global brain en George Modelski George Modelski Modelski Modelski G G Devezas T Thompson W eds Globalization as an Evolutionary Process Modeling Global Change London Routledge ISBN 978 0 415 77361 4 Hibbard Bill 5 de noviembre de 2014 Ethical Artificial Intelligence arXiv 1411 1373 cs AI Johansen Anders Sornette Didier 25 de enero de 2001 Finite time singularity in the dynamics of the world population economic and financial indices PDF Physica A 294 3 4 465 502 Bibcode 2001PhyA 294 465J arXiv cond mat 0002075 doi 10 1016 S0378 4371 01 00105 4 archivado desde el original el 29 de noviembre de 2007 consultado el 30 de octubre de 2007 obra y periodico redundantes ayuda Bill JoyBill Joy Joy Bill 16 de abril de 2000 Why the future doesn t need us Wired Magazine Viking Adult 8 04 ISBN 0 670 03249 2 consultado el 7 de agosto de 2007 obra y publicacion redundantes ayuda Raymond KurzweilRaymond Kurzweil Kurzweil Raymond 2001 The Law of Accelerating Returns Nature Physics Lifeboat Foundation 4 7 507 Bibcode 2008NatPh 4 507B doi 10 1038 nphys1010 consultado el 7 de agosto de 2007 obra y publicacion redundantes ayuda Kurzweil Raymond 2005 The Singularity Is Near New York Viking ISBN 0 670 03384 7 Hans MoravecHans Moravec Moravec Hans 16 de enero de 1992 Pigs in Cyberspace On the Cosmology and Ecology of Cyberspace consultado el 21 de noviembre de 2007 obra y publicacion redundantes ayuda Ashik MahmudAshik Mahmud Mahmud Ashik 16 de junio de 2015 Post Human Beings amp Techno salvation Exploring Artificial Intelligence in Selected Science Fictions Socrates Journal doi 10 7910 DVN VAELLN archivado desde el original el 26 de junio de 2015 consultado el 26 de junio de 2015 obra y publicacion redundantes ayuda Schmidhuber Jurgen 29 de junio de 2006 New Millennium AI and the Convergence of History arXiv cs 0606081 cs AI Singularity Institute for Artificial IntelligenceSingularity Institute for Artificial Intelligence Singularity Institute for Artificial Intelligence 2002 Why Artificial Intelligence archivado desde el original el 4 de octubre de 2006 Singularity Institute for Artificial Intelligence 2004 3 Laws Unsafe archivado desde el original el 23 de marzo de 2011 consultado el 7 de agosto de 2007 Singularity Institute for Artificial Intelligence 2007 What is the Singularity archivado desde el original el 30 de diciembre de 2007 consultado el 4 de enero de 2008 John Smart futurist John Smart futurist Smart John 16 de septiembre de 2005 On Huebner Innovation Acceleration Studies Foundation archivado desde el original el 16 de junio de 2006 consultado el 7 de agosto de 2007 Stanislaw UlamStanislaw Ulam Ulam Stanislaw 16 de mayo de 1958 Tribute to John von Neumann Bulletin of the American Mathematical Society 64 nr 3 part 2 1 49 doi 10 1090 S0002 9904 1958 10189 5 obra y publicacion redundantes ayuda Vernor VingeVernor Vinge Vinge Vernor 30 31 March 1993 The Coming Technological Singularity Vision 21 Interdisciplinary Science amp Engineering in the Era of CyberSpace proceedings of a Symposium held at NASA Lewis Research Center NASA Conference Publication CP 10129 consultado el 7 de agosto de 2007 obra y publicacion redundantes ayuda See also this HTML version retrieved on 2009 03 29 Kevin WarwickKevin Warwick Warwick Kevin 2004 March of The Machines University of Illinois Press ISBN 978 0 252 07223 9 Datos Q237525Obtenido de https es wikipedia org w index php title Singularidad tecnologica amp oldid 136629917, wikipedia, wiki, leyendo, leer, libro, biblioteca,

español

, española, descargar, gratis, descargar gratis, mp3, video, mp4, 3gp, jpg, jpeg, gif, png, imagen, música, canción, película, libro, juego, juegos