fbpx
Wikipedia

Prueba de Turing

La prueba de Turing o test de Turing es un examen de la capacidad de una máquina para exhibir un comportamiento inteligente similar al de un ser humano o indistinguible de este. Alan Turing propuso que un humano evaluara conversaciones en lenguaje natural entre un humano y una máquina diseñada para generar respuestas similares a las de un humano. El evaluador sabría que uno de los participantes de la conversación es una máquina y los intervinientes serían separados unos de otros. La conversación estaría limitada a un medio únicamente textual como un teclado de computadora y un monitor por lo que sería irrelevante la capacidad de la máquina de transformar texto en habla.[2]​ En el caso de que el evaluador no pueda distinguir entre el humano y la máquina acertadamente (Turing originalmente sugirió que la máquina debía convencer a un evaluador, después de 5 minutos de conversación, el 70 % del tiempo), la máquina habría pasado la prueba. Esta prueba no evalúa el conocimiento de la máquina en cuanto a su capacidad de responder preguntas correctamente, solo se toma en cuenta la capacidad de esta de generar respuestas similares a las que daría un humano.

La "interpretación estándar" de la prueba de Turing, en la cual la entidad C, el interrogador, le es dada la tarea de tratar de determinar qué entidad —¿A o B?— es una computadora y cual un ser humano. El interrogador se limita a la utilización de las respuestas a las preguntas escritas para tomar la determinación. Imagen adaptada de Saygin, 2000.[1]

Turing propuso esta prueba en su ensayo “Computing Machinery and Intelligence” de 1950 mientras trabajaba en la Universidad de Mánchester (Turing, 1950; p. 460).[3]​ Inicia con las palabras: “Propongo que se considere la siguiente pregunta, ‘¿Pueden pensar las máquinas?’”. Como es difícil definir la palabra “pensar”, Turing decide “reemplazar la pregunta con otra que está estrechamente relacionada y en palabras no ambiguas.”, [4]​ la nueva pregunta de Turing es: “¿Existirán computadoras digitales imaginables que tengan un buen desempeño en el juego de imitación?".[5]​ Turing creía que esta pregunta sí era posible de responder y en lo que resta de su ensayo se dedica a argumentar en contra de las objeciones principales a la idea de que “las máquinas pueden pensar”.[6]

Desde que fue creada por Turing en 1950, la prueba ha demostrado ser altamente influyente y a la vez ampliamente criticada, además de transformarse en un concepto importante en la filosofía de la inteligencia artificial.[1][7]

Historia

Contexto filosófico

La incógnita sobre la capacidad de las máquinas de pensar tiene una larga historia, esta se divide entre las perspectivas materialista y dualista de la mente. René Descartes tuvo ideas similares a la prueba de Turing en su texto Discurso del Método (1637) donde escribió que los autómatas son capaces de reaccionar ante interacciones humanas pero argumenta que tal autómata carece de la capacidad de responder de manera adecuada ante lo que se diga en su presencia de la misma manera que un humano podría. Por lo tanto, Descartes abre las puertas para la prueba de Turing al identificar la insuficiencia de una respuesta lingüística apropiada lo que separa al humano del autómata. Descartes no llega a considerar que una respuesta lingüística apropiada puede ser producida por un autómata del futuro y por lo tanto no propone el test de Turing como tal aunque ya razonó los criterios y el marco conceptual.

Cuantos autómatas diferentes o máquinas móviles se pueden construir por la industria del hombre […] Podemos comprender con facilidad el hecho de que una máquina sea diseñada para pronunciar palabras, incluso responder ante acciones tangibles que produzca un cambio en sus órganos; por ejemplo, si se le tocara de una manera particular no preguntaría que le queremos decir; si se le toca en otra parte puede decir que se le está lastimando entre otras cosas. Pero nunca sucede que pueda ordenar su habla en distintas maneras para responder apropiadamente ante todo lo que se diga en su presencia, de la misma manera que la clase más baja de humanos puede hacerlo.[8]

Denis Diderot plantea en su Pensées philosophiques un criterio de la prueba de Turing:

“Si se encuentra un loro que puede responder a todo, se le consideraría un ser inteligente sin duda alguna."[9]

Esto no significa que él esté de acuerdo pero muestra que ya era un argumento común usado por los materialistas de la época.

Según el dualismo, la mente no tiene un estado físico (o al menos cuenta con propiedades no físicas)[10]​ y por lo tanto no se puede explicar en términos estrictamente físicos. De acuerdo con el materialismo, la mente puede ser explicada físicamente lo que abre la posibilidad a la creación de mentes artificiales.[11]

En 1936, el filósofo Alfred Ayer consideraba la pregunta filosófica típica sobre otras mentes: ¿Cómo sabemos que otras personas experimentan el mismo nivel de conciencia que nosotros? En su libro Lenguaje, Verdad y Lógica, Ayer propuso un método para distinguir entre un hombre consciente y una máquina inconsciente: “El único argumento que tengo para asegurar que lo que parece ser consciente no es un ser consciente sino un muñeco o una máquina, es el hecho de que falle en las pruebas empíricas por medio de las cuales se determina la presencia o ausencia de la conciencia"[12]​ (Es una propuesta muy similar a la prueba de Turing pero esta se enfoca en la conciencia en vez de en la inteligencia). Además se desconoce si Turing estaba familiarizado con el clásico filosófico de Ayer. En otras palabras, algo no está consciente si reprueba una prueba de consciencia.

Alan Turing

La “inteligencia maquinaria” ha sido un tema que investigadores del Reino Unido han seguido desde 10 años antes de que se fundara el campo de investigación de la inteligencia artificial (IA) en 1956.[13]​ Era un tema comúnmente discutido por los miembros del “Club de la razón”, grupo informal de investigadores cibernéticos y electrónicos británicos que incluía a Alan Turing.[14]

Turing, en particular, había estado trabajando con el concepto de la inteligencia maquinaria desde al menos 1941,[15]​ una de las primeras menciones de la “inteligencia computacional” fue hecha por Turing en 1947.[16]​ En el reporte de Turing llamado “maquinaria inteligente”,[17]​ él investigó “la idea de si era, o no, posible para una máquina demostrar un comportamiento inteligente"[18]​ y como parte de su investigación, propuso lo que se puede considerar como un predecesor de sus pruebas futuras:

No es difícil diseñar una máquina de papel que juegue bien ajedrez.[19]​ Hay que conseguir 3 hombres como sujetos para el experimento. A,B y C. A y C son dos jugadores malos de ajedrez mientras que B es el operador de la máquina. … Se usan dos cuartos con algún arreglo para transmitir los movimientos y se lleva a cabo un juego entre C y ya sea A o la máquina. C puede tener dificultad al decidir contra quien está jugando.[20]

El primer texto publicado escrito por Turing y enfocado completamente en la inteligencia de las máquinas fue “Computing Machinery and Intelligence”. Turing inicia este texto diciendo “Me propongo tomar en cuenta la pregunta ‘¿Pueden pensar las máquinas?’”.[4]​ Turing menciona que el acercamiento tradicional es empezar con definiciones de los términos “máquina” e “inteligencia”, decide ignorar esto y empieza reemplazando la pregunta con una nueva, “que está estrechamente relacionada y en palabras no ambiguas”.[4]​ Él propone, en esencia, cambiar la pregunta de “¿pueden las máquinas pensar?” a “¿Pueden las máquinas hacer, lo que nosotros (como entidades pensantes) hacemos?”.[21]​ La ventaja de esta nueva pregunta es que “dibuja un límite entre las capacidades físicas e intelectuales del hombre."[22]

Para demostrar este acercamiento, Turing propone una prueba inspirada en el “Juego de imitación”, en este entraban un hombre y una mujer a cuartos separados y el resto de los jugadores intentaría distinguir entre cada uno por medio de preguntas y leyendo las respuestas (escritas a máquina) en voz alta. El objetivo del juego es que los participantes que se encuentran en los cuartos deben convencer al resto que son el otro. (Huma Shah argumenta que Turing incluye la explicación de este juego para introducir al lector a la prueba de pregunta y respuesta entre humano y máquina[23]​) Turing describe su versión del juego de la siguiente manera:

Nos hacemos la pregunta, “¿Qué pasaría si una máquina toma el papel de A en este juego?” ¿Se equivocaría tan frecuentemente el interrogador en esta nueva versión del juego que cuando era jugado por un hombre y una mujer? Estas preguntas sustituyen la pregunta original “¿Pueden pensar las máquinas?”.[22]

Más adelante en el texto se propone una versión similar en la que un juez conversa con una computadora y un hombre.[24]​ A pesar de que ninguna de las versiones propuestas es la misma que conocemos hoy en día, Turing propuso una tercera opción, la cual discutió en una transmisión de radio de la BBC, donde un jurado le hace preguntas a una computadora y el objetivo de la computadora es engañar a la mayoría del jurado haciéndolo creer que es un humano.[25]

El texto de Turing consideraba nueve objeciones putativas las cuales incluyen a todos los argumentos mayores, en contra de la inteligencia artificial, que habían surgido en los años posteriores a la publicación de su texto (ver “Computing Machinery and Intelligence”).[6]

ELIZA y PARRY

En 1966, Joseph Weizenbaum creó un programa que aseguraba pasar la prueba de Turing. Este programa era conocido como ELIZA y funcionaba a través del análisis de las palabras escritas por el usuario en busca de palabras clave. En el caso de encontrar una palabra clave, una regla que transformaba el comentario del usuario entra en acción y se regresaba una oración resultado. Si no se encontraba alguna palabra clave, ELIZA daba una respuesta genérica o repetía uno de los comentarios anteriores.[26]​ Además, Weizenbaum desarrolló a ELIZA para replicar el comportamiento de un psicoterapeuta Rogeriano lo que permitía a ELIZA "asumir el rol de alguien que no conoce nada del mundo real”.[27]​ El programa fue capaz de engañar a algunas personas haciéndolas creer que hablaban con una persona real e incluso algunos sujetos fueron “muy difíciles de convencerles de que ELIZA no era humana”.[27]​ Como resultado, ELIZA es aclamado como uno de los programas (probablemente el primero) en pasar la prueba de Turing,[27][28]​ aunque esto es muy controvertido (ver más adelante).

PARRY fue creado por Kenneth Colby en 1972. Era un programa descrito como “ELIZA con carácter”.[29]​ Este intentaba simular el comportamiento de un esquizofrénico paranoico usando un acercamiento similar (probablemente más avanzado) al de Weizenbaum. PARRY fue examinado usando una variación de la prueba de Turing con tal de validar el trabajo. Un grupo de psiquiatras experimentados analizaba a un grupo de pacientes reales y computadoras ejecutando el programa PARRY a través de teletipos. A otro grupo de 33 psiquiatras se les enseñaban transcripciones de las conversaciones. A ambos grupos se les pedía indicar qué pacientes eran humanos y cuáles eran computadoras. [30]​ Los psiquiatras fueron capaces de responder correctamente solo 48% de las veces, un valor consistente con respuestas aleatorias.[31]

En el siglo XXI, versiones de estos programas (llamados “bots conversacionales”) siguieron engañando a la gente. “CyberLover”, un programa de malware, acechaba a usuarios convenciéndolos de “revelar información sobre sus identidades o de entrar a un sitio web que introduciría malware a sus equipos”.[32]​ El programa surgió como un “riesgo de San Valentín”, coqueteando con la gente “buscando relaciones en línea para recabar información personal”.[33]

La habitación china

El texto “Minds, Brains, and Programs” de 1980 escrito por John Searle, proponía el experimento de la “habitación china” y argumentaba que la prueba de Turing no podía usarse para determinar si una máquina podía pensar. Searle observó que software (como ELIZA) podía aprobar la prueba de Turing a través de la manipulación de caracteres que no había entendido. Sin la comprensión no se les puede clasificar realmente como “pensantes” de la misma manera que los humanos, por lo tanto, Searle concluyó que la prueba de Turing no puede probar que una máquina puede pensar. [34]​ Al igual que la prueba de Turing, el argumento de Searle ha sido ampliamente criticado[35]​ al igual que respaldado.[36]

Argumentos como los de Searle en la filosofía de mente desataron un debate más intenso sobre la naturaleza de la inteligencia, la posibilidad de máquinas inteligentes y el valor de la prueba de Turing que continuó durante las décadas de los 80s y 90s.[37]​ El filósofo fisicalista William Lycan reconoció el avance de las inteligencias artificiales, comenzando a comportarse como si tuvieran mentes. Lycan usa el experimento mental de un robot humanoide llamado Harry que puede conversar, jugar golf, tocar la viola, escribir poesía y por consiguiente consigue engañar a la gente como si fuera una persona con mente. Si Harry fuera humano, sería perfectamente natural pensar que tiene pensamientos o sentimientos, lo que sugeriría que en realidad Harry pueda tener pensamientos o sentimientos aún si es un robot.[38][39]​ Para Lycan "no hay ningún problema ni objeción a la experiencia cualitativa en máquinas que no es igualmente un dilema para tal experiencia en humanos"[40]​ (ver Problema de otras mentes).

Premio Loebner

El Premio Loebner proporciona una plataforma anual para pruebas de Turing prácticas, siendo la primera competición en noviembre de 1991.[41]​ Creada por Hugh Loebner, el Centro de Estudios Conductuales de Cambridge en Massachusetts, Estados Unidos, organizó los premios hasta el año 2003 incluido. Loebner dijo que un motivo por el que se creó la competición era para avanzar el estado de la investigación de IA, al menos en parte, ya que no se había intentado implementar la prueba de Turing después de 40 años de discusión.[42]

La primera competición del Premio Loebner en 1991, llevó a una discusión renovada sobre la viabilidad de la prueba de Turing y el valor de continuar persiguiéndola en la prensa[43]​ y en la academia.[44]​ El primer concurso lo ganó un programa inconsciente sin ninguna inteligencia identificable que logró engañar a interrogadores ingenuos. Esto sacó a la luz muchas de las deficiencias de la prueba de Turing (discutido más adelante): El programa ganó gracias a que fue capaz de “imitar errores humanos al escribir”;[43]​ ”, los interrogadores poco sofisticados fueron fácilmente engañados[44]​ y algunos investigados de IA sintieron que la prueba es una distracción de investigaciones más fructíferas.[45]

Los premios de plata (únicamente textual) y de oro (visual y aural) no han sido ganados a la fecha, sin embargo, la competición ha entregado la medalla de bronce cada año al sistema computacional que, según la opinión de los jueces, demuestra el comportamiento conversacional “más humano” entre los otros participantes. A.L.I.C.E. (Artificial Linguistic Internet Computer Entity) ha ganado el premio de bronce en 3 ocasiones recientes (2000, 2001 y 2004). La IA aprendiz Jabberwacky ganó en el año 2005 y nuevamente en el 2006.[46]

El Premio Loebner evalúa la inteligencia conversacional, los ganadores son, típicamente, bots conversacionales. Las reglas de las primeras instancias de la competición, restringían las conversaciones: cada programa participante y un humano escondido conversaban de un solo tema[47]​ y los interrogadores estaban limitados a una sola pregunta por cada interacción con la entidad. Las conversaciones restringidas fueron eliminadas en la competición de 1995. La interacción entre el evaluador y la entidad ha variado en las diferentes instancias del Premio Loebner. En el Premio Loebner de 2003 en la Universidad de Surrey, cada interrogador tenía permitido interactuar con la entidad por 5 minutos fuera humana o máquina. Entre 2004 y 2007, la interacción permitida era de más de 20 minutos. En 2008, la interacción permitida era de 5 minutos por par porque, el organizador Kevin Warwick, y el coordinador Huma Shah, consideraban que esta debía ser la duración de cualquier prueba por como Turing lo puso en su texto de 1950: “… la correcta identificación después de 5 minutos de cuestionamientos.”.[48]​ Ellos sentían que las pruebas largas implementadas anteriormente eran inapropiadas para el estado de las tecnologías conversacionales artificiales.[49]​ Es irónico que la competición del 2008 fue ganada por Elbot de Artificial Solutions, esta no simulaba una personalidad humana sino la de un robot y aun así logró engañar a tres jueces humanos de que era el humano actuando como robot.[50]

Durante la competición del 2009. Con sede en Brighton, Reino Unido, la interacción permitida era de 10 minutos por ronda, 5 minutos para hablar con la máquina y 5 minutos para hablar con el humano. Se implementó de esta manera para probar la lectura alternativa sobre la predicción de Turing que la interacción de 5 minutos debía ser con la computadora. Para la competición del 2010, el patrocinador aumentó el tiempo de interacción entre interrogador y sistema a 25 minutos.[51]

Competición en la Universidad de Reading de 2014

El 7 de junio de 2014 se realizó una competición de la prueba de Turing organizada por Kevin Warwick y Huma Shah para el 60 aniversario de la muerte de Turing y fue llevado a cabo en la Real Sociedad de Londres. Fue ganada por el robot conversacional ruso Eugene Goostman. El robot, durante una serie de conversaciones de 5 minutos de duración, logró convencer al 33% de los jueces del concurso de que era humano. John Sharkley se incluía entre los jueces, patrocinador del proyecto de ley que promueve el perdón gubernamental a Turing, al profesor de IA Aaron Sloman y Robert Llewellyn, actor de Enano Rojo.[52][53][54][55]

Los organizadores de la competición creyeron que la prueba había sido “aprobada por primera vez” en el evento diciendo: “algunos dirán que la prueba ya ha sido pasada. Las palabras ‘Prueba de Turing’ han sido aplicadas a competiciones similares alrededor del mundo. Sin embargo, este evento involucra más pruebas simultáneas de comparación al mismo tiempo como nunca antes visto, fue independientemente verificado y, crucialmente, no se restringieron las conversaciones. Una prueba de Turing verdades no establece las preguntas ni los temas de las conversaciones.”[53]

La competición ha enfrentado críticas,[56]​ primero, solo un tercio de los jueces fue engañado por la computadora. Segundo, el personaje de computadora aparentaba ser una niña ucraniana de 13 años de edad que aprendió inglés como segundo lenguaje. El premio requería que un 30% de los jueces fuera engañado lo que concuerda con el texto de Turing Computing Machinery and Intelligence. Joshua Tenenbaum, experto en psicología matemática en el MIT, calificó el resultado como nada impresionante.[57]

Versiones de la prueba de Turing

 
El juego de la imitación, como descrito por Alan Turing en “Computing Machinery and Intelligence”. El jugador C, por medio de preguntas escritas, intenta determinar cuál de los otros dos jugadores es mujer y cual hombre. El jugador A, el hombre, trata de engañar al jugador C para que yerre su decisión mientras que el jugador B trata de ayudarlo. Figura adaptada de Saygin, 2000.

Saul Traigner argumenta que hay al menos 3 versiones primarias de la prueba de Turing, de las cuales dos son propuestas en “Computing Machinery and Intelligence” y otra que el describe como “la interpretación estándar”.[58]​ A pesar de que hay controversia en cuanto a si esta “interpretación estándar” fue descrita por Turing o si está basada en la mala interpretación del texto, estas tres versiones no se clasifican como equivalentes [58]​ y sus fortalezas y debilidades son diferentes.[59]

Huma Shah señala el hecho de que el mismo Turing estaba consternado con la posibilidad de que una máquina pudiera pensar y estaba proporcionando un método simple para examinar esto a través de sesiones de pregunta y respuesta entre humano y máquina.[60]​ Shah argumenta que existe un juego de imitación que Turing pudo haber puesto en práctica de dos maneras diferentes: a) una prueba uno a uno entre el interrogador y la máquina o b) una comparación simultánea entre un humano y una máquina interrogados paralelamente por un mismo interrogador.[23]​Debido a que la prueba de Turing evalúa la indistinguibilidad en su capacidad de desempeño, la versión verbal naturalmente generaliza a toda la capacidad humana, verbal y no verbal (robótica).[61]

Juego de la imitación

El juego original descrito por Turing proponía un juego de fiesta que involucraba a tres jugadores. El jugador A es un hombre, el jugador B es una mujer y el jugador C (quien tiene el rol de interrogador) es de cualquier sexo. En el juego, el jugador C no tiene contacto visual con ninguno de los otros jugadores y se puede comunicar con ellos por medio de notas escritas. Al hacerles preguntas a los jugadores, el jugador C intenta determinar cuál de los dos es el hombre y cual la mujer. El jugador A intentará engañar al interrogador haciéndole escoger erróneamente mientras que el jugador B le auxiliará al interrogador en escoger al jugador correcto.[1]

Sterret se refiere a este juego como “La Prueba del Juego Original De La Imitación”.[62]​ Turing propuso que el rol del jugador A lo cumpliera una computadora para que esta tuviera que pretender ser mujer e intentara guiar al interrogador a la respuesta incorrecta. El éxito de la computadora sería determinado al comparar el resultado del juego cuando el jugador A es la computadora junto con el resultado del juego cuando el jugador A es un hombre. Turing afirmó que si “el interrogador decide erróneamente tan frecuentemente cuando el juego es jugado [con la computadora] como cuando el juego es jugado entre un hombre y una mujer”,[22]​ se podrá argumentar que la computadora es inteligente.

 
La prueba del Juego Original de la Imitación, en la cual el jugador A es reemplazado con una computadora. La computadora tiene el papel de un hombre mientras el jugador B tiene el papel de auxiliar al interrogador. Figura adaptada de Saygin, 2000.

La segunda versión apareció posteriormente en el texto de 1950 de Turing. Similarmente a la Prueba del Juego Original de la Imitación, el papel del jugador A sería realizado por una computadora. Sin embargo, el papel del jugador B sería realizado por un hombre y no una mujer.

“Dirijamos nuestra atención a una computadora digital en específico llamada C. ¿Será verdad que al modificar la computadora para que esta tenga un almacenamiento que aumentara su velocidad de reacción apropiadamente y proporcionándole un programa apropiado, C podrá realizar satisfactoriamente el rol de A en el juego de la imitación con el papel de B hecho por un hombre?”[22]

En esta versión ambos, el jugador A (la computadora) y el jugador B intentarán guiar al interrogador hacia la respuesta incorrecta.

Interpretación estándar

La comprensión general dicta que el propósito de la prueba de Turing no es determinar específicamente si una computadora podrá engañar al interrogador haciéndole creer que este es un humano sino su capacidad de imitar al humano.[1]​ Aunque hay cierta disputa sobre cual interpretación es a la que Turing se refería, Sterret cree que era esta[62]​ y por lo tanto combina la segunda versión con esta mientras que otros, como Traiger, no lo hacen[58]​ sin embargo, esto no ha llevado a una interpretación estándar realmente. En esta versión el jugador A es una computadora y el sexo del jugador B es indiferente. El objetivo del interrogador no es determinar cuál de ellos es hombre y cual mujer sino cual es computadora y cual humano.[63]​ El problema fundamental con la interpretación estándar es que el interrogador no puede diferenciar cual respondedor es humano y cual es una máquina. Hay otros problemas en cuanto a la duración pero la interpretación estándar generalmente considera esta limitación como algo que debería ser razonable.

Juego de la imitación vs. Prueba de Turing Estándar

Se ha creado controversia sobre cuál de las fórmulas alternativas es la que Turing planteó.[62]​ Sterret argumenta que se pueden obtener dos pruebas de la lectura del texto de Turing de 1950 y que, según Turing, no son equivalentes. Se le refiere a la prueba que consiste del juego de fiesta y compara frecuencias de éxito como la “Prueba del Juego de la Imitación Original” mientras que a la prueba que consiste de un juez humano conversando con un humano y una máquina se le conoce “Prueba Estándar de Turing”, nótese que Sterret trata por igual a esta con la “interpretación estándar” en vez de tratarle como la segunda versión del juego de la imitación. Sterret concuerda que la Prueba Estándar de Turing (PET) tiene los problemas que sus críticas citan pero siente que, en contraste, la Prueba del Juego de la Imitación Original (Prueba JIO) mostró ser inmune a muchas de estas debido a una diferencia crucial: A diferencia de la PET, esta no hace similitud con el desempeño humano, aunque emplea al desempeño humano al definir criterio para la inteligencia de la máquina. Un humano puede reprobar la Prueba de JIO pero se argumenta que esta prueba es de inteligencia y el hecho de reprobar solo indica falta de creatividad. La Prueba JIO requiere la creatividad asociada con la inteligencia y no la sola “simulación del comportamiento conversacional humano. La estructura general de la Prueba JIO puede ser usada con versiones no verbales de juegos de imitación.[64]

Otros escritores[65]​ continúan interpretando la propuesta de Turing como el mismo juego de la imitación sin especificar cómo tomar en cuenta la declaración de Turing de que la prueba que él propuso usando la versión festiva del juego de la imitación está basada en un criterio de comparación de frecuencias de éxito en el juego en vez de la capacidad de ganar en tan solo una ronda.

Saygin sugirió que, probablemente, el juego original es una manera de proponer un diseño experimental menos parcial, ya que esconde la participación de la computadora.[66]​ El juego de la imitación incluye un “truco social” no encontrado en la interpretación estándar, ya que en el juego a ambos, la computadora y el hombre, se le requiere que pretendan ser alguien que no son.[67]

¿Debería saber el interrogador de la computadora?

Una pieza vital en cualquier prueba de laboratorio es la existencia de un control. Turing nunca aclara si el interrogador en sus pruebas está al tanto de que uno de los participantes es una computadora. Sin embargo, si hubiera una máquina que tuviera el potencial de pasar la prueba de Turing, sería mejor asumir que un control doble ciego es necesario.

Regresando al Juego Original de la Imitación, Turing establece que solo el jugador A será reemplazado con una máquina, no que el jugador C esté al tanto de este cambio.[22]​ Cuando Colby, FD Hilf, S Weber y AD Kramer examinaron a PARRY, lo hicieron asumiendo que los interrogadores no necesitaban saber que uno o más de los interrogados era una computadora.[68]​ Como Ayse Saygin, Peter Swirski[69]​ y otros han resaltado, esto hace una gran diferencia en la implementación y el resultado de la prueba[1]​ Un estudio experimental examinando violaciones a las máximas conversacionales de Grice usando transcripciones de los ganadores de la prueba (interlocutor escondido e interrogador) uno a uno entre 1994 y 1999, Ayse Saygin observó diferencias significativas entre las respuestas de los participante que sabían que había computadoras involucradas y los que no.[70]

Huma Shah y Kevin Warwick, quienes organizaron el Premio Loebner del 2008 en la Universidad de Reading la cual fue sede de pruebas de comparativas simultáneas (un juez y dos interlocutores escondidos), demostraron que el conocimiento sobre los interlocutores no creó una diferencia significativa en la determinación de los jueces. A estos jueces no se les dijo explícitamente la naturaleza de las parejas de interlocutores escondidos que iban a interrogar. Los jueces fueron capaces de diferenciar entre humano y máquina, inclusivamente cuando estaban enfrentándose a parejas de control de dos máquinas o dos humanos infiltrados entre las parejas de máquina y humano. Los errores de ortografía delataban a los humanos escondidos, las máquinas eran identificadas por su velocidad de respuesta y expresiones de mayor tamaño.[50]

Fortalezas de la prueba

Tratabilidad y simplicidad

El poder y atractivo de la prueba de Turing se deriva de su simplicidad. La filosofía de la mente, la psicología y la neurociencia moderna han sido incapaces de proporcionar definiciones para “inteligencia” y “pensamiento” que sean suficientemente precisas y generales como para ser aplicadas a máquinas. Sin estas definiciones, las incógnitas principales de la filosofía de la inteligencia artificial no pueden ser respondidas. La prueba de Turing, aunque imperfecta, al menos proporciona algo que puede ser medido y como tal, es una solución pragmática a una difícil pregunta filosófica.

Variedad de temas

El formato de la prueba permite al interrogador darle una gran variedad de tareas intelectuales a la máquina. Turing escribió que: “Los métodos de pregunta y respuesta parecen ser adecuados para introducir cualquiera de los campos de labor humana que queramos incluir.”.[71]​ John Haugeland agregó: “la comprensión de las palabras no es suficiente, también se tiene que entender el tema.”.[72]

Para aprobar una prueba de Turing diseñada correctamente, la máquina debe usar lenguaje natural, razón, tener conocimientos y aprender. La prueba puede ser extendida para incluir video como fuente de información junto con una “escotilla” por la que se pueden transferir objetos, esto forzaría a la máquina a probar su habilidad de visión y de robótica al mismo tiempo. En conjunto representan casi todos los problemas que la investigación de inteligencia artificial quisiera resolver.[73]

La prueba de Feigenbaum está diseñada para usar a su ventaja el rango de temas disponibles para una prueba de Turing. Es una forma limitada del juego de respuesta y pregunta de Turing el cual compara a la máquina contra la habilidad de expertos en campos específicos como la literatura y la química. La máquina Watson de IBM alcanzó el éxito en un show de televisión que hacia preguntas de conocimiento humano a concursantes humanos y a la máquina por igual y al mismo tiempo llamado Jeopardy!.[74]

Énfasis en la inteligencia emocional y estética

Siendo un graduado de matemáticas con honores de Cambridge, se esperaba que Turing propusiera una prueba de inteligencia computacional que requiriera conocimiento experto de algún campo altamente técnico y como resultado necesitaría anticipar un acercamiento diferente. En vez de eso, la prueba que describió en su texto de 1950 solo requiere que la computadora sea capaz de competir exitosamente en un juego de fiestas común, con esto se refiere a que pueda compararse su desempeño con el de un humano típico al responder series de preguntas para aparentar ser la participante femenina.

Dado el estatus de dimorfismo sexual humano como uno de los temas más antiguos, se tiene implícito, en el escenario anterior, que las preguntas realizadas no pueden involucrar conocimientos factuales especializados ni técnicos de procesamiento de información. El reto para la computadora será exhibir empatía por el papel de la mujer al igual que demostrar una característica de sensibilidad estética, cualidades las cuales se muestran en este extracto imaginado por Turing:

Interrogador: ¿Podría X decirme el largo de su cabello?
Participante: Mi cabello está en capas y las hebras más largas son de aproximadamente 9 pulgadas de largo.

Cuando Turing introduce algo de conocimiento especializado a sus diálogos imaginarios, el tema no es matemáticas ni electrónica sino poesía:

Interrogador: En la primera línea de tu soneto se lee: “Podré compararla con un día de verano”, ¿acaso no funcionaría “un día de primavera” de igual o mejor manera?
Testigo: No funcionaría.
Interrogador: ¿Qué tal “un día de invierno”? Eso debería funcionar.
Testigo: Si, pero nadie quiere ser comparado con un día de invierno.

Turing, nuevamente, demuestra su interés en la empatía y en la sensibilidad estética como componente de la inteligencia artificial y en luz de una preocupación creciente de una IA en descontrol,[75]​ se ha sugerido[76]​que este enfoque puede representar una intuición crítica por parte de Turing, i.e. que la inteligencia y estética jugarán un rol clave en la creación de una “IA amigable”. Sin embargo, se ha observado que cualquiera que sea la dirección en la que Turing nos inspire, depende de la preservación de su visión original, o sea, la promulgación de una “Interpretación Estándar” de la prueba de Turing (i.e. una que se enfoque únicamente en la inteligencia discursiva) debe ser tomada con precaución.

Debilidades de la prueba

Turing no afirmó explícitamente que la prueba de Turing podía ser usada como una medida de la inteligencia, o de cualquier otra cualidad humana. Él quería proporcionar una alternativa clara y comprensible a la palabra “pensar”, que posteriormente se pudiera usar para responder ante las críticas sobre la posibilidad de “máquinas pensantes”, y sugerir formas para que la investigación siga avanzando. Sin embargo, se ha propuesto el uso de la prueba de Turing como una medida de la “capacidad para pensar” o de la “inteligencia” de una máquina. Esta propuesta ha recibido las críticas de filósofos y científicos de la computación. Esta asume que un interrogador puede determinar si una máquina es “pensante” al comparar su comportamiento con el de un humano. Cada elemento de esta asunción ha sido cuestionado: la confiabilidad del juicio del interrogador, el valor de comparar únicamente el comportamiento y el valor de comparar a la máquina con el humano, es por estas asunciones y otras consideraciones que algunos investigadores de IA cuestionan la relevancia de la prueba de Turing en el campo.

Inteligencia humana vs. Inteligencia en general

 

La prueba de Turing no evalúa directamente si una computadora se comporta inteligentemente, solo si se comporta como un ser humano. Ya que el comportamiento humano y un comportamiento inteligente no son exactamente iguales, la prueba puede errar, al medir precisamente la inteligencia, de dos maneras:

Ciertos comportamientos humanos no son inteligentes
La prueba de Turing requiere que la máquina despliegue todos los comportamientos humanos, sin importar el hecho de que sean inteligentes o no. Incluso examina en búsqueda de comportamientos que consideramos, en lo absoluto, inteligentes. Entre ellos se encuentra la susceptibilidad a insultos, la tentación de mentir o, simplemente, errores de escritura. Si una máquina falla al imitar estos comportamientos no inteligentes, reprobaría la prueba.: Esta objeción fue sacada a la luz en una publicación en “The Economist” titulada “Artificial Stupidity” (Estupidez artificial en inglés) poco después de la primera competencia del Premio de Loebner en 1992. El artículo afirmaba que el ganador de la competencia fue, en parte, por la habilidad de la máquina de "imitar errores humanos de escritura."[43]​ El mismo Turing sugirió que los programas añadieran errores a la información que transmitían para parecer “jugadores” del juego.[[77]

Ciertos comportamientos inteligentes son inhumanos

La prueba de Turing no examina comportamientos altamente inteligentes como lo son la habilidad de resolver problemas difíciles o la ocurrencia de ideas originales. De hecho, requiere específicamente decepción por parte del interrogador: si la máquina es más inteligente que un humano, esta debe aparentar no ser “demasiado” inteligente. Si resolviera un problema computacional que es prácticamente imposible para un ser humano, el interrogador sabría que no es humano y como resultado la computadora reprobaría la prueba.
Como no se puede medir la inteligencia que está más allá de la humana, la prueba no puede ser usada para construir o evaluar sistemas que son más inteligentes que los humanos. Por esto se han propuesto varias pruebas alternativas capaces de evaluar un sistema súper inteligente[78]

Inteligencia real vs. Inteligencia simulada

La prueba de Turing evalúa única y estrictamente cómo se comporta el sujeto (o sea, el comportamiento externo de la máquina). En cuanto a esto, se toma una perspectiva conductista o fundamentalista al estudio de la inteligencia. El ejemplo de ELIZA sugiere que una máquina que pase la prueba podría simular el comportamiento conversacional humano siguiendo una simple (pero larga) lista de reglas mecánicas sin pensar o tener mente en lo absoluto.

John Searle ha argumentado que el comportamiento externo no puede ser usado para determinar si una máquina esta “realmente” pensando o simplemente “simulando el pensamiento”.[34]​ Su habitación china pretende demostrar esto, aunque la prueba de Turing sea una buena definición operacional de la inteligencia, no indica si la máquina tiene una mente, conciencia o intencionalidad. (La intencionalidad es un término filosófico para el poder de los pensamientos de ser “sobre” algo.)

Turing anticipó esta crítica en su texto original[79]​ escribiendo:

No deseo dar la impresión de que no creo en el misterio de la conciencia. Hay, por ejemplo, algo paradójico conectado a cualquier intento de localizarla. Pero no creo que estos misterios necesiten ser resueltos antes de poder responder la pregunta que tratamos en este texto.[80]

Ingenuidad de los interrogadores y la falacia antropomórfica.

En la práctica, los resultados de la prueba pueden ser fácilmente dominados, no por la inteligencia de la computadora sino por, las actitudes, la habilidad o la ingenuidad del interrogador.

Turing no especifica las habilidades ni el conocimiento requeridos del integrador en la descripción de su prueba pero si incluyó el término “interrogador promedio”: “[el] interrogador promedio no debe tener más del 70% de oportunidad de acertar en la identificación después de cinco minutos de cuestionamiento.”[48]

Shah y Warwick (2009b) demostraron que los expertos son engañados y que la estrategia, “poder” vs “solidaridad” del interrogador influyen en la identificación con la última siendo más exitosa.

Los bots conversacionales como ELIZA han engañado, en repetidas ocasiones, a personas en creer que se comunican con seres humanos. En este caso, el interrogador no estaba al tanto de la posibilidad de que su interacción fuera con una computadora. Para aparentar ser un humano exitosamente, no hay necesidad de que la máquina tenga inteligencia alguna, solo se necesita una similitud superficial al comportamiento humano.

Las primeras competencias del Premio Loebner usaban interrogadores poco sofisticados que eran fácilmente engañados por las máquinas.[44]​ Desde el 2004, los organizadores del Premio Loebner han implementado filósofos, científicos de la computación y periodistas entre los interrogadores. Sin embargo, algunos de estos expertos han sido engañados por las máquinas.[81]

Michael Shermer señala que los seres humanos consistentemente consideran objetos no humanos como humanos siempre que tenga la oportunidad de hacerlo, un error llamado “falacia antropomórfica”: hablan con sus vehículos, atribuyen deseos e intenciones a fuerzas naturales (e.g. “la naturaleza odia el vacío”) y veneran al solo como un ser humano con inteligencia. Si la prueba de Turing se aplicara a objetos religiosos, entonces las estatuas inanimadas, rocas y lugares aprobarían consistentemente la prueba a lo largo de la historia según Shermer.[cita requerida] Esta tendencia humana hacia el antropomorfismo, efectivamente reduce la exigencia a la prueba de Turing a menos que se le entrene a los interrogadores a evitarlo.

Errores en la identificación humana

Una característica interesante de la prueba de Turing es la frecuencia con la que investigadores confunden a los participantes humanos con máquinas.[82]​Se ha sugerido que esto es porque los investigadores buscan respuestas humanas esperadas en vez de respuestas típicas. Esto resulta en la categorización incorrecta de algunos individuos como máquinas lo que puede favorecer a esta.

Irrelevancia e impractibilidad: Turing y la investigación de IA.

Los investigadores de IA famosos argumentan que el intentar pasar la prueba de Turing es una distracción de las investigaciones más fructíferas.[83]​ La prueba no es un enfoque activo de investigación académica o de esfuerzo comercial, como Stuart Russel y Peter Norvig escribieron: “Los investigadores de IA han dedicado poca atención a pasar la prueba de Turing”.[84]​ Hay varias razones para esto.

En primera, hay formas más fáciles de probar un programa. La mayoría de las investigaciones en los campos relacionados con la IA están dedicados a metas más específicas y modestas como la planificación automatizada, reconocimiento de objetos o logísticas. Para probar la inteligencia de los programas al realizar estas tareas, los investigadores simplemente les dan la tarea directamente. Russell y Norvig propusieron una analogía con la historia del vuelo: Los aviones son probados según su habilidad para volar, no comparándolos con aves. Textos de “Ingeniería Aeronáutica” mencionan: “no se debe definir la meta del campo como máquinas voladoras que vuelan tan parecidamente a las palomas que podrían engañar a estas.”.[84]

En segunda, la creación de simulaciones de humanos es un problema difícil que no necesita resolverse para cumplir las metas básicas de la investigación de IA. Caracteres humanos creíbles son interesantes para una obra de arte, un juego o una interfaz de usuario sofisticada pero no tienen lugar en la ciencia de la creación de máquinas inteligentes que resuelven problemas con esta inteligencia.

Turing quería proporcionar un ejemplo claro y comprensible para ayudar en la discusión de la filosofía de la inteligencia artificial.[85]​ John McCarthy menciona que la filosofía de IA es “poco probable que tenga más efecto en la práctica de la investigación de IA que la filosofía de la ciencia tienen en la práctica de la ciencia.”.[86]

Variantes de la prueba de Turing

Numerosos versiones de la prueba de Turing, incluidas las mencionadas anteriormente, han sido debatidas a través de los años.

Prueba de Turing en reversa y CAPTCHA

Una modificación de la prueba de Turing donde los objetivos entre las máquinas y los humanos es una prueba de Turing en reversa. Un ejemplo es empleado por el psicoanalista Wilfren Bion,[87]​ quien tiene una fascinación particular por la “tormenta” que resultó del encuentro de una mente por otra. En su libro del 2000,[69]​ entre otras ideas originales sobre la prueba de Turing, Swirski discute a detalle lo que define como la Prueba de Swirski (básicamente la prueba de Turing en reversa). Él señala que esta supera todas las objeciones comunes de la versión estándar.

R.D. Hinshelwood[88]​ continuó con el desarrollo de esta idea al describir a la mente como un “aparato para reconocer mentes”. El reto sería que la computadora determine si está interactuando con un humano o con otra computadora. Esta es una extensión de la pregunta original que Turing intentaba responder y, probablemente, ofrece un estándar lo suficientemente alto para definir que una máquina puede “pensar” de la misma manera que nosotros describimos como humana.

CAPTCHA es una forma de la prueba de Turing en reversa. Antes de ser capaz de realizar una acción en un sitio web, se le presenta al usuario una serie de caracteres alfanuméricos en una imagen distorsionada y se le pide que lo ingrese en un campo de texto. Esto tiene como propósito la prevención de la entrada de sistemas automatizados comúnmente usados para el abuso del sitio web. La razón detrás de esto es que el software suficientemente sofisticado para leer y reproducir la imagen con precisión no existe aún (o no está disponible para el usuario promedio) por lo que cualquier sistema capaz de pasar la prueba debe ser humano.

El software capaz de solucionar CAPTCHA con precisión al analizar patrones en la plataforma generadora está siendo desarrollado activamente.[89]​ Reconocimiento de Caracteres Ópticos o OCR (por sus siglas en inglés) se encuentra bajo en desarrollo como una solución para la inaccesibilidad de sistemas de CAPTCHA para humanos con discapacidades.

Pruebas de Turing Experta en la Materia.

Otra variación es descrita como la variación de la Prueba de Turing Experta en la Materia en la cual no se puede distinguir entre la respuesta de una máquina de una respuesta dada por un experto en la materia. Se le conoce como la Prueba Feigenbaum y fue propuesta por Edward Feigenbaum en un texto del 2003.[90]

Prueba de Turing Total

La “Prueba de Turing Total”[61]​ es una variación que añade requerimientos a la prueba tradicional. El interrogador también evalúa las capacidades de percepción del sujeto (requiriendo visión computacional) y la habilidad del sujeto de manipular objetos (requiriendo robótica).[91]

Prueba de la Señal de Inteligencia Mínima

La Prueba de la Señal de Inteligencia Mínima fue propuesta por Chris McKinstry como la “abstracción máxima de la prueba de Turing”,[92]​ en la cual solo se permiten entradas en binario (verdadero/falso o si/no) con el objetivo de enfocarse en la capacidad de pensar. Se eliminan problemas de la conversación textual como la parcialidad antropomorfa, y no requiere la simulación de comportamientos humanos no inteligentes permitiéndole la entrada a sistemas que superan la inteligencia humana. Las preguntas no dependen de otras, sin embargo, esto es similar a una prueba de CI que una interrogación. Típicamente es usada para recolectar información estadística contra la cual se mide el rendimiento de los programas de IA.[93]

Premio Hutter

Los organizadores del Premio Hutter creen que la compresión del lenguaje natural es un problema difícil para las inteligencias artificiales equivalente a pasar la prueba de Turing.

La prueba de compresión de información tiene ciertas ventajas sobre la mayoría de las versiones de la prueba de Turing incluyendo:

  • Da un único número que puede ser usado directamente para comparar cuál de las dos máquinas en más inteligente.
  • No requiere que la computadora le mienta al juez.

Las desventajas principales de esta prueba son:

  • No es posible evaluar a los humanos de esta manera.
  • Se desconoce que puntuación de esta prueba equivale a pasar la prueba de Turing.

Otras pruebas basadas en la compresión o Complejidad de Kolmogorov

Un acercamiento similar al del Premio Hutter que apareció mucho antes al final de la década de los noventa es la inclusión de problemas de compresión en una prueba de Turing extendida,[94]​ o por pruebas completamente derivadas de la Complejidad de Kolmogórov[95]​ Otras pruebas relacionadas son presentadas por Hernandez-Orallo y Dowe.[96]

CI algorítmico, o CIA, es un intento de convertir la teórica Medida de la Inteligencia universal de Legg y Hutter (basada en la indiferencia inductiva de Solomonoff) en una prueba práctica funcional de la inteligencia de las máquinas.[97]

Dos de las mayores ventajas de estas pruebas son su aplicabilidad a inteligencias no humanas y la ausencia de la necesidad de interrogadores humanos.

Prueba de Ebert

La prueba de Turing inspiró la prueba de Ebert propuesta en el 2011 por el crítico de cine Robert Ebert la cual evalúa si una voz sintetizada por computadora es capaz de producir las entonaciones, inflexiones, la sincronización entre otras cosas para hacer a la gente reír.[98]

Predicciones

Turing predijo que las máquinas pasarían la prueba eventualmente, de hecho, el estimaba que para el año 2000, las máquinas con al menos 100 MB de almacenamiento podrían engañar a un 30% de los jueces humanos en una prueba de 5 minutos y que la gente no consideraría la frase “máquina pensante” como contradictoria.[4]​ (En la práctica, desde 2009 a 2012, los robots conversacionales que participaron en el Premio Loebner solo lograron engañar una vez a un juez[99]​ y esto era debido a que el participante humano pretendía ser un robot conversacional)[100]​ Turing también predijo que el aprendizaje de las máquinas serían una parte esencial al construir máquinas poderosas, esta afirmación se considera posible en la actualidad por los investigadores en IA.[48]

En un texto del 2008 enviado a la decimonovena Conferencia de Inteligencia Artificial y Ciencia Cognitiva del Medio Oeste, el doctor Shane T. Mueller predijo que una variante de la prueba de Turing llamada “Decatlón Cognitivo” sería completada en 5 años.[101]

Al extrapolar el crecimiento exponencial de la tecnología a lo largo de varias décadas, el futurista Ray Kurzweil predijo que las máquinas que aprobaran la prueba de Turing serían fabricadas en el futuro próximo. En 1990, Kurzweil definió este futuro próximo alrededor del año 2020,[102]​ para el 2005 cambió su estimado para el año 2029.[103]

El proyecto “Long Bet Project Nr. 1” es una apuesta de $20,000 USD entre Mitch Kapor (pesimista) y Ray Kurzweil (optimista) sobre la posibilidad de que una máquina pase la prueba de Turing para el año 2029. Durante la prueba de Turing de Long Now, cada uno de los tres jueces realizara entrevistas a cada uno de los cuatro participantes (p.e. la computadora y tres humanos) durante dos horas para un total de 8 horas de entrevistas. La apuesta especifica condiciones a detalle.[104]

Conferencias

Coloquio de Turing

El año 1990 marcó el 40 aniversario de la primera publicación del texto de Turing “Computing Machinery and Intelligence” por lo que se reavivó el interés en este. Dos eventos importantes se llevaron a cabo ese año, el primero fue el Coloquio de Turing con sede en la Universidad de Sussex en abril, este reunió a académicos e investigadores de disciplinas diferentes para discutir sobre la Prueba de Turing en cuanto a su pasado, presente y futuro; el segundo evento fue la competencia anual del Premio Loebner.

Blay Whitby en listo 4 puntos clave en la historia de la prueba de Turing siendo esto: la publicación de “Computing Machinery and Intelligence” en 1950, el anuncio de ELIZA en 1966 por Joseph Weizenbaum, la creación de PARRY por Kenneth Colby y el Coloquio de Turing de 1990.[105]

Coloquio de Sistemas Conversacionales del 2005

En noviembre de 2005, la Universidad de Surrey fue sede de una junta de desarrolladores de entidades conversacionales artificiales[106]​ a la que atendieron los ganadores del Premio Loebner: Robby Garner, Richard Wallace y Rollo Carpenter. Oradores invitados incluyeron a David Hamill, Hugh Loebner (patrocinador del Premio Loebner) Huma Shah.

Simposio de la Prueba de Turing IASC del 2008

En paralelo con el Premio Loebner del 2008 con sede en la Universidad de Reading[107]​ la Sociedad para el Estudio de la Inteligencia Artificial y la Simulación del Comportamiento (IASC) fueron anfitriones de un simposio dedicado a discutir la Prueba de Turing, fue organizado por John Barnden, Mark Bishop, Huma Shah y Kevin Warwick[108]​ Los oradores incluían al director de la Institución Real Susan Greenfield, Selmer Bringsjord, Andrew Hodges (biógrafo de Turing) y Owen Holland (científico de la conciencia). No se llegó a un acuerdo para una prueba de Turing canónica pero Bringsjord señaló que un premio mayor resultaría en la aprobación de la prueba de Turing más rápidamente.

Simposio de la Prueba de Turing IASC del 2010

60 años después de su introducción, el debate sobre el experimento de Turing sobre si “¿Pueden las máquinas pensar?” llevó a su reconsideración para la Convención de AISB del Siglo XXI, llevada a cabo del 29 de marzo al 1 de abril de 2010 en la Universidad De Monthfort, Reino unido. La IASC es la Sociedad para el Estudio de la Inteligencia Artificial y la Simulación del Comportamiento.[109]

El Año de Turing y Turing100 en el 2012

A lo largo del 2012, una cantidad considerable de eventos para celebrar la vida de Turing y su impacto científico se llevaron a cabo. El grupo Turing100 apoyó estos eventos y organizó una prueba de Turing especial en Bletchley Park el 23 de junio de 2012 para celebrar el aniversario número 100 del natalicio de Turing.

Simposio de la Prueba de Turing IASC/IACAP del 2012

Las últimas discusiones sobre la Prueba de Turing en un simposio con 11 oradores, organizada por Vincent C. Müller (ACT y Oxford) y Aladdin Ayeshm (De Montfort) con Mark Bishop, John Barnden, Alessio Piebe y Pietro Perconti.

Notas

  1. Saygin, 2000.
  2. Turing originally suggested a teleprinter, one of the few text-only communication systems available in 1950. (Turing, 1950, p. 433)
  3. http://www.turing.org.uk/scrapbook/test.html
  4. Turing, 1950, p. 433.
  5. (Turing, 1950, p. 442) Turing does not call his idea "Turing test", but rather the "Imitation Game"; however, later literature has reserved the term "Imitation game" to describe a particular version of the test. See #Versions of the Turing test, below. Turing gives a more precise version of the question later in the paper: "[T]hese questions [are] equivalent to this, 'Let us fix our attention on one particular digital computer C. Is it true that by modifying this computer to have an adequate storage, suitably increasing its speed of action, and providing it with an appropriate programme, C can be made to play satisfactorily the part of A in the imitation game, the part of B being taken by a man?'" (Turing, 1950, p. 442)
  6. Turing, 1950, pp. 442–454 and see Russell y Norvig (2003, p. 948), where they comment, "Turing examined a wide variety of possible objections to the possibility of intelligent machines, including virtually all of those that have been raised in the half century since his paper appeared."
  7. Russell y Norvig, 2003, pp. 2–3 and 948.
  8. Descartes, René (1996). Discourse on Method and Meditations on First Philosophy. New Haven & London: Yale University Press. pp. 34–5. ISBN 0300067720. 
  9. Diderot, D. (2007), Pensees Philosophiques, Addition aux Pensees Philosophiques, [Flammarion], p. 68, ISBN 978-2-0807-1249-3 .
  10. For an example of property dualism, see Qualia.
  11. Noting that materialism does not necessitate the possibility of artificial minds (for example, Roger Penrose), any more than dualism necessarily precludes the possibility. (See, for example, Property dualism.)
  12. Ayer, A. J. (2001), «Language, Truth and Logic», Nature (Penguin) 138 (3498): 140, Bibcode:1936Natur.138..823G, ISBN 0-334-04122-8, doi:10.1038/138823a0 .
  13. The Dartmouth conferences of 1956 are widely considered the "birth of AI". (Crevier, 1993, p. 49)
  14. McCorduck, 2004, p. 95.
  15. Copeland, 2003, p. 1.
  16. Copeland, 2003, p. 2.
  17. "Intelligent Machinery" (1948) was not published by Turing, and did not see publication until 1968 in:
    • Evans, A. D. J.; Robertson (1968), Cybernetics: Key Papers, University Park Press .
  18. Turing, 1948, p. 412.
  19. En 1948, trabajando con su antiguo compañero de universidad, DG Champernowne, Turing comenzó a escribir un programa de ajedrez para una computadora que aún no existía y, en 1952, careciendo de una computadora lo suficientemente poderosa para ejecutar el programa, jugó un juego en el que lo simuló, demorando aproximadamente media hora en cada movimiento. El juego fue grabado y el programa perdió frente al colega de Turing, Alick Glennie, aunque se dice que ganó un juego contra la esposa de Champernowne.
  20. Turing, 1948.
  21. Harnad, 2004, p. 1.
  22. Turing, 1950, p. 434.
  23. Shah, 2010.
  24. Turing, 1950, p. 446.
  25. Turing, 1952, pp. 524–525. Al parecer, Turing no distingue entre "hombre" como género y "hombre" como ser humano. En el primer caso, esta formulación estaría más cerca del juego de imitación, mientras que en el segundo se acercaría más a las descripciones actuales de la prueba.
  26. Weizenbaum, 1966, p. 37.
  27. Weizenbaum, 1966, p. 42.
  28. Thomas, 1995, p. 112.
  29. Bowden, 2006, p. 370.
  30. Colby et al., 1972, p. 42.
  31. Saygin, 2000, p. 501.
  32. Withers, Steven (11 de diciembre de 2007), «Flirty Bot Passes for Human», iTWire .
  33. Williams, Ian (10 de diciembre de 2007), «Online Love Seerkers Warned Flirt Bots», V3 .
  34. Searle, 1980.
  35. There are a large number of arguments against Searle's Chinese room. A few are:
    • [[Larry Hauser
    Larry Hauser|Hauser, Larry]] (1997), «Searle's Chinese Box: Debunking the Chinese Room Argument», Minds and Machines 7 (2): 199-226, doi:10.1023/A:1008255830248
     ..
    • Rehman, Warren. (19 de julio de 2009), , archivado desde el original el 19 de julio de 2010, consultado el 6 de junio de 2015 ..
    • Thornley, David H. (1997), , archivado desde el original el 26 de abril de 2009, consultado el 6 de junio de 2015 .
  36. M. Bishop & J. Preston (eds.) (2001) Essays on Searle's Chinese Room Argument. Oxford University Press.
  37. Saygin, 2000, p. 479.
  38. Lycan, William G. (1995). Consciousness (en inglés). MIT Press. ISBN 978-0-262-62096-3. Consultado el 27 de enero de 2020. 
  39. «GRIN - A.I. and Morality». www.grin.com (en inglés). Consultado el 27 de enero de 2020. 
  40. «Qualitative Experience in Machines « On the Human». nationalhumanitiescenter.org. Consultado el 27 de enero de 2020. 
  41. Sundman, 2003.
  42. Loebner, 1994.
  43. "Artificial Stupidity", 1992.
  44. Shapiro, 1992 and Shieber, 1994, amongst others.
  45. Shieber, 1994.
  46. Jabberwacky is discussed in Shah y Warwick, 2009a.
  47. «Prueba de Turing, on season 4, episode 3». Scientific American Frontiers. PBS. 1993–1994. desde el original el 2006. 
  48. Turing, 1950, p. 442.
  49. Shah, 2009.
  50. 2008 Loebner Prize.
    • Shah y Warwick (2010).
    • Results and report can be found in: «Can a machine think? – results from the 18th Loebner Prize contest», University of Reading ..
    • Transcripts can be found at «Loebner Prize», Loebner.net, consultado el 29 de marzo de 2009 .
  51. «Rules for the 20th Loebner Prize contest», Loebner.net .
  52. «Computer passes Turing Test for first time by convincing judges it is a 13-year-old boy». The Verge. Consultado el 8 de junio de 2014.  |sitioweb= y |publicación= redundantes (ayuda)
  53. «Turing Test success marks milestone in computing history». University of Reading. Consultado el 8 de junio de 2014. 
  54. http://www.washingtonpost.com/news/morning-mix/wp/2014/06/09/a-computer-just-passed-the-turing-test-in-landmark-trial/
  55. http://www.pcworld.com/article/2361220/computer-said-to-pass-turing-test-by-posing-as-a-teenager.html
  56. Debunking Eugene: Montreal cognitive scientist doubts UK university's Turing test claim CBC Canada "As It Happens" June 10, 2014
  57. Adam Mann (9 de junio de 2014). «That Computer Actually Got an F on the Turing Test». Wired. Consultado el 9 de junio de 2014. 
  58. Traiger, 2000.
  59. Saygin, 2008.
  60. Shah, 2011.
  61. Oppy, Graham & Dowe, David (2011) The Turing Test. Stanford Encyclopedia of Philosophy.
  62. Moor, 2003.
  63. Traiger, 2000, p. 99.
  64. Sterrett, 2000.
  65. Genova, 1994, Hayes y Ford, 1995, Heil, 1998, Dreyfus, 1979
  66. R.Epstein, G. Roberts, G. Poland, (eds.) Parsing the Turing Test: Philosophical and Methodological Issues in the Quest for the Thinking Computer. Springer: Dordrecht, Netherlands
  67. Thompson, Clive (16 de julio de 2005). «The Other Turing Test». Issue 13.07 (WIRED magazine). Consultado el 10 de septiembre de 2011. «As a gay man who spent nearly his whole life in the closet, Turing must have been keenly aware of the social difficulty of constantly faking your real identity. And there's a delicious irony in the fact that decades of AI scientists have chosen to ignore Turing's gender-twisting test – only to have it seized upon by three college-age women». . (Full version).
  68. Colby et al., 1972.
  69. Swirski, 2000.
  70. Saygin y Cicekli, 2002.
  71. Turing, 1950, under "Critique of the New Problem".
  72. Haugeland, 1985, p. 8.
  73. "These six disciplines," write Stuart J. Russell and Peter Norvig, "represent most of AI." Russell y Norvig, 2003, p. 3
  74. Watson:
    • , Sony Pictures, 16 de febrero de 2011, archivado desde el original el 22 de mayo de 2011, consultado el 6 de junio de 2015 .
    • Shah, Huma (5 de abril de 2011), Turing's misunderstood imitation game and IBM's Watson success .
  75. Urban, Tim (16 de febrero de 2015). «The AI Revolution: Our Immortality or Extinction». Wait But Why. Consultado el 5 de abril de 2015. 
  76. Smith, G. W. (27 de marzo de 2015). . ArtEnt. Archivado desde el original el 25 de junio de 2017. Consultado el 27 de marzo de 2015. 
  77. Turing, 1950, p. 448.
  78. Several alternatives to the Turing test, designed to evaluate machines more intelligent than humans:
    • Jose Hernandez-Orallo (2000), «Beyond the Turing Test», Journal of Logic, Language and Information 9 (4): 447-466, doi:10.1023/A:1008367325700, consultado el 21 de julio de 2009. .
    • D L Dowe and A R Hajek (1997), , Proceedings of the 4th Conference of the Australasian Cognitive Science Society, archivado desde el original el 28 de junio de 2011, consultado el 21 de julio de 2009. .
    • Shane Legg and Marcus Hutter (2007), (PDF), Minds and Machines 17 (4): 391-444, doi:10.1007/s11023-007-9079-x, archivado desde el original el 18 de junio de 2009, consultado el 21 de julio de 2009. .
    • Hernandez-Orallo, J; Dowe, D L (2010), «Measuring Universal Intelligence: Towards an Anytime Intelligence Test», Artificial Intelligence Journal 174 (18): 1508-1539, doi:10.1016/j.artint.2010.09.006. .
  79. Russell y Norvig (2003, pp. 958–960) identify Searle's argument with the one Turing answers.
  80. Turing, 1950.
  81. Shah y Warwick, 2010.
  82. Warwick,K. and Shah,H., "Human Misidentification in Turing Tests", Journal of Experimental and Theoretical Artificial Intelligence, DOI:10.1080/0952813X.2014.921734, 2014
  83. Shieber, 1994, p. 77.
  84. Russell y Norvig, 2003, p. 3.
  85. Turing, 1950, under the heading "The Imitation Game," where he writes, "Instead of attempting such a definition I shall replace the question by another, which is closely related to it and is expressed in relatively unambiguous words."
  86. [[John McCarthy (computer scientist) John McCarthy (computer scientist)|McCarthy, John]] (1996), «The Philosophy of Artificial Intelligence», What has AI in Common with Philosophy? .
  87. Bion, 1979.
  88. Hinshelwood, 2001.
  89. [[Jitendra Malik Jitendra Malik|Malik, Jitendra]]; Mori, Greg, Breaking a Visual CAPTCHA .
  90. McCorduck, 2004, pp. 503–505, Feigenbaum, 2003. The subject matter expert test is also mentioned in Kurzweil (2005)
  91. Russell y Norvig, 2010, p. 3.
  92. http://tech.groups.yahoo.com/group/arcondev/message/337
  93. [[Chris McKinstry Chris McKinstry|McKinstry, Chris]] (1997), «Minimum Intelligent Signal Test: An Alternative Turing Test», Canadian Artificial Intelligence (41) .
  94. D L Dowe and A R Hajek (1997), , Proceedings of the 4th Conference of the Australasian Cognitive Science Society, archivado desde el original el 28 de junio de 2011, consultado el 21 de julio de 2009. .
  95. Jose Hernandez-Orallo (2000), «Beyond the Turing Test», Journal of Logic, Language and Information 9 (4): 447-466, doi:10.1023/A:1008367325700, consultado el 21 de julio de 2009. .
  96. Hernandez-Orallo y Dowe, 2010.
  97. An Approximation of the Universal Intelligence Measure, Shane Legg and Joel Veness, 2011 Solomonoff Memorial Conference
  98. Alex_Pasternack (18 de abril de 2011). . Motherboard. Archivado desde el original el 6 de septiembre de 2011. Consultado el 12 de septiembre de 2011. «He calls it the "Ebert Test," after Turing's AI standard...» 
  99. http://www.loebner.net/Prizef/loebner-prize.html
  100. http://www.newscientist.com/article/dn19643-prizewinning-chatbot-steers-the-conversation.html
  101. Shane T. Mueller, PhD (2008), «Is the Turing Test Still Relevant? A Plan for Developing the Cognitive Decathlon to Test Intelligent Embodied Behavior», Paper submitted to the 19th Midwest Artificial Intelligence and Cognitive Science Conference: 8pp, consultado el 8 de septiembre de 2010 .
  102. Kurzweil, 1990.
  103. Kurzweil, 2005.
  104. Kapor, Mitchell; Kurzweil, Ray, «By 2029 no computer – or "machine intelligence" – will have passed the Turing Test», The Arena for Accountable Predictions: A Long Bet .
  105. Whitby, 1996, p. 53.
  106. , A.L.I.C.E. Artificial Intelligence Foundation, archivado desde el original el 16 de abril de 2009, consultado el 29 de marzo de 2009 .
  107. Loebner Prize 2008, University of Reading, consultado el 29 de marzo de 2009 .
  108. , Society for the Study of Artificial Intelligence and the Simulation of Behaviour, archivado desde el original el 18 de marzo de 2009, consultado el 29 de marzo de 2009 .
  109. , archivado desde el original el 11 de febrero de 2016, consultado el 6 de junio de 2015 .

Referencias

  • «Artificial Stupidity», The Economist 324 (7770), 1 de septiembre de 1992: 14 .
  • Bion, W.S. (1979), «Making the best of a bad job», Clinical Seminars and Four Papers, Abingdon: Fleetwood Press. .
  • Bowden, Margaret A. (2006), Mind As Machine: A History of Cognitive Science, Oxford University Press, ISBN 978-0-19-924144-6 .
  • Colby, K. M.; Hilf, F. D.; Weber, S.; Kraemer, H. (1972), «Turing-like indistinguishability tests for the validation of a computer simulation of paranoid processes», Artificial Intelligence 3: 199-221, doi:10.1016/0004-3702(72)90049-5 .
  • Copeland, Jack (2003), «The Turing Test», en Moor Moor, James James, ed., The Turing Test: The Elusive Standard of Artificial Intelligence (Springer), ISBN 1-4020-1205-5 .
  • Crevier, Daniel (1993), AI: The Tumultuous Search for Artificial Intelligence, New York, NY: BasicBooks, ISBN 0-465-02997-3 .
  • Dreyfus, Hubert (1979), What Computers Still Can't Do, New York: MIT Press, ISBN 0-06-090613-8 .
  • «Some challenges and grand challenges for computational intelligence», Journal of the ACM 50 (1), 2003: 32-40, doi:10.1145/602382.602400 .
  • Genova, J. (1994), «Turing's Sexual Guessing Game», Social Epistemology 8 (4): 314-326, doi:10.1080/02691729408578758 .
  • Harnad, Stevan (2004), «The Annotation Game: On Turing (1950) on Computing, Machinery, and Intelligence», en Epstein Epstein, Robert Robert; Peters, Grace, eds., The Turing Test Sourcebook: Philosophical and Methodological Issues in the Quest for the Thinking Computer, Klewer .
  • Haugeland, John (1985), Artificial Intelligence: The Very Idea, Cambridge, Mass.: MIT Press ..
  • Hayes, Patrick; Ford, Kenneth (1995), «Turing Test Considered Harmful», Proceedings of the Fourteenth International Joint Conference on Artificial Intelligence (IJCAI95-1), Montreal, Quebec, Canada.: 972-997 .
  • Heil, John (1998), Philosophy of Mind: A Contemporary Introduction, London and New York: Routledge, ISBN 0-415-13060-3 .
  • Hinshelwood, R.D. (2001), Group Mentality and Having a Mind: Reflections on Bion's work on groups and on psychosis .
  • Kurzweil, Ray (1990), The Age of Intelligent Machines, Cambridge, Mass.: MIT Press, ISBN 0-262-61079-5 .
  • Kurzweil, Ray (2005), The Singularity is Near, Penguin Books, ISBN 0-670-03384-7 .
  • Loebner, Hugh Gene (1994), «In response», Communications of the ACM 37 (6): 79-82, doi:10.1145/175208.175218, consultado el 22 de marzo de 2008 .
  • Plantilla:McCorduck 2004
  • Moor Moor, James James, ed. (2003), The Turing Test: The Elusive Standard of Artificial Intelligence, Dordrecht: Kluwer Academic Publishers, ISBN 1-4020-1205-5 .
  • Penrose, Roger (1989), The Emperor's New Mind: Concerning Computers, Minds, and The Laws of Physics, Oxford University Press, ISBN 0-14-014534-6 .
  • Plantilla:Cite AIMA
  • Russell, Stuart J.; Norvig, Peter (2010), Artificial Intelligence: A Modern Approach (3ª edición), Upper Saddle River, NJ: Prentice Hall, ISBN 0-13-604259-7 .
  • Saygin, A. P.; Cicekli, I.; Akman, V. (2000), , Minds and Machines 10 (4): 463-518, doi:10.1023/A:1011288000451, archivado desde el original el 9 de abril de 2011, consultado el 6 de junio de 2015 .. Reprinted in Moor (2003, pp. 23–78).
  • Saygin, A. P.; Cicekli, I. (2002), «Pragmatics in human-computer conversation», Journal of Pragmatics 34 (3): 227-258, doi:10.1016/S0378-2166(02)80001-7 ..
  • Saygin, A.P.; Roberts, Gary; Beber, Grace (2008), Comments on "Computing Machinery and Intelligence" by Alan Turing., en Epstein, R.; Roberts, G.; Poland, G., eds., «Parsing the Turing Test», Parsing the Turing Test: Philosophical and Methodological Issues in the Quest for the Thinking Computer (Dordrecht, Netherlands: Springer), Bibcode:2009pttt.book.....E, ISBN 978-1-4020-9624-2, doi:10.1007/978-1-4020-6710-5 .
  • Searle, John (1980), «Minds, Brains and Programs», Behavioral and Brain Sciences 3 (3): 417-457, doi:10.1017/S0140525X00005756 .. Page numbers above refer to a standard pdf print of the article. See also Searle's .
  • Shah, Huma (15 de enero de 2009), Winner of 2008 Loebner Prize for Artificial Intelligence, Conversation, Deception and Intelligence, consultado el 29 de marzo de 2009 ..
  • Shah, Huma (16 de octubre de 2010), Deception-detection and machine intelligence in practical Turing tests .
  • Shah, Huma (2011), Turing's Misunderstood Imitation Game and IBM's Watson Success .
  • Shah, Huma; Warwick, Kevin (2009a), «Emotion in the Turing Test: A Downward Trend for Machines in Recent Loebner Prizes», en Vallverdú, Jordi Jordi; Casacuberta, David, eds., Handbook of Research on Synthetic Emotions and Sociable Robotics: New Applications in Affective Computing and Artificial Intelligence, Information Science, IGI, ISBN 978-1-60566-354-8 .
  • Shah, Huma; Warwick, Kevin (16 de junio de 2010), «Hidden Interlocutor Misidentification in Practical Turing Tests», Minds and Machines 20 (3): 441-454, doi:10.1007/s11023-010-9219-6 .
  • Shah, Huma; Warwick, Kevin (16 de abril de 2010), «Testing Turing's Five Minutes Parallel-paired Imitation Game», Kybernetes Turing Test Special Issue 4 (3): 449, doi:10.1108/03684921011036178 .
  • Shapiro, Stuart C. (1992), «The Turing Test and the economist», ACM SIGART Bulletin 3 (4): 10-11, doi:10.1145/141420.141423 .
  • Shieber, Stuart M. (1994), «Lessons from a Restricted Turing Test», Communications of the ACM 37 (6): 70-78, doi:10.1145/175208.175217, consultado el 25 de marzo de 2008 .
  • Sterrett, S. G. (2000), «Turing's Two Test of Intelligence», Minds and Machines 10 (4): 541, doi:10.1023/A:1011242120015 . (reprinted in The Turing Test: The Elusive Standard of Artificial Intelligence edited by James H. Moor, Kluwer Academic 2003) ISBN 1-4020-1205-5
  • Sundman, John (26 de febrero de 2003), , Salon.com, archivado desde el original el 7 de marzo de 2008, consultado el 22 de marzo de 2008 .
  • Thomas, Peter J. (1995), The Social and Interactional Dimensions of Human-Computer Interfaces, Cambridge University Press, ISBN 0-521-45302-X .
  • Swirski, Peter (2000), Between Literature and Science: Poe, Lem, and Explorations in Aesthetics, Cognitive Science, and Literary Knowledge, McGill-Queen's University Press, ISBN 0-7735-2078-3 .
  • Traiger, Saul (2000), «Making the Right Identification in the Turing Test», Minds and Machines 10 (4): 561, doi:10.1023/A:1011254505902 . (reprinted in The Turing Test: The Elusive Standard of Artificial Intelligence edited by James H. Moor, Kluwer Academic 2003) ISBN 1-4020-1205-5
  • Turing, Alan (1948), «Machine Intelligence», en Copeland, B. Jack, ed., The Essential Turing: The ideas that gave birth to the computer age, Oxford: Oxford University Press, ISBN 0-19-825080-0 .
  • Plantilla:Turing 1950
  • Turing, Alan (1952), «Can Automatic Calculating Machines be Said to Think?», en Copeland, B. Jack, ed., The Essential Turing: The ideas that gave birth to the computer age, Oxford: Oxford University Press, ISBN 0-19-825080-0 .
  • Zylberberg, A.; Calot, E. (2007), «Optimizing Lies in State Oriented Domains based on Genetic Algorithms», Proceedings VI Ibero-American Symposium on Software Engineering: 11-18, ISBN 978-9972-2885-1-7 .
  • Weizenbaum, Joseph (16 de enero de 1966), «ELIZA – A Computer Program For the Study of Natural Language Communication Between Man And Machine», Communications of the ACM 9 (1): 36-45, doi:10.1145/365153.365168 .
  • Whitby, Blay (1996), «The Turing Test: AI's Biggest Blind Alley?», en Millican, Peter & Clark, Andy, ed., Machines and Thought: The Legacy of Alan Turing 1, Oxford University Press, pp. 53-62, ISBN 0-19-823876-2 .

Otras lecturas

  • Cohen, Paul R. (2006), , AI Magazine 26 (4), archivado desde el original el 8 de junio de 2011, consultado el 6 de junio de 2015 ..
  • Moor, James H. (2001), «The Status and Future of the Turing Test», Minds and Machines 11 (1): 77-93, ISSN 0924-6495, doi:10.1023/A:1011218925467. .

Enlaces externos

  •   Wikimedia Commons alberga una categoría multimedia sobre Prueba de Turing.
  • The Turing Test – an Opera by Julian Wagstaff
  • Prueba de Turing en Open Directory Project.
  • The Turing Test- How accurate could the turing test really be?
  • The Turing test en la Stanford Encyclopedia of Philosophy.
  • reviews a half-century of work on the Turing Test, from the vantage point of 2000.
  • Bet between Kapor and Kurzweil, including detailed justifications of their respective positions.
  • Why The Turing Test is AI's Biggest Blind Alley by Blay Witby
  • TuringHub.com Take the Turing Test, live, online
  • An AI chatterbot that learns from and imitates humans
  • New York Times essays on machine intelligence and [ part 2]
  • for the Turing Test.
  • Wiki News: "Talk:Computer professionals celebrate 10th birthday of A.L.I.C.E."
  • Computing Machinery and intelligence Artículo original de Turing (1950) en la revista Mind
  • ¿Qué es un CAPTCHA? Origen y uso. Vídeo que explica qué es un captcha y su relación con el test de Turing
  • Test de Turing y Conciencia Artificial. Vídeo sobre el test de Turing y su relación con la conciencia.
  • Un ordenador pasa por primera vez el test de Turing y convence a los jueces de que es humano, diario ABC, 10 de junio de 2014.
  •   Datos: Q189223
  •   Multimedia: Turing test

prueba, turing, para, otros, usos, este, término, véase, turing, desambiguación, prueba, turing, test, turing, examen, capacidad, máquina, para, exhibir, comportamiento, inteligente, similar, humano, indistinguible, este, alan, turing, propuso, humano, evaluar. Para otros usos de este termino vease Turing desambiguacion La prueba de Turing o test de Turing es un examen de la capacidad de una maquina para exhibir un comportamiento inteligente similar al de un ser humano o indistinguible de este Alan Turing propuso que un humano evaluara conversaciones en lenguaje natural entre un humano y una maquina disenada para generar respuestas similares a las de un humano El evaluador sabria que uno de los participantes de la conversacion es una maquina y los intervinientes serian separados unos de otros La conversacion estaria limitada a un medio unicamente textual como un teclado de computadora y un monitor por lo que seria irrelevante la capacidad de la maquina de transformar texto en habla 2 En el caso de que el evaluador no pueda distinguir entre el humano y la maquina acertadamente Turing originalmente sugirio que la maquina debia convencer a un evaluador despues de 5 minutos de conversacion el 70 del tiempo la maquina habria pasado la prueba Esta prueba no evalua el conocimiento de la maquina en cuanto a su capacidad de responder preguntas correctamente solo se toma en cuenta la capacidad de esta de generar respuestas similares a las que daria un humano La interpretacion estandar de la prueba de Turing en la cual la entidad C el interrogador le es dada la tarea de tratar de determinar que entidad A o B es una computadora y cual un ser humano El interrogador se limita a la utilizacion de las respuestas a las preguntas escritas para tomar la determinacion Imagen adaptada de Saygin 2000 1 Turing propuso esta prueba en su ensayo Computing Machinery and Intelligence de 1950 mientras trabajaba en la Universidad de Manchester Turing 1950 p 460 3 Inicia con las palabras Propongo que se considere la siguiente pregunta Pueden pensar las maquinas Como es dificil definir la palabra pensar Turing decide reemplazar la pregunta con otra que esta estrechamente relacionada y en palabras no ambiguas 4 la nueva pregunta de Turing es Existiran computadoras digitales imaginables que tengan un buen desempeno en el juego de imitacion 5 Turing creia que esta pregunta si era posible de responder y en lo que resta de su ensayo se dedica a argumentar en contra de las objeciones principales a la idea de que las maquinas pueden pensar 6 Desde que fue creada por Turing en 1950 la prueba ha demostrado ser altamente influyente y a la vez ampliamente criticada ademas de transformarse en un concepto importante en la filosofia de la inteligencia artificial 1 7 Indice 1 Historia 1 1 Contexto filosofico 1 2 Alan Turing 1 3 ELIZA y PARRY 1 4 La habitacion china 1 5 Premio Loebner 1 6 Competicion en la Universidad de Reading de 2014 2 Versiones de la prueba de Turing 2 1 Juego de la imitacion 2 2 Interpretacion estandar 2 3 Juego de la imitacion vs Prueba de Turing Estandar 2 4 Deberia saber el interrogador de la computadora 3 Fortalezas de la prueba 3 1 Tratabilidad y simplicidad 3 2 Variedad de temas 3 3 Enfasis en la inteligencia emocional y estetica 4 Debilidades de la prueba 4 1 Inteligencia humana vs Inteligencia en general 4 1 1 Ciertos comportamientos inteligentes son inhumanos 4 2 Inteligencia real vs Inteligencia simulada 4 3 Ingenuidad de los interrogadores y la falacia antropomorfica 4 4 Errores en la identificacion humana 4 5 Irrelevancia e impractibilidad Turing y la investigacion de IA 5 Variantes de la prueba de Turing 5 1 Prueba de Turing en reversa y CAPTCHA 5 2 Pruebas de Turing Experta en la Materia 5 3 Prueba de Turing Total 5 4 Prueba de la Senal de Inteligencia Minima 5 5 Premio Hutter 5 6 Otras pruebas basadas en la compresion o Complejidad de Kolmogorov 5 7 Prueba de Ebert 6 Predicciones 7 Conferencias 7 1 Coloquio de Turing 7 2 Coloquio de Sistemas Conversacionales del 2005 7 3 Simposio de la Prueba de Turing IASC del 2008 7 4 Simposio de la Prueba de Turing IASC del 2010 7 5 El Ano de Turing y Turing100 en el 2012 7 6 Simposio de la Prueba de Turing IASC IACAP del 2012 8 Notas 9 Referencias 10 Otras lecturas 11 Enlaces externosHistoria EditarContexto filosofico Editar La incognita sobre la capacidad de las maquinas de pensar tiene una larga historia esta se divide entre las perspectivas materialista y dualista de la mente Rene Descartes tuvo ideas similares a la prueba de Turing en su texto Discurso del Metodo 1637 donde escribio que los automatas son capaces de reaccionar ante interacciones humanas pero argumenta que tal automata carece de la capacidad de responder de manera adecuada ante lo que se diga en su presencia de la misma manera que un humano podria Por lo tanto Descartes abre las puertas para la prueba de Turing al identificar la insuficiencia de una respuesta linguistica apropiada lo que separa al humano del automata Descartes no llega a considerar que una respuesta linguistica apropiada puede ser producida por un automata del futuro y por lo tanto no propone el test de Turing como tal aunque ya razono los criterios y el marco conceptual Cuantos automatas diferentes o maquinas moviles se pueden construir por la industria del hombre Podemos comprender con facilidad el hecho de que una maquina sea disenada para pronunciar palabras incluso responder ante acciones tangibles que produzca un cambio en sus organos por ejemplo si se le tocara de una manera particular no preguntaria que le queremos decir si se le toca en otra parte puede decir que se le esta lastimando entre otras cosas Pero nunca sucede que pueda ordenar su habla en distintas maneras para responder apropiadamente ante todo lo que se diga en su presencia de la misma manera que la clase mas baja de humanos puede hacerlo 8 Denis Diderot plantea en su Pensees philosophiques un criterio de la prueba de Turing Si se encuentra un loro que puede responder a todo se le consideraria un ser inteligente sin duda alguna 9 Esto no significa que el este de acuerdo pero muestra que ya era un argumento comun usado por los materialistas de la epoca Segun el dualismo la mente no tiene un estado fisico o al menos cuenta con propiedades no fisicas 10 y por lo tanto no se puede explicar en terminos estrictamente fisicos De acuerdo con el materialismo la mente puede ser explicada fisicamente lo que abre la posibilidad a la creacion de mentes artificiales 11 En 1936 el filosofo Alfred Ayer consideraba la pregunta filosofica tipica sobre otras mentes Como sabemos que otras personas experimentan el mismo nivel de conciencia que nosotros En su libro Lenguaje Verdad y Logica Ayer propuso un metodo para distinguir entre un hombre consciente y una maquina inconsciente El unico argumento que tengo para asegurar que lo que parece ser consciente no es un ser consciente sino un muneco o una maquina es el hecho de que falle en las pruebas empiricas por medio de las cuales se determina la presencia o ausencia de la conciencia 12 Es una propuesta muy similar a la prueba de Turing pero esta se enfoca en la conciencia en vez de en la inteligencia Ademas se desconoce si Turing estaba familiarizado con el clasico filosofico de Ayer En otras palabras algo no esta consciente si reprueba una prueba de consciencia Alan Turing Editar Articulo principal Alan Turing La inteligencia maquinaria ha sido un tema que investigadores del Reino Unido han seguido desde 10 anos antes de que se fundara el campo de investigacion de la inteligencia artificial IA en 1956 13 Era un tema comunmente discutido por los miembros del Club de la razon grupo informal de investigadores ciberneticos y electronicos britanicos que incluia a Alan Turing 14 Turing en particular habia estado trabajando con el concepto de la inteligencia maquinaria desde al menos 1941 15 una de las primeras menciones de la inteligencia computacional fue hecha por Turing en 1947 16 En el reporte de Turing llamado maquinaria inteligente 17 el investigo la idea de si era o no posible para una maquina demostrar un comportamiento inteligente 18 y como parte de su investigacion propuso lo que se puede considerar como un predecesor de sus pruebas futuras No es dificil disenar una maquina de papel que juegue bien ajedrez 19 Hay que conseguir 3 hombres como sujetos para el experimento A B y C A y C son dos jugadores malos de ajedrez mientras que B es el operador de la maquina Se usan dos cuartos con algun arreglo para transmitir los movimientos y se lleva a cabo un juego entre C y ya sea A o la maquina C puede tener dificultad al decidir contra quien esta jugando 20 El primer texto publicado escrito por Turing y enfocado completamente en la inteligencia de las maquinas fue Computing Machinery and Intelligence Turing inicia este texto diciendo Me propongo tomar en cuenta la pregunta Pueden pensar las maquinas 4 Turing menciona que el acercamiento tradicional es empezar con definiciones de los terminos maquina e inteligencia decide ignorar esto y empieza reemplazando la pregunta con una nueva que esta estrechamente relacionada y en palabras no ambiguas 4 El propone en esencia cambiar la pregunta de pueden las maquinas pensar a Pueden las maquinas hacer lo que nosotros como entidades pensantes hacemos 21 La ventaja de esta nueva pregunta es que dibuja un limite entre las capacidades fisicas e intelectuales del hombre 22 Para demostrar este acercamiento Turing propone una prueba inspirada en el Juego de imitacion en este entraban un hombre y una mujer a cuartos separados y el resto de los jugadores intentaria distinguir entre cada uno por medio de preguntas y leyendo las respuestas escritas a maquina en voz alta El objetivo del juego es que los participantes que se encuentran en los cuartos deben convencer al resto que son el otro Huma Shah argumenta que Turing incluye la explicacion de este juego para introducir al lector a la prueba de pregunta y respuesta entre humano y maquina 23 Turing describe su version del juego de la siguiente manera Nos hacemos la pregunta Que pasaria si una maquina toma el papel de A en este juego Se equivocaria tan frecuentemente el interrogador en esta nueva version del juego que cuando era jugado por un hombre y una mujer Estas preguntas sustituyen la pregunta original Pueden pensar las maquinas 22 Mas adelante en el texto se propone una version similar en la que un juez conversa con una computadora y un hombre 24 A pesar de que ninguna de las versiones propuestas es la misma que conocemos hoy en dia Turing propuso una tercera opcion la cual discutio en una transmision de radio de la BBC donde un jurado le hace preguntas a una computadora y el objetivo de la computadora es enganar a la mayoria del jurado haciendolo creer que es un humano 25 El texto de Turing consideraba nueve objeciones putativas las cuales incluyen a todos los argumentos mayores en contra de la inteligencia artificial que habian surgido en los anos posteriores a la publicacion de su texto ver Computing Machinery and Intelligence 6 ELIZA y PARRY Editar En 1966 Joseph Weizenbaum creo un programa que aseguraba pasar la prueba de Turing Este programa era conocido como ELIZA y funcionaba a traves del analisis de las palabras escritas por el usuario en busca de palabras clave En el caso de encontrar una palabra clave una regla que transformaba el comentario del usuario entra en accion y se regresaba una oracion resultado Si no se encontraba alguna palabra clave ELIZA daba una respuesta generica o repetia uno de los comentarios anteriores 26 Ademas Weizenbaum desarrollo a ELIZA para replicar el comportamiento de un psicoterapeuta Rogeriano lo que permitia a ELIZA asumir el rol de alguien que no conoce nada del mundo real 27 El programa fue capaz de enganar a algunas personas haciendolas creer que hablaban con una persona real e incluso algunos sujetos fueron muy dificiles de convencerles de que ELIZA no era humana 27 Como resultado ELIZA es aclamado como uno de los programas probablemente el primero en pasar la prueba de Turing 27 28 aunque esto es muy controvertido ver mas adelante PARRY fue creado por Kenneth Colby en 1972 Era un programa descrito como ELIZA con caracter 29 Este intentaba simular el comportamiento de un esquizofrenico paranoico usando un acercamiento similar probablemente mas avanzado al de Weizenbaum PARRY fue examinado usando una variacion de la prueba de Turing con tal de validar el trabajo Un grupo de psiquiatras experimentados analizaba a un grupo de pacientes reales y computadoras ejecutando el programa PARRY a traves de teletipos A otro grupo de 33 psiquiatras se les ensenaban transcripciones de las conversaciones A ambos grupos se les pedia indicar que pacientes eran humanos y cuales eran computadoras 30 Los psiquiatras fueron capaces de responder correctamente solo 48 de las veces un valor consistente con respuestas aleatorias 31 En el siglo XXI versiones de estos programas llamados bots conversacionales siguieron enganando a la gente CyberLover un programa de malware acechaba a usuarios convenciendolos de revelar informacion sobre sus identidades o de entrar a un sitio web que introduciria malware a sus equipos 32 El programa surgio como un riesgo de San Valentin coqueteando con la gente buscando relaciones en linea para recabar informacion personal 33 La habitacion china Editar Articulo principal Habitacion china El texto Minds Brains and Programs de 1980 escrito por John Searle proponia el experimento de la habitacion china y argumentaba que la prueba de Turing no podia usarse para determinar si una maquina podia pensar Searle observo que software como ELIZA podia aprobar la prueba de Turing a traves de la manipulacion de caracteres que no habia entendido Sin la comprension no se les puede clasificar realmente como pensantes de la misma manera que los humanos por lo tanto Searle concluyo que la prueba de Turing no puede probar que una maquina puede pensar 34 Al igual que la prueba de Turing el argumento de Searle ha sido ampliamente criticado 35 al igual que respaldado 36 Argumentos como los de Searle en la filosofia de mente desataron un debate mas intenso sobre la naturaleza de la inteligencia la posibilidad de maquinas inteligentes y el valor de la prueba de Turing que continuo durante las decadas de los 80s y 90s 37 El filosofo fisicalista William Lycan reconocio el avance de las inteligencias artificiales comenzando a comportarse como si tuvieran mentes Lycan usa el experimento mental de un robot humanoide llamado Harry que puede conversar jugar golf tocar la viola escribir poesia y por consiguiente consigue enganar a la gente como si fuera una persona con mente Si Harry fuera humano seria perfectamente natural pensar que tiene pensamientos o sentimientos lo que sugeriria que en realidad Harry pueda tener pensamientos o sentimientos aun si es un robot 38 39 Para Lycan no hay ningun problema ni objecion a la experiencia cualitativa en maquinas que no es igualmente un dilema para tal experiencia en humanos 40 ver Problema de otras mentes Premio Loebner Editar Articulo principal Premio Loebner El Premio Loebner proporciona una plataforma anual para pruebas de Turing practicas siendo la primera competicion en noviembre de 1991 41 Creada por Hugh Loebner el Centro de Estudios Conductuales de Cambridge en Massachusetts Estados Unidos organizo los premios hasta el ano 2003 incluido Loebner dijo que un motivo por el que se creo la competicion era para avanzar el estado de la investigacion de IA al menos en parte ya que no se habia intentado implementar la prueba de Turing despues de 40 anos de discusion 42 La primera competicion del Premio Loebner en 1991 llevo a una discusion renovada sobre la viabilidad de la prueba de Turing y el valor de continuar persiguiendola en la prensa 43 y en la academia 44 El primer concurso lo gano un programa inconsciente sin ninguna inteligencia identificable que logro enganar a interrogadores ingenuos Esto saco a la luz muchas de las deficiencias de la prueba de Turing discutido mas adelante El programa gano gracias a que fue capaz de imitar errores humanos al escribir 43 los interrogadores poco sofisticados fueron facilmente enganados 44 y algunos investigados de IA sintieron que la prueba es una distraccion de investigaciones mas fructiferas 45 Los premios de plata unicamente textual y de oro visual y aural no han sido ganados a la fecha sin embargo la competicion ha entregado la medalla de bronce cada ano al sistema computacional que segun la opinion de los jueces demuestra el comportamiento conversacional mas humano entre los otros participantes A L I C E Artificial Linguistic Internet Computer Entity ha ganado el premio de bronce en 3 ocasiones recientes 2000 2001 y 2004 La IA aprendiz Jabberwacky gano en el ano 2005 y nuevamente en el 2006 46 El Premio Loebner evalua la inteligencia conversacional los ganadores son tipicamente bots conversacionales Las reglas de las primeras instancias de la competicion restringian las conversaciones cada programa participante y un humano escondido conversaban de un solo tema 47 y los interrogadores estaban limitados a una sola pregunta por cada interaccion con la entidad Las conversaciones restringidas fueron eliminadas en la competicion de 1995 La interaccion entre el evaluador y la entidad ha variado en las diferentes instancias del Premio Loebner En el Premio Loebner de 2003 en la Universidad de Surrey cada interrogador tenia permitido interactuar con la entidad por 5 minutos fuera humana o maquina Entre 2004 y 2007 la interaccion permitida era de mas de 20 minutos En 2008 la interaccion permitida era de 5 minutos por par porque el organizador Kevin Warwick y el coordinador Huma Shah consideraban que esta debia ser la duracion de cualquier prueba por como Turing lo puso en su texto de 1950 la correcta identificacion despues de 5 minutos de cuestionamientos 48 Ellos sentian que las pruebas largas implementadas anteriormente eran inapropiadas para el estado de las tecnologias conversacionales artificiales 49 Es ironico que la competicion del 2008 fue ganada por Elbot de Artificial Solutions esta no simulaba una personalidad humana sino la de un robot y aun asi logro enganar a tres jueces humanos de que era el humano actuando como robot 50 Durante la competicion del 2009 Con sede en Brighton Reino Unido la interaccion permitida era de 10 minutos por ronda 5 minutos para hablar con la maquina y 5 minutos para hablar con el humano Se implemento de esta manera para probar la lectura alternativa sobre la prediccion de Turing que la interaccion de 5 minutos debia ser con la computadora Para la competicion del 2010 el patrocinador aumento el tiempo de interaccion entre interrogador y sistema a 25 minutos 51 Competicion en la Universidad de Reading de 2014 Editar El 7 de junio de 2014 se realizo una competicion de la prueba de Turing organizada por Kevin Warwick y Huma Shah para el 60 aniversario de la muerte de Turing y fue llevado a cabo en la Real Sociedad de Londres Fue ganada por el robot conversacional ruso Eugene Goostman El robot durante una serie de conversaciones de 5 minutos de duracion logro convencer al 33 de los jueces del concurso de que era humano John Sharkley se incluia entre los jueces patrocinador del proyecto de ley que promueve el perdon gubernamental a Turing al profesor de IA Aaron Sloman y Robert Llewellyn actor de Enano Rojo 52 53 54 55 Los organizadores de la competicion creyeron que la prueba habia sido aprobada por primera vez en el evento diciendo algunos diran que la prueba ya ha sido pasada Las palabras Prueba de Turing han sido aplicadas a competiciones similares alrededor del mundo Sin embargo este evento involucra mas pruebas simultaneas de comparacion al mismo tiempo como nunca antes visto fue independientemente verificado y crucialmente no se restringieron las conversaciones Una prueba de Turing verdades no establece las preguntas ni los temas de las conversaciones 53 La competicion ha enfrentado criticas 56 primero solo un tercio de los jueces fue enganado por la computadora Segundo el personaje de computadora aparentaba ser una nina ucraniana de 13 anos de edad que aprendio ingles como segundo lenguaje El premio requeria que un 30 de los jueces fuera enganado lo que concuerda con el texto de Turing Computing Machinery and Intelligence Joshua Tenenbaum experto en psicologia matematica en el MIT califico el resultado como nada impresionante 57 Versiones de la prueba de Turing Editar El juego de la imitacion como descrito por Alan Turing en Computing Machinery and Intelligence El jugador C por medio de preguntas escritas intenta determinar cual de los otros dos jugadores es mujer y cual hombre El jugador A el hombre trata de enganar al jugador C para que yerre su decision mientras que el jugador B trata de ayudarlo Figura adaptada de Saygin 2000 Saul Traigner argumenta que hay al menos 3 versiones primarias de la prueba de Turing de las cuales dos son propuestas en Computing Machinery and Intelligence y otra que el describe como la interpretacion estandar 58 A pesar de que hay controversia en cuanto a si esta interpretacion estandar fue descrita por Turing o si esta basada en la mala interpretacion del texto estas tres versiones no se clasifican como equivalentes 58 y sus fortalezas y debilidades son diferentes 59 Huma Shah senala el hecho de que el mismo Turing estaba consternado con la posibilidad de que una maquina pudiera pensar y estaba proporcionando un metodo simple para examinar esto a traves de sesiones de pregunta y respuesta entre humano y maquina 60 Shah argumenta que existe un juego de imitacion que Turing pudo haber puesto en practica de dos maneras diferentes a una prueba uno a uno entre el interrogador y la maquina o b una comparacion simultanea entre un humano y una maquina interrogados paralelamente por un mismo interrogador 23 Debido a que la prueba de Turing evalua la indistinguibilidad en su capacidad de desempeno la version verbal naturalmente generaliza a toda la capacidad humana verbal y no verbal robotica 61 Juego de la imitacion Editar El juego original descrito por Turing proponia un juego de fiesta que involucraba a tres jugadores El jugador A es un hombre el jugador B es una mujer y el jugador C quien tiene el rol de interrogador es de cualquier sexo En el juego el jugador C no tiene contacto visual con ninguno de los otros jugadores y se puede comunicar con ellos por medio de notas escritas Al hacerles preguntas a los jugadores el jugador C intenta determinar cual de los dos es el hombre y cual la mujer El jugador A intentara enganar al interrogador haciendole escoger erroneamente mientras que el jugador B le auxiliara al interrogador en escoger al jugador correcto 1 Sterret se refiere a este juego como La Prueba del Juego Original De La Imitacion 62 Turing propuso que el rol del jugador A lo cumpliera una computadora para que esta tuviera que pretender ser mujer e intentara guiar al interrogador a la respuesta incorrecta El exito de la computadora seria determinado al comparar el resultado del juego cuando el jugador A es la computadora junto con el resultado del juego cuando el jugador A es un hombre Turing afirmo que si el interrogador decide erroneamente tan frecuentemente cuando el juego es jugado con la computadora como cuando el juego es jugado entre un hombre y una mujer 22 se podra argumentar que la computadora es inteligente La prueba del Juego Original de la Imitacion en la cual el jugador A es reemplazado con una computadora La computadora tiene el papel de un hombre mientras el jugador B tiene el papel de auxiliar al interrogador Figura adaptada de Saygin 2000 La segunda version aparecio posteriormente en el texto de 1950 de Turing Similarmente a la Prueba del Juego Original de la Imitacion el papel del jugador A seria realizado por una computadora Sin embargo el papel del jugador B seria realizado por un hombre y no una mujer Dirijamos nuestra atencion a una computadora digital en especifico llamada C Sera verdad que al modificar la computadora para que esta tenga un almacenamiento que aumentara su velocidad de reaccion apropiadamente y proporcionandole un programa apropiado C podra realizar satisfactoriamente el rol de A en el juego de la imitacion con el papel de B hecho por un hombre 22 En esta version ambos el jugador A la computadora y el jugador B intentaran guiar al interrogador hacia la respuesta incorrecta Interpretacion estandar Editar La comprension general dicta que el proposito de la prueba de Turing no es determinar especificamente si una computadora podra enganar al interrogador haciendole creer que este es un humano sino su capacidad de imitar al humano 1 Aunque hay cierta disputa sobre cual interpretacion es a la que Turing se referia Sterret cree que era esta 62 y por lo tanto combina la segunda version con esta mientras que otros como Traiger no lo hacen 58 sin embargo esto no ha llevado a una interpretacion estandar realmente En esta version el jugador A es una computadora y el sexo del jugador B es indiferente El objetivo del interrogador no es determinar cual de ellos es hombre y cual mujer sino cual es computadora y cual humano 63 El problema fundamental con la interpretacion estandar es que el interrogador no puede diferenciar cual respondedor es humano y cual es una maquina Hay otros problemas en cuanto a la duracion pero la interpretacion estandar generalmente considera esta limitacion como algo que deberia ser razonable Juego de la imitacion vs Prueba de Turing Estandar Editar Se ha creado controversia sobre cual de las formulas alternativas es la que Turing planteo 62 Sterret argumenta que se pueden obtener dos pruebas de la lectura del texto de Turing de 1950 y que segun Turing no son equivalentes Se le refiere a la prueba que consiste del juego de fiesta y compara frecuencias de exito como la Prueba del Juego de la Imitacion Original mientras que a la prueba que consiste de un juez humano conversando con un humano y una maquina se le conoce Prueba Estandar de Turing notese que Sterret trata por igual a esta con la interpretacion estandar en vez de tratarle como la segunda version del juego de la imitacion Sterret concuerda que la Prueba Estandar de Turing PET tiene los problemas que sus criticas citan pero siente que en contraste la Prueba del Juego de la Imitacion Original Prueba JIO mostro ser inmune a muchas de estas debido a una diferencia crucial A diferencia de la PET esta no hace similitud con el desempeno humano aunque emplea al desempeno humano al definir criterio para la inteligencia de la maquina Un humano puede reprobar la Prueba de JIO pero se argumenta que esta prueba es de inteligencia y el hecho de reprobar solo indica falta de creatividad La Prueba JIO requiere la creatividad asociada con la inteligencia y no la sola simulacion del comportamiento conversacional humano La estructura general de la Prueba JIO puede ser usada con versiones no verbales de juegos de imitacion 64 Otros escritores 65 continuan interpretando la propuesta de Turing como el mismo juego de la imitacion sin especificar como tomar en cuenta la declaracion de Turing de que la prueba que el propuso usando la version festiva del juego de la imitacion esta basada en un criterio de comparacion de frecuencias de exito en el juego en vez de la capacidad de ganar en tan solo una ronda Saygin sugirio que probablemente el juego original es una manera de proponer un diseno experimental menos parcial ya que esconde la participacion de la computadora 66 El juego de la imitacion incluye un truco social no encontrado en la interpretacion estandar ya que en el juego a ambos la computadora y el hombre se le requiere que pretendan ser alguien que no son 67 Deberia saber el interrogador de la computadora Editar Una pieza vital en cualquier prueba de laboratorio es la existencia de un control Turing nunca aclara si el interrogador en sus pruebas esta al tanto de que uno de los participantes es una computadora Sin embargo si hubiera una maquina que tuviera el potencial de pasar la prueba de Turing seria mejor asumir que un control doble ciego es necesario Regresando al Juego Original de la Imitacion Turing establece que solo el jugador A sera reemplazado con una maquina no que el jugador C este al tanto de este cambio 22 Cuando Colby FD Hilf S Weber y AD Kramer examinaron a PARRY lo hicieron asumiendo que los interrogadores no necesitaban saber que uno o mas de los interrogados era una computadora 68 Como Ayse Saygin Peter Swirski 69 y otros han resaltado esto hace una gran diferencia en la implementacion y el resultado de la prueba 1 Un estudio experimental examinando violaciones a las maximas conversacionales de Grice usando transcripciones de los ganadores de la prueba interlocutor escondido e interrogador uno a uno entre 1994 y 1999 Ayse Saygin observo diferencias significativas entre las respuestas de los participante que sabian que habia computadoras involucradas y los que no 70 Huma Shah y Kevin Warwick quienes organizaron el Premio Loebner del 2008 en la Universidad de Reading la cual fue sede de pruebas de comparativas simultaneas un juez y dos interlocutores escondidos demostraron que el conocimiento sobre los interlocutores no creo una diferencia significativa en la determinacion de los jueces A estos jueces no se les dijo explicitamente la naturaleza de las parejas de interlocutores escondidos que iban a interrogar Los jueces fueron capaces de diferenciar entre humano y maquina inclusivamente cuando estaban enfrentandose a parejas de control de dos maquinas o dos humanos infiltrados entre las parejas de maquina y humano Los errores de ortografia delataban a los humanos escondidos las maquinas eran identificadas por su velocidad de respuesta y expresiones de mayor tamano 50 Fortalezas de la prueba EditarTratabilidad y simplicidad Editar El poder y atractivo de la prueba de Turing se deriva de su simplicidad La filosofia de la mente la psicologia y la neurociencia moderna han sido incapaces de proporcionar definiciones para inteligencia y pensamiento que sean suficientemente precisas y generales como para ser aplicadas a maquinas Sin estas definiciones las incognitas principales de la filosofia de la inteligencia artificial no pueden ser respondidas La prueba de Turing aunque imperfecta al menos proporciona algo que puede ser medido y como tal es una solucion pragmatica a una dificil pregunta filosofica Variedad de temas Editar El formato de la prueba permite al interrogador darle una gran variedad de tareas intelectuales a la maquina Turing escribio que Los metodos de pregunta y respuesta parecen ser adecuados para introducir cualquiera de los campos de labor humana que queramos incluir 71 John Haugeland agrego la comprension de las palabras no es suficiente tambien se tiene que entender el tema 72 Para aprobar una prueba de Turing disenada correctamente la maquina debe usar lenguaje natural razon tener conocimientos y aprender La prueba puede ser extendida para incluir video como fuente de informacion junto con una escotilla por la que se pueden transferir objetos esto forzaria a la maquina a probar su habilidad de vision y de robotica al mismo tiempo En conjunto representan casi todos los problemas que la investigacion de inteligencia artificial quisiera resolver 73 La prueba de Feigenbaum esta disenada para usar a su ventaja el rango de temas disponibles para una prueba de Turing Es una forma limitada del juego de respuesta y pregunta de Turing el cual compara a la maquina contra la habilidad de expertos en campos especificos como la literatura y la quimica La maquina Watson de IBM alcanzo el exito en un show de television que hacia preguntas de conocimiento humano a concursantes humanos y a la maquina por igual y al mismo tiempo llamado Jeopardy 74 Enfasis en la inteligencia emocional y estetica Editar Siendo un graduado de matematicas con honores de Cambridge se esperaba que Turing propusiera una prueba de inteligencia computacional que requiriera conocimiento experto de algun campo altamente tecnico y como resultado necesitaria anticipar un acercamiento diferente En vez de eso la prueba que describio en su texto de 1950 solo requiere que la computadora sea capaz de competir exitosamente en un juego de fiestas comun con esto se refiere a que pueda compararse su desempeno con el de un humano tipico al responder series de preguntas para aparentar ser la participante femenina Dado el estatus de dimorfismo sexual humano como uno de los temas mas antiguos se tiene implicito en el escenario anterior que las preguntas realizadas no pueden involucrar conocimientos factuales especializados ni tecnicos de procesamiento de informacion El reto para la computadora sera exhibir empatia por el papel de la mujer al igual que demostrar una caracteristica de sensibilidad estetica cualidades las cuales se muestran en este extracto imaginado por Turing Interrogador Podria X decirme el largo de su cabello Participante Mi cabello esta en capas y las hebras mas largas son de aproximadamente 9 pulgadas de largo Cuando Turing introduce algo de conocimiento especializado a sus dialogos imaginarios el tema no es matematicas ni electronica sino poesia Interrogador En la primera linea de tu soneto se lee Podre compararla con un dia de verano acaso no funcionaria un dia de primavera de igual o mejor manera Testigo No funcionaria Interrogador Que tal un dia de invierno Eso deberia funcionar Testigo Si pero nadie quiere ser comparado con un dia de invierno Turing nuevamente demuestra su interes en la empatia y en la sensibilidad estetica como componente de la inteligencia artificial y en luz de una preocupacion creciente de una IA en descontrol 75 se ha sugerido 76 que este enfoque puede representar una intuicion critica por parte de Turing i e que la inteligencia y estetica jugaran un rol clave en la creacion de una IA amigable Sin embargo se ha observado que cualquiera que sea la direccion en la que Turing nos inspire depende de la preservacion de su vision original o sea la promulgacion de una Interpretacion Estandar de la prueba de Turing i e una que se enfoque unicamente en la inteligencia discursiva debe ser tomada con precaucion Debilidades de la prueba EditarTuring no afirmo explicitamente que la prueba de Turing podia ser usada como una medida de la inteligencia o de cualquier otra cualidad humana El queria proporcionar una alternativa clara y comprensible a la palabra pensar que posteriormente se pudiera usar para responder ante las criticas sobre la posibilidad de maquinas pensantes y sugerir formas para que la investigacion siga avanzando Sin embargo se ha propuesto el uso de la prueba de Turing como una medida de la capacidad para pensar o de la inteligencia de una maquina Esta propuesta ha recibido las criticas de filosofos y cientificos de la computacion Esta asume que un interrogador puede determinar si una maquina es pensante al comparar su comportamiento con el de un humano Cada elemento de esta asuncion ha sido cuestionado la confiabilidad del juicio del interrogador el valor de comparar unicamente el comportamiento y el valor de comparar a la maquina con el humano es por estas asunciones y otras consideraciones que algunos investigadores de IA cuestionan la relevancia de la prueba de Turing en el campo Inteligencia humana vs Inteligencia en general Editar La prueba de Turing no evalua directamente si una computadora se comporta inteligentemente solo si se comporta como un ser humano Ya que el comportamiento humano y un comportamiento inteligente no son exactamente iguales la prueba puede errar al medir precisamente la inteligencia de dos maneras Ciertos comportamientos humanos no son inteligentes La prueba de Turing requiere que la maquina despliegue todos los comportamientos humanos sin importar el hecho de que sean inteligentes o no Incluso examina en busqueda de comportamientos que consideramos en lo absoluto inteligentes Entre ellos se encuentra la susceptibilidad a insultos la tentacion de mentir o simplemente errores de escritura Si una maquina falla al imitar estos comportamientos no inteligentes reprobaria la prueba Esta objecion fue sacada a la luz en una publicacion en The Economist titulada Artificial Stupidity Estupidez artificial en ingles poco despues de la primera competencia del Premio de Loebner en 1992 El articulo afirmaba que el ganador de la competencia fue en parte por la habilidad de la maquina de imitar errores humanos de escritura 43 El mismo Turing sugirio que los programas anadieran errores a la informacion que transmitian para parecer jugadores del juego 77 Ciertos comportamientos inteligentes son inhumanos Editar La prueba de Turing no examina comportamientos altamente inteligentes como lo son la habilidad de resolver problemas dificiles o la ocurrencia de ideas originales De hecho requiere especificamente decepcion por parte del interrogador si la maquina es mas inteligente que un humano esta debe aparentar no ser demasiado inteligente Si resolviera un problema computacional que es practicamente imposible para un ser humano el interrogador sabria que no es humano y como resultado la computadora reprobaria la prueba Como no se puede medir la inteligencia que esta mas alla de la humana la prueba no puede ser usada para construir o evaluar sistemas que son mas inteligentes que los humanos Por esto se han propuesto varias pruebas alternativas capaces de evaluar un sistema super inteligente 78 Inteligencia real vs Inteligencia simulada Editar Vease tambien Inteligencia sintetica La prueba de Turing evalua unica y estrictamente como se comporta el sujeto o sea el comportamiento externo de la maquina En cuanto a esto se toma una perspectiva conductista o fundamentalista al estudio de la inteligencia El ejemplo de ELIZA sugiere que una maquina que pase la prueba podria simular el comportamiento conversacional humano siguiendo una simple pero larga lista de reglas mecanicas sin pensar o tener mente en lo absoluto John Searle ha argumentado que el comportamiento externo no puede ser usado para determinar si una maquina esta realmente pensando o simplemente simulando el pensamiento 34 Su habitacion china pretende demostrar esto aunque la prueba de Turing sea una buena definicion operacional de la inteligencia no indica si la maquina tiene una mente conciencia o intencionalidad La intencionalidad es un termino filosofico para el poder de los pensamientos de ser sobre algo Turing anticipo esta critica en su texto original 79 escribiendo No deseo dar la impresion de que no creo en el misterio de la conciencia Hay por ejemplo algo paradojico conectado a cualquier intento de localizarla Pero no creo que estos misterios necesiten ser resueltos antes de poder responder la pregunta que tratamos en este texto 80 Ingenuidad de los interrogadores y la falacia antropomorfica Editar En la practica los resultados de la prueba pueden ser facilmente dominados no por la inteligencia de la computadora sino por las actitudes la habilidad o la ingenuidad del interrogador Turing no especifica las habilidades ni el conocimiento requeridos del integrador en la descripcion de su prueba pero si incluyo el termino interrogador promedio el interrogador promedio no debe tener mas del 70 de oportunidad de acertar en la identificacion despues de cinco minutos de cuestionamiento 48 Shah y Warwick 2009b demostraron que los expertos son enganados y que la estrategia poder vs solidaridad del interrogador influyen en la identificacion con la ultima siendo mas exitosa Los bots conversacionales como ELIZA han enganado en repetidas ocasiones a personas en creer que se comunican con seres humanos En este caso el interrogador no estaba al tanto de la posibilidad de que su interaccion fuera con una computadora Para aparentar ser un humano exitosamente no hay necesidad de que la maquina tenga inteligencia alguna solo se necesita una similitud superficial al comportamiento humano Las primeras competencias del Premio Loebner usaban interrogadores poco sofisticados que eran facilmente enganados por las maquinas 44 Desde el 2004 los organizadores del Premio Loebner han implementado filosofos cientificos de la computacion y periodistas entre los interrogadores Sin embargo algunos de estos expertos han sido enganados por las maquinas 81 Michael Shermer senala que los seres humanos consistentemente consideran objetos no humanos como humanos siempre que tenga la oportunidad de hacerlo un error llamado falacia antropomorfica hablan con sus vehiculos atribuyen deseos e intenciones a fuerzas naturales e g la naturaleza odia el vacio y veneran al solo como un ser humano con inteligencia Si la prueba de Turing se aplicara a objetos religiosos entonces las estatuas inanimadas rocas y lugares aprobarian consistentemente la prueba a lo largo de la historia segun Shermer cita requerida Esta tendencia humana hacia el antropomorfismo efectivamente reduce la exigencia a la prueba de Turing a menos que se le entrene a los interrogadores a evitarlo Errores en la identificacion humana Editar Una caracteristica interesante de la prueba de Turing es la frecuencia con la que investigadores confunden a los participantes humanos con maquinas 82 Se ha sugerido que esto es porque los investigadores buscan respuestas humanas esperadas en vez de respuestas tipicas Esto resulta en la categorizacion incorrecta de algunos individuos como maquinas lo que puede favorecer a esta Irrelevancia e impractibilidad Turing y la investigacion de IA Editar Los investigadores de IA famosos argumentan que el intentar pasar la prueba de Turing es una distraccion de las investigaciones mas fructiferas 83 La prueba no es un enfoque activo de investigacion academica o de esfuerzo comercial como Stuart Russel y Peter Norvig escribieron Los investigadores de IA han dedicado poca atencion a pasar la prueba de Turing 84 Hay varias razones para esto En primera hay formas mas faciles de probar un programa La mayoria de las investigaciones en los campos relacionados con la IA estan dedicados a metas mas especificas y modestas como la planificacion automatizada reconocimiento de objetos o logisticas Para probar la inteligencia de los programas al realizar estas tareas los investigadores simplemente les dan la tarea directamente Russell y Norvig propusieron una analogia con la historia del vuelo Los aviones son probados segun su habilidad para volar no comparandolos con aves Textos de Ingenieria Aeronautica mencionan no se debe definir la meta del campo como maquinas voladoras que vuelan tan parecidamente a las palomas que podrian enganar a estas 84 En segunda la creacion de simulaciones de humanos es un problema dificil que no necesita resolverse para cumplir las metas basicas de la investigacion de IA Caracteres humanos creibles son interesantes para una obra de arte un juego o una interfaz de usuario sofisticada pero no tienen lugar en la ciencia de la creacion de maquinas inteligentes que resuelven problemas con esta inteligencia Turing queria proporcionar un ejemplo claro y comprensible para ayudar en la discusion de la filosofia de la inteligencia artificial 85 John McCarthy menciona que la filosofia de IA es poco probable que tenga mas efecto en la practica de la investigacion de IA que la filosofia de la ciencia tienen en la practica de la ciencia 86 Variantes de la prueba de Turing EditarNumerosos versiones de la prueba de Turing incluidas las mencionadas anteriormente han sido debatidas a traves de los anos Prueba de Turing en reversa y CAPTCHA Editar Articulo principal CaptchaUna modificacion de la prueba de Turing donde los objetivos entre las maquinas y los humanos es una prueba de Turing en reversa Un ejemplo es empleado por el psicoanalista Wilfren Bion 87 quien tiene una fascinacion particular por la tormenta que resulto del encuentro de una mente por otra En su libro del 2000 69 entre otras ideas originales sobre la prueba de Turing Swirski discute a detalle lo que define como la Prueba de Swirski basicamente la prueba de Turing en reversa El senala que esta supera todas las objeciones comunes de la version estandar R D Hinshelwood 88 continuo con el desarrollo de esta idea al describir a la mente como un aparato para reconocer mentes El reto seria que la computadora determine si esta interactuando con un humano o con otra computadora Esta es una extension de la pregunta original que Turing intentaba responder y probablemente ofrece un estandar lo suficientemente alto para definir que una maquina puede pensar de la misma manera que nosotros describimos como humana CAPTCHA es una forma de la prueba de Turing en reversa Antes de ser capaz de realizar una accion en un sitio web se le presenta al usuario una serie de caracteres alfanumericos en una imagen distorsionada y se le pide que lo ingrese en un campo de texto Esto tiene como proposito la prevencion de la entrada de sistemas automatizados comunmente usados para el abuso del sitio web La razon detras de esto es que el software suficientemente sofisticado para leer y reproducir la imagen con precision no existe aun o no esta disponible para el usuario promedio por lo que cualquier sistema capaz de pasar la prueba debe ser humano El software capaz de solucionar CAPTCHA con precision al analizar patrones en la plataforma generadora esta siendo desarrollado activamente 89 Reconocimiento de Caracteres opticos o OCR por sus siglas en ingles se encuentra bajo en desarrollo como una solucion para la inaccesibilidad de sistemas de CAPTCHA para humanos con discapacidades Pruebas de Turing Experta en la Materia Editar Otra variacion es descrita como la variacion de la Prueba de Turing Experta en la Materia en la cual no se puede distinguir entre la respuesta de una maquina de una respuesta dada por un experto en la materia Se le conoce como la Prueba Feigenbaum y fue propuesta por Edward Feigenbaum en un texto del 2003 90 Prueba de Turing Total Editar La Prueba de Turing Total 61 es una variacion que anade requerimientos a la prueba tradicional El interrogador tambien evalua las capacidades de percepcion del sujeto requiriendo vision computacional y la habilidad del sujeto de manipular objetos requiriendo robotica 91 Prueba de la Senal de Inteligencia Minima Editar La Prueba de la Senal de Inteligencia Minima fue propuesta por Chris McKinstry como la abstraccion maxima de la prueba de Turing 92 en la cual solo se permiten entradas en binario verdadero falso o si no con el objetivo de enfocarse en la capacidad de pensar Se eliminan problemas de la conversacion textual como la parcialidad antropomorfa y no requiere la simulacion de comportamientos humanos no inteligentes permitiendole la entrada a sistemas que superan la inteligencia humana Las preguntas no dependen de otras sin embargo esto es similar a una prueba de CI que una interrogacion Tipicamente es usada para recolectar informacion estadistica contra la cual se mide el rendimiento de los programas de IA 93 Premio Hutter Editar Los organizadores del Premio Hutter creen que la compresion del lenguaje natural es un problema dificil para las inteligencias artificiales equivalente a pasar la prueba de Turing La prueba de compresion de informacion tiene ciertas ventajas sobre la mayoria de las versiones de la prueba de Turing incluyendo Da un unico numero que puede ser usado directamente para comparar cual de las dos maquinas en mas inteligente No requiere que la computadora le mienta al juez Las desventajas principales de esta prueba son No es posible evaluar a los humanos de esta manera Se desconoce que puntuacion de esta prueba equivale a pasar la prueba de Turing Otras pruebas basadas en la compresion o Complejidad de Kolmogorov Editar Un acercamiento similar al del Premio Hutter que aparecio mucho antes al final de la decada de los noventa es la inclusion de problemas de compresion en una prueba de Turing extendida 94 o por pruebas completamente derivadas de la Complejidad de Kolmogorov 95 Otras pruebas relacionadas son presentadas por Hernandez Orallo y Dowe 96 CI algoritmico o CIA es un intento de convertir la teorica Medida de la Inteligencia universal de Legg y Hutter basada en la indiferencia inductiva de Solomonoff en una prueba practica funcional de la inteligencia de las maquinas 97 Dos de las mayores ventajas de estas pruebas son su aplicabilidad a inteligencias no humanas y la ausencia de la necesidad de interrogadores humanos Prueba de Ebert Editar La prueba de Turing inspiro la prueba de Ebert propuesta en el 2011 por el critico de cine Robert Ebert la cual evalua si una voz sintetizada por computadora es capaz de producir las entonaciones inflexiones la sincronizacion entre otras cosas para hacer a la gente reir 98 Predicciones EditarTuring predijo que las maquinas pasarian la prueba eventualmente de hecho el estimaba que para el ano 2000 las maquinas con al menos 100 MB de almacenamiento podrian enganar a un 30 de los jueces humanos en una prueba de 5 minutos y que la gente no consideraria la frase maquina pensante como contradictoria 4 En la practica desde 2009 a 2012 los robots conversacionales que participaron en el Premio Loebner solo lograron enganar una vez a un juez 99 y esto era debido a que el participante humano pretendia ser un robot conversacional 100 Turing tambien predijo que el aprendizaje de las maquinas serian una parte esencial al construir maquinas poderosas esta afirmacion se considera posible en la actualidad por los investigadores en IA 48 En un texto del 2008 enviado a la decimonovena Conferencia de Inteligencia Artificial y Ciencia Cognitiva del Medio Oeste el doctor Shane T Mueller predijo que una variante de la prueba de Turing llamada Decatlon Cognitivo seria completada en 5 anos 101 Al extrapolar el crecimiento exponencial de la tecnologia a lo largo de varias decadas el futurista Ray Kurzweil predijo que las maquinas que aprobaran la prueba de Turing serian fabricadas en el futuro proximo En 1990 Kurzweil definio este futuro proximo alrededor del ano 2020 102 para el 2005 cambio su estimado para el ano 2029 103 El proyecto Long Bet Project Nr 1 es una apuesta de 20 000 USD entre Mitch Kapor pesimista y Ray Kurzweil optimista sobre la posibilidad de que una maquina pase la prueba de Turing para el ano 2029 Durante la prueba de Turing de Long Now cada uno de los tres jueces realizara entrevistas a cada uno de los cuatro participantes p e la computadora y tres humanos durante dos horas para un total de 8 horas de entrevistas La apuesta especifica condiciones a detalle 104 Conferencias EditarColoquio de Turing Editar El ano 1990 marco el 40 aniversario de la primera publicacion del texto de Turing Computing Machinery and Intelligence por lo que se reavivo el interes en este Dos eventos importantes se llevaron a cabo ese ano el primero fue el Coloquio de Turing con sede en la Universidad de Sussex en abril este reunio a academicos e investigadores de disciplinas diferentes para discutir sobre la Prueba de Turing en cuanto a su pasado presente y futuro el segundo evento fue la competencia anual del Premio Loebner Blay Whitby en listo 4 puntos clave en la historia de la prueba de Turing siendo esto la publicacion de Computing Machinery and Intelligence en 1950 el anuncio de ELIZA en 1966 por Joseph Weizenbaum la creacion de PARRY por Kenneth Colby y el Coloquio de Turing de 1990 105 Coloquio de Sistemas Conversacionales del 2005 Editar En noviembre de 2005 la Universidad de Surrey fue sede de una junta de desarrolladores de entidades conversacionales artificiales 106 a la que atendieron los ganadores del Premio Loebner Robby Garner Richard Wallace y Rollo Carpenter Oradores invitados incluyeron a David Hamill Hugh Loebner patrocinador del Premio Loebner Huma Shah Simposio de la Prueba de Turing IASC del 2008 Editar En paralelo con el Premio Loebner del 2008 con sede en la Universidad de Reading 107 la Sociedad para el Estudio de la Inteligencia Artificial y la Simulacion del Comportamiento IASC fueron anfitriones de un simposio dedicado a discutir la Prueba de Turing fue organizado por John Barnden Mark Bishop Huma Shah y Kevin Warwick 108 Los oradores incluian al director de la Institucion Real Susan Greenfield Selmer Bringsjord Andrew Hodges biografo de Turing y Owen Holland cientifico de la conciencia No se llego a un acuerdo para una prueba de Turing canonica pero Bringsjord senalo que un premio mayor resultaria en la aprobacion de la prueba de Turing mas rapidamente Simposio de la Prueba de Turing IASC del 2010 Editar 60 anos despues de su introduccion el debate sobre el experimento de Turing sobre si Pueden las maquinas pensar llevo a su reconsideracion para la Convencion de AISB del Siglo XXI llevada a cabo del 29 de marzo al 1 de abril de 2010 en la Universidad De Monthfort Reino unido La IASC es la Sociedad para el Estudio de la Inteligencia Artificial y la Simulacion del Comportamiento 109 El Ano de Turing y Turing100 en el 2012 Editar A lo largo del 2012 una cantidad considerable de eventos para celebrar la vida de Turing y su impacto cientifico se llevaron a cabo El grupo Turing100 apoyo estos eventos y organizo una prueba de Turing especial en Bletchley Park el 23 de junio de 2012 para celebrar el aniversario numero 100 del natalicio de Turing Simposio de la Prueba de Turing IASC IACAP del 2012 Editar Las ultimas discusiones sobre la Prueba de Turing en un simposio con 11 oradores organizada por Vincent C Muller ACT y Oxford y Aladdin Ayeshm De Montfort con Mark Bishop John Barnden Alessio Piebe y Pietro Perconti Notas Editar a b c d e Saygin 2000 Turing originally suggested a teleprinter one of the few text only communication systems available in 1950 Turing 1950 p 433 http www turing org uk scrapbook test html a b c d Turing 1950 p 433 Turing 1950 p 442 Turing does not call his idea Turing test but rather the Imitation Game however later literature has reserved the term Imitation game to describe a particular version of the test See Versions of the Turing test below Turing gives a more precise version of the question later in the paper T hese questions are equivalent to this Let us fix our attention on one particular digital computer C Is it true that by modifying this computer to have an adequate storage suitably increasing its speed of action and providing it with an appropriate programme C can be made to play satisfactorily the part of A in the imitation game the part of B being taken by a man Turing 1950 p 442 a b Turing 1950 pp 442 454 and see Russell y Norvig 2003 p 948 where they comment Turing examined a wide variety of possible objections to the possibility of intelligent machines including virtually all of those that have been raised in the half century since his paper appeared Russell y Norvig 2003 pp 2 3 and 948 Descartes Rene 1996 Discourse on Method and Meditations on First Philosophy New Haven amp London Yale University Press pp 34 5 ISBN 0300067720 Diderot D 2007 Pensees Philosophiques Addition aux Pensees Philosophiques Flammarion p 68 ISBN 978 2 0807 1249 3 For an example of property dualism see Qualia Noting that materialism does not necessitate the possibility of artificial minds for example Roger Penrose any more than dualism necessarily precludes the possibility See for example Property dualism Ayer A J 2001 Language Truth and Logic Nature Penguin 138 3498 140 Bibcode 1936Natur 138 823G ISBN 0 334 04122 8 doi 10 1038 138823a0 The Dartmouth conferences of 1956 are widely considered the birth of AI Crevier 1993 p 49 McCorduck 2004 p 95 Copeland 2003 p 1 Copeland 2003 p 2 Intelligent Machinery 1948 was not published by Turing and did not see publication until 1968 in Evans A D J Robertson 1968 Cybernetics Key Papers University Park Press Turing 1948 p 412 En 1948 trabajando con su antiguo companero de universidad DG Champernowne Turing comenzo a escribir un programa de ajedrez para una computadora que aun no existia y en 1952 careciendo de una computadora lo suficientemente poderosa para ejecutar el programa jugo un juego en el que lo simulo demorando aproximadamente media hora en cada movimiento El juego fue grabado y el programa perdio frente al colega de Turing Alick Glennie aunque se dice que gano un juego contra la esposa de Champernowne Turing 1948 Harnad 2004 p 1 a b c d e Turing 1950 p 434 a b Shah 2010 Turing 1950 p 446 Turing 1952 pp 524 525 Al parecer Turing no distingue entre hombre como genero y hombre como ser humano En el primer caso esta formulacion estaria mas cerca del juego de imitacion mientras que en el segundo se acercaria mas a las descripciones actuales de la prueba Weizenbaum 1966 p 37 a b c Weizenbaum 1966 p 42 Thomas 1995 p 112 Bowden 2006 p 370 Colby et al 1972 p 42 Saygin 2000 p 501 Withers Steven 11 de diciembre de 2007 Flirty Bot Passes for Human iTWire Williams Ian 10 de diciembre de 2007 Online Love Seerkers Warned Flirt Bots V3 a b Searle 1980 There are a large number of arguments against Searle s Chinese room A few are Larry Hauser Larry Hauser Hauser Larry 1997 Searle s Chinese Box Debunking the Chinese Room Argument Minds and Machines 7 2 199 226 doi 10 1023 A 1008255830248 Rehman Warren 19 de julio de 2009 Argument against the Chinese Room Argument archivado desde el original el 19 de julio de 2010 consultado el 6 de junio de 2015 Thornley David H 1997 Why the Chinese Room Doesn t Work archivado desde el original el 26 de abril de 2009 consultado el 6 de junio de 2015 M Bishop amp J Preston eds 2001 Essays on Searle s Chinese Room Argument Oxford University Press Saygin 2000 p 479 Lycan William G 1995 Consciousness en ingles MIT Press ISBN 978 0 262 62096 3 Consultado el 27 de enero de 2020 GRIN A I and Morality www grin com en ingles Consultado el 27 de enero de 2020 Qualitative Experience in Machines On the Human nationalhumanitiescenter org Consultado el 27 de enero de 2020 Sundman 2003 Loebner 1994 a b c Artificial Stupidity 1992 a b c Shapiro 1992 and Shieber 1994 amongst others Shieber 1994 Jabberwacky is discussed in Shah y Warwick 2009a Prueba de Turing on season 4 episode 3 Scientific American Frontiers PBS 1993 1994 Archivado desde el original el 2006 a b c Turing 1950 p 442 Shah 2009 a b 2008 Loebner Prize Shah y Warwick 2010 Results and report can be found in Can a machine think results from the 18th Loebner Prize contest University of Reading Transcripts can be found at Loebner Prize Loebner net consultado el 29 de marzo de 2009 Rules for the 20th Loebner Prize contest Loebner net Computer passes Turing Test for first time by convincing judges it is a 13 year old boy The Verge Consultado el 8 de junio de 2014 sitioweb y publicacion redundantes ayuda a b Turing Test success marks milestone in computing history University of Reading Consultado el 8 de junio de 2014 http www washingtonpost com news morning mix wp 2014 06 09 a computer just passed the turing test in landmark trial http www pcworld com article 2361220 computer said to pass turing test by posing as a teenager html Debunking Eugene Montreal cognitive scientist doubts UK university s Turing test claim CBC Canada As It Happens June 10 2014 Adam Mann 9 de junio de 2014 That Computer Actually Got an F on the Turing Test Wired Consultado el 9 de junio de 2014 a b c Traiger 2000 Saygin 2008 Shah 2011 a b Oppy Graham amp Dowe David 2011 The Turing Test Stanford Encyclopedia of Philosophy a b c Moor 2003 Traiger 2000 p 99 Sterrett 2000 Genova 1994 Hayes y Ford 1995 Heil 1998 Dreyfus 1979 R Epstein G Roberts G Poland eds Parsing the Turing Test Philosophical and Methodological Issues in the Quest for the Thinking Computer Springer Dordrecht Netherlands Thompson Clive 16 de julio de 2005 The Other Turing Test Issue 13 07 WIRED magazine Consultado el 10 de septiembre de 2011 As a gay man who spent nearly his whole life in the closet Turing must have been keenly aware of the social difficulty of constantly faking your real identity And there s a delicious irony in the fact that decades of AI scientists have chosen to ignore Turing s gender twisting test only to have it seized upon by three college age women Full version Colby et al 1972 a b Swirski 2000 Saygin y Cicekli 2002 Turing 1950 under Critique of the New Problem Haugeland 1985 p 8 These six disciplines write Stuart J Russell and Peter Norvig represent most of AI Russell y Norvig 2003 p 3 Watson Watson Wins Jeopardy The IBM Challenge Sony Pictures 16 de febrero de 2011 archivado desde el original el 22 de mayo de 2011 consultado el 6 de junio de 2015 Shah Huma 5 de abril de 2011 Turing s misunderstood imitation game and IBM s Watson success Urban Tim 16 de febrero de 2015 The AI Revolution Our Immortality or Extinction Wait But Why Consultado el 5 de abril de 2015 Smith G W 27 de marzo de 2015 Art and Artificial Intelligence ArtEnt Archivado desde el original el 25 de junio de 2017 Consultado el 27 de marzo de 2015 Turing 1950 p 448 Several alternatives to the Turing test designed to evaluate machines more intelligent than humans Jose Hernandez Orallo 2000 Beyond the Turing Test Journal of Logic Language and Information 9 4 447 466 doi 10 1023 A 1008367325700 consultado el 21 de julio de 2009 D L Dowe and A R Hajek 1997 A computational extension to the Turing Test Proceedings of the 4th Conference of the Australasian Cognitive Science Society archivado desde el original el 28 de junio de 2011 consultado el 21 de julio de 2009 Shane Legg and Marcus Hutter 2007 Universal Intelligence A Definition of Machine Intelligence PDF Minds and Machines 17 4 391 444 doi 10 1007 s11023 007 9079 x archivado desde el original el 18 de junio de 2009 consultado el 21 de julio de 2009 Hernandez Orallo J Dowe D L 2010 Measuring Universal Intelligence Towards an Anytime Intelligence Test Artificial Intelligence Journal 174 18 1508 1539 doi 10 1016 j artint 2010 09 006 Russell y Norvig 2003 pp 958 960 identify Searle s argument with the one Turing answers Turing 1950 Shah y Warwick 2010 Warwick K and Shah H Human Misidentification in Turing Tests Journal of Experimental and Theoretical Artificial Intelligence DOI 10 1080 0952813X 2014 921734 2014 Shieber 1994 p 77 a b Russell y Norvig 2003 p 3 Turing 1950 under the heading The Imitation Game where he writes Instead of attempting such a definition I shall replace the question by another which is closely related to it and is expressed in relatively unambiguous words John McCarthy computer scientist John McCarthy computer scientist McCarthy John 1996 The Philosophy of Artificial Intelligence What has AI in Common with Philosophy Bion 1979 Hinshelwood 2001 Jitendra Malik Jitendra Malik Malik Jitendra Mori Greg Breaking a Visual CAPTCHA McCorduck 2004 pp 503 505 Feigenbaum 2003 The subject matter expert test is also mentioned in Kurzweil 2005 Russell y Norvig 2010 p 3 http tech groups yahoo com group arcondev message 337 Chris McKinstry Chris McKinstry McKinstry Chris 1997 Minimum Intelligent Signal Test An Alternative Turing Test Canadian Artificial Intelligence 41 D L Dowe and A R Hajek 1997 A computational extension to the Turing Test Proceedings of the 4th Conference of the Australasian Cognitive Science Society archivado desde el original el 28 de junio de 2011 consultado el 21 de julio de 2009 Jose Hernandez Orallo 2000 Beyond the Turing Test Journal of Logic Language and Information 9 4 447 466 doi 10 1023 A 1008367325700 consultado el 21 de julio de 2009 Hernandez Orallo y Dowe 2010 An Approximation of the Universal Intelligence Measure Shane Legg and Joel Veness 2011 Solomonoff Memorial Conference Alex Pasternack 18 de abril de 2011 A MacBook May Have Given Roger Ebert His Voice But An iPod Saved His Life Video Motherboard Archivado desde el original el 6 de septiembre de 2011 Consultado el 12 de septiembre de 2011 He calls it the Ebert Test after Turing s AI standard http www loebner net Prizef loebner prize html http www newscientist com article dn19643 prizewinning chatbot steers the conversation html Shane T Mueller PhD 2008 Is the Turing Test Still Relevant A Plan for Developing the Cognitive Decathlon to Test Intelligent Embodied Behavior Paper submitted to the 19th Midwest Artificial Intelligence and Cognitive Science Conference 8pp consultado el 8 de septiembre de 2010 Kurzweil 1990 Kurzweil 2005 Kapor Mitchell Kurzweil Ray By 2029 no computer or machine intelligence will have passed the Turing Test The Arena for Accountable Predictions A Long Bet Whitby 1996 p 53 ALICE Anniversary and Colloquium on Conversation A L I C E Artificial Intelligence Foundation archivado desde el original el 16 de abril de 2009 consultado el 29 de marzo de 2009 Loebner Prize 2008 University of Reading consultado el 29 de marzo de 2009 AISB 2008 Symposium on the Turing Test Society for the Study of Artificial Intelligence and the Simulation of Behaviour archivado desde el original el 18 de marzo de 2009 consultado el 29 de marzo de 2009 Towards a Comprehensive Intelligence Test TCIT Reconsidering the Turing Test for the 21st Century Symposium archivado desde el original el 11 de febrero de 2016 consultado el 6 de junio de 2015 Referencias Editar Artificial Stupidity The Economist 324 7770 1 de septiembre de 1992 14 Bion W S 1979 Making the best of a bad job Clinical Seminars and Four Papers Abingdon Fleetwood Press Bowden Margaret A 2006 Mind As Machine A History of Cognitive Science Oxford University Press ISBN 978 0 19 924144 6 Colby K M Hilf F D Weber S Kraemer H 1972 Turing like indistinguishability tests for the validation of a computer simulation of paranoid processes Artificial Intelligence 3 199 221 doi 10 1016 0004 3702 72 90049 5 Copeland Jack 2003 The Turing Test en Moor Moor James James ed The Turing Test The Elusive Standard of Artificial Intelligence Springer ISBN 1 4020 1205 5 Crevier Daniel 1993 AI The Tumultuous Search for Artificial Intelligence New York NY BasicBooks ISBN 0 465 02997 3 Dreyfus Hubert 1979 What ComputersStillCan t Do New York MIT Press ISBN 0 06 090613 8 Some challenges and grand challenges for computational intelligence Journal of the ACM 50 1 2003 32 40 doi 10 1145 602382 602400 Genova J 1994 Turing s Sexual Guessing Game Social Epistemology 8 4 314 326 doi 10 1080 02691729408578758 Harnad Stevan 2004 The Annotation Game On Turing 1950 on Computing Machinery and Intelligence en Epstein Epstein Robert Robert Peters Grace eds The Turing Test Sourcebook Philosophical and Methodological Issues in the Quest for the Thinking Computer Klewer Haugeland John 1985 Artificial Intelligence The Very Idea Cambridge Mass MIT Press Hayes Patrick Ford Kenneth 1995 Turing Test Considered Harmful Proceedings of the Fourteenth International Joint Conference on Artificial Intelligence IJCAI95 1 Montreal Quebec Canada 972 997 Heil John 1998 Philosophy of Mind A Contemporary Introduction London and New York Routledge ISBN 0 415 13060 3 Hinshelwood R D 2001 Group Mentality and Having a Mind Reflections on Bion s work on groups and on psychosis Kurzweil Ray 1990 The Age of Intelligent Machines Cambridge Mass MIT Press ISBN 0 262 61079 5 Kurzweil Ray 2005 The Singularity is Near Penguin Books ISBN 0 670 03384 7 Loebner Hugh Gene 1994 In response Communications of the ACM 37 6 79 82 doi 10 1145 175208 175218 consultado el 22 de marzo de 2008 Plantilla McCorduck 2004 Moor Moor James James ed 2003 The Turing Test The Elusive Standard of Artificial Intelligence Dordrecht Kluwer Academic Publishers ISBN 1 4020 1205 5 Penrose Roger 1989 The Emperor s New Mind Concerning Computers Minds and The Laws of Physics Oxford University Press ISBN 0 14 014534 6 Plantilla Cite AIMA Russell Stuart J Norvig Peter 2010 Artificial Intelligence A Modern Approach 3ª edicion Upper Saddle River NJ Prentice Hall ISBN 0 13 604259 7 Saygin A P Cicekli I Akman V 2000 Turing Test 50 Years Later Minds and Machines 10 4 463 518 doi 10 1023 A 1011288000451 archivado desde el original el 9 de abril de 2011 consultado el 6 de junio de 2015 Reprinted in Moor 2003 pp 23 78 Saygin A P Cicekli I 2002 Pragmatics in human computer conversation Journal of Pragmatics 34 3 227 258 doi 10 1016 S0378 2166 02 80001 7 Saygin A P Roberts Gary Beber Grace 2008 Comments on Computing Machinery and Intelligence by Alan Turing en Epstein R Roberts G Poland G eds Parsing the Turing Test Parsing the Turing Test Philosophical and Methodological Issues in the Quest for the Thinking Computer Dordrecht Netherlands Springer Bibcode 2009pttt book E ISBN 978 1 4020 9624 2 doi 10 1007 978 1 4020 6710 5 Searle John 1980 Minds Brains and Programs Behavioral and Brain Sciences 3 3 417 457 doi 10 1017 S0140525X00005756 Page numbers above refer to a standard pdf print of the article See also Searle s original draft Shah Huma 15 de enero de 2009 Winner of 2008 Loebner Prize for Artificial Intelligence Conversation Deception and Intelligence consultado el 29 de marzo de 2009 Shah Huma 16 de octubre de 2010 Deception detection and machine intelligence in practical Turing tests Shah Huma 2011 Turing s Misunderstood Imitation Game and IBM s Watson Success Shah Huma Warwick Kevin 2009a Emotion in the Turing Test A Downward Trend for Machines in Recent Loebner Prizes en Vallverdu Jordi Jordi Casacuberta David eds Handbook of Research on Synthetic Emotions and Sociable Robotics New Applications in Affective Computing and Artificial Intelligence Information Science IGI ISBN 978 1 60566 354 8 Shah Huma Warwick Kevin 16 de junio de 2010 Hidden Interlocutor Misidentification in Practical Turing Tests Minds and Machines 20 3 441 454 doi 10 1007 s11023 010 9219 6 Shah Huma Warwick Kevin 16 de abril de 2010 Testing Turing s Five Minutes Parallel paired Imitation Game Kybernetes Turing Test Special Issue 4 3 449 doi 10 1108 03684921011036178 Shapiro Stuart C 1992 The Turing Test and the economist ACM SIGART Bulletin 3 4 10 11 doi 10 1145 141420 141423 Shieber Stuart M 1994 Lessons from a Restricted Turing Test Communications of the ACM 37 6 70 78 doi 10 1145 175208 175217 consultado el 25 de marzo de 2008 Sterrett S G 2000 Turing s Two Test of Intelligence Minds and Machines 10 4 541 doi 10 1023 A 1011242120015 reprinted in The Turing Test The Elusive Standard of Artificial Intelligence edited by James H Moor Kluwer Academic 2003 ISBN 1 4020 1205 5 Sundman John 26 de febrero de 2003 Artificial stupidity Salon com archivado desde el original el 7 de marzo de 2008 consultado el 22 de marzo de 2008 Thomas Peter J 1995 The Social and Interactional Dimensions of Human Computer Interfaces Cambridge University Press ISBN 0 521 45302 X Swirski Peter 2000 Between Literature and Science Poe Lem and Explorations in Aesthetics Cognitive Science and Literary Knowledge McGill Queen s University Press ISBN 0 7735 2078 3 Traiger Saul 2000 Making the Right Identification in the Turing Test Minds and Machines 10 4 561 doi 10 1023 A 1011254505902 reprinted in The Turing Test The Elusive Standard of Artificial Intelligence edited by James H Moor Kluwer Academic 2003 ISBN 1 4020 1205 5 Turing Alan 1948 Machine Intelligence en Copeland B Jack ed The Essential Turing The ideas that gave birth to the computer age Oxford Oxford University Press ISBN 0 19 825080 0 Plantilla Turing 1950 Turing Alan 1952 Can Automatic Calculating Machines be Said to Think en Copeland B Jack ed The Essential Turing The ideas that gave birth to the computer age Oxford Oxford University Press ISBN 0 19 825080 0 Zylberberg A Calot E 2007 Optimizing Lies in State Oriented Domains based on Genetic Algorithms Proceedings VI Ibero American Symposium on Software Engineering 11 18 ISBN 978 9972 2885 1 7 Weizenbaum Joseph 16 de enero de 1966 ELIZA A Computer Program For the Study of Natural Language Communication Between Man And Machine Communications of the ACM 9 1 36 45 doi 10 1145 365153 365168 Whitby Blay 1996 The Turing Test AI s Biggest Blind Alley en Millican Peter amp Clark Andy ed Machines and Thought The Legacy of Alan Turing 1 Oxford University Press pp 53 62 ISBN 0 19 823876 2 Otras lecturas EditarCohen Paul R 2006 If Not Turing s Test Then What AI Magazine 26 4 archivado desde el original el 8 de junio de 2011 consultado el 6 de junio de 2015 Moor James H 2001 The Status and Future of the Turing Test Minds and Machines 11 1 77 93 ISSN 0924 6495 doi 10 1023 A 1011218925467 Enlaces externos Editar Wikimedia Commons alberga una categoria multimedia sobre Prueba de Turing Turing Test Page The Turing Test an Opera by Julian Wagstaff Prueba de Turing en Open Directory Project The Turing Test How accurate could the turing test really be The Turing test en la Stanford Encyclopedia of Philosophy Turing Test 50 Years Later reviews a half century of work on the Turing Test from the vantage point of 2000 Bet between Kapor and Kurzweil including detailed justifications of their respective positions Why The Turing Test is AI s Biggest Blind Alley by Blay Witby TuringHub com Take the Turing Test live online Jabberwacky com An AI chatterbot that learns from and imitates humans New York Times essays on machine intelligence part 1 and part 2 Computer Science Unplugged teaching activity for the Turing Test Wiki News Talk Computer professionals celebrate 10th birthday of A L I C E Computing Machinery and intelligence Articulo original de Turing 1950 en la revista Mind Que es un CAPTCHA Origen y uso Video que explica que es un captcha y su relacion con el test de Turing Test de Turing y Conciencia Artificial Video sobre el test de Turing y su relacion con la conciencia Un ordenador pasa por primera vez el test de Turing y convence a los jueces de que es humano diario ABC 10 de junio de 2014 Datos Q189223 Multimedia Turing testObtenido de https es wikipedia org w index php title Prueba de Turing amp oldid 136300504, wikipedia, wiki, leyendo, leer, libro, biblioteca,

español

, española, descargar, gratis, descargar gratis, mp3, video, mp4, 3gp, jpg, jpeg, gif, png, imagen, música, canción, película, libro, juego, juegos