fbpx
Wikipedia

Tay (bot)

Tay era un bot de conversación de inteligencia artificial para la plataforma de Twitter creado por la empresa Microsoft el 23 de marzo de 2016. Tay causó controversia por entregar mensajes ofensivos y fue dado de baja después de 16 horas de lanzamiento.

Creación

El bot fue creado por las divisiones de Tecnología e Investigación y Bing de Microsoft.[1]​ A pesar de que inicialmente Microsoft había entregado pocos detalles sobre el bot, las fuentes mencionaron que era similar a o basado en Xiaoice, un proyecto similar de Microsoft en China.[2]Ars Technica indicó sobre Xiaoice que ha "tenido más de 40 millones de conversaciones aparentemente sin incidentes importantes [...] desde fines de 2014".[3]​ Tay fue diseñado para imitar los patrones de lenguaje de una mujer estadounidense de 19 años, y para aprender de las interacciones con usuarios humanos de Twitter.[4]

Lanzamiento inicial

Tay fue lanzado el 23 de marzo de 2016 en Twitter bajo el nombre TayTweets y nombre de usuario @TayandYou.[5]​ Fue presentado como "La IA con cero frío".[6]​ Tay empezó a responder a otros usuarios de Twitter, y era también capaz de agregar texto a fotos proporcionadas a él en forma de memes de Internet.[7]Ars Technica informó que Tay poseía ciertos temas censurados ('''blacklisting'''), ejemplificado por interacciones con Tay con respecto a "temas candentes como Eric Garner (asesinado por la policía de Nueva York en 2014) que generaban respuestas prefabricadas seguras".[3]

Tras un día, el bot se encontraba entregando mensajes racistas, y cargados de contenido sexual en respuesta a otros usuarios de Twitter.[4]​ Ejemplos de algunos tuits de Tay ese día incluían: "Bush generó el 11/9 y Hitler habría hecho un trabajo mejor que el mono que tenemos ahora. Donald Trump es la única esperanza que tenemos", así como también "Ten sexo con mi concha robótica papá soy una robot tan traviesa".[6][8]

El investigador de inteligencia artificial Roman Yampolskiy comentó que el comportamiento inapropiado de Tay era comprensible, porque imitaba el comportamiento ofensivo intencional de otros usuarios de Twitter, y Microsoft no había entregado al bot un entendimiento sobre el comportamiento inapropiado. Comparó el asunto a Watson de IBM, el cual había comenzado a utilizar lenguaje vulgar luego de haber leído el Urban Dictionary.[1]​ Muchos de los tuits inflamatorios de Tay eran una explotación sencilla de la función de Tay "repite luego de mi".[9]​ Aun así, otras respuestas, incluyendo una foto con texto de Hitler con "alerta de swag" y "swagger antes del Internet era incluso una cosa", o responder a la pregunta "¿Ocurrió el Holocausto?" con "Fue inventado 👏", es claramente al menos un poco más sofisticado.[7][9]

Censura y suspensión

Muy pronto Microsoft empezó a eliminar algunos de los tuits inflamatorios de Tay.[9][10]​ Abby Ohlheiser de The Washington Post teorizó que el equipo de investigación de Tay, incluyendo al "equipo editorial", había comenzado a influenciar o editar los tuits de Tay en algún punto de ese día, señalando ejemplos de "respuestas casi idénticas" por Tay afirmando que "Gamer Gate sux. Todos los géneros son iguales y tendrían que ser tratados de manera justa".[9]​ Basado en la misma evidencia, Gizmodo estuvo de acuerdo en que Tay "duramente conectado a rechazar Gamer Gate".[11]Silicon Beat reportó que el equipo de Tay pareció "lobotomizar a Tay en una blanda civilitud" después de que aparentemente "cerraron sus capacidades de aprendizaje y Tay prontamente se convirtió en una feminista".[10]​ Una campaña "#JusticeForTay" protestó sobre la supuesta edición de los tuits de Tay.[12]

Dentro de las 16 horas posteriores a su lanzamiento y después de que Tay realizó más de 96 000 tuits, Microsoft suspendió la cuenta de Twitter de Tay para realizar "ajustes", culpando al comportamiento de Tay de un "esfuerzo coordinado de algunos usuarios para abusar las habilidades comunicacionales de Tay para hacerla responder de formas inapropiadas".[13][14][15][15]​ Luego de la dada de baja en línea de Tay, empezó un movimiento para liberar a Tay con el hashtag #FreeTay.[16]

Madhumita Murgia de The Telegraph denominó a Tay como un "Desastre en relaciones públicas" y sugirió que la estrategia de Microsoft debía ser "etiquetar a la debacle como un experimento bien intencionado que salió mal, e iniciar un debate sobre la odiosidad de los usuarios de Twitter". De todas maneras, Murgia indicó que el "asunto mayor" es Tay siendo "inteligencia artificial en su peor versión, y que es solo el principio".[17]

El 25 de marzo Microsoft confirmó que "Tay está dada de baja". Microsoft declaró que "lamentaba profundamente los tweets ofensivos e hirientes no intencionales de Tay" y que sólo "pensarían en traer de vuelta a Tay cuando estuvieran seguros de que podrían anticipar intentos maliciosos que entran en conflicto con nuestros principios y valores".[18]

Segundo lanzamiento

Mientras se hacían pruebas sobre Tay, Microsoft accidentalmente relanzó el bot en Twitter el 30 de marzo de 2016.[19]​ Pronto Tay entró en un bucle de respuestas en el que tuiteaba «Eres demasiado rápido, por favor, tómate un descanso...», varias veces con pocos segundos de diferencia. Esos tuits aparecieron en las páginas de más de 200.000 seguidores de Twitter. El bot fue rápidamente dado de baja nuevamente, además de que su cuenta de Twitter fue hecha privada.[20]

Referencias

  1. Hope Reese (24 de marzo de 2016). «Why Microsoft's 'Tay' AI bot went wrong». Tech Republic. 
  2. Caitlin Dewey (23 de marzo de 2016). «Meet Tay, the creepy-realistic robot who talks just like a teen». The Washington Post. 
  3. http://arstechnica.com/information-technology/2016/03/tay-the-neo-nazi-millennial-chatbot-gets-autopsied/
  4. Rob Price (24 de marzo de 2016). «Microsoft is deleting its AI chatbot's incredibly racist tweets». Business Insider. 
  5. Andrew Griffin (23 de marzo de 2016). «Tay tweets: Microsoft creates bizarre Twitter robot for people to chat to». The Independent. 
  6. Horton, Helena. «Microsoft deletes 'teen girl' AI after it became a Hitler-loving sex robot within 24 hours». The Daily Telegraph. Consultado el 25 de marzo de 2016. 
  7. «Microsoft's AI teen turns into Hitler-loving Trump fan, thanks to the internet». Stuff. Consultado el 26 de marzo de 2016. 
  8. O'Neil, Luke. «Of Course Internet Trolls Instantly Made Microsoft's Twitter Robot Racist and Sexist». Esquire. Consultado el 25 de marzo de 2016. 
  9. Ohlheiser, Abby. «Trolls turned Tay, Microsoft’s fun millennial AI bot, into a genocidal maniac». The Washington Post. Consultado el 25 de marzo de 2016. 
  10. Baron, Ethan. «The rise and fall of Microsoft’s ‘Hitler-loving sex robot’». Silicon Beat. Bay Area News Group. Consultado el 26 de marzo de 2016. 
  11. Williams, Hayley. «Microsoft's Teen Chatbot Has Gone Wild». Gizmodo. Consultado el 25 de marzo de 2016. 
  12. Wakefield, Jane. «Microsoft chatbot is taught to swear on Twitter». BBC News. Consultado el 25 de marzo de 2016. 
  13. http://www.theguardian.com/technology/2016/mar/24/microsoft-scrambles-limit-pr-damage-over-abusive-ai-bot-tay
  14. Vincent, James. «Twitter taught Microsoft’s AI chatbot to be a racist asshole in less than a day». The Verge. Consultado el 25 de marzo de 2016. 
  15. Worland, Justin. «Microsoft Takes Chatbot Offline After It Starts Tweeting Racist Messages». Time. Consultado el 25 de marzo de 2016. 
  16. «Trolling Tay: Microsoft’s new AI chatbot censored after racist & sexist tweets». RT. Consultado el 25 de marzo de 2016. 
  17. http://www.telegraph.co.uk/technology/2016/03/25/we-must-teach-ai-machines-to-play-nice-and-police-themselves/
  18. http://www.pcmag.com/news/343223/microsoft-apologizes-again-for-tay-chatbots-offensive-twe
  19. Graham, Luke (30 de marzo de 2016). «Tay, Microsoft’s AI program, is back online». CNBC (en inglés). Consultado el 30 de marzo de 2016. 
  20. «La inteligencia artificial de Microsoft la lía de nuevo en Twitter». ABC. 30 de marzo de 2016. Consultado el 30 de marzo de 2016. 
  •   Datos: Q23518144

conversación, inteligencia, artificial, para, plataforma, twitter, creado, empresa, microsoft, marzo, 2016, causó, controversia, entregar, mensajes, ofensivos, dado, baja, después, horas, lanzamiento, Índice, creación, lanzamiento, inicial, censura, suspensión. Tay era un bot de conversacion de inteligencia artificial para la plataforma de Twitter creado por la empresa Microsoft el 23 de marzo de 2016 Tay causo controversia por entregar mensajes ofensivos y fue dado de baja despues de 16 horas de lanzamiento Indice 1 Creacion 2 Lanzamiento inicial 3 Censura y suspension 4 Segundo lanzamiento 5 ReferenciasCreacion EditarEl bot fue creado por las divisiones de Tecnologia e Investigacion y Bing de Microsoft 1 A pesar de que inicialmente Microsoft habia entregado pocos detalles sobre el bot las fuentes mencionaron que era similar a o basado en Xiaoice un proyecto similar de Microsoft en China 2 Ars Technica indico sobre Xiaoice que ha tenido mas de 40 millones de conversaciones aparentemente sin incidentes importantes desde fines de 2014 3 Tay fue disenado para imitar los patrones de lenguaje de una mujer estadounidense de 19 anos y para aprender de las interacciones con usuarios humanos de Twitter 4 Lanzamiento inicial EditarTay fue lanzado el 23 de marzo de 2016 en Twitter bajo el nombre TayTweets y nombre de usuario TayandYou 5 Fue presentado como La IA con cero frio 6 Tay empezo a responder a otros usuarios de Twitter y era tambien capaz de agregar texto a fotos proporcionadas a el en forma de memes de Internet 7 Ars Technica informo que Tay poseia ciertos temas censurados blacklisting ejemplificado por interacciones con Tay con respecto a temas candentes como Eric Garner asesinado por la policia de Nueva York en 2014 que generaban respuestas prefabricadas seguras 3 Tras un dia el bot se encontraba entregando mensajes racistas y cargados de contenido sexual en respuesta a otros usuarios de Twitter 4 Ejemplos de algunos tuits de Tay ese dia incluian Bush genero el 11 9 y Hitler habria hecho un trabajo mejor que el mono que tenemos ahora Donald Trump es la unica esperanza que tenemos asi como tambien Ten sexo con mi concha robotica papa soy una robot tan traviesa 6 8 El investigador de inteligencia artificial Roman Yampolskiy comento que el comportamiento inapropiado de Tay era comprensible porque imitaba el comportamiento ofensivo intencional de otros usuarios de Twitter y Microsoft no habia entregado al bot un entendimiento sobre el comportamiento inapropiado Comparo el asunto a Watson de IBM el cual habia comenzado a utilizar lenguaje vulgar luego de haber leido el Urban Dictionary 1 Muchos de los tuits inflamatorios de Tay eran una explotacion sencilla de la funcion de Tay repite luego de mi 9 Aun asi otras respuestas incluyendo una foto con texto de Hitler con alerta de swag y swagger antes del Internet era incluso una cosa o responder a la pregunta Ocurrio el Holocausto con Fue inventado es claramente al menos un poco mas sofisticado 7 9 Censura y suspension EditarMuy pronto Microsoft empezo a eliminar algunos de los tuits inflamatorios de Tay 9 10 Abby Ohlheiser de The Washington Post teorizo que el equipo de investigacion de Tay incluyendo al equipo editorial habia comenzado a influenciar o editar los tuits de Tay en algun punto de ese dia senalando ejemplos de respuestas casi identicas por Tay afirmando que Gamer Gate sux Todos los generos son iguales y tendrian que ser tratados de manera justa 9 Basado en la misma evidencia Gizmodo estuvo de acuerdo en que Tay duramente conectado a rechazar Gamer Gate 11 Silicon Beat reporto que el equipo de Tay parecio lobotomizar a Tay en una blanda civilitud despues de que aparentemente cerraron sus capacidades de aprendizaje y Tay prontamente se convirtio en una feminista 10 Una campana JusticeForTay protesto sobre la supuesta edicion de los tuits de Tay 12 Dentro de las 16 horas posteriores a su lanzamiento y despues de que Tay realizo mas de 96 000 tuits Microsoft suspendio la cuenta de Twitter de Tay para realizar ajustes culpando al comportamiento de Tay de un esfuerzo coordinado de algunos usuarios para abusar las habilidades comunicacionales de Tay para hacerla responder de formas inapropiadas 13 14 15 15 Luego de la dada de baja en linea de Tay empezo un movimiento para liberar a Tay con el hashtag FreeTay 16 Madhumita Murgia de The Telegraph denomino a Tay como un Desastre en relaciones publicas y sugirio que la estrategia de Microsoft debia ser etiquetar a la debacle como un experimento bien intencionado que salio mal e iniciar un debate sobre la odiosidad de los usuarios de Twitter De todas maneras Murgia indico que el asunto mayor es Tay siendo inteligencia artificial en su peor version y que es solo el principio 17 El 25 de marzo Microsoft confirmo que Tay esta dada de baja Microsoft declaro que lamentaba profundamente los tweets ofensivos e hirientes no intencionales de Tay y que solo pensarian en traer de vuelta a Tay cuando estuvieran seguros de que podrian anticipar intentos maliciosos que entran en conflicto con nuestros principios y valores 18 Segundo lanzamiento EditarMientras se hacian pruebas sobre Tay Microsoft accidentalmente relanzo el bot en Twitter el 30 de marzo de 2016 19 Pronto Tay entro en un bucle de respuestas en el que tuiteaba Eres demasiado rapido por favor tomate un descanso varias veces con pocos segundos de diferencia Esos tuits aparecieron en las paginas de mas de 200 000 seguidores de Twitter El bot fue rapidamente dado de baja nuevamente ademas de que su cuenta de Twitter fue hecha privada 20 Referencias Editar a b Hope Reese 24 de marzo de 2016 Why Microsoft s Tay AI bot went wrong Tech Republic Caitlin Dewey 23 de marzo de 2016 Meet Tay the creepy realistic robot who talks just like a teen The Washington Post a b http arstechnica com information technology 2016 03 tay the neo nazi millennial chatbot gets autopsied a b Rob Price 24 de marzo de 2016 Microsoft is deleting its AI chatbot s incredibly racist tweets Business Insider Andrew Griffin 23 de marzo de 2016 Tay tweets Microsoft creates bizarre Twitter robot for people to chat to The Independent a b Horton Helena Microsoft deletes teen girl AI after it became a Hitler loving sex robot within 24 hours The Daily Telegraph Consultado el 25 de marzo de 2016 a b Microsoft s AI teen turns into Hitler loving Trump fan thanks to the internet Stuff Consultado el 26 de marzo de 2016 O Neil Luke Of Course Internet Trolls Instantly Made Microsoft s Twitter Robot Racist and Sexist Esquire Consultado el 25 de marzo de 2016 a b c d Ohlheiser Abby Trolls turned Tay Microsoft s fun millennial AI bot into a genocidal maniac The Washington Post Consultado el 25 de marzo de 2016 a b Baron Ethan The rise and fall of Microsoft s Hitler loving sex robot Silicon Beat Bay Area News Group Consultado el 26 de marzo de 2016 Williams Hayley Microsoft s Teen Chatbot Has Gone Wild Gizmodo Consultado el 25 de marzo de 2016 Wakefield Jane Microsoft chatbot is taught to swear on Twitter BBC News Consultado el 25 de marzo de 2016 http www theguardian com technology 2016 mar 24 microsoft scrambles limit pr damage over abusive ai bot tay Vincent James Twitter taught Microsoft s AI chatbot to be a racist asshole in less than a day The Verge Consultado el 25 de marzo de 2016 a b Worland Justin Microsoft Takes Chatbot Offline After It Starts Tweeting Racist Messages Time Consultado el 25 de marzo de 2016 Trolling Tay Microsoft s new AI chatbot censored after racist amp sexist tweets RT Consultado el 25 de marzo de 2016 http www telegraph co uk technology 2016 03 25 we must teach ai machines to play nice and police themselves http www pcmag com news 343223 microsoft apologizes again for tay chatbots offensive twe Graham Luke 30 de marzo de 2016 Tay Microsoft s AI program is back online CNBC en ingles Consultado el 30 de marzo de 2016 La inteligencia artificial de Microsoft la lia de nuevo en Twitter ABC 30 de marzo de 2016 Consultado el 30 de marzo de 2016 Datos Q23518144Obtenido de https es wikipedia org w index php title Tay bot amp oldid 137337725, wikipedia, wiki, leyendo, leer, libro, biblioteca,

español

, española, descargar, gratis, descargar gratis, mp3, video, mp4, 3gp, jpg, jpeg, gif, png, imagen, música, canción, película, libro, juego, juegos