fbpx
Wikipedia

Unidad de procesamiento tensorial

Una unidad de procesamiento tensorial o TPU (del inglés tensor processing unit), es un circuito integrado de aplicación específica y acelerador de IA (ASIC, AI accelerator application-specific integrated circuit) desarrollado por Google para el aprendizaje automático con redes neuronales artificiales y más específicamente optimizado para usar TensorFlow, la biblioteca de código abierto para aprendizaje automático.

En comparación con las unidades de procesamiento gráfico (que a partir de 2016 se usan con frecuencia para las mismas tareas), estas unidades están diseñadas para un mayor volumen de cálculo de precisión reducida (por ejemplo, desde 8 bits de precisión) y carecen de hardware para la rasterización/cartografía de textura.[1][2]​ El término ha sido acuñado para un chip específico diseñado para el marco TensorFlow de Google. Otros diseños de aceleradores de IA están apareciendo también en otros proveedores y están dirigidos a mercados de robótica e incrustados.

Google también ha utilizado las TPU para el procesamiento de texto de Street View y ha podido encontrar todo el texto en la base de datos de Street View en menos de cinco días. En Fotos, una TPU individual puede procesar más de 100 millones de fotos al día. También se utiliza en Rank Brain, utilizado por Google para proporcionar resultados de búsqueda.[3]​ La unidad de procesamiento de tensores se anunció en 2016 en Google I/O, aunque la compañía declaró que el TPU había sido utilizado dentro de su centro de datos durante más de un año antes[4][5]

El tamaño del chip puede caber en una ranura de disco duro dentro de un bastidor de un centro de datos, de acuerdo con el ingeniero de hardware Norm Jouppi de Google.[6]

Google ha declarado que sus unidades de procesamiento de tensor propietaria se utilizaron en la serie AlphaGo contra Lee Sedol de juegos Go hombre vs máquina.[2]

La primera generación de las TPU de Google se presentó en la conferencia I/O 2016, diseñado específicamente para ejecutar redes neuronales entrenadas.[7]​ Estas TPU tienen menos precisión en comparación con los cómputos realizados en una CPU o GPU normales, pero es suficiente para los cálculos que tienen que realizar.

Arquitectura

Primera generación

En la primera generación, la TPU es un motor de multiplicación matricial de 8 bits, controlado con un juego de instrucciones CISC por un procesador host sobre un bus PCIe 3.0. Está fabricado con un proceso de 28nm en un chip con tamaño ≤ 331 mm². Tiene un reloj a 700 MHz y un diseño térmico de potencia de 28-40 W. Tiene 28 MB de memoria en chip y 4 MB de acumuladores de 32 bits, que toman los resultados de una matriz 256 × 256 de multiplicadores de 8 bits. Las instrucciones transfieren datos hacia o desde el anfitrión o host, realizando multiplicaciones matriciales o convoluciones, y aplicando funciones de activación[8]

Segunda generación

La segunda generación de la TPU de Google se presentó en el I/O 2017. Esto no solo va a acelerar la aplicación de redes neuronales (inferencia), sino también la formación de estas redes. Estas TPU tienen una potencia de procesamiento de 180 TFLOPS y están interconectados a un con 11.5 PFLOPS. La topología de la arquitectura del sistema de grupos tiene esferas en forma de red de 8 × 8 TPU.

La TPU de segunda generación forman parte del Google Compute Engine, una oferta de servicios en la nube de la compañía.

Los detalles técnicos de la segunda generación actualmente (mayo de 2017) no están disponibles. Sin embargo, se supone que utiliza memoria GDDR5.

Tercera generación

Google anunció en la conferencia inaugural del I/O 2018, su congreso de desarrolladores, la tercera generación de su TPU. Es ocho veces más potente que la generación anterior, con hasta 100 PFLOPS de rendimiento.[9]

Enlaces externos

Referencias

  1. Armasu, Lucian (19 de mayo de 2016). «Google's Big Chip Unveil For Machine Learning: Tensor Processing Unit With 10x Better Efficiency (Updated)». Tom's Hardware. 
  2. Jouppi, Norm (18 de mayo de 2016). «Google supercharges machine learning tasks with TPU custom chip». Google Cloud Platform Blog (en inglés estadounidense). Google. Consultado el 26 de junio de 2016. 
  3. «Google's Tensor Processing Unit could advance Moore's Law 7 years into the future». PCWorld (en inglés). Consultado el 19 de enero de 2017. 
  4. Error en la cita: Etiqueta <ref> no válida; no se ha definido el contenido de las referencias llamadas :0
  5. Error en la cita: Etiqueta <ref> no válida; no se ha definido el contenido de las referencias llamadas GCP blog 2016
  6. Error en la cita: Etiqueta <ref> no válida; no se ha definido el contenido de las referencias llamadas :02
  7. «Google supercharges machine learning tasks with TPU custom chip». 
  8. «In-Datacentre Performance Analysis of a Tensor Processing Unit». 
  9. «Google announces a new generation for its TPU machine learning hardware». 
  •   Datos: Q25106376

unidad, procesamiento, tensorial, este, artículo, detectaron, varios, problemas, favor, edítalo, para, mejorarlo, redacción, sigue, convenciones, estilo, requiere, revisión, ortográfica, gramatical, texto, sigue, traducción, defectuosa, este, aviso, puesto, ag. En este articulo se detectaron varios problemas Por favor editalo para mejorarlo Su redaccion no sigue las convenciones de estilo Requiere una revision ortografica y gramatical El texto que sigue es una traduccion defectuosa Este aviso fue puesto el 22 de agosto de 2017 Una unidad de procesamiento tensorial o TPU del ingles tensor processing unit es un circuito integrado de aplicacion especifica y acelerador de IA ASIC AI accelerator application specific integrated circuit desarrollado por Google para el aprendizaje automatico con redes neuronales artificiales y mas especificamente optimizado para usar TensorFlow la biblioteca de codigo abierto para aprendizaje automatico En comparacion con las unidades de procesamiento grafico que a partir de 2016 se usan con frecuencia para las mismas tareas estas unidades estan disenadas para un mayor volumen de calculo de precision reducida por ejemplo desde 8 bits de precision y carecen de hardware para la rasterizacion cartografia de textura 1 2 El termino ha sido acunado para un chip especifico disenado para el marco TensorFlow de Google Otros disenos de aceleradores de IA estan apareciendo tambien en otros proveedores y estan dirigidos a mercados de robotica e incrustados Google tambien ha utilizado las TPU para el procesamiento de texto de Street View y ha podido encontrar todo el texto en la base de datos de Street View en menos de cinco dias En Fotos una TPU individual puede procesar mas de 100 millones de fotos al dia Tambien se utiliza en Rank Brain utilizado por Google para proporcionar resultados de busqueda 3 La unidad de procesamiento de tensores se anuncio en 2016 en Google I O aunque la compania declaro que el TPU habia sido utilizado dentro de su centro de datos durante mas de un ano antes 4 5 El tamano del chip puede caber en una ranura de disco duro dentro de un bastidor de un centro de datos de acuerdo con el ingeniero de hardware Norm Jouppi de Google 6 Google ha declarado que sus unidades de procesamiento de tensor propietaria se utilizaron en la serie AlphaGo contra Lee Sedol de juegos Go hombre vs maquina 2 La primera generacion de las TPU de Google se presento en la conferencia I O 2016 disenado especificamente para ejecutar redes neuronales entrenadas 7 Estas TPU tienen menos precision en comparacion con los computos realizados en una CPU o GPU normales pero es suficiente para los calculos que tienen que realizar Indice 1 Arquitectura 1 1 Primera generacion 1 2 Segunda generacion 1 3 Tercera generacion 2 Enlaces externos 3 ReferenciasArquitectura EditarPrimera generacion Editar En la primera generacion la TPU es un motor de multiplicacion matricial de 8 bits controlado con un juego de instrucciones CISC por un procesador host sobre un bus PCIe 3 0 Esta fabricado con un proceso de 28nm en un chip con tamano 331 mm Tiene un reloj a 700 MHz y un diseno termico de potencia de 28 40 W Tiene 28 MB de memoria en chip y 4 MB de acumuladores de 32 bits que toman los resultados de una matriz 256 256 de multiplicadores de 8 bits Las instrucciones transfieren datos hacia o desde el anfitrion o host realizando multiplicaciones matriciales o convoluciones y aplicando funciones de activacion 8 Segunda generacion Editar La segunda generacion de la TPU de Google se presento en el I O 2017 Esto no solo va a acelerar la aplicacion de redes neuronales inferencia sino tambien la formacion de estas redes Estas TPU tienen una potencia de procesamiento de 180 TFLOPS y estan interconectados a un con 11 5 PFLOPS La topologia de la arquitectura del sistema de grupos tiene esferas en forma de red de 8 8 TPU La TPU de segunda generacion forman parte del Google Compute Engine una oferta de servicios en la nube de la compania Los detalles tecnicos de la segunda generacion actualmente mayo de 2017 no estan disponibles Sin embargo se supone que utiliza memoria GDDR5 Tercera generacion Editar Google anuncio en la conferencia inaugural del I O 2018 su congreso de desarrolladores la tercera generacion de su TPU Es ocho veces mas potente que la generacion anterior con hasta 100 PFLOPS de rendimiento 9 Enlaces externos EditarSitio web oficial de TensorFlowReferencias Editar Armasu Lucian 19 de mayo de 2016 Google s Big Chip Unveil For Machine Learning Tensor Processing Unit With 10x Better Efficiency Updated Tom s Hardware a b Jouppi Norm 18 de mayo de 2016 Google supercharges machine learning tasks with TPU custom chip Google Cloud Platform Blog en ingles estadounidense Google Consultado el 26 de junio de 2016 Google s Tensor Processing Unit could advance Moore s Law 7 years into the future PCWorld en ingles Consultado el 19 de enero de 2017 Error en la cita Etiqueta lt ref gt no valida no se ha definido el contenido de las referencias llamadas 0 Error en la cita Etiqueta lt ref gt no valida no se ha definido el contenido de las referencias llamadas GCP blog 2016 Error en la cita Etiqueta lt ref gt no valida no se ha definido el contenido de las referencias llamadas 02 Google supercharges machine learning tasks with TPU custom chip In Datacentre Performance Analysis of a Tensor Processing Unit Google announces a new generation for its TPU machine learning hardware Datos Q25106376Obtenido de https es wikipedia org w index php title Unidad de procesamiento tensorial amp oldid 133993884, wikipedia, wiki, leyendo, leer, libro, biblioteca,

español

, española, descargar, gratis, descargar gratis, mp3, video, mp4, 3gp, jpg, jpeg, gif, png, imagen, música, canción, película, libro, juego, juegos