fbpx
Wikipedia

InfiniBand

InfiniBand es un bus de comunicaciones serie de alta velocidad, baja latencia y de baja sobrecarga de CPU, diseñado tanto para conexiones internas como externas.

InfiniBand
Información
Tipo bus
Fabricante
  • Mellanox Technologies
  • Intel

Sus especificaciones son desarrolladas y mantenidas por la Infiniband Trade Association (IBTA).

Descripción

Caudal de Infiniband, bruto / eficaz
  SDR DDR QDR
1X 2,5 / 2 Gbps 5 / 4 Gbps 10 / 8 Gbps
4X 10 / 8 Gbps 20 / 16 Gbps 40 / 32 Gbps
12X 30 / 24 Gbps 60 / 48 Gbps 120 / 96 Gbps

Al igual que Fibre Channel, PCI Express y otros modos de interconexión modernos, Infiniband usa un bus serie bidireccional de tal manera que evita los problemas típicos asociados a buses paralelos en largas distancias (en este contexto, una habitación o edificio). A pesar de ser una conexión serie, es muy rápido, ofreciendo una velocidad bruta de unos 2,5 Gigabits por segundo (Gbps) en cada dirección por enlace. Infiniband también soporta doble e incluso cuádruples tasas de transferencia de datos, llegando a ofrecer 5 Gbps y 10 Gbps respectivamente. Se usa una codificación 8B/10B, con lo que, de cada 10 bits enviados solamente 8 son de datos, de tal manera que la tasa de transmisión útil es 4/5 de la media. Teniendo esto en cuenta, los anchos de banda ofrecidos por los modos simple, doble y cuádruple son de 2, 4 y 8 Gbps respectivamente.

Los enlaces pueden añadirse en grupos de 4 o 12, llamados 4X o 12X. Un enlace 12X a cuádruple ritmo tiene un caudal bruto de 120 gbps, y 96 Gbps de caudal eficaz. Actualmente, la mayoría de los sistemas usan una configuración 4X con ritmo simple, aunque los primeros productos soportando doble ritmo ya están penetrando en el mercado. Los sistemas más grandes, con enlaces 12X se usan típicamente en lugares con gran exigencia de ancho de banda, como clústeres de computadores, interconexión en superordenadores y para interconexión de redes.

La latencia teórica de estos sistemas es de unos 160ns. Las reales están en torno a los 6 µs, dependiendo bastante del software y el firmware.

Infiniband usa una topología conmutada de forma que varios dispositivos pueden compartir la red al mismo tiempo (en oposición a la topología en bus). Los datos se transmiten en paquetes de hasta 4 kB que se agrupan para formar mensajes. Un mensaje puede ser una operación de acceso directo a memoria de lectura o escritura sobre un nodo remoto (RDMA), un envío o recepción por el canal, una operación de transacción reversible o una transmisión multicast.

Al igual que en el modelo de canal usado en la mayoría de los mainframes, todas las transmisiones empiezan o terminan con un adaptador de canal. Cada procesador contiene un host channel adapter (HCA) y cada periférico un target channel adapter (TCA). Estos adaptadores también pueden intercambiar información relativa a la seguridad o a la calidad de servicio del enlace.

 
Ejemplo de adaptadores de puerto InfiniBand hacia bus PCI Express 2.0

Historia

Infiniband surge como resultado de la unión de dos diseños competidores, Future I/O, desarrollado por Compaq, IBM y Hewlett-Packard, junto con Next Generation I/O (ngio), diseñado por Intel, Microsoft y Sun Microsystems. A su vez, el diseño de Compaq tuvo su origen en Servnet, de Tandem Computer Inc. Unidas ya ambas ramas, durante un breve período de tiempo el nombre de la tecnología fue System I/O, hasta que finalmente se cambió a Infiniband.

Infiniband se diseñó en un principio como una red a nivel de sistema que valdría para conectar procesadores y proporcionar funciones de entrada/salida de alta velocidad para las aplicaciones de bajo nivel. Jugando este papel podría desplazar a muchos estándares de entrada/salida de datos, como PCI, Fibre Channel e incluso algunas redes como Ethernet. En su lugar, todas las CPUs y periféricos se conectarían a un solo nodo de conmutación Infiniband. Esta visión ofrecía un gran número de ventajas aparte de la alta velocidad, como por ejemplo que la entrada/salida dejaría de cargar a los procesadores y dispositivos de almacenamiento. En teoría, esto permitiría crear clústeres a menor precio y con mayor facilidad, porque los dispositivos podrían ser compartidos y movidos fácilmente según la carga de trabajo. Una visión no tan revolucionaria consistía en ver Infiniband como una conexión de baja latencia y gran ancho de banda para datacenters, con enlaces conectando quizá solamente los servidores y almacenamiento, dejando el resto de las conexiones a otros protocolos y estándares como PCI.

Sin embargo, el uso dado a Infiniband ha sido incluso menor. Hoy en día se usa en su mayor parte para clústeres de alto rendimiento, aunque ha habido esfuerzos para adaptar el estándar a conexiones entre máquinas de bajo coste para aplicaciones comerciales y técnicas más usuales. Del TOP500 de Supercomputadores, unas cuantas han usado Infiniband incluyendo el System X de Virginia Tech.

A pesar de no haberse convertido en la tecnología de red multiuso, Infiniband está teniendo más éxito que otras soluciones de conexión entre computadoras, como Quadrics (QsNet) y Myricom (Myrinet). En el segmento de las supercomputadoras, la competencia de Infiniband sigue siendo el bajo costo y relativa difusión de Gigabit Ethernet. Además, los profesionales de redes e informática poseen un vasto conocimiento y experiencia en instalación de Ethernet. Conforme gigabit Ethernet evolucione hacia 10-gigabit Ethernet, Infiniband se enfrentará a una competencia aún más dura. Infiniband conservará un throughput máximo global mayor (en hardware QDR), pero al nivel de 10 Gbit/s y niveles inferiores, la ventaja principal de Infiniband es su arquitectura (más que su velocidad). Otros competidores con Infiniband son las diversas TCP y Ethernet mejoradas, como TCP Offload Engine, y RDMA Ethernet.

Recientemente, SGI ha presentado productos de almacenamiento con "adaptadores objetivo" Infiband.

Enlaces externos

  • Introducción a la arquitectura de Infiniband
  • Página web de la IBTA
  • Proyecto de InfiniBand™ en Linux
  • Open InfiniBand Alliance
  •   Datos: Q922437
  •   Multimedia: InfiniBand

infiniband, comunicaciones, serie, alta, velocidad, baja, latencia, baja, sobrecarga, diseñado, tanto, para, conexiones, internas, como, externas, informacióntipobusfabricantemellanox, technologiesintel, editar, datos, wikidata, especificaciones, desarrolladas. InfiniBand es un bus de comunicaciones serie de alta velocidad baja latencia y de baja sobrecarga de CPU disenado tanto para conexiones internas como externas InfiniBandInformacionTipobusFabricanteMellanox TechnologiesIntel editar datos en Wikidata Sus especificaciones son desarrolladas y mantenidas por la Infiniband Trade Association IBTA Descripcion EditarCaudal de Infiniband bruto eficaz SDR DDR QDR1X 2 5 2 Gbps 5 4 Gbps 10 8 Gbps4X 10 8 Gbps 20 16 Gbps 40 32 Gbps12X 30 24 Gbps 60 48 Gbps 120 96 GbpsAl igual que Fibre Channel PCI Express y otros modos de interconexion modernos Infiniband usa un bus serie bidireccional de tal manera que evita los problemas tipicos asociados a buses paralelos en largas distancias en este contexto una habitacion o edificio A pesar de ser una conexion serie es muy rapido ofreciendo una velocidad bruta de unos 2 5 Gigabits por segundo Gbps en cada direccion por enlace Infiniband tambien soporta doble e incluso cuadruples tasas de transferencia de datos llegando a ofrecer 5 Gbps y 10 Gbps respectivamente Se usa una codificacion 8B 10B con lo que de cada 10 bits enviados solamente 8 son de datos de tal manera que la tasa de transmision util es 4 5 de la media Teniendo esto en cuenta los anchos de banda ofrecidos por los modos simple doble y cuadruple son de 2 4 y 8 Gbps respectivamente Los enlaces pueden anadirse en grupos de 4 o 12 llamados 4X o 12X Un enlace 12X a cuadruple ritmo tiene un caudal bruto de 120 gbps y 96 Gbps de caudal eficaz Actualmente la mayoria de los sistemas usan una configuracion 4X con ritmo simple aunque los primeros productos soportando doble ritmo ya estan penetrando en el mercado Los sistemas mas grandes con enlaces 12X se usan tipicamente en lugares con gran exigencia de ancho de banda como clusteres de computadores interconexion en superordenadores y para interconexion de redes La latencia teorica de estos sistemas es de unos 160ns Las reales estan en torno a los 6 µs dependiendo bastante del software y el firmware Infiniband usa una topologia conmutada de forma que varios dispositivos pueden compartir la red al mismo tiempo en oposicion a la topologia en bus Los datos se transmiten en paquetes de hasta 4 kB que se agrupan para formar mensajes Un mensaje puede ser una operacion de acceso directo a memoria de lectura o escritura sobre un nodo remoto RDMA un envio o recepcion por el canal una operacion de transaccion reversible o una transmision multicast Al igual que en el modelo de canal usado en la mayoria de los mainframes todas las transmisiones empiezan o terminan con un adaptador de canal Cada procesador contiene un host channel adapter HCA y cada periferico un target channel adapter TCA Estos adaptadores tambien pueden intercambiar informacion relativa a la seguridad o a la calidad de servicio del enlace Ejemplo de adaptadores de puerto InfiniBand hacia bus PCI Express 2 0Historia EditarInfiniband surge como resultado de la union de dos disenos competidores Future I O desarrollado por Compaq IBM y Hewlett Packard junto con Next Generation I O ngio disenado por Intel Microsoft y Sun Microsystems A su vez el diseno de Compaq tuvo su origen en Servnet de Tandem Computer Inc Unidas ya ambas ramas durante un breve periodo de tiempo el nombre de la tecnologia fue System I O hasta que finalmente se cambio a Infiniband Infiniband se diseno en un principio como una red a nivel de sistema que valdria para conectar procesadores y proporcionar funciones de entrada salida de alta velocidad para las aplicaciones de bajo nivel Jugando este papel podria desplazar a muchos estandares de entrada salida de datos como PCI Fibre Channel e incluso algunas redes como Ethernet En su lugar todas las CPUs y perifericos se conectarian a un solo nodo de conmutacion Infiniband Esta vision ofrecia un gran numero de ventajas aparte de la alta velocidad como por ejemplo que la entrada salida dejaria de cargar a los procesadores y dispositivos de almacenamiento En teoria esto permitiria crear clusteres a menor precio y con mayor facilidad porque los dispositivos podrian ser compartidos y movidos facilmente segun la carga de trabajo Una vision no tan revolucionaria consistia en ver Infiniband como una conexion de baja latencia y gran ancho de banda para datacenters con enlaces conectando quiza solamente los servidores y almacenamiento dejando el resto de las conexiones a otros protocolos y estandares como PCI Sin embargo el uso dado a Infiniband ha sido incluso menor Hoy en dia se usa en su mayor parte para clusteres de alto rendimiento aunque ha habido esfuerzos para adaptar el estandar a conexiones entre maquinas de bajo coste para aplicaciones comerciales y tecnicas mas usuales Del TOP500 de Supercomputadores unas cuantas han usado Infiniband incluyendo el System X de Virginia Tech A pesar de no haberse convertido en la tecnologia de red multiuso Infiniband esta teniendo mas exito que otras soluciones de conexion entre computadoras como Quadrics QsNet y Myricom Myrinet En el segmento de las supercomputadoras la competencia de Infiniband sigue siendo el bajo costo y relativa difusion de Gigabit Ethernet Ademas los profesionales de redes e informatica poseen un vasto conocimiento y experiencia en instalacion de Ethernet Conforme gigabit Ethernet evolucione hacia 10 gigabit Ethernet Infiniband se enfrentara a una competencia aun mas dura Infiniband conservara un throughput maximo global mayor en hardware QDR pero al nivel de 10 Gbit s y niveles inferiores la ventaja principal de Infiniband es su arquitectura mas que su velocidad Otros competidores con Infiniband son las diversas TCP y Ethernet mejoradas como TCP Offload Engine y RDMA Ethernet Recientemente SGI ha presentado productos de almacenamiento con adaptadores objetivo Infiband Enlaces externos EditarIntroduccion a la arquitectura de Infiniband Pagina web de la IBTA Tecnologia de InfiniBand Proyecto de InfiniBand en Linux Open InfiniBand Alliance Comparacion entre Infiniband y Ethernet 10G Proyecto de grado donde se compara distintas tecnologias de red como Infiniband y Ethernet Datos Q922437 Multimedia InfiniBand Obtenido de https es wikipedia org w index php title InfiniBand amp oldid 140959661, wikipedia, wiki, leyendo, leer, libro, biblioteca,

español

, española, descargar, gratis, descargar gratis, mp3, video, mp4, 3gp, jpg, jpeg, gif, png, imagen, música, canción, película, libro, juego, juegos