Alison Porter, Graeme Clark y Richard Clode, gestores de carteras de tecnología global de Janus Henderson Investors, comentan el reciente lanzamiento de Ampere, el último acelerador de gráficos de NVIDIA, que se prevé que suponga una revolución para el desarrollo de la informática en nube (cloud), la inteligencia artificial y los gráficos de videojuegos.
La presentación que el consejero delegado (CEO) de NVIDIA se vio obligado a hacer desde la cocina de su casa para el lanzamiento oficial de Ampere, la nueva unidad de procesamiento gráfico (GPU) de la compañía, constituyó otro hecho sin precedentes en la «nueva normalidad» provocada por la COVID-19. Sin embargo, eso no quitó valor a uno de los lanzamientos de semiconductores más importantes de los últimos años, con importantes repercusiones para la inteligencia artificial, la informática en nube (cloud), los videojuegos y la ley de Moore.
Ampere llega tres años después del lanzamiento de Volta por parte de NVIDIA a finales de 2017. La mejora en rendimiento y la optimización para la inteligencia artificial supuso un gran avance para la adopción de procesadores gráficos para acelerar cargas de trabajo en la nube y para la formación de inteligencia artificial. NVIDIA se convirtió en el estándar de facto para la formación de inteligencia artificial, gracias a su hardware superior y a una década de inversiones en su propio conjunto de soluciones de software, CUDA. El lanzamiento de Volta supuso una importante inflexión en la inteligencia artificial y, desde entonces, los ingresos por datos de centros de NVIDIA se han multiplicado por dos en tres años, hasta superar los 1.000 millones de dólares el trimestre.
La actividad informática y la inteligencia artificial están inexorablemente ligadas: una acciona la demanda de la otra y viceversa. La inflexión en la inteligencia artificial que se ha visto en los últimos años ha sido posible gracias a que el nivel y el coste alcanzados por los resultados informáticos han hecho viables las redes neuronales y el aprendizaje profundo. Sin embargo, las nuevas redes neuronales más complejas, como los modelos BERT utilizados para el procesamiento de lenguajes naturales que hacen posibles Amazon Alexa y Google Home, son mucho más complejas y grandes que los modelos anteriores. Esto exige un procesador de próxima generación que cumpla los requisitos y propicie la próxima ola de innovación en inteligencia artificial.
¿Qué hay dentro de Ampere?
Ampere es ese paso de gigante hacia delante que podría propiciar otro punto de inflexión en la inteligencia artificial. Utilizando la ley de Moore para aumentar la densidad de los transistores, Ampere integra 54.000 millones de transistores en un chip más o menos del mismo tamaño que Volta, que solo tenía 21.000 millones. Sin embargo, como muestra de los desafíos de la ley de Moore, NVIDIA utiliza el proceso de producción 7nm de Taiwan Semiconductor Manufacturing Co (TSMC) y no el avanzado 5nm que Apple usa este año para el nuevo iPhone. La tensión de Moore está obligando a las empresas de semiconductores a decantarse por mejoras en la arquitectura para seguir impulsando el aumento de rendimiento que los clientes demandan. Para Ampere, NVIDIA utiliza la tecnología de empaquetado CoWoS de TSMC para integrar mejor la memoria de banda ancha de próxima generación, así como tejido Infiniband de la recién adquirida Mellanox. En ambos casos, estas interfaces de mayor velocidad reducen los bloqueos del paso de grandes conjuntos de datos entre procesadores o de la memoria a los procesadores.
Pasar la informática del servidor al centro de datos
La nueva gran característica de Ampere con importantes repercusiones es la capacidad de este GPU para virtualizar hasta siete hilos diferentes. Constituye un elemento fundamental en el objetivo de NVIDIA de pasar la informática del servidor al centro de datos. Igual que VMWare virtualizó los servidores con su software, NVIDIA contempla un mundo en el que el hardware y el software virtualizados hagan posible un hiperescalador (como Google, Facebook y Amazon, que pueden alcanzar una enorme escala en informática, normalmente para macrodatos o informática en nube) que realice cualquier carga de trabajo en cualquier lugar de su centro de datos para maximizar la eficiencia.
Personalizar los servidores para una carga de trabajo específica será cosa del pasado. NVIDIA ve Ampere como un acelerador de carga de trabajo en nube universal. Por tanto, Ampere realiza formación e inferencia de inteligencia artificial en un solo sistema. Los importantes requisitos de rendimiento de la formación de inteligencia artificial con redes neuronales sumamente complejas en el pasado exigían un procesador diferente, comparado con los menores requisitos de la inferencia de inteligencia artificial, en la que el resultado de ese modelo de formación de inteligencia artificial se aplica al mundo real. Ampere puede realizar ambas funciones de forma eficiente por primera vez, ya que la inferencia está virtualizada, lo que permite un rendimiento equivalente de un chip de Volta a 56 usuarios todo ello en un sistema Ampere.
Reducción del coste de la informática
La ley de Moore ha sido un impulsor clave de las ganancias de acciones tecnológicas desde hace décadas. La capacidad de ofrecer el doble de capacidad informática al mismo coste constituye la curva exponencial fundamental para la innovación tecnológica. Ampere de NVIDIA es la próxima gran iteración de ese principio y va mucho más allá. Ampere ofrece un rendimiento hasta 20 veces superiores para las cargas de trabajo, ya que la ley de Moore va ligada a una mayor innovación del hardware y del software tanto en términos de virtualización como en CUDA, su lenguaje de programación propio utilizado por la mayoría de los investigadores de inteligencia artificial.
NVIDIA introdujo el soporte de dispersión CUDA con Ampere, mediante el cual modelos complejos de inteligencia artificial pueden ejecutarse mucho más rápido, ocultando los pesos de modelos menos importantes (que determinan hasta qué punto un insumo influye en un resultado) durante el proceso iterativo, lo que reduce la cantidad de cálculo necesario. El resultado de utilizar todo el potencial del amplio conjunto de tecnología de NVIDIA es realmente impresionante. Se ofrecieron múltiples ejemplos de sistemas A100 con Ampere que hacían el mismo trabajo que un V100 basado en Volta por una décima parte del coste y una vigésima parte del consumo de energía.
Para hacerse una idea, eso supone sustituir toda una sala llena de bastidores de servidores por un solo bastidor. Como señaló el consejero delegado (CEO) de NVIDIA, «cuanto más compras, más ahorras» y la compañía prevé que Ampere sea un importante motor de reducción de costes de la informática en nube y el desarrollo y aplicación de la inteligencia artificial. En consecuencia, los principales hiperescaladores, como Amazon Web Services, Microsoft Azure, Google Cloud, Alibaba Cloud y Tencent Cloud, ya han realizado los primeros pedidos de Ampere.
Llevar los gráficos de los videojuegos al siguiente nivel
Aunque NVIDIA no anunció un producto de juegos basado en el Ampere, está previsto que lo haga a finales de año. En la presentación, el consejero delegado (CEO) de NVIDIA mencionó las enormes mejoras que Ampere puede lograr en el trazado de rayos. El trazado de rayos es la capacidad de crear gráficos sumamente realistas que integran la refracción completa de la luz.
Ello requiere una gran cantidad de potencia de procesamiento y ha sido utilizado en películas de Hollywood con imágenes generadas por ordenador (CGI) que han sido grandes éxitos de taquilla. Volta permitió utilizar por primera vez el trazado de rayos en los juegos de ordenador, ya que el rendimiento informático podía alojarse en una tarjeta de juego estándar a un coste razonable. Ampere dará un paso más allá y NVIDIA ha utilizado también un motor de inteligencia artificial para mejorar el rendimiento del trazado de rayos, aprendiendo cómo se ve una imagen con mucha mayor resolución, así como los vectores de movimiento de los gráficos de videojuegos en vivo, para anticipar qué píxeles deben mostrarse en una imagen futura.
Tras dos años de penetración del trazado de rayos, todos los motores principales de desarrollo de juegos son compatibles el trazado de rayos, así como juegos de éxito como Minecraft, Call of Duty: Modern Warfare y Battlefield V, además de la nueva consola PlayStation 5 que lanzará a finales de este año. Las futuras tarjetas de juegos Ampere pueden llevar al siguiente nivel a los juegos de ordenador, mientras que se considera que los Ampere virtualizados podrían tener un papel clave en el futuro de los servicios de juegos en la nube.
Conclusión
Tanto para jugadores como para usuarios de servicios en Internet como Amazon, Netflix o Spotify creados en la nube o si interactúa con servicios de inteligencia artificial como Amazon Alexa, muchos expertos del sector consideran el lanzamiento del Ampere de NVIDIA un gran paso adelante con la capacidad para mejorar y abaratar estos servicios.
Glosario:
GPU (unidad de procesamiento gráfico): realiza complejos cálculos matemáticos y geométricos necesarios para la representación gráfica.
Ley de Moore: predice que el número de transistores que pueden caber en un microchip se multiplicará casi por dos cada dos años, reduciendo el coste relativo y aumentando el rendimiento.
Tensión de Moore: se refiere a la idea que se tiene desde hace mucho tiempo de que la potencia de procesamiento de los ordenadores que aumenta exponencialmente cada dos años ha llegado a su límite. Conforme la escala de los componentes de los chips se aproxima cada vez más a la de los átomos individuales, resulta más caro y técnicamente más difícil duplicar el número de transistores y, por tanto, la potencia de procesamiento de un chip determinado cada dos años.
Procesamiento de lenguajes naturales: rama de la inteligencia artificial que ayuda a los ordenadores a entender, interpretar y manipular el lenguaje humano. El procesamiento de lenguajes naturales se basa en muchas disciplinas, incluidas la informática y la lingüística informática, para tratar de cerrar la brecha entre la comunicación humana y la comprensión de los ordenadores.
Virtualización: se refiere a un entorno informático simulado, o virtual, más que a un entorno físico. La virtualización incluye a menudo versiones generadas por ordenador de hardware, sistemas operativos, dispositivos de almacenamiento y más Esto permite a las organizaciones dividir un solo ordenador físico o servidor en varias máquinas virtuales. De este modo, cada máquina virtual puede interactuar independientemente y ejecutar diferentes sistemas operativos o aplicaciones, mientras comparte los recursos de una única máquina anfitriona.
Carga de trabajo: cantidad de procesamiento que se proporciona a un ordenador para realizar en un momento determinado.
Formación de inteligencia artificial: también conocida como aprendizaje automático, es una parte de la inteligencia artificial que permite a los sistemas informáticos aprender y mejorar automáticamente, sin ser programados por un humano.
Aprendizaje profundo/red neuronal: parte del aprendizaje automático, es una serie de algoritmos que tiene como objetivo reconocer las relaciones subyacentes en un conjunto de datos mediante un proceso que imita la forma en que opera el cerebro humano.
Inferencia de inteligencia artificial: se refiere al procesamiento de la inteligencia artificial. Mientras que el aprendizaje automático y el aprendizaje profundo se refieren a la formación de las redes neuronales, la inferencia de la inteligencia artificial aplica el conocimiento de un modelo de red neuronal entrenada y lo utiliza para lograr un resultado.
Dispersión: sirve para acelerar la inteligencia artificial reduciendo las cantidades de multiplicación de la matriz que requiere el aprendizaje profundo, reduciendo el tiempo para obtener buenos resultados.
Información importante:
Este [documento] está destinado únicamente para ser utilizado por profesionales, definidos como contrapartes elegibles o clientes profesionales, y no está dirigido al público en general. Las llamadas telefónicas pueden ser grabadas para protección mutua, para mejorar el servicio al cliente y para mantener registros con fines regulatorios.
Emitido por Janus Henderson Investors. Janus Henderson Investors es el nombre bajo el cual se proporcionan los productos y servicios de inversión por parte de Janus Capital International Limited (reg. n.º 3594615), Henderson Global Investors Limited (reg. n.º 906355), Henderson Investment Funds Limited (reg. n.º 2678531), AlphaGen Capital Limited (reg. n.º 962757), Henderson Equity Partners Limited (reg. n.º 2606646), (cada uno registrado en Inglaterra y Gales en 201 Bishopsgate, Londres EC2M 3AE y regulado por la Financial Conduct Authority) y Henderson Management S.A. (reg n.º B22848 en 2 Rue de Bitbourg, L-1273, Luxemburgo, y regulado por la Commission de Surveillance du Secteur Financier).
Janus Henderson, Janus, Henderson, Perkins, Intech, Alphagen, VelocityShares, Knowledge. Shared y Knowledge Labs son marcas comerciales de Janus Henderson Group plc o de una de sus filiales. © Janus Henderson Group plc.