Tesla se ha hecho con uno de los superordenadores para IA más potentes del mundo. Por un buen motivo

XATAKA.

[responsivevoice_button rate=»1.1″ pitch=»1.2″ volume=»0.9″ voice=»Spanish Latin American Female» buttontext=»Escuchar artículo»]

Una de las claves de Tesla para mejorar sus sistemas de asistencia a la conducción —y desarrollar las futuras propuestas completamente autónomas— es contar con la suficientemente capacidad de cálculo como para procesar la ingente cantidad de datos que llega desde muchos coches que circulan por las calles. Para hacer frente a este desafío, la compañía presentó el año pasado uno de los superordenadores de inteligencia artificial (IA) más potentes del mundo. Ahora, tras una actualización de GPU, es mucho más bestial.

La configuración original del superordenador de Tesla para IA tenía 720 nodos, cada uno constituido por ocho GPU Nvidia A100 de 80 GB, lo que se traducía en 5.760 GPU en total. Con la reciente adición de otros 200 nodos de iguales características (1.600 GPU), alcanza un total de 920 nodos, que representan 7.360 GPU. Esta actualización convierte al clúster en el séptimo superordenador más potente del mundo, según ha explicado Tim Zaman, el director de ingeniería de Tesla en Twiter, aunque esta capacidad todavía no ha podido ser evaluada públicamente.

El hecho de que el sistema no pueda ser evaluado significa que no puede formar parte de manera oficial del Top500 de los superordenadores más potentes del mundo. De hacerlo, se enfrentaría a sistemas con capacidad de cálculo similar, como el Perlmutter (6.144 GPU Nvidia A100) o el Selene (4.480 GPU A100). Sin embargo, Tesla de momento no abre la puerta para que esto se permita, aunque más allá del mencionado ranking, lo importante el provecho que la compañía pueda sacar de este sistema que antecederá a uno mucho más ambicioso denominado «Dojo» que podría estar listo a finales de este mismo año.

¿Qué papel juega el superordenador en Tesla?

La evolución de los sistemas de conducción autónoma, al menos como lo plantea Tesla, requiere del desarrollo en paralelo de muchos campos, precisamente porque lo que se debe lograr es que un coche reaccione como un humano —o incluso mejor— ante cualquier tipo de escenario. Así, la firma entrena redes neuronales profundas en problemas que afectan desde la percepción hasta el control a través de las imágenes sin procesar capturadas por muchos de sus coches. Los superordenadores realizar una segmentación semántica, una detección de objetos y una estimación monocular de la profundidad.

Además, aprenden a partir de las situaciones de la conducción humana en carrera. Con esto, a grandes rasgos, Tesla puede mejorar los sistemas de asistencia a la conducción a través de actualizaciones y apuntar en dirección al ansiado sistema de conducción completamente autónoma, que Elon Musk lleva insinuando desde hace tiempo. Y claro, en los coches también hay mucha otra tecnología, como las cámaras de visión artificial, los algoritmos de autonomía (que diseñan de forma algorítmica datos reales del terreno precisos) y los chips FSD que ejecutan el software de conducción autónoma.

Como podemos ver, fabricar los coches del presente y del futuro requiere indefectiblemente explorar nuevas áreas. La supercomputación y la inteligencia artificial son dos de los grandes pilares de Tesla. La compañía está tan involucrada en ellas que, además de impulsar las mencionadas tecnologías, es de los patrocinadores de la Machine Learning & Systems Conference de Santa Clara y el próximo 30 de septiembre, como cada año, celebrará el Tesla AI Day, donde revelará sus avances más recientes en este campo y cómo los está aplicando para impulsar sus planes presentes y futuros (incluso podríamos ver por primera vez el robot Optimus).

En Xataka | La lista de espera para comprar un Tesla en España es infinita. Saltársela tiene un precio: 11.000€ más