Inteligencia Artificial

El chip que determinará el futuro de la Inteligencia Artificial

La IA avanza a un ritmo vertiginoso y desde la industria se siguen desarrollando programas y componentes que se adecuen a las necesidades de los tiempos que llegan.

El futuro de la tecnología pasa, sin lugar a dudas, por el perfeccionamiento de la Inteligencia Artificial y su aplicación en el campo de la robótica. Así, los centros de investigación y las grandes compañías tecnológicas del mundo centran gran parte de sus esfuerzos en el desarrollo de los diseños más potentes e innovadores.

Jeff Bezos, CEO de Amazon, reúne cada año a las élites tecnológicas en la conferencia privada MARS. La última cita tuvo lugar en California y allí se presentaron los grandes proyectos futuristas que marcarán el futuro del sector. Entre todas las presentaciones destacó el nuevo chip de IA fruto de la colaboración entre Nvidia e investigadores del MIT.

Eficiencia y flexibilidad

Eyeriss es un microprocesador diseñado específicamente para aumentar la potencia de los algoritmos de IA. Los nuevos chips destacan por su eficiencia y flexibilidad, así como por el manejo de las técnicas de aprendizaje profundo.

Inteligencia Artificial

El aprendizaje profundo permite a las máquinas programarse a sí mismas a partir de un conjunto de patrones establecidos con antelación. El desarrollo de nuevos chips avanza con el objetivo de mejorar la capacidad de entendimiento de la red neuronal artificial y conseguir así que las máquinas realicen tareas más ambiciosas y automatizadas.

El chip de aprendizaje profundo más poderoso

El proyecto del MIT se ha presentado como una mejora sustancial respecto a los hardware instaurados en la actualidad. Esto supone un avance muy importante para la evolución de las dinámicas de Inteligencia Artificial y el progreso de drones y robots autónomos.

La encargada de presentar el proyecto en la conferencia MARS fue Vivienne Sze, investigadora principal del grupo de sistemas energéticos eficientes de alto rendimiento en el MIT. Sze hizo hincapié en la en la importancia de la eficiencia energética para que los sistemas de Inteligencia Artificial sean capaces de funcionar más allá de los centros de datos. “La verdadera oportunidad no reside en construir los chips de aprendizaje profundo más poderosos, sino en desarrollar microprocesadores capaces de funcionar con la energía disponible en el dispositivo”, concluyó.

Si quieres seguir leyendo sobre Inteligencia Artificial y asistentes virtuales no te pierdas este post sobre Aura, la Inteligencia Artificial de Telefónica.

Sobre el autor

RELACIONADOS

GPTs Custom

Cómo hacer GPTs Custom

Hace unos meses, OpenAI presentó una nueva función para ChatGPT, el popular chatbot de la compañía que funciona gracias a GPT-4, su modelo de...