GPU Computing y Analítica
02/01/2019Hace ya tiempo (¡qué rápido pasa el tiempo!) hablamos sobre el uso de chips especializados en el ámbito de inteligencia artificial y terminamos el post con el mensaje que el hardware también importa.
Tras un año y pico nos encontramos que el mercado ha evolucionado considerablemente. Por un lado, NVIDIA se ha consolidado como el referente en este mercado y tras la escasez de tarjetas (por culpa de las criptomonedas) ahora ya no es tan complicado conseguir una (aunque el precio es significativo), además una gran cantidad de fabricantes han habilitado el uso de GPU computing, como queda patente en el catálogo de aplicaciones disponible (y que recomendamos revisar para coger inspiración).
Todo parece indicar que en el ámbito de deep learning y machine learning el uso de chips especializados (ya sea GPU, ASICs o FPGA) se han consolidado como opción. Así que es necesario introducirse en el tema. Os recomendamos las siguientes lecturas (navideñas):
- Deep Machine Learning on GPUs: http://www.ziti.uni-heidelberg.de/ziti/uploads/ce_group/seminar/2014-Daniel_Schlegel.pdf
- Optimizing Memory Efficiency for Deep Convolutional Neural Networks on GPUs: https://arxiv.org/pdf/1610.03618.pdf
- Scaling Deep Learning on GPU and Knights Landing clusters: https://arxiv.org/abs/1708.02983
- TensorFlow: A system for large-scale machine learning: https://arxiv.org/abs/1605.08695
Buena lectura!