En este curso se introducen y discuten la organización y la arquitectura de un sistema de cómputo paralelo. El enfoque es establecer las bases de una manera gradual, partiendo de los principios básicos y de los conceptos fundamentales.
El curso ilustra la evolución de los conceptos con el fin de explotar las características arquitéctonicas y tecnológicas que permiten la creación de máquinas de cómputo más veloces.
Información Básica
-
Profesor: Eugenio Tamura M.
-
Horario:
-
Viernes 18:00-21:00 Samán 5
-
-
Horario de Atención: vía correo electrónico
-
Horas de Clase: 3 / semana
-
Horas de trabajo independiente: 9 / semana
Objetivos Instruccionales
Al finalizar el curso los participantes podrán:
-
comprender las fuerzas que determinan la dirección de las arquitecturas de cómputo modernas.
-
comprender las restricciones que imponen las arquitecturas, los algoritmos, las técnicas y las herramientas empledas en la computación paralela.
Competencias a Desarrollar
Durante el curso el estudiante desarrollará su capacidad para:
-
Actualizarse en el conocimiento de la disciplina, en el estado tecnológico y en asuntos sociales, culturales, ecológicos y económicos pertinentes a
-
Identificar problemas en el contexto que planteen oportunidades de
-
Proponer alternativas de
-
Realizar
diseño y desarrollo de sistemas de cómputo paralelos.
Metodología
El curso es presencial y se impartirá mediante clases magistrales, y prácticas de laboratorio. Cada
sesión consta de una temática impartida por el profesor y unas actividades que deben ser realizadas
por el estudiante. Antes de iniciar cada tema, se recomendará la lectura de la bibliografía
relacionada, de modo que el estudiante tenga una base de conocimiento que le permita participar en
el desarrollo del tema durante la clase. También se realizarán exposiciones y puestas en común para ejercitar la
expresión oral y escrita.
Contenido
Tema | Sesión | Bibliografía |
---|---|---|
Paralelismo a Nivel de Instrucción | 1-4 | [4, 6, 8-11] |
Tendencias en Aplicaciones | 5-13 | [8-11] |
Tendencias Tecnológicas | 5-13 | [8-11] |
Tendencias Arquitectónicas | 5-13 | [8-11] |
Supercomputación | 5-13 | [8-11] |
Paralelismo y Memoria Compartida | 15-24 | [4, 6, 7, 8-11] |
Paralelismo y Paso de Mensajes | 15-24 | [4-7, 8-11] |
Otros Paradigmas | 15-24 | [1, 4, 6, 8-11] |
Redes de Interconexión Directas | 15-24 | [1, 3, 8-11] |
Redes de Interconexión Indirectas | 15-24 | [1, 3, 8-11] |
Redes de Interconexión Híbridas | 15-24 | [1, 3, 8-11] |
Conmutación y Enrutamiento | 15-24 | [1, 3, 8-11] |
Evaluación
Nota | Porcentaje |
---|---|
Primer Parcial | 25 % |
Segundo Parcial | 25 % |
Presentaciones | 15 % |
Prácticas de Laboratorio | 15 % |
Proyecto | 20 % |
Bibliografía
[1] CULLER, D. E. Parallel Computer Architecture. Morgan Kaufmann, 1999 [2] DALLY, W. J., TOWLES, B. Principles and Practices of Interconnection Networks. Morgan Kaufmann, 2004 [3] DUATO, J., YALAMANCHILI, S., NI, L. Interconnection Networks: An Engineering Approach. Morgan Kaufmann, 2003 [4] HENNESSY, J. L., PATTERSON, D. A. Computer Architecture: A Quantitative Approach, Fourth Edition. Morgan Kaufmann, 2007 [5] PACHECO, P. S. Parallel Programming with MPI. Morgan Kaufmann, 1997 [6] PATTERSON, D. A., HENNESSY, J. L. Computer Organization and Design: the Hardware/Software Interface, Third Edition, Revised. Morgan Kaufmann, 2006 [7] QUINN, M. J. Parallel Programming in C with MPI and OpenMP. McGraw-Hill, 2004 [8] IEEE MicroMicro Magazine [9] IEEE Computer Magazine [10] IEEE Transactions on Parallel and Distributed Systems [11] IEEE Transactions on Computers