Red de conocimiento informático - Material del sitio web - Cómo utilizar CUDA Fortran para optimizar programas de computación paralela

Cómo utilizar CUDA Fortran para optimizar programas de computación paralela

Memoria compartida para que cada sesión de R pueda evitar lecturas repetidas cuando se calcula en paralelo. Existen paquetes como bigmemory para que diferentes sesiones de R puedan disfrutar de los datos en la memoria. No es necesario leer datos en paralelo en cada sesión de R.

Al utilizar MPI, evite utilizar mclapply y otras fórmulas demasiado avanzadas para operaciones paralelas. Hasta donde yo sé, mclapply copia todo el entorno en otra sesión de R y también requiere empujar objetos innecesarios, lo cual no tiene sentido.

Las operaciones consolidadas (como Map-Reduce o Storm) convertirán la presión de un solo servidor en la presión del proceso operativo, lo cual es un peligro oculto demasiado grande.

El almacenamiento distribuido (como mongodb) convierte la presión de la memoria en presión de la estructura de datos. Este peligro oculto es demasiado grande.

Escribir ecuaciones de bajo nivel como estructuras de bucles, Aritmética Científica Básica (BLAS), etc. en C o Fortran....

Realizar la optimización fundamental algorítmicamente. Muchas veces, la razón principal de los programas lentos y el desbordamiento de la memoria es que los programadores son vagos y no se esfuerzan por alcanzar la excelencia. Junto con el hecho de que los servidores suelen tener 16G de memoria, los programadores están echados a perder. Parece que pueden tirar cualquier cosa a la memoria sin limpiarla después de tirarla. Al mejorar el algoritmo, intentar obtener la respuesta final actualizando simultáneamente los resultados, solo se ve una parte de los datos.