neue MPI-Funktionen: 
- int MPI_Gather(void *sendbuf, int sendcount, MPI_Datatype sendtype,
         void *recvbuf, int recvcount, MPI_Datatype recvtype, 
         int root, MPI_Comm comm) 
Einsammeln von verteilten Daten auf Task root
 
- int MPI_Get_processor_name(char *name, int *resultlength) 
Name des lokalen Prozessors
  
 
Lastverteilung: 
- zentrales Problem für parallele Performance
 
- besonders kritisch in Workstation-Clustern
 
- Blockgröße hier kritische Größe:
    
- zu klein 
 hoher Kommunikations-Overhead
 
- zu groß 
 Zeitaufwand wird dominiert durch langsame
      Prozessoren
    
 
 
Abschätzen der Performance: 
- Annahme: gleichmäßige Verteilung der Blöcke 
      
 Modell erfaßt unterschiedliche Rechnerauslastung nicht!
 
- Gesamtzeit bei konstanter Gesamtarbeit, aber verschiedener Blocksize 
    (d.h. 
):
 
    
 
- Zeiten auf der N-Class:
  
 
  
    
     

Peter Junglas 11.5.2000