MPI-INF Logo
Campus Event Calendar

Event Entry

New for: D3

What and Who

Leistungverbesserung paralleler objektorientierter Programmiersprachen

Michael Philippsen
Informatik-Kolloquium
AG 1, AG 2, AG 3, AG 4  
Expert Audience

Date, Time and Location

Monday, 29 January 2001
11:00
-- Not specified --
45 - FR 6.1
003
Saarbrücken

Abstract


Die Bedeutung objektorientierter Programmiersprachen für die
Realisierung verteilter und paralleler Systeme nimmt zu.
Umfangreiche Arbeiten auf dem Gebiet der parallelen
oo-Sprachen haben in der Vergangenheit versucht, die
Konzepte der Paralellität und der Objektorientierung zu
kombinieren, und haben dazu den Synchronisationsaspekt in
den Vordergrund der Untersuchungen gestellt. Die
Implementierungen wiesen aber oft eine schlechte Leistung
auf, obwohl gerade die Parallelität ursprünglich zur
Leistungssteigerung hätte beitragen sollen.

Als einen zentralen Leistungsengpaß der parallelen
objektorientierten Programmierung untersucht der Vortrag die
Leistung des entfernten Methodenaufrufs. Dessen Laufzeit
bewegt sich bisher typischerweise im Millisekundenbereich,
weil die Unterschiede zum gewöhnlichen RPC (Polymorphismus,
dynamisches Code-Laden, verteilte Speicherbereinigung)
bisher nicht ausreichend verstanden worden sind.

Der Vortrag zeigt, welche neuen Optimierungsideen den
objektorientierten entfernten Methodenaufruf beschleunigen.
Ein wesentlicher Beitrag ist ein Satz von Regeln zur zügigen
Umwandlung zwischen Objekten und ihrer linearen
Byte-Darstellung. Ein weiteres Leistungsproblem in diesem
Zusammenhang geht auf den verteilten Speicherbereiniger
zurück: Die derzeit verwendeten verteilten
Speicherbereiniger leiden darunter, daß bei der Übergabe von
Objektreferenzen in entfernten Methodenaufrufen
Bestätigungsbotschaften erforderlich werden (entweder um
Wettlaufsituationen zu verhindern oder um mit
Netzwerkfehlern umzugehen.) Bestätigungsbotschaften bremsen
aber den entfernten Methodenaufruf grundsätzlich. Der
Vortrag skizziert einen neuartigen verteilten
Speicherbereiniger für Rechnerbündel, der durch eine
verteilte Speicherung der Zustandsinformationen und durch
Bandbreitenausnutzung ohne derartige Bestätigungsbotschaften
auf dem kritischen Pfad auskommt und damit die Latenz klein
hält.

Die vorgestellten Ergebnisse, die im Rahmen des
international beachteten JavaParty-Projektes entstanden
sind, bringen die parallele Leistung der zugrundeliegenden
Plattform besser in die Anwendungen.

Weitere Informationen finden sich unter
http://wwwipd.ira.uka.de/JavaParty/

Contact

Christian Schulte
--email hidden
passcode not visible
logged in users only