Der Vortrag zeigt, wie ursprünglich für die Handlungsplanung entwickelte
Algorithmen so erweitert werden können, daß multimodale
Mensch-Maschine-Dialoge auf der Basis planbasierter Methoden realisiert
werden können. Es wird erklärt, wie dabei die Ergebnisse der Sprach- und
Gestikgenerierung unter Berücksichtigung temporaler und räumlichen
Randbedingungen mithilfe einer geeigneten Verarbeitung von
Planungsoperatoren automatisch koordiniert und synchronisiert werden
können.
Beispiele aus der aktuellen Arbeit über die situierte Interpretation
multimodaler Dialogakte in seinem Forschungsprojekt SmartKom
illustrieren die praktische Relevanz dieser neuartigen Kombination von
Verfahren aus dem Bereich Computerlinguistik und Künstliche Intelligenz.
Schließlich wird diskutiert, wie die entwickelten planbasierten
Verfahren auf die argumentative Dialogführung zwischen Kunden und
Verkaufsagenten auf virtuellen Marktplätzen übertragen werden können.