Man nennt eine Klasse S von Funktionen lernbar, wenn es eine
berechenbare
Maschine M gibt, die, gegeben eine beliebige Funktion f in S, die Folge
f(0), f(1), ... Stueck um Stueck einliest und parallel dazu endlich oft
ein
Programm ausgibt, von welchen das letzte Programm die gegebene Funktion
f
berechnet.
Barzdins fuehrte den Begriff der robusten Lernbarkeit ein, welcher
fordert, dass nicht nur die Klasse S, sondern fuer jeden generell
rekursiven Operator O auch die Klasse O(S) lernbar ist. Insbesondere
war seine (inzwischen widerlegte) Vermutung, dass nur Teilklassen
von rekursiv aufzaehlbaren Familien totaler Funktionen robust lernbar
sind, der Ausgangspunkt der Entwicklung einer umfangreichen Theorie
ueber das robuste Lernen und seiner Varianten: das uniform robuste
Lernen und das hyperrobuste Lernen. Der Vortrag gibt einen Ueberblick
ueber diese Begriffe und stellt auch Bezuege zwischen dem robusten
Lernen und allgemeinen Eigenschaften von Lernverfahren (wie Konsistenz
und Verlaesslichkeit) her.