"Life is xerox, we are just a copy"
(Graffiti an der Berliner Mauer, Januar 2000)
Virtuelle Kommunikationswelten, On- und Offline Wirklichkeiten, Spielen und Lernen im Cyberspace - ein 18jähriger zaubert Fraktale auf den Bildschirm, die für ihn eine Grenzwelt zwischen Kunst und Mathematik symbolisieren. Die Herstellung und das Agieren in dieser Welt erlaubt ihm, sich abwechselnd als ,Wissenschaftsmensch', und als ,Gefühlsmensch' zu inszenieren. Ein anderer Jugendlicher jongliert in selbstprogrammierten Computerspielen mit verschiedenen Rollen; mal ist er Kleriker, mal Magier, mal Druide, mal Lehrer, mal wieder Programmierer. (Vgl. Schlachner, 1996:S. 17)
Mit der heutigen Jugend steht uns die erste Cybergeneration gegenüber, postuliert KELLNER (1997). Das Gegenüber sind wir, die älter als 25jährigen dieser Erde, denen zwar alle Erkenntnistüren noch offenstehen, deren Grundwirklichkeit jedoch dreidimensional bleiben wird. Alles andere muss mehr oder weniger mühevoll erlernt werden. Für die Hineingewachsenen sieht das anders aus: Wirklichkeit ist für sie ein Kosmos, in dem sich physische und fiktive Areale gleichrangig gegenüberstehen. Dementsprechend nehmen sich die Mitakteure auch als unmittelbar anwesend wahr, verbunden mit einem Gefühl von Nähe und Gleichzeitigkeit. Das klassische Raum-Zeit-Gefühl scheint in den virtuellen Zusatzräumen gleichsam außer Kraft gesetzt. (Vgl. Vogelsang 2000) Dennoch sieht VOGELSANG die heutigen Kids als "kompetente Pendler zwischen medialen und realen Welten" (Vogelsang 2000:S. 251). Kompetenter als ihre Lehrer zumal.
Und obwohl die Realität der pädagogischen Reflexion noch weiter als sonst Voraus ist, zieht das world wide web jetzt per Regierungsdekret selbst in die letzte Dorfschule ein. Da klingt die Überlegung des ehemaligen Bundespräsidenten ROMAN HERZOG, der in seiner Rede "Megathema Bildung - vom Reden zum Handeln" auch vom Einsatz der neuen Medien eine "Revolution in den Klassenzimmern" erwartet, schon nachdenklicher: "Wir müssen die Pädagogik für das Informationszeitalter aber erst noch erfinden" (Herzog, 1999: S.20).
Innerhalb dieser pädagogischen Suche nach der Bedeutung der neuen Medien für die Schulen und Hochschulen und nach effektiven, d.h. bildungsfördernden Nutzungsmöglichkeiten und -kriterien, möchte die vorliegende Diplomarbeit einen bescheidenen Beitrag leisten. Durch einen E-mail-Kontakt zur TU-Chemnitz konnten Ergebnisse aus einem aktuellen Forschungsprojekt mit dem Titel "Umgang mit neuen Medien" mit in diese Arbeit einbezogen werden. Im Bereich der Linguistik hat sich eine Forschergruppe mit der "sprachlichen Aneignung von Computermedien" (Kallmeier, 1999) beschäftigt. Hierbei wurden Gespräche aufgezeichnet, die entstanden sind aufgrund eines Computerproblems. "Indem die Beteiligten in solchen Kontexten miteinander sprechen, so unsere These, bearbeiten sie zum einen die unmittelbar anstehenden Probleme; zum anderen geben sie zu erkennen und gleichen auch ab, was der Computer für sie ist, wie sie ihn sehen." (Kallmeier, 1999) Dabei wurde festgestellt, dass Benutzer ihrem Computer als "nur begrenzt zu beeinflussendes Gegenüber entgegentreten." (Kallmeier, 1999) Vielfach fühlen sie sich dieser Technik ausgeliefert. Die Lösung sollen sog. Intelligente Schnittstellen bringen, die nutzerspezifisch arbeiten. Gerade die transskribierten Gespräche über den Computer lassen vermuten, dass nicht allen Jugendlichen und jungen Erwachsenen die ,Trennung zwischen den Welten' so mühelos gelingt, wie VOGELSANG vermutet. Oft hat man dem Computer Intelligenz unterstellt, was dazu führt, dass er nahezu personalisiert wird: " Ich will die Datei speichern, da sagt der zu mir: "Datei wurde nicht gespeichert" - na Klasse!" (Kallmeier, 1999)
Wie intelligent sind Computer wirklich? Welche Rolle können und sollten sie in unserem Bildungsalltag spielen?
Nach dem Lesen des Titels dieser Arbeit, wird man einen Text erwarten, der eine graue Endzeitstimmung nachzeichnet, in der die Maschine herrscht und dem Menschen seine ureigenste Fähigkeit, das zielgerichtete Denken, streitig macht. Von einer solchen Illusion ist diese Arbeit jedoch weit entfernt. Es wird nicht darum gehen, den Lehrer durch einen maschinellen, intelligenten Tutor zu ersetzten, sondern es wird die Frage gestellt, ob durch den Einsatz von KI-Komponenten die Lehrkompetenz eines Lernprogrammes gesteigert würde. Hierbei soll der Begriff "künstliche Intelligenz" nach einer zu entwickelnden Definition auf den Prüfstand gestellt werden. Welche Erfolge wurden in den letzten Jahrzehnten, seit Beginn dieser neuen Forschungsrichtung, erzielt, welche programmiertechnischen Probleme wurden bis heute nicht gelöst. Mit Hilfe eines philosophisch-theoretischen Ansatzes sollen die Grenzen der KI erläutert werden, wobei zwischen prinzipiellen Grenzen und momentanem technischen Unvermögen unterschieden werden soll. Die Möglichkeiten der KI sollen anhand von Expertensystemen dargestellt werden, die als Inferenzsysteme die Erfolge der symbolischen KI-Forschung wiedergeben.
Durch die Bewertung der KI in Bezug auf die Implementierung in ein Computerlernprogramm soll ein Bogen zum zweiten Kapitel geschaffen werden, das sich, auf der Basis lerntheoretischer Erkenntnisse, mit der Entwicklung von Lernprogrammen beschäftigt. In drei Unterpunkten werden in historisch-chronologischer Reihenfolge die Lernprogramme ihren zugehörigen Lerntheorien gegenübergestellt. So ist es möglich, die einzelnen Lernprogramme voneinander abzugrenzen, da heutige Lernsysteme nicht mehr eindeutig einer Lerntheorie zuzuordnen sind, sondern sich häufig unterschiedliche lerntheoretische Erkenntnisse in einem breiten Lernangebot zusammenfinden.
Im dritten Kapitel soll vor dem Hintergrund der übermächtig gewordenen Informationsfülle und auch des -bedarfs des Internets ein Bewertungskatalog aufgenommen werden, mit dem es möglich ist Lernprogramme zu bewerten. Wenn SCHULMEISTER einen Rückgriff auf die Methoden des Programmierten Unterrichts in im Internet angebotenen Lernprogrammen beklagt, wird deutlich, wie wichtig eine solche Evaluation von Lernprogrammen wird, um dem Benutzer Entscheidungskriterien für die Wahl eines Lernprogramms an die Hand zu geben. In dieser Arbeit sollen zwei Lernprogramme aus sehr unterschiedlichen Lernumgebungen bewertet werden, wobei die lerntheoretischen Postulate des zweiten Kapitels im Vordergrund stehen werden. In einem vierten und abschließenden Kapitel soll die Nutzbarkeit der KI-Forschung für Lernprogramme zusammenfassend betrachtet werden.
Künstliche Intelligenz - Grenzen und Möglichkeiten
Begriffsbestimmung Intelligenz - künstliche Intelligenz auf der Basis des symbolverarbeitenden Ansatzes
AHRWEILER unterscheidet zwei Bearbeitungsstrategien in der KI-Forschung. Den symbolverarbeitenden Ansatz und den konnektionistischen Ansatz. Diese unterschiedlichen Ansätze haben "für kognitionswissenschaftliche Fragestellungen einerseits und verhandelte Stellungsnahmen zu erkenntnistheoretischen Positionen andererseits" (Ahrweiler 1995: S.22) verschiedenartige Auswirkungen. Deshalb wurden die Ausführungen ausdrücklich auf den symbolverarbeitenden Ansatz reduziert, um einer Verflechtung zweier verschiedener Theorien aus dem Weg zu gehen.
Was ist Intelligenz - Eine Dimensionierung
Intelligenz ist "die Fähigkeit zu problemlösendem, einsichtigem Verhalten." (Cruse/Dean/Ritter, 1998: S. 9) Der Brockhaus definiert Intelligenz als Klugheit, Fähigkeit der Auffassungsgabe, des Begreifens, Urteilens; geistige Anpassungsfähigkeit an neue Aufgaben. Während Meyers enzyklopädisches Lexikon Intelligenz als die Bewältigung neuartiger Situationen durch problemlösendes Verhalten versteht. SPÖRL umschreibt den Begriff der Intelligenz wie folgt: "Mit Intelligenz meine ich das Vermögen eines Lebewesens oder eines Apparates, Informationen von außen, Beobachtungen, Erfahrungen zu ordnen, Zusammengehörigkeiten zu entdecken, die Informationen damit auszuwerten, das alles, um auf diese Weise zu abstrahieren, um sie miteinander verknüpfen zu können." Bei diesen vielen unterschiedlichen Definitionsansätzen lässt sich jedoch eine Gemeinsamkeit feststellen: Die meisten Definitionen setzten das Vorhandensein einer Ratio voraus, in dieser erschöpft sich jedoch bei weitem nicht der Begriff der Intelligenz. DREYFUS und DREYFUS bemerken hierzu: "Zur Intelligenz gehört mehr als nur kalkulierbarer Verstand." (Dreyfus/Dreyfus, 1988: S.61) Sie unterscheiden irrationales, rationales und arationales Handeln. Wobei ersteres im Widerspruch zur Logik und zum Verstand steht, die Rationalität der Vernunft folgt und Arationalität "nennen wir Handlungen, die ohne bewusstes, analytisches Zerlegen und Rekombinieren auskommen." (Dreyfus/Dreyfus, 1988: S.62)
Da der Begriff der Intelligenz so viele unterschiedliche Facetten menschlicher Eigenschaften anspricht, haben sich in den vergangenen Jahrzehnten mehrere Forscher auf eine Dimensionierung von Intelligenz eingelassen. Einige dieser Versuche sollen an dieser Stelle wiedergegeben werden, um den Begriff in möglichst breiter Form zu charakterisieren.
Bei CRUSE, DEAN und RITTER wird die Frage gestellt, ob "Intelligenz eine einheitliche, unteilbare Fähigkeit" ist, oder ob "sie die Summe vieler Einzelfähigkeiten" (Cruse/Dean/Ritter, 1998: S.16) darstellt. Die Erkenntnisse der Neurophysiologie hat den Forschern, die sich mit Intelligenz beschäftigen, diese Trennung schon fast in den Mund gelegt, sie gehen nämlich davon aus, dass unterschiedlichen Bereichen unseres Gehirns unterschiedliche Aufgaben zukommen. Auch die drei oben genannten Autoren kommen zu dem Schluss, den Begriff Intelligenz zu dimensionieren:
"Ein intelligentes System sollte autonom sein (wörtlich: sich selbst das Gesetz, die Regel gebend)". Das System sollte hierbei sein "Verhalten weitestgehend selbst bestimmen." (Cruse/Dean/Ritter, 1998: S.23) Dies erweist sich jedoch in vielen Fällen als schwer trennbar, ob das System sich selbst bestimmt, oder ob es von außen bestimmt wird. Dennoch sollte es prinzipiell eine Unterscheidung zwischen eigen- und fremdbestimmtem Verhalten treffen können.
"Ein intelligentes System sollte Intentionen besitzen." (Cruse/Dean/Ritter, 1998: S.23) Es sollte also in der Lage sein, "sich selbst die Ziele seines Verhaltens auszuwählen." (Cruse/Dean/Ritter, 1998: S.23) Auch wenn, wie schon oben beschrieben, das Wort "selbst" einige Probleme aufwirft.
"Ein intelligentes System sollte sich anpassen und aus Erfahrungen lernen können." (Cruse/Dean/Ritter, 1998: S.24) Es sollte auf die Veränderungen seiner Umwelt reagieren können, wobei vorausgesetzt wird, dass das System selbst in der Lage ist, sich zu verändern. Es dürfen also keine starren Strukturen vorliegen, sondern es muss in einem dialogischen Verhältnis zu seiner Umwelt stehen. In einem ähnlichen Zusammenhang schreiben DEAN, HOLK und RITTER, dass ein intelligentes "System offen sein" (Cruse/Dean/Ritter, 1998: S.27) sollte. Es darf also nicht nur in einem begrenzten Raum, z.B. einem Labor überlebensfähig sein, sondern muss auch mit unbekannten Situationen zurecht kommen.
"Eine wichtige Eigenschaft von Intelligenz besteht auch darin, den Erfolg eines Verhaltens beurteilen zu können." (Cruse/Dean/Ritter, 1998: S.24) Die drei Autoren machen dies am Beispiel der Fliege deutlich, die selbst nach mehreren Versuchen immer wieder gegen die Fensterscheibe fliegt und damit den Misserfolg ihres Verhaltens nicht reflektieren kann. Ein intelligentes System sollte zumindest nach dem Prinzip von "Trial and error" zu einer alternativen Problemlösung gelangen, um "Sackgassen" zu vermeiden, die wie im Beispiel der Fliege lebensbedrohlich enden können.
"Eine weitere wichtige Eigenschaft ist die Fähigkeit zur Generalisierung." (Cruse/Dean/Ritter, 1998: S.24) Der Begriff der Generalisierung wird hier in zweifacher Hinsicht gebraucht. Zum einen sollte das System über eine gewisse "Fehlertoleranz" verfügen, die es ermöglicht, so noch nicht wahrgenommene Dinge einzugliedern. Generalisierung bedeutet also hier Ahnlichkeiten zu erkennen, um sie in schon Bekanntes einzufügen. Auf der anderen Seite sollte ein intelligentes System die Fähigkeit der Generalisierung dazu benutzen können, Kategorien zu bilden, um Abstraktion zu ermöglichen. Ein Beispiel soll den Unterschied der verschiedenartigen Anforderungen an Generalisierung näher erläutern:
Durch das Erkennen unterschiedlicher Farben ist der Mensch in der Lage Rottöne und Blautöne zu kategorisierten. Er muss aber auf der anderen Seite auch in der Lage sein, ein gesehenes Orange als einen modifizierten Rotton zu erkennen.
Eine andere Eigenschaft von Intelligenz "ist die Fähigkeit, zwischen Alternativen entscheiden zu können." (Cruse/Dean/Ritter, 1998: S.25) Meistens fällt die Wahl zwischen zwei gleichwertigen Alternativen sehr schwer. Aus diesem Grund setzen intelligente Systeme sogenannte Kostenfunktionen oder allgemeine Regeln ein, um eine Entscheidung treffen zu können, z.B. immer der kürzeste Weg oder die Lösung, "die die wenigste Energie oder die geringste Zeit verbraucht." (Cruse/Dean/Ritter, 1998: S.26)
"Die vielleicht wichtigste Bedingung für das Auftreten von Intelligenz besteht in der Fähigkeit, Anderungen der Umwelt, z.B. als Folge eigener Aktivität vorhersagen zu können." (Cruse/Dean/Ritter, 1998: S.27) Hierbei unterstellen die drei Autoren dem System schon so etwas wie Bewusstsein, weil es sich um ein selbstreferentielles System handelt, das was MATURANA und VARELA als Autopoieses beschreiben.
Auswertung und Definition
"Ein System ist also dann intelligent, wenn es in einer gegebenen und sich verändernden Umwelt die Chancen seiner Selbsterhaltung im Vergleich zu seinem aktuellen Zustand verbessern kann." (Cruse/Dean/Ritter, 1998: S.27)
CRUSE, DEAN und RITTER haben sich in ihrer abschließenden Definition auf eine eher biologische Sichtweise gestützt. So wird das Ziel der Selbsterhaltung zum Kriterium, das den Dimensionen von Intelligenz ihre Position zuweist und sie untereinander verbindet. Diese obengenannte Definition sollte also in einem Zusammenhang zu der Dimensionierung gesehen werden, um eine für diese Arbeit zufriedenstellende Begriffsbestimmung für den Terminus "Intelligenz" festzulegen.
CRUSE, DEAN und RITTER haben sich bemüht, den Begriff Intelligenz immer auf Systeme zu beziehen, um zu verdeutlichen, dass diese Eigenschaft nicht nur dem Menschen zukommt, sondern durchaus auch Tieren, wenn nicht sogar Maschinen. Für eine Arbeit über künstliche Intelligenz ist solch ein Definitionsansatz förderlich, da dadurch nicht im Vorhinein ausgeschlossen wird, dass auch Digitalcomputer intelligent sein können.
Was ist künstliche Intelligenz? - Der symbolverarbeitende Ansatz
Der symbolverarbeitende Ansatz ist der ältere von beiden oben genannten Ansätzen (vgl. Kap. 1.1.) in der KI-Forschung. Nach AHRWEILER (Ahrweiler 1995: S.22) sollen hierbei die einzelnen Denkschritte des Menschen direkt "in die Sprache eines Computerprogramms übersetzt" werden. Nach NEWELL und SIMON sind "kognitive Prozesse Transformation von Symbolstrukturen. Symbolstrukturen wiederum sind aus elementaren Symbolen als bedeutungstragende Einheiten gemäß syntaktischer Regeln zusammengesetzt." In diesem Zusammenhang sei die These von NEWELL und SIMON eine hinreichende Voraussetzung von intelligentem Verhalten (Strube, 1993: S.304). "Die Fähigkeiten, die diese Leistungen [z.B. Verknüpfung von Symbolketten] ermöglichen", wollen wir "auf der funktionellen Ebene mit rationaler Intelligenz bezeichnen." (Cruse/Dean/ Ritter, 1998: S.10) Der Begriff der rationalen Intelligenz übernimmt auch für die Definition der künstlichen Intelligenz eine wichtige Funktion. Digitalcomputer sind symbolverarbeitende Systeme, die den Gesetzen der Logik folgen, die wiederum auf der Ratio fußen. An dieser sehr eingeschränkten Definition von künstlicher Intelligenz liegt das Problem. Ist ein System wirklich als intelligent zu bezeichnen, wenn es sich nur auf künstliche Problemstellungen beschränkt? Diese Frage jedoch soll Gegenstand der Diskussion über Grenzen und Möglichkeiten künstlicher Intelligenz sein. (vgl. Kap. 1.2./1.3.)
Ein großer Bereich der KI-Forschung ist die Cognitive Science, die den menschlichen Geist und die Materie miteinander verbindet. Sie beschäftigt sich mit Fragen wie "Gibt es Kategorien, die menschliches und maschinelles Denken a priori beschränken?" oder "Wie funktioniert die biologische Informationsverarbeitung?" (Bibel/u.a., 1987: S. 5) Es sei hier nur beispielhaft auf die Ausführungen zu den Grenzen der KI hingewiesen, denn auch damit beschäftigen sich die Cognitive Science Forscher.
Die Ziele der KI-Forschung sind einerseits "to construct computer programs which exhibit behavior that we call "intelligent behavior" when we observe it in human beings", andererseits will man durch die Entwicklung von Simulationsmodellen natürliche Kognitionsprozesse besser verstehen lernen. In diesen Definitionsansatz, künstliche Intelligenz möge menschliche Intelligenz simulieren, reiht sich auch der nun folgende Turing-Test ein, der dann als erfolgreich bezeichnet werden darf, wenn ein Mensch während einer Konversation den Unterschied zwischen einer Maschine und einem Menschen nicht mehr wahrnehmen kann.
Der Turing - Test
Die Ausgangsfrage, die Turing gestellt hatte war, ob Maschinen denken können, bzw. in der Lage sind einen Menschen erfolgreich zu imitieren. Im Folgenden soll sein Experiment beschrieben werden, um daran eine kritische Diskussion anzuschließen.
"Der Gedanke besteht darin, einen Menschen vor ein einfaches Computerterminal zu setzten, so dass er mit Hilfe von Tastatur und Bildschirm Fragen an die Maschine stellen und Antworten von ihr erhalten kann. Der Versuchsperson wird dabei mitgeteilt, dass ihr Terminal in verschiedenen Sitzungen entweder mit einem Computer oder mit einem Terminal verbunden ist, das gleichfalls von einem Menschen bedient wird. Die Aufgabe des Beobachters besteht darin, im Laufe dieser Unterhaltung herauszufinden, ob sein jeweiliges Gegenüber nun ein Mensch oder eine Maschine ist. Turing fordert, dass ein künstliches System dann als wirklich intelligent bezeichnet werden muss, wenn der menschliche Beobachter diesen Unterschied nicht mehr eindeutig zu treffen vermag." (Cruse/Dean/Ritter, 1998: S.13)
Die Beantwortung der Frage, ob durch dieses Experiment erfolgreich der Nachweis geführt wurde, dass Maschinen denken können, verbleibt der sich nun anschließenden Diskussion.
Turing setzt durch die Formulierung seines Experimentes voraus, dass Intelligenz nur über das Verhalten messbar ist. Wobei der Begriff messbar hier eher die Bedeutung von empfindbar hat. So wird das Experiment nicht eindeutiger, sondern eher beliebiger. Der Anspruch, der diesem Test zugrunde liegt, ist jedoch nicht zu vernachlässigen. "Nicht das Verhalten an sich, sondern Verhalten im Kontext einer beliebigen Umwelt bestimmen die Bewertung der Intelligenz." (Cruse/Dean/Ritter, 1998: S.21) Die "beliebigen Umwelten" sind in diesem Versuch die verschiedenen Gesprächsthemen, zu denen sich der Computer äußern kann und auf der anderen Seite die unterschiedlichen Versuchspersonen. Die von CRUSE, DEAN und RITTER formulierten Anforderungen an ein intelligentes System sind also erfüllt. Wie aber die folgenden Ausführungen zeigen werden, könnte der Turing-Test mit sehr zweifelhaften Tricks bestückt werden, um die Maschine intelligent erscheinen zu lassen.
Das erste sich stellende Problem ist die Voreingenommenheit des Menschen gegenüber einem Computer. Während die Versuchsperson einem Computer vorzugsweise unterstellt, rational zu handeln, unterstellt sie einer menschlichen Interaktion vielmehr Emotionalität. Eine falsche Antwort wird also eher mit den Verhaltensweisen eines Menschen verknüpft, als mit denen eines Computers. So ist man mit der einfachen Einführung eines Zufallgenerators in der Lage, auch dem Computer eine falsche Antwort zu entlocken, die man eigentlich nur von einem Menschen erwarten würde. Der Einsatz eines solchen Zufallgenerators jedoch birgt in keiner Weise intelligentes Verhalten. (vgl. Cruse/ Dean/Ritter, 1998: S.13ff.)
TURING war eine klare Trennung zwischen physischen und geistigen Tätigkeiten sehr wichtig. Deshalb bevorzugte er in seinem Experiment den schriftlichen Dialog. Das Ziel, menschliche Verhaltensweisen nachzuahmen, wäre in diesem Gedankenexperiment gelungen, dennoch ist dadurch nicht bewiesen, dass Maschinen denken können. Unterstützen möchte ich diese Behauptung mit den Ausführungen von DREYFUS und DREYFUS über das von WEIZENBAUM entwickelte Interaktionsprogramm ELIZA. Das Programm war in der Lage ähnlich einem Non-direktiven Therapeuten, die Aussagen seines Gegenübers zu spiegeln bzw. in eine Frage umzuwandeln. Die Menschen, die versuchsweise mit diesem Programm interagierten, hatten wie in TURINGS Gedankenexperiment das Gefühl, mit einem realen Therapeuten zu "sprechen". DREYFUS und DREYFUS machten jedoch mit diesem Programm folgende Erfahrung: "als wir eingaben "ich bin glücklich" und uns anschließend korrigierten: "Nein, in gehobener Stimmung." lieferte ELIZA die Bemerkung: "Seien sie doch nicht so negativ." Warum das? Weil es darauf programmiert war, immer, wenn ein "Nein" eingegeben wurde, mit diesem Tadel zu reagieren." (Dreyfus/Dreyfus, 1988: S.104) Das heißt, das Ziel TURINGS, einen Menschen nachzuahmen, hat ELIZA erfolgreich gemeistert, dennoch hat WEIZENBAUM kein intelligentes Programm konstruiert, denn dann hätte das Programm den Inhalt der Frage verstanden und hätte nicht nur auf einzelne Reizwörter mit Hilfe von Regeln reagiert. Nach KLIMSA und ISSING ist ein Computer nicht in der Lage eine Kommunikation zu führen. (vgl.Klimsa, Issing, 1995: S.347)
Insofern wird auch die Turingmaschine nicht verstehen können. Die Imitation eines Menschen ist in beiden Fällen (ELIZA/ Turingmaschine) von Außen betrachtet gelungen, die Abläufe im Inneren unterscheiden jedoch den Computer vom Menschen außerordentlich.
Kritische Betrachtung hinsichtlich einer Definition
Was verbleibt also vom Turing-Test für eine Definition? Der Turing-Test erklärt nicht, was künstliche Intelligenz ist, sondern womit künstliche Intelligenz sich beschäftigt. Auch NEBENDAHL beschäftigt sich nicht mit der Erklärung von KI, sondern mit dessen Forschungsinhalt: "Artificial Intelligence (A.I.) is the study of how to make computers do things at which, at the moment, people are better." (Nebendahl, 1987: S.16) Schon an dieser Definition wird deutlich, dass künstliche Intelligenz als sehr idealistisch beschrieben wird. In einer anderen Definition gehen BIBEL u.a. sowohl auf die Vorgehensweise der KI-Forscher als auch auf die Verwendung von KI ein: "Die ´künstliche Intelligenz` untersucht solche bisher dem Menschen vorbehaltene Verhaltensweisen, indem sie sie auf dem Rechner simuliert und naturwissenschaftlicher Betrachtungsweise und damit ingenieurmäßiger Verwendung zugänglich macht." (Bibel/u.a., 1987: S.1)
JOHN SEARLE macht einen Unterschied zwischen der starken und der schwachen KI. So besteht bei der schwachen KI der Wert des Computers im wesentlichen in seiner Funktion als Werkzeug beim Studium des Geistes (mind). Diese These wird unterstützt von KAIL und PELLEGRINO, die die menschliche Kognition mit Hilfe einiger Begriffe der Computerwissenschaft nachzeichnen. "Dabei behandeln die meisten Kognitionspsychologen unserer Zeit die menschliche Kognition als einen Prozess der Informationsverarbeitung. Der Terminus der Informationsverarbeitung ist der Computerwissenschaft entlehnt und gibt bereits einen deutlichen Hinweis auf die Natur des Ansatzes." (Kail/Pellegrino, 1988: S.54)
Bei der starken KI ist ein entsprechend programmierter Computer nicht nur ein Werkzeug zum Studium des Geistes, sondern realisiert den Geist in dem Sinne, dass von ihm behauptet werden kann, er verstehe tatsächlich und könne kognitive Zustände, wie sie bei Menschen vorzufinden sind, imitieren. (Schäfer, 1994: S.104 ff.) Während also die schwache KI nach SEARLE eher den Status einer Hilfswissenschaft für die cognitive psychology und die Philosophie hat, ist die starke KI ein eigener Forschungszweig. Das würde jedoch bedeuten, dass sich die schwache KI im Erfolgsfalle selbst auflöst bzw. deren Wissen und Methoden in andere Disziplinen eingebracht würde.
Ob starke oder schwache KI, sie ist ein übergreifendes, interdisziplinäres Forschungsgebiet unter Beteiligung der (kognitiven) Psychologie, (Computer-) Linguistik, Philosophie, Neurowissenschaften. Desweiteren lässt sich nach dieser Sammlung von Definitionen zur künstlichen Intelligenz sagen, dass die KI der Frage nachgeht, in wiefern eine Maschine in der Lage ist, menschliche Intelligenz nachzuahmen. Es fällt bei dieser Ansammlung von Aussagen über die KI schwer eine Definition zu formulieren, da sich alle Ausführungen auf die Betätigungsfelder der KI beziehen, jedoch nicht auf das Wesen der KI. Dennoch lässt sich abschließend folgende Definition über die KI für diese Arbeit zugrunde legen:
Es ist die Aufgabe der KI unter Zuhilfenahme der Kognitionspsychologie, Philosophie und der Neurowissenschaften eine Maschine so zu programmieren, dass sie intelligentes menschliches Verhalten imitieren kann.
Grenzen der Künstlichen Intelligenz
Wenn über die Grenzen der KI gesprochen wird, wird meist versucht, das eigene Paradigma mit allen Mitteln zu verteidigen und neue Betrachtungsweisen in das eigene Denksystem zu integrieren. AHRWEILER bezeichnet solch eine Abwehrstrategie als Synkretismus (Integration in das eigene Paradigma) hierdurch ist es möglich jede Kritik zu neutralisieren. (vgl. Ahrweiler, 1995: S.18)
Mit dem Herausstellen des Synkretismus soll analysiert werden, welche Grenzen sich die KI-Forschung wirklich steckt oder ob es sogar zur Eigenschaft der KI-Forschung gehört, ohne Grenzen auszukommen. Hierbei sollen Grenzen immer verstanden werden als unabhängig vom Entwicklungstand nie zu erreichende Ziele.
Die Annahmen, die benannt werden, gehen auf DREYFUS und DREYFUS zurück, die mit Hilfe der direkten Anlehnung an menschliche Eigenschaften des Denkens und Handelns, die Grenzenlosigkeit der KI kritisch beleuchten wollen. In diesem Zusammenhang kommt vor allem dem oben benannten Synkretismus eine besondere Bedeutung zu, da es in der Natur dieser Annahmen liegt, menschliches Verhalten auf maschinelle Prozesse zu übertragen und integrieren zu wollen.
WAHLSTER gesteht ein, dass es "Aspekte menschlichen Verhaltens gibt, die man gar nicht mit Informationsverarbeitung erklären kann." (Ahrweiler 1995: S.16) Er sagt weiter, "wenn es um Anwendungen geht, bin ich immer dafür, dass man soweit möglich ganzheitlich evaluiert und biologische Aspekte, die mit der Informationsverarbeitung gar nichts zu tun haben, mitberücksichtigt. Aber unsere These, unser Forschungsparadigma, ist nun einmal, dass wir alles auf Informationsverarbeitung beziehen. " (Ahrweiler 1995: S.16) Auch an dieser Stelle wird das Wesen des Synkretismus deutlich. Es ist unerheblich aus welchem Gebiet die erforschten Annahmen stammten, sie werden immer in das eigene Paradigma eingepasst.
Die biologische Annahme
"Das menschliche Gehirn funktioniert physiologisch wie Computerhardware." (Daniel/Striebel 1993: S.23) DREYFUS ergänzt, dass "das Gehirn Informationen in einzelnen Abschnitten verarbeitet, und zwar mit Hilfe eines biologischen Aquivalents von Ein-Aus-Schaltern."(Dreyfus 1985: S. 105/106)
DREYFUS beschreibt zwei Erkenntnisse, die diese Annahme verneinen:
Nach vielen neurophysiologischen Forschungsergebnissen stellt man sich das Gehirn als einen elektronischen Rechner vor. So stoßen die Neuronen im Gehirn einen elektrischen Stromstoß an benachbarte Neuronen aus, ähnlich einem Computer, der über einen elektrischen Impuls Informationen zusammenfügt. Bei einer genaueren Untersuchung der Tätigkeit eines digitalen Computers stellt man jedoch fest, dass es das Merkmal der Digitalität ist, dass Informationen in deskriptiver Sprache als Symbol dargestellt werden. Dieser Verarbeitungsmechanismus entspricht nicht dem des Gehirns. Das Gehirn bearbeitet Informationen analog. Das heißt physikalische Variablen wie zum Beispiel die Geschwindigkeit oder die Intensität entsprechen der eigentlichen Information. Eine Informationseinheit wird im Gehirn also nicht durch ein Symbol abgebildet, sondern die Art und Weise der Übertragung entspricht dem Symbol. Das jedoch widerspricht der Informationsverarbeitung eines Digitalcomputers, so dass DREYFUS mit der Frage endet, ob Computer überhaupt die geeigneten Maschinen sind, um die Tätigkeit des Gehirns zu simulieren.
ROSENBILTH beschreibt einen zweiten Argumentationsstrang gegen die biologische Annahme. Hierbei wird der Schwerpunkt nicht auf die Art der Informationsverarbeitung gelegt, sondern auf die Wechselwirkung der einzelnen Neuronen untereinander. Im Gehirn werden einzelne elektrische Stöße immer auch an benachbarte Neuronen weitergegeben. Ein Neuron steht also nicht isoliert im Raum, sondern interagiert immer mit vielen anderen Neuronen. Die Maschine bleibt jedoch nicht-interaktiv organisiert.
Die erkenntnistheoretische Annahme
"Menschliches Denken lässt sich formal beschreiben und ist mit den klassischen naturwissenschaftlichen Methoden zugänglich." (Daniel/Striebel 1993: S.23)
Diese erkenntnistheoretische Annahme lässt sich in zwei Behauptungen segmentieren.
"Jedes nicht willkürliche Verhalten ist formalisierbar." (Dreyfus 1985: S.138)
"Mit einem Formalismus kann das entsprechende Verhalten reproduziert werden." (Dreyfus 1985: S.138)
Das menschliches Denken sich formal beschreiben lässt, dem stimmen auch DERYFUS und DREYFUS im ersten Kapitel ihres Buches zu. "Vom Neuling zum Experten" (vgl. Dreyfus/Dreyfus, 1988: S. 37 - 80) nennen sie einen Aufsatz, der sich mit der Formalisierung menschlicher Lern- und damit auch Denkprozesse beschäftigt. Sie haben für den Erwerb einer neuen Fähigkeit fünf Stufen angenommen. Diese sind das Ergebnis einer Studie über den Fertigkeiten-Erwerb bei Flugzeugpiloten, bei Schachspielern, Autofahrern und Erwachsenen, die eine zweite Fremdsprache lernen.
1. Stufe: Neuling
Die ontologische Annahme
Die aus KI-Sicht gemachte ontologische Annahme lässt sich in drei Aussagen zusammenfassen:
Die Welt besteht "aus objektiven, von Menschen und untereinander unabhängigen Fakten." (Daniel/Striebel 1993: S.23)
Die Welt lässt sich in isolierbare, kontextunabhängige, kleine Elemente, zerlegen. (vgl. Daniel/Striebel 1993: S.24)
Alle Elemente jedoch sind wiederum logisch voneinander abhängig. (vgl. Dreyfus 1985: S.106)
Der Ansatz der Gegenargumentation ist aus der Linguistik abgeleitet. CHOMSKY und andere Vertreter der Transformationsgrammatik haben "von menschlicher Sprachverwendung abstrahiert und so die menschliche Fähigkeit formalisieren können, grammatisch korrekte Sätze zu erkennen und inkorrekte zurückzuweisen." (Dreyfus 1985: S.145/146) Es bleibt also die Frage, ob der Computer in der Lage ist, das formalisierte Verhalten anschließend zu reproduzieren. Hierbei müsste es der KI-Forschung gelingen, nicht nur die Sprachkompetenz, sondern auch die Sprachverwendung zu formalisieren. In diesem Punkt jedoch scheitert wiederum die Verwirklichung regelgeleiteter Systeme, denn ein Programm wird nie den Sinn einer Aussage "in einen Kontext menschlichen Lebens" (Dreyfus 1985: S.147) einordnen können. Aber in vielen Fällen macht erst der jeweilige Kontext eine Aussage verständlich. "Für eine vollständige Theorie der praktischen Fähigkeiten von Sprechern braucht man nicht nur grammatische und semantische Regeln, sondern darüber hinaus Regeln, die es einer Person oder einer Maschine ermöglichen würden, den Kontext zu erkennen, in dem die Regeln angewendet werden müssen." (Dreyfus 1985: S.151) Es müssten also Regeln für die Regeln entwickelt werden, um einen Kontext als eine Ausnahme von der Regel zu beschreiben. In diesem Moment befindet sich das Programm in einem unendlichen Regress. "Da wir [Menschen] in der Lage sind, von unserer Sprache Gebrauch zu machen, kann dieser Regress für Menschen kein Problem sein. Wenn künstliche Intelligenz möglich sein soll, darf dies auch für Maschinen kein Problem sein." (Dreyfus 1985: S.151) Das sich hier an die Formalisierbarkeit von menschlichem Verhalten anschließende Problem wird von DREYFUS und DREYFUS auch das "Relevanzproblem" (Dreyfus/Dreyfus, 1988: S.114) genannt. So ist es möglich jede in sich abgeschlossene Situation zu formalisieren. Versuche, diese vielen abgeschlossenen Situationen zu einem Gesamtverhalten zusammenzuschließen, gelangen jedoch nie. Hierzu schreibt MINSKY, dass "die in Semantic Information of Processing beschriebenen Programme am Besten arbeiten werden, wenn man ihnen die exakt notwendigen Fakten eingibt", aber "sie werden unerbittlich stecken bleiben, wenn die Informationsdateien wachsen." (Minsky, 1968: S.18) Er schreibt weiter: "Jedes Programm arbeitet nur in seinem begrenzten Spezialgebiet und es gab keine Möglichkeit, zwei verschiedene Problem-Löser miteinander zu verbinden." (Minsky, 1968: S.13) Der Computer scheint mit wachsender Komplexität der Situation nicht mehr unterscheiden zu können, welche Regeln in einem bestimmten Zusammenhang von Bedeutung sind und welche nicht. Für einen Digitalcomputer ohne eine Beziehung zu der erlebten Welt sind die aus einem "Kontext herausgelösten Tatsachen eine sperrige Masse neutraler Daten." (Dreyfus 1985: S.234) So ist dem ontologischen Argument nur solange zuzustimmen, wie die programmierte Situation klar definiert ist. Es ist jedoch im Moment nicht vorstellbar, dass eine komplexe Situationen so formalisiert werden kann, dass die Maschine zwischen relevanten und irrelevanten Regeln unterscheiden kann. Grundsätzlich bleibt die Frage, ob Menschen in der Lage sind auch komplexe Situationen so zu beschreiben, dass sie komplett in Regeln gefasst werden können. "Allein aber die Anzahl amtierender Juristen zeigt uns, dass es unmöglich ist, Ambiguitäten, Ermessens- und Urteilsspielräume auszuräumen, indem man die Gesetzbücher so komplettiert, dass sie alle möglichen Situationen beschreiben und vorwegnehmen." (Dreyfus/Dreyfus, 1988: S.114)
Zusammenfassende Übersicht über die Grenzen der KI
Annahmen der KI |
Aussagen der KI-Forschung über menschliche Kognitionsvorgänge |
Widerlegung/Zustimmung nach DREYFUS und DREYFUS zur Übertragung auf die Fähigkeiten eines Computers |
Biologische Annahme |
"Das menschliche Gehirn funktioniert physiologisch wie Computerhardware." (Daniel/Striebel 1993: S.23) |
Kein Vergleich möglich, da das Gehirn Symbole physikalisch verarbeitet (Intensität/ Geschwindigkeit), während der Computer Symbole als solche verarbeitet. |
Erkenntnistheoretische Annahme |
"Menschliches Denken lässt sich formal beschreiben und ist mit den klassischen naturwissenschaftlichen Methoden zugänglich." (Daniel/Striebel 1993: S.23) | |
"Jedes nicht willkürliche Verhalten ist formalisierbar." (Dreyfus 1985: S.138) |
Wenn mit "nicht willkürlich" einer strikten Regel folgend gemeint ist, ist auch dieser Aussage zuzustimmen. |
|
"Mit einem Formalismus kann das entsprechende Verhalten reproduziert werden." (Dreyfus 1985: S.138) |
Auch für den Computer lassen sich kontextfreie Regeln formulieren, wobei es schon immer eine der Stärken des Computers war, Abläufe reproduzieren zu können. |
|
Ontologische Annahme |
Die Welt besteht "aus objektiven, von Menschen und untereinander unabhängigen Fakten." (Daniel/Striebel 1993: S.23) |
Eine Aussage muss jedoch immer unter Berücksichtigung des gesamten Kontextes gesehen werden und genau da scheitern die Maschinen. Sie können vielleicht einzelne Informationen verstehen, jedoch nicht den Zusammenhang herstellen. |
Die Welt lässt sich in isolierbare, kontextunabhängige, kleine Elemente, zerlegen. (vgl. Daniel/Striebel 1993: S.24) |
Der Aussage ist zuzustimmen, es ist jedoch nach DREYFUS und DREYFUS nie gelungen, diese Informationen zu einem sinnvollen Ganzen zu verknüpfen. |
Anhand dieser abschließenden Übersicht ist zu erkennen, dass es nur wenige Grenzen gibt, die die KI zu überwinden hat. Vielfach sind diese Grenzen dabei nur dem technologischen Unvermögen zuzuschreiben. Es wird also weiterhin die Frage offen bleiben, ob es möglich ist, selbstreferentielle Systeme zu erschaffen. Hinzu kommt, dass der Ansatz der symbolischen KI, wie schon oben erwähnt, die ersten Versuche in der KI-Forschung repräsentiert. Es bleibt also abzuwarten, ob neuere Entwicklungen die von DREYFUS und DREYFUS beschriebenen Grenzen überwinden können. Dabei könnten die im Folgenden beschriebenen Expertensysteme einen Anfang einleiten.
Möglichkeiten der Künstlichen Intelligenz
Der Computer war bis dato immer auf einen Input angewiesen, selbst die Lösung eines Problems wurde dem Computer immer vorgegeben, er war immer eine Reproduktionsmaschine, jedoch nie eine Produktionsmaschine, so wie der Mensch. Diese und viele andere Grenzen wurden in dem vorangegangenen Kapitel erläutert, dennoch muss es einige Erfolge auf dem Gebiet der KI gegeben haben, die die mittlerweile schon 40-jährige Tradition rechtfertigen. Das nun folgende Kapitel soll einen Überblick über die Erfolge in der KI-Forschung geben, um im Anschluss daran unter Berücksichtigung der Definitionen kritisch zu analysieren, welche Fähigkeiten KI-Systeme erlangen können und in welchen Bereichen sie den Menschen nie imitieren können werden.
Expertensysteme
Ein Expertensystem ist ein Programm, das mit Hilfe von Wenn-Dann-Regeln in der Lage ist Aussagen über einen bestimmten Sachverhalt zu treffen. Solch eine Form der Datenverarbeitung wird als wissensbasierte Verarbeitung bezeichnet. Expertensysteme sind jedoch nicht mit Datenbanken zu vergleichen, da reine Datenbanken nicht in der Lage sind ihre Daten zu interpretieren. Wissen ist also nichts anderes als interpretierte Daten. Ein wissensbasiertes System soll somit einen menschlichen Experten simulieren. "Im Unterschied zum menschlichen Experten ist das Wissen eines Expertensystems auf eine spezialisierte Informationsbasis beschränkt" (Mainzer, 1997: S.110)
Nach RADERMACHER ist "ein Großteil von dem, was wir tun, nicht mehr als Regelverarbeitung" (Ahrweiler 1995: S.25). Hierzu werden einfache "Wenn-Dann-Regeln" aufgestellt, die das Programm Schritt für Schritt durchläuft. Für RADERMACHER liegt der größte Beitrag der KI in den Inferenzsystemen, die geschrieben wurden, um "die Verwaltung und Abarbeitung großer Regelmengen zu erleichtern" (Ahrweiler 1995: S.25). Schon an dieser Stelle wird deutlich, dass es, wenn auch in einem begrenzten Rahmen, möglich ist, menschliche Denkvorgänge auf eine Maschine zu übertragen.
Nachdem im Expertensystembereich sehr unterschiedliche Definitionen von Expertensystemen im Umlauf sind, erscheint es sinnvoll die differenzierende Definition aus COY und BONSIEPEN zu übernehmen. Diese Definition trennt zwei unabhängige Aspekte, die für den Begriff Expertensystem wichtig sind, in zwei verschiedene Definitionen:
Anwendungsorientierte Definition:
Ein Expertensystem ist ein Computerprogramm, das für ein spezifisches und genau abgegrenztes Teilgebiet gewisse Aufgaben eines Experten lösen kann bzw. ihn bei der Problemlösung unterstützt. Dazu wird das spezielle Wissen des Experten explizit in symbolischer Form in einem Programm oder als Datenmenge bzw. innerhalb einer Datenbank dargestellt.
Technische Definition:
Expertensysteme sind Programme, die sich durch die Trennung der anwendungsspezifischen Methoden in der Wissensbank und der anwendungsunabhängigen Programmsteuerung durch die Inferenzmaschine zum Erzeugen logischer Schlussfolgerungen auszeichnet.
Es ergeben sich natürlich auch zwei Fälle, wo diese beiden Definitionen nicht zusammenfallen. Zum einen kann ein System Aufgaben eines Experten übernehmen und doch auf traditionelle Art programmiert sein, zum Beispiel aus Effizienzgründen. Zum anderen kann es vorkommen, dass ein System in der Art der Expertensysteme programmiert ist, dass es jedoch für Aufgaben verwendet wird, für die bisher kein Experte eingesetzt wurde, wie z.B. in der Prozessteuerung oder in der Mustererkennung.
Funktionsweise von Expertensystemen
Typisch für die Funktionsweise von Expertensystemen ist auf der einen Seite das Aufstellen sehr komplizierter Wenn-Dann-Regeln und auf der anderen Seite das Berechnen von Wahrscheinlichkeiten. Dadurch, dass es dynamische Regelsysteme sind, werden am Ende der Problemlösungssequenz mehrere richtige Lösungen benannt, die mit unterschiedlichen Wahrscheinlichkeiten belegt sind. Ahnlich einer quadratischen Gleichung, die immer zwei Lösungen hervorbringt, wäre in diesem Fall die Wahrscheinlichkeit der richtigen Lösung mit 1:1 zu bestimmen. (vgl. Puppe, 1988)
Expertensysteme sind Programmstrukturen, die aus mehreren Teilen bestehen. Grundsätzlich kann man Expertensysteme in zwei "Hauptmodule" einteilen (siehe Abb.1). Zum einen das Steuersystem und zum anderen die Wissensbasis. Zuerst soll das Steuersystem näher erläutert werden, um schließlich den Aufbau der Wissensbasis aufzuzeigen.
Das Steuersystem eines Expertensystems kann die Lösungsstrategie eines Experten simulieren. Die Regeln werden zu einer Konstanten, die auf unterschiedliche Wissensgebiete angewendet werden kann. Sie ist unabhängig von der Wissensbasis. Nach PUPPE besteht das Steuersystem aus 4 Komponenten (siehe Abb.1).
Die Problemlösungskomponente ist der Vermittler zwischen der Wissensbasis und dem Steuersystem. Hier wird "das Expertenwissen zur Lösung des vom Benutzer spezifizierten Problems interpretiert." (Puppe, 1988: S.12)
Die Interviewerkomponente liest die variablen Daten ein, bzw. die Aufgabenstellung von Seiten des Benutzers.
"Die Erklärungskomponente erläutert dem Anwender die ermittelte Lösungsstrategie." (Nebendahl, 1987: S. 33) So kann der Anwender Fehler in der Wissensbasis lokalisieren oder auch nur den Lösungsweg ablesen. In jedem Fall wird die Arbeit des Expertensystems transparent gemacht.
Die Wissenserwerbskomponente ist der Ort im Programm, in den der Experte sein Wissen eingeben kann.
Sind nur Wissenserwerbskomponente, Interviewerkomponente, Erklärungskomponente und Problemlösungskomponente vorhanden, spricht man von einer (Expertensystem-) Shell. Die Anwender können hier das Wissensgebiet selbst festlegen, indem sie die Wissensbank mit dem nötigen Wissen auffüllen.
"Die Wissensbasis eines Expertensystems enthält das Faktenwissen und Erfahrungswissen von Experten eines Aufgabengebietes." (Nebendahl, 1987: S. 33)
Die Wissensbasis besteht aus drei verschiedenen Teilen (siehe Abb.1):
Dem fallspezifischen Wissen von den jeweiligen Benutzern,
den Zwischenergebnissen und Problemlösungen, die von der Problemlösungskomponente hergeleitet wurden und
dem bereichsbezogenen Expertenwissen. (Puppe, 1988: S.12)
Während die Wissensbasis also dem Input entspricht, ist das Steuersystem das Herz des Expertensystems. Hier wird das Input so verarbeitet, wie die Regeln es vorschreiben. Erst das Steuersystem macht aus einem Expertensystem eine intelligente Maschine. Der Hauptvorteil der Trennung des Systems in Inferenzkomponente und Wissensbank ist der einer leichten Wartung und Anderbarkeit, da diese Systeme typischerweise eben in Gebieten mit sich änderndem Wissen eingesetzt werden.
Beim Erstellen eines Expertensystems vier Teilgebiete zu beachten: (vgl.Puppe, 1988: S.113ff.)
a) Wissenserwerb
b) Wissensrepräsentation
c) Inferenzmechanismus
d) Benutzerschnittstelle
zu a) Wissenserwerb
Der Wissenserwerb (vgl. Puppe, 1988: S.115ff.) ist der Versuch, das Wissen eines Experten in einer implementationsunabhängigen aber formalen Weise niederzulegen. Dies kann auf verschiedene Weise geschehen:
Indirekt:
Dazu muss der Wissensingenieur dem menschlichen Experten helfen, sein relevantes fachliches Wissen zu identifizieren, zu strukturieren und zu formalisieren. Andere Wissensquellen neben dem Experten können für den Wissensingenieur eigenes Fachwissen sowie Fallstudien oder Bücher sein.
Direkt:
"Der Experte formalisiert sein Wissen selbst." (Puppe, 1988: S.114) Dazu muss das Expertensystem eine leicht bedienbare Wissenserwerbskomponente haben.
Automatisch:
"Das Expertensystem extrahiert sein Wissen selbständig aus Falldaten oder verfügbarer Literatur." (Puppe, 1988: S.114) Diese Technik ist allerdings im Moment reiner Forschungsgegenstand.
Zum Wissen eines Experten können ganz verschiedene Dinge gehören, wie zum Beispiel Fakten, Überzeugungen, Methoden, Heuristiken und nicht zuletzt Problemlösungswissen (globale Strategien, Metawissen). Ein Phasenplan zum Wissenserwerb sieht folgendermaßen aus:
Zuerst wird ein Pflichtenheft mit organisatorischer Umgebung und Anforderungen an das Expertensystem erstellt. Anschließend wird der Grobentwurf und der zu betrachtende Realitätsausschnitt festgelegt. Danach wird das Wissen in einer, dem verwendeten Rechnersystem und der zur Anwendung kommenden Shell verständlichen Form aufbereitet. Die hierbei zustandekommenden Strukturen dienen dann der Formulierung von Regeln, die in einem letzten Teil des Phasenplans getestet werden. (nach Buchanan, 83: S.139)
b) Wissensrepräsentation
Die Wissensrepräsentation hat eine natürliche und effiziente Darstellung des "Wissens" zum Ziel. Unabhängig von der nicht ganz klaren Bedeutung von natürlich in diesem Zusammenhang ist klar, dass diese Bedingungen eventuell in Konflikt miteinander treten können. Hierzu sind Kalküle entwickelt worden, die den regelhaften Ablauf des Systems steuern.
Ein Kalkül beschreibt, wie man aus Aussagen mit Hilfe von Ableitungsregeln neue Aussagen erhält. Vorgegebene Aussagen sind die Axiome (Fakten, Annahmen, das was nicht in Frage gestellt wird). Abgeleitete Aussagen sind Theoreme (Schlussfolgerung). PUPPE benennt sechs unterschiedliche Eigenschaften von Kalkülen:
Adäquatheit: Natürlichkeit der Beschreibung der Welt
Effizienz: Relevanz der Schlussfolgerungen für die Welt
Mächtigkeit: Repräsentierbarkeit von Aussagen über die Welt
Entscheidbarkeit: Ein Kalkül verfügt dann über die Eigenschaft der Entscheidbarkeit, "wenn für eine beliebige Aussage entschieden werden kann, ob sie aus den Axiomen folgt oder nicht." (Puppe, 1988: S.18)
Vollständigkeit: "Ein Kalkül ist dann vollständig, wenn alle Schlussfolgerungen, die semantisch (zur Welt gehörig) gelten, auch syntaktisch (im Kalkül befindlich) herleitbar sind." (Puppe, 1988: S.18)
Konsistenz: Die Aussagen dürfen sich nicht widersprechen.
c) Ein Inferenzmechanismus
Ein Inferenzmechanismus ist repräsentationsabhängig. Dabei heißt Inferenz allgemein, dass aus vorhandenem Wissen Neues erschlossen wird. Nebenbei angemerkt können die Schlussverfahren bzw. das Wissen auch vage und unsicher sein.
In diesem Zusammenhang ist es wichtig, den Begriff "Regel" kurz zu erläutern. "Da Experten ihr Wissen oft in Form von Regeln formulieren, sind Regeln die verbreitetste Wissensrepräsentation in Expertensystemen." (Puppe, 1988: S. 21) "Eine Regel besteht aus einer Vorbedingung und einer Aktion." (Puppe, 1988: S. 21) PUPPE benennt zwei Arten der Aktionen. Zum einen die Implikation/Deduktion, und zum anderen Handlungen. Erstere prüfen den "Wahrheitsgehalt einer Feststellung" (Puppe, 1988: S. 21), während die Handlungen einen Zustand verändern können.
Zur Abarbeitung der Regelmengen stellt sich die Frage, ob die Regeln vorwärts- oder rückwärtsverkettet bearbeitet werden (siehe Abb.2). Eine Vorwärtsverkettung kann Schlussfolgerungen nur mit einer vorgegebenen Datenbasis ermöglichen. Hierbei werden zuerst alle Schlüsse errechnet, die sich aus der Wissensbank zusammen mit den fallspezifischen Fakten ergeben. Bei der Vorwärtsverkettung gibt es zwei verschiedene Phasen, um die relevanten Regeln zu finden. Zuerst sucht das System während einer Vorauswahl innerhalb der gesamten Datenbasis. In einer zweiten spezifischeren Auswahl können dann mit Hilfe von verschiedenen formalisierten Konfliktlösungsstrategien Regeln gefunden werden, die das gestellte Problem lösen können. (siehe Abb.2)
Bei der Rückwärtsverkettung geht man von einer Endhypothese aus und versucht Regeln zu finden, die diese Hypothese aus den bekannten Regeln herleiten. Hierbei ist der Prozess der Problemlösung dialogisch. Nach der Zielformulierung des Benutzers überprüft das System die Datenbasis nach relevanten Regeln, wenn das Problem lösbar ist, werden mit ähnlichen Konfliktlösungsstrategien Regeln gefunden, wie bei der Vorwärtsverkettung. Ist das Problem mit der vorgegebenen Datenbasis nicht zu lösen, wird ein Unterziel formuliert und das System braucht einen erneuten Input durch den Benutzer. Diese Schleife vollzieht sich solange, bis dem System alle Daten zur Verfügung stehen, um zu einer Schlußfolgerung zu kommen. (siehe Abb.2)
Die Vorwärtsverkettung ist vorteilhaft, wenn alle Daten von Anfang an vorhanden sind (z.B. Konstruktion) bzw. wenn auf neu ankommende Daten reagiert werden muss (z.B. Prozessüberwachung).
Die Rückwärtsverkettung hat Vorteile, wenn nur eine kleine Zahl von Endhypothesen vorhanden ist wie z.B. bei manchen Diagnose- und Klassifikationsaufgaben. Diese Methoden können bei Bedarf auch kombiniert werden. (vgl. Puppe, 1988: S.21ff.)
d) Die Benutzerschnittstelle
Die Benutzerschnittstelle muss mit zwei Anwendersichten konstruiert werden: Zum einen die Sicht für den Experten bzw. Wissensingenieur beim Aufbau und der Wartung der Wissensbank, zum anderen die Sicht des Nutzers in der Anwendung des Systems.
Bei Expertenschnittstellen (siehe Abb.1) sind zum Beispiel für die Eingabe von Wissen Regeleditoren üblich, oder die Implementation von formalen Sprachen zur Beschreibung von Regeln und Fakten. Als Forschungsgegenstand gibt es Versuche natürlichsprachlich - z.B. aus Texten - Wissen in das System zu übertragen. Ein anderer Forschungsgegenstand sind sogenannte lernende Systeme, die zumeist Regeln aus Beispielen selbständig extrahieren können sollen.
Ein wichtiger Aspekt des Wissenserwerbs ist die Sinnfälligkeitsprüfung, da neues Wissen mit dem alten in Widerspruch treten kann und immer wieder Seiteneffekte zum Beispiel durch neue, geänderte oder entfernte Regeln auftreten können. Es gibt noch wenig Methoden, die diese Problematik wirklich lösen können.
Die Schnittstelle Benutzersystem (siehe Abb.1) ist eine Dialogkomponente zur Problemformulierung für Rückfragen des Systems, für Fragen des Benutzers über den Lösungsweg und schließlich zur Ergebnisausgabe.
Angestrebt wird dabei von vielen KI-Forschern die möglichst durchgängige Verwendung von natürlicher Sprache. Beim jetzigen Stand der Technik ist dies jedoch reiner Forschungsgegenstand.
Die Ergebnisdarstellung kann dabei auch grafisch sein. Wichtig ist in einigen Fällen eventuell die Unterdrückung von Details, also eine Art Ergebnisabstraktion.
Die Erklärungskomponente liefert als Antwort zumeist eine Art Protokoll der Inferenzschritte. Dieses Protokoll wird oft noch aus Gründen der Verständlichkeit weiter aufbereitet, da das einfache Mitschreiben der Inferenzschritte für den Benutzer nicht oder nur sehr schwer verständlich ist. Diese Komponente sollte optimalerweise immer zugänglich sein. (siehe Abb.1)
Man kann der Erklärungskomponente zumeist zwei Typen von Fragen stellen: Wie-Fragen (Wie kommt es zu diesem abgeleiteten Faktum?) und Warum-Fragen (Warum wird diese Zwischenfrage gestellt?). (vgl. Puppe 1988: S.132ff.)
Anwendung von Expertensystemen
Expertensysteme sollen dort eingesetzt werden, wo man auf regelgeleitete, komplexe Systeme stößt, die von Menschen unwirtschaftlich und oft fehlerhaft bewältigt werden. Im Umgang mit Expertensystemen sind drei Personenrollen vorgesehen: Benutzer, Experte und Wissensingenieur. Verschiedene Rollen können aber auch in einer Person zusammenfallen. Zum Beispiel wenn der Experte selbst sein Wissen formalisiert und in das System eingibt.
Expertensysteme können für viele verschiedene Bereiche erstellt werden. Sie sind aber vor allem gute Problemlöser für wohldefinierte Aufgabengebiete. Folgende spezifische Kategorien haben sich herausgebildet (vgl. Busch/u.a., 1994: 134ff.; Savory, 1985; Herzog/u.a., 1993: S.125ff.; Häuslein, 1993: S.61ff.):
Analyse- und Interpretationssysteme:
Große Informationsmengen werden geordnet, analysiert, reduziert und nach Bedarf aufbereitet.
Beispiel: WWW Search Engines, Recherchen in Online-Datenbanken,
Simulationssysteme:
Simulationen sind modellhafte Abbildungen eines realen Phänomens (vgl. Kap. 2.3.2.2.) HAUSLEIN definiert ein Simulationssystem folgendermaßen: "Ein Simulationssystem ist ein Softwaresystem, das die rechnergestütze Bearbeitung der drei Aufgabenbereiche Modellbildung, Durchführung von Simulationsexperimenten und Ergebnisanalyse im Rahmen einer Simulationsstudie unterstützt." (Häuslein, 1993: S.68)
Beispiel: Jäger-Beute-Simulationen in der Biologie, Simulationssysteme im Umweltbereich z.B. zur Erstellung eines Wetterberichtes
Diagnose- und Fehlersuchsysteme:
Daten über Zustand und Verhalten des zu diagnostizierenden Objekts werden vom System erfragt. Auf dieser Informationsbasis zieht das System Schlüsse über eine etwaige Fehlfunktion. Diese Art von wissensbasierten Systemen werden häufig auch von Experten selbst genutzt. (vgl. Busch/ u.a., 1994: S.134ff.)
Beispiel: medizinische Diagnose, Risikoprüfung in der privaten Krankenversicherung
Beobachtungs- und Kontrollsysteme:
Das Expertensystem dient als Feedback-Mechanismus, der die über Sensoren erhaltenen Informationen auswertet und danach Prozesse mit Kontrollsignalen steuert.
Beispiel: Steuerung und Überwachung von chemischen Prozessen
Designsysteme:
Das Expertensystem erhält Spezifikationen von Produkten oder Bauteilen. Es konstruiert selbständig und zeichnet unter Zuhilfenahme von CAD-Software.
Beispiel: Schaltungsentwurf und -zeichnung
Wirtschaftswissenschaftliche Systeme
Viele wirtschaftswissenschaftlichen Abläufe lassen sich in Regeln formulieren. HERZOG vermutet aus diesem Grund, "dass innerhalb der Informationsbearbeitung die wissensbasierten Techniken einen interessanten Beitrag zur Kundenbedienung leisten können." (Herzog/u.a., 1993: S.127)
Beispiel: Berechnung des Beitrags für Autoversicherungen, Erstellung von Personalplänen
Tutorielle Systeme:
Das Expertensystem dient als Lehrer, der sich mit einer bestimmten Wissensdomäne vertraut macht.
Beispiel: SOPHIE lehrt Technikern die Fehlersuche in elektronischen Schaltungen
Bewertung der KI in Bezug auf die Implementierung in ein Lernprogramm
Wie gezeigt wurde, sind Programme, die mit künstlicher Intelligenz ausgestattet sind, in der Lage, alle die Tätigkeiten des Menschen zu imitieren, die auf Regeln basieren. Sie sind jedoch nicht in der Lage, wie auch SEARLE schon feststellte, zu verstehen. Er geht dabei auf das Imitationsspiel von Turing ein. Seiner Meinung nach wird es in Zukunft mit Sicherheit Maschinen geben, die in der Lage sein werden Denkaufgaben und Vorgänge in der Weise zu erledigen, wie sie heute unser Gehirn erledigt. Computer zählen für ihn aber nicht zu diesen Maschinen. Um seine These zu stützen, bringt er das Beispiel mit dem chinesischen Zimmer. Hierbei gibt es einen Menschen, dessen Muttersprache Englisch ist. Dieser sitzt in einem geschlossenen Raum. Vor einem Fenster außerhalb des Raums stehen Personen deren Muttersprache chinesisch ist. Der Mensch in dem Raum erhält nun mehrere Symbole, die die Außenstehenden als chinesische Schriftzeichen identifizieren würden. Als Nächstes erhält die Person im Zimmer eine Anleitung auf Englisch, seiner Muttersprache, wie er die Symbole zu kombinieren hat. Außerhalb des Raumes erkennen die Personen Sätze, bzw. Aussagen. Und als Letztes erhält die Person im Raum noch eine Anleitung in seiner Muttersprache Englisch, wann er welche Schriftzeichenkombinationen zu verwenden hat. Die Personen außerhalb spielen mit der Person im Raum nun das Imitationsspiel. Aufgrund der Anleitungen, wann welche Symbole zu verwenden sind, ist die Person im Raum nun in der Lage das Imitationsspiel problemlos zu meistern. Stellt man jedoch die Frage, ob er etwas verstanden hat, von dem was er mit den Symbolen zum Ausdruck brachte, antwortet dieser mit nein. Er hat lediglich die Anweisungen in der Sprache verfolgt, die er seine Muttersprache nennt. Für die Außenstehenden ist diese Tatsache nicht erkennbar. Für sie hat er zu jeder Frage die passende Antwort gegeben. SEARLE vergleicht nun die Person im Raum mit einem Computer (der Hardware) und die Anweisungen mit dem Programm (der Software). So steht für ihn fest, dass Computer, wie wir sie heute kennen, nicht in der Lage sind zu verstehen. Diese Ansicht wird auch starke KI genannt. Den Aussagen der schwachen KI, Computer wären in der Lage gewisse Denkprozesse zu simulieren, stimmt SEARLE jedoch zu, womit wir bei den Möglichkeiten von KI angelangt sind.
Nach der Recherche der unterschiedlichen Definitionen von Intelligenz, ist aufgefallen, dass Denkprozesse oft dann als intelligent bezeichnet wurden, wenn sie so komplex sind, dass die Kognitions-Forscher sie nicht mehr erklären können (Bewusstsein, Intention). Sobald jedoch ein neues Erklärungsmodell gefunden wird, lüftet sich der Zauber der Intelligenz und es bleibt eine nackte Theorie zurück, nach der man den erklärten Denkprozess nicht mehr als intelligent bezeichnen würde. Ist man jedoch erst in der Lage, das erkannte Phänomen in einer Maschine nachzubauen, bleibt nichts weiter zurück als ein Formalismus. Es wird folglich immer schwerfallen, eine Maschine als intelligent zu bezeichnen, weil sie immer den Menschen abbilden wird. (vgl. Schanda, 1995: S.62) Eine Maschine, die dem menschlichen Gehirn nachempfunden ist, wird es erst dann geben, wenn man die Arbeit des Gehirns vollständig erforscht hat. Deshalb behelfen sich die Forschungsbereiche psychologische Kognition, Neurophysiologie und KI gegenseitig (Bibel/u.a., 1987: S.1ff.), um auf der einen Seite das Geheimnis der Intelligenz zu lüften und auf der anderen Seite "intelligente" Maschinen zu bauen.
Wenn man die KI in ein Lernprogramm implementieren will, wird man also auf die erfolgreichen Versuche der KI-Forschung zurückgreifen müssen, auf die Expertensysteme. Die Frage, die sich stellt, ist, ob Expertensysteme so zu konstruieren sind, dass sie menschliches Lernen unterstützen können. Dazu müsste sich das System dem Lerntypus, dem Lernniveau und dem Vorwissen des Lernenden anpassen können. Wie oben schon erwähnt, sind zumindest die rückwärtsverketteten Regelsysteme in der Lage, einen Dialog mit dem Benutzer auszuführen, und können die neu gewonnenen Erkenntnisse in die Regelbasis integrieren. PUPPE schreibt dazu: "Da das Wissen in guten Expertensystemen strukturiert aufbereitet ist und auch viele praktisch nützliche Heuristiken enthält, ist der Einsatz für tutorielle Zwecke naheliegend. Dabei kommen jedoch neue Anforderungen auf das Expertensystem zu." (Puppe, 1988: S.137) Die neuen Anforderungen, die PUPPE benennt, sollen in einem kurzen Abriss wiedergeben werden (Puppe, 1988: S.137ff.):
Es sollte eine Ahnlichkeit in der Problemlösungsstrategie zwischen Lernendem und dem Expertensystem bestehen, damit die Aussagen der Erklärungskomponente den Benutzer nicht verwirren, sondern den Fehler des Lernenden aufgreifen und erklären können.
Die Wissensbasis muss für den Benutzer individuell zu erarbeiten sein (Hypertext).
Die Problemlösung sollte vom Benutzer ausgehen, während das System zwar parallel das Problem verarbeitet, um dann jedoch dem Lernenden ein Feedback geben zu können. Das heißt, das System muss über eine Vergleichskomponente verfügen, mit dessen Hilfe die Problemlösung des Benutzers mit der des Expertensystems abgeglichen werden kann.
Damit mehrere Personen das System benutzten können, sollte das Programm in der Lage sein, benutzerspezifische Daten abzuspeichern, da der Lernprozess ein individueller Ablauf ist, an dessen Ende zwar meist ein ähnliches Ergebnis steht, dessen Verlauf jedoch sehr unterschiedlich ist.
Solche Lernprogramme wurden unter dem Namen IT-Systeme (intelligente tutorielle Systeme) entwickelt. Welche Eigenschaften ein solches Lernprogramm hat, wird im nächsten Kapitel beschrieben. Hier soll die Eigenart der menschlichen Lernprozesse dargestellt werden, und die sich daraus ergebenden Konsequenzen für die Modellierung eines Lernprogramms auf lerntheoretischer Basis.
Lernprogramme - lerntheoretische Positionierung
Die im Folgenden angeführten "Lerntheorien gehen dem Versuch nach, Kenntnisse über das Lernen zu systematisieren." (Lefrancois, 1976: S.6) Dabei folgen sie in ihrem Aufbau der historischen Entwicklung, wobei keine der vorgestellten Theorien nicht auch den Erkenntnissen der modernen Psychologie genügen würde. Jede Theorie beleuchtet bestimmte Aspekte des menschlichen Lernens und Denkens. Im Anschluss an jede Theorie werden die darauf basierenden Lernprogramme vorgestellt. Hierbei sollen die typischen Programme jeder einzelnen Entwicklungsphase dargestellt werden.
Behavioristische Lerntheorien und Instruktionssysteme
Da sich der Behaviorismus in erster Linie mit dem beobachtbaren Verhalten beschäftigt, sind auch die daraus entwickelten Lernprogramme auf die Überprüfung eines erfolgreichen Lernprozesses angewiesen, der sichtbar ist. Durch die Konditionierung eines bestimmten Inhalts, wird den Postulaten des Behaviorismus Folge geleistet.
Behavioristische Lerntheorien
Es handelt sich bei diesem Theoriekomplex um die ältesten lernpsychologischen Erkenntnisse. 1913 wurde der Behaviorismus mit WATSONS Aufsatz "Psychologie, wie der Behaviorist sie sieht" begründet, obwohl es schon früher Bemühungen gab, das menschliche Verhalten psychologisch zu erklären (PAWLOW). Die Behavioristen beschäftigen sich mit dem Verhalten von Menschen und Tieren unter bestimmten Bedingungen. Die zur Entwicklung der Theorien angewandten Methoden gründen fast ausschließlich auf experimentellen, wiederholbaren Versuchen innerhalb einer definierten Laborsituation. Entsprechend allgemeingültig haben die Behavioristen auch ihre Ergebnisse formulieren können. Das Lernen wird hier beschrieben als eine Reiz-Reaktions-Verbindung, die auf unterschiedliche Weise beeinflusst werden kann.
Klassisches Konditionieren nach PAWLOW
Diese von PAWLOW, einem russischen Physiologen, begründete Theorie besagt, dass dem natürlichen, meist angeborenen Reflex künstlich ein neuer, bedingter Reflex hinzugefügt werden kann. Der bedingte Reflex wird dabei die gleiche Reaktion hervorrufen, wie der natürliche, unbedingte Reflex. Pawlow bezeichnet diesen Vorgang als einen Lernvorgang. Da es sich um Reiz-Reaktionsverbindungen handelt, ist es wichtig hinzuzufügen, dass Reflexe wiederum im Körper als Reize weitergeleitet werden. Es ist auch wichtig, darauf hinzuweisen, dass die Konditionierung, also der Lernprozess, von einer zeitlichen Dimension abhängt. Der natürliche Reiz und der noch unbedingte Reiz müssen sehr kurz aufeinander folgen, wenn die Konditionierung zum Erfolg führen soll. Durch ein Beispiel soll der Vorgang des klassischen Konditionierens verdeutlicht werden:
Das Fallen der Bomben im 2. Weltkrieg hat bei den Menschen Angst und Schrecken ausgelöst. Meistens jedoch ertönte vor dem Fallen der ersten Bomben der Fliegeralarm. Bei vielen Menschen hat nach der zweiten Wiederholung jener Signalabfolge schon der Fliegeralarm selbst Angst und Schrecken verursacht. "Auch in Friedenszeiten löst die Sirene bei zahlreichen Menschen Angst aus, selbst wenn es sich nur um einen Probealarm handelt." (Edelmann, 1996: S.63) Für den unkonditionierten Menschen würde der Alarm alleine keine signifikante Reaktion auslösen. Erst durch die Kombination von Fliegeralarm und dem Fallen der Bomben wird die Reaktion (Angst und Schrecken) konditioniert. Hätten diese beiden Reize nicht in einem zeitlichen Verhältnis zueinander gestanden, hätte man den Fliegeralarm nicht mit dem Fallen der Bomben assoziiert und der unbedingte Reiz, Angst bei dem Ertönen des Heulens zu verspüren, wäre nie zu einem bedingten Reiz geworden. Das Modell der klassischen Konditionierung ist noch erweitert worden, nachdem man feststellte, dass allein die Vorstellung des Ertönens des Fliegeralarms zu Angstzuständen geführt hat.
Aber nicht nur der zeitliche Faktor, sondern auch die Anzahl der Wiederholungen der Koppelung von bedingtem und unbedingtem Reiz haben Auswirkungen auf den Lernprozess. "In der Regel ist also der Erwerb einer bedingten Reaktion an das wiederholte Zusammenvorkommen dieser beiden Reize gebunden. Dieses Prinzip wollen wir Bekräftigung nennen." (Edelmann, 1996: S.69)
Als Löschung werden solche Reiz-Reaktionsverbindungen bezeichnet, bei denen der bedingte Reiz wiederholt mit der Reaktion gekoppelt wird, ohne Darbietung des unbedingten Reizes. Dem ist hinzuzufügen, dass "im Gegensatz zu diesen bedingten Reflexsituationen () emotional-motivationale Reaktionen häufig sehr widerstandsfähig gegenüber Löschung" (Edelmann, 1996: S.70) sind. In einem Beispiel geht EDELMANN auf diesen Spezialfall ein: "Kinder und auch Erwachsene empfinden zuweilen auch vor relativ kleinen Hunden Angst, obwohl unangenehme Erlebnisse mit solchen Tieren überhaupt nicht mehr erinnert werden können." (Edelmann, 1996: S.70)
Bei der Reiz-Generalisierung wird der bedingte Reiz so verallgemeinert, dass er auf Reize mit ähnlichen Eigenschaften übertragen werden kann. Hat ein Kind zum Beispiel Angst vor Arzten, kann diese Angst schon erzeugt werden, gegenüber Menschen, die einen weißen Kittel tragen.
Die Reiz-Differenzierung stellt das genaue Gegenteil zur Reiz-Generalisierung dar. Hierbei ist der Handelnde in der Lage, zwei bedingte Reize voneinander zu unterscheiden. So wird einer der beiden bedingten Reize gelöscht, während der andere bekräftigt wird. Ein Beispiel aus dem Humanbereich könnte sein, "dass das Kind eine sehr differenzierte bedingte Angstreaktion dem Vater gegenüber zeigt, wenn häufiger nur dieser schimpft." (Edelmann, 1996: S.72) Dadurch empfindet es jedoch keine generelle Angst vor männlichen Erwachsenen.
Instrumentelles Lernen nach SKINNER
Die Grundlagen des instrumentellen Lernens sind dem des klassischen Konditionierens sehr ähnlich. Allgemein unterscheidet man zwischen zwei verschiedenen Konditionierungstypen, der Konditionierung des Antwortverhaltens und der Konditionierung des Wirkverhaltens. Die Konditionierung des Antwortverhaltens entspricht der klassischen Konditionierung. "Beim Antwortverhalten antwortet der Organismus auf Reize, beim Wirkverhalten wirkt er von sich aus auf die Umwelt ein." (Edelmann, 1996: S.108) Beim Wirkverhalten kommt dem Organismus also eine größere Aktivität zu. Das Verhalten ist kein reaktives, sondern eher ein spontanes. Es ist wichtig festzuhalten, dass man im Zusammenhang mit dem instrumentellen Lernen nicht von einer Reaktion spricht, sondern von "Verhalten", da die Reaktionsmuster meist komplexer sind.
"Beim instrumentellen Lernen entscheiden die Konsequenzen, die dem Verhalten folgen, über dessen zukünftiges Auftreten." (Edelmann, 1996: S.108) Es gibt verschiedene Arten von Konsequenzen, die auf eine jeweils andere Art und Weise das neue Verhalten bestimmen:
Positive Verstärkung: Durch die Darbietung eines positiven Reizes kann ein Verhalten aufgebaut werden. Wenn der Lehrer seinen Schüler beispielsweise lobt, so wird dies zu einer Wiederholung seines Verhaltens führen.
Negative Verstärkung: Auch durch den Entzug eines positiven Reizes kann ein Verhalten aufgebaut werden. Man unterscheidet zwei Formen der negativen Verstärkung. Das Fluchtlernen und das Vermeidungslernen. Von Fluchtlernen spricht man, wenn man "direkt mit dem aversiven Ereignis konfrontiert wird und Maßnahmen ergreift, diesem zu entkommen." (Edelmann, 1996: S.132) Das Vermeidungslernen scheint sich davon nur durch eine zeitliche Komponente zu unterscheiden. Eine schon im Vorhinein bekannte negative Konsequenz würde dann zum Vermeidungslernen führen. "Ein Lehrer sagt: In der kommenden Woche werdet ihr eure Hausaufgaben einwandfrei erledigen, sonst fällt der Wandertag aus. Die Schüler strengen sich alle an und die angedrohte Zwangsmaßnahme muss nicht angewandt werden." (Edelmann, 1996: S.114) In diesem Fall würde man von einem Vermeidungslernen sprechen, da die schon bekannte Konsequenz erst dann vollzogen wird, wenn die Hausaufgaben nicht gemacht werden. In jedem Fall ist jedoch die negative Verstärkung von der Bestrafung zu unterscheiden, weil die negative Verstärkung niemals die Durchführung einer negativen Konsequenz ist, sondern nur deren Androhung. Angst und negative Verstärkung stehen jedoch in einem sehr engen Verhältnis.
Die Bestrafung: Durch eine Bestrafung kann ein Verhalten abgebaut werden. In diesem Fall folgt auf das Verhalten unmittelbar eine negative Konsequenz. Ahnlich der Verstärkungs-Terminologie kann auch die Bestrafung auf der einen Seite der Entzug eines positiven Ereignisses oder die Darbietung eines negativen Ereignisses sein. Die Bestrafung ist jedoch vor allem im pädagogischen Umfeld nicht ganz unproblematisch, da der aversive Reiz einer Generalisierung unterliegen kann, was nicht zuletzt dazu führt, dass sich die Angst vor der Strafe auf den Erzieher oder Lehrer überträgt und so nicht mehr nur die Bestrafung selber, sondern der Bestrafende zum Mittelpunkt der Angstvorstellung wird.
Die Löschung: Durch Nichtbeachtung eines bestimmten Verhaltens kann dieses gelöscht werden. Dadurch dass jede mögliche Konsequenz auf eine bestimmte Reaktion ausbleibt, wird keiner der zuvor beschriebenen Mechanismen angetrieben. Das Verhalten steht so im Raum, als wäre es nie passiert. So "verabredet der Lehrer ohne Wissen des betreffenden Kindes mit den anderen Schülern, dass diese den Clownerien keine Beachtung schenken und vor allen Dingen nicht mehr lachen sollen. Er selbst übersieht konsequent das unerwünschte Verhalten." (Edelmann, 1996: S.148) D.h. das Verhalten bleibt aus, weil es keinen Erfolg mehr zeitigt.
Behavioristische Lernprogramme
Behavioristische Lernprogramme haben die Entwicklung computerunterstützten Lernens bis heute geprägt. Die ersten Lernprogramme wurden in den 50er und 60er Jahren entwickelt. SKINNER war zu diesem Zeitpunkt der Ansicht, ein programmierter Lernprozess sei für die Umsetzung behavioristischer Lerntheorien geeignet. Für diesen Zweck hat er den Grundstein für den Programmierten Unterricht gelegt, denn wie oben schon beschrieben, spielt der zeitliche Zusammenhang zwischen Reaktion und Konsequenz eine entscheidende Rolle. KERRES stellt dementsprechend fest, dass man gerade in der Schule häufig das Problem vorfindet, "dass Verhaltensweisen, die gelernt werden sollen zu selten und nicht unmittelbar belohnt werden." ( Kerres, 1998: S. 47) Die behavioristischen Lerntheorien sind in Regeln formuliert worden. Deshalb eignet sich eine mechanistische Gestaltung besser für die Umsetzung der behavioristischen Gesetze. So ist es auch schon sehr früh möglich gewesen, in einen einfachen Computer das sichtbar gemachte Verhalten, zum Beispiel in Form von Prüfungsfragen, zusammen mit den entsprechenden Konsequenzen einzuprogrammieren. Da es in der behavioristischen Theorie nur ein "Richtig" und "Falsch" gibt, treten keine Verzweigungen auf, die ein Verhalten komplexer machen.
2.1.2.1. Programmierte Instruktion
Die in den 60er und 70er Jahren entwickelten programmierten Instruktionen beruhten auf einem linearen Programmaufbau. Hierbei ist der Lerninhalt in kleinste Lernsegmente aufgeteilt worden, da man davon ausging, dass Regeln und Wissen unabhängig von dem Lerner bestehen. Spätestens seit dem Einzug des Konstruktivismus in die Lerntheorien weiß man, dass diese These nicht stimmt (vgl. Abschnitt 2.3.1.). MANDL beschreibt den Lernprozess behavioristischer Lerntheorien als einen Versuch des Lehrers, "einen Teil des Wissens objektiv zu vermitteln." (Mandl/Gruber/Renkl, 1995: S.167)
Der Programmablauf eines Instruktionsprogramms stützt sich auf die These, Lernprozesse seien objektivierbar. Dementsprechend einfach ist die Programmstruktur definiert:
Präsentation des Lernstoffes
Prüfung
Eine Prüfung, zum Beispiel eine Abschlussfrage, konnte bestanden oder nicht bestanden werden. Erstere Möglichkeit hatte einen Fortschritt in der Vermittlung des Lerninhalts zur Folge. Es folgte eine neue Präsentation mit einer anschließenden Prüfung. Hat der Lernende die Frage nicht richtig beantwortet, wurde der Lernstoff wiederholt. Diese Art des Lernens bringt eine Reihe von Vor- und Nachteilen mit sich, die im Folgenden dargestellt und diskutiert werden sollen.
Durch das Medium Computer ist der Lehrende, also der Programmierer, in der Lage, den Benutzer in jeder Situation und vor allen Dingen unmittelbar zu verstärken. Der Lernende selbst wiederum kann zu jedem Zeitpunkt das Lernprogramm beenden und nach einiger Zeit an entsprechender Stelle weiterarbeiten. Die Emotionslosigkeit des Computers macht ihn zu einem geduldigen Lehrmeister, der fehlerhafte Antworten nicht bestraft, sondern ignoriert, indem er mit einer Wiederholung der Präsentation beginnt. Da man herausfand, dass negative Verstärker und auch Bestrafung auf Dauer nicht förderlich für den Lernprozess sind, wurden die Lernprogramme so gestaltet, dass sie auf dem Prinzip der Belohnung beruhten, schlimmstenfalls der Löschung. SCHULMEISTER bemerkt dazu: "Sobald aber das Feedback den Hauch der Kontrolle oder der Korrektur annimmt, weicht der Lernende zurück." (Schulmeister, 1997: S.111) Aus diesem Grund stellte ein Großteil der ersten Lernprogramme, die auf den SKINNERschen Verhaltensregeln beruhen, meist suggestive Fragen. So konnte man mit großer Sicherheit davon ausgehen, dass der Lernende die richtige Antwort geben würde. Auf der anderen Seite ist es wahrscheinlich für den Lernenden schon eine Bestrafung, wenn die Prüfungsfrage zum vierten Mal falsch beantwortet wurde und die Präsentation nochmals wiederholt wird, nicht nur, dass die Motivation des Lernenden rapide sinkt, sondern auch, dass diese Systeme aufgrund ihrer fehlenden diagnostischen Schnittstelle nicht in der Lage sind, den Fehler zu analysieren und dem Lernenden mitzuteilen. Denn "Fehler können für Lernende eine wichtige Informationsquelle sein, die das Lernen sogar fördern." ( Kerres, 1998: S. 50) Weiterhin ist zu bemängeln, dass der Lernende nur auf eine bestimmte Frage hin konditioniert wird, es fällt ihm jedoch schwer, das so erlernte Wissen auf andere, ähnliche Fragen anzuwenden. Seine Antworten werden auf bestimmte Fragen konditioniert, deren Sinn das Programm selbst nicht erfassen kann. Es kann nur mit einer gewissen Fehlertoleranz bezüglich der Rechtschreibung reagieren.
Autorensysteme
Durch die Entwicklung neuerer Programmiersprachen war es möglich, Lernprogramme zu verzweigen. Dennoch folgten auch diese Systeme dem Prinzip der programmierten Instruktion. Auch hier lagen die Lernziele ausschließlich im Bereich der Fakten- und Wissensvermittlung. Es entwickelten sich zwei Typen von Autorensystemen. Die einen reproduzierten programmierte Abläufe, während die anderen spontan Aufgaben variieren konnten. Letztere erhielten auch den Namen "generative Systeme".
Die Funktionsweise dieser Autorensysteme gestattet dem Benutzer, auch ohne einschlägige Programmierkenntnisse ein Lernprogramm selbst zu entwickeln, indem er dem System das Fachwissen in Form von Fragen einprogrammiert und richtige und vorhersehbare falsche Antworten vorgibt. Das Programm selber formt mit Hilfe vorprogrammierter Algorithmen den Input in ein Lernprogramm um. Der Lernende kann anschließend diesen Lerninhalt abrufen, wobei der Autorenteil ausgeblendet wird.
Ganz allgemein gilt für die Autorensysteme die gleiche Kritik, die schon an den programmierten Instruktionen vorgenommen wurde. Es gibt nur eine wesentliche strukturelle Unterscheidung im Vergleich zu den programmierten Instruktionen. Autorensysteme haben eine Expertenschnittstelle, die es ermöglicht das Lernprogramm einer bestimmten Gruppe von Benutzern anzupassen. Es ist ein Schritt auf dem Weg zur Individualisierung von Lernsystemen, dennoch bleibt das System für den Lernenden starr.
Die Erstellung eines solchen Lernprogramms zum Beispiel durch einen Lehrer wird auf 50 - 500 Stunden pro eine Stunde Programmzeit geschätzt (vgl. Schulmeister, 1997: S.105). Weiterhin ist es noch nicht gelungen, das Programm in die Lage zu versetzen, sich an die Lernfähigkeit des Lernenden anzupassen. Zur Effizienz solcher Lernsysteme bemerkt FISCHER: " Interessanterweise werden ihr [der computer-unterstützten Unterrichtung] nur kurzfristige Effekte zugeschrieben, die zudem noch verdächtig sind, vom Hawthorne-Effekt des ,Neuen' überlagert zu sein." (Fischer, 1985: S. 69)
Dennoch muss auf der anderen Seite auch benannt werden, dass es dem programmierunkundigen Lehrer mit Hilfe dieser Lernprogramme gestattet ist, ein Lernprogramm zu formulieren, dessen Einsatz sich für den Unterricht eignen würde, da durch die Kooperation zwischen Lehrer und Computer für die Schüler in den 60er Jahren ein neues Medium erschlossen wurde, dessen Inhalt dem Lehrer wohlbekannt war und mit dessen Hilfe eine neue Form der Wissensrepräsentation in die Schulen gelangte.
Courseware
In der Courseware sind die Autorensysteme durch Animation und Simulation weiterentwickelt worden. "der Begriff wird heute weitgehend mit CAI oder CBT gleichgesetzt, wobei sich darunter Tutorien, Drill & Practice-Programme, Simulationen und Multimedia-Programme verbergen können." (Schulmeister, 1997: S.107) Nur aufgrund der sich immer weiterentwickelnden Computertechnologie ist es möglich, so viele verschiedene Anwendungsgattungen in ein System zu implementieren. Es steht jedoch weiterhin die Überprüfung der Reaktion des Lernenden im Mittelpunkt. Insofern bleiben die Wurzeln des Behaviorismus noch erkennbar. Trotzdem ist es gelungen, einige Defizite im Vergleich zu den Autorensystemen auszugleichen. Die Linearität auf der einen Seite und die sich ständig wiederholenden Methoden der Wissensvermittlung auf der anderen Seite werden in diesen Systemen durch eine ansprechende Gestaltung (multimedial) aufgefangen, wodurch zumindest die Motivation des Lernenden immer wieder neu angefacht wird. Ferner sind diese Lernprogramme auch in der Lage interpretationsabhängige Lerninhalte zu vermitteln, wie zum Beispiel "Erlernen von praktischen Fähigkeiten bei Sozialarbeitern [Seabury/Maple (1993)], Erlernen der wissenschaftlichen Argumentation [Borg (1993)], Erwerb der Fähigkeit zuhören zu können [Cronin (1993)] und die Verbesserung von Kommunikationsfähigkeiten [Mc Kenzie (1993)]" (Schulmeister, 1997: S. 108).
Ein großer Vorteil der CBT-Programme ist die Berücksichtigung der Individualität der Lernprozesse. Vor allem im Bereich der betrieblichen Weiterbildung sind die Vorkenntnisse der Teilnehmer meist sehr unterschiedlich. Durch CBT-Systeme wird es dem Benutzer möglich, sein individuelles Lerntempo zu bestimmen. Während der Fortgeschrittene bestimmte Lernsequenzen eines Programms überspringt, ist es dem Anfänger auch möglich, eine Lektion mehrmals zu wiederholen, ohne sich vor der Lerngruppe zu blamieren.
Kognitivistische Lerntheorien und Tutoren
Die Grundlage der kognitivistischen Lernforschung bildet die Kategorisierung von Wissen. Desweiteren wird die Formulierung operationalisierbarer Lernziele in den Mittelpunkt gerückt. In der Nachfolge der behavioristischen Lerntheorien soll also auch hier die Überprüfbarkeit eines Lernziels festgeschrieben werden. Die Anforderungen an solche Lernprogramme sind schon wesentlich komplexer als bei den Behavioristen. Man bemühte sogar die klassische KI-Forschung, um einige Probleme, vor allem der Adaptivität, mit Hilfe intelligenter Tutoren zu lösen (siehe Kap. 2.2.2.3. ITS). Darüber hinaus mussten diese Programme in der Lage sein, verschiedene kognitive Subsysteme des Lernenden anzusprechen.
Kognitivistische Lerntheorien
Die Kognitivisten interessierten sich nicht mehr für die von Außen beobachtbaren Verhaltensänderungen, sondern für die "innere Repräsentation der Umwelt". (Edelmann, 1996: S.8) Zu Beginn der 60er Jahre begann ein Umdenken in der Lernpsychologie von der Vorstellung, Lernen als eine Verhaltensänderung zu sehen, hin zu einer Definition, in der Lernen als eine Informationsaufnahme und -verarbeitung beschrieben wurde. In den kognitiven Lerntheorien wurde versucht, die Wissensverarbeitung zu strukturieren.
Allgemein beschäftigen sich die kognitiven Lerntheorien mit der Art und Weise wie der Mensch sein Wissen speichert. Durch die Bildung von Kategorien hat der Mensch die Möglichkeit, spezielles Wissen zu generalisieren, indem er einen Spezialfall einer Gruppe ähnlicher Spezialfälle zuweist. Kategorisierung "wird durch die folgenden beiden intellektuellen Leistungen herbeigeführt:
Es muss von den Besonderheiten eines Einzelfalls abgesehen (abstrahiert) werden und
es müssen die gemeinsamen Eigenschaften hervorgehoben werden." (Edelmann, 1996: S.174)
Hierzu benutzt der Mensch Eigenschaftsbegriffe. Sie werden auch deskriptive Konstrukte genannt. Eigenschaftsbegriffe dienen der Beschreibung empirischer Sachverhalte. Demgegenüber stehen die explikativen Konstrukte, auch Erklärungsbegriffe genannt, sie dienen der Erklärung beobachteter Sachverhalte. "Sie [explikative Konstrukte] unterstellen eine Abhängigkeit zwischen zwei oder mehreren Ereignissen. Beispielsweise können die Leistungsunterschiede zwischen Schülern durch unterschiedliche Intelligenz oder unterschiedlichen Fleiß erklärt werden." (Edelmann, 1996: S.184) Auch Erklärungsbegriffe werden vom Lernenden kategorisiert.
Stehen Begriffe in einer Beziehung zueinander, entwickelt der Mensch Begriffshierarchien, um sie inhaltlich voneinander zu trennen und dennoch zu immer größeren Beziehungsgeflechten anzuordnen. Die im Folgenden beschriebenen Theorien von GAGNE, AUSUBEL beschäftigen sich mit dem verbalen Lernen. Sie gehören zu den Klassikern der Unterrichtspsychologie und werden in den darauffolgenden kognitivistischen Lernprogammen häufiger zitiert werden.
Regellernen nach GAGNE
GAGNE spricht statt von Wissenserwerb von dem Erwerb von Regeln, wobei Regeln aus Begriffsketten bestehen. "Wissen besteht (demnach) aus der Kombination von Begriffen." (Edelmann, 1996: S.202)
Es ist eine Voraussetzung des Regellernens, dass alle vorkommenden Begriffe bekannt sind. Nach GAGNE geht es nicht um das Auswendiglernen von Sätzen, sondern um das Verstehen der Beziehung der einzelnen Begriffe untereinander. EDELMANN benennt vier Maßnahmen für den Erwerb von Wissen oder Regeln:
Die Bedeutung des Begriffs muss dem Lernenden deutlich werden und soll von allen Lernenden einheitlich gebraucht werden. Aus diesem Grund werden Definitionen für Begriffe vorgenommen.
Durch das Erklären einiger Beispiele wird versucht, die Regel mit bestimmten beschriebenen Situationen zu assoziieren.
Um dem Lernenden zu helfen, nicht die Wortkette auswendig zu lernen, sondern die Regel zu verstehen, wird dieselbe Regel öfters mit anderen Worten wiederholt.
Zur Überprüfung des Gelernten werden die Aufgaben in einen anderen Zusammenhang gestellt. Hierbei ist festzustellen, ob die Regel verstanden wurde oder auswendig gelernt worden ist.
Genau wie sich Begriffe in einer Begriffshierarchie organisieren, werden nach GAGNE Regeln in eine Regelhierarchie eingeordnet. Dementsprechend ordnen sich die Begriffsbildung, der Wissenserwerb und das Problemlösen zu einer Lernstruktur an. So lernt der Mensch zuerst Begriffe eines bestimmten Lernumfeldes zu kategorisieren, bzw. in Theorien zu formulieren. Anschließend werden Regeln aufgestellt. Das abschließende Problemlösen stellt eine Anwendung dieser Regel dar. GAGNE benennt hierzu ein Beispiel: "Wenn innerhalb der Physik Probleme gelöst werden sollen, dann müssen zuvor die wissenschaftlichen Regeln, die auf die Probleme anzuwenden sind, gelernt sein; wenn diese Regeln ihrerseits gelernt werden sollen, muss man sicherstellen, dass zuvor die relevanten Begriffe erworben wurden usw." (Gagne, 1969: S.141)
Sprachliches Lernen nach AUSUBEL
Nach AUSUBEL gibt es zwei Dimensionen des Lernens:
Dimension "sinnvoll/mechanisch"
Dimension "rezeptiv/entdeckend"
Die erste Dimension gibt Auskunft darüber, wie gelernt wird. Hiermit werden die Tätigkeiten auf der Lernerseite wiedergegeben, während die zweite Seite die Lehrerseite beleuchtet. Hier wird dargestellt wie AUSUBEL sich die Präsentation des Lernstoffes vorstellt. Es wird jedoch im Folgenden zuerst die Lernerseite genauer beschrieben:
1. Sinnvolles Lernen
Es ist das Ziel des sinnvollen Lernens, den Lernstoff verstanden zu haben, er darf nicht nur auswendig gelernt werden. Desweiteren muss "der neue Lernstoff () zufallsfrei auf bisheriges Wissen bezogen werden", wobei mit zufallsfrei eindeutig gemeint ist. In diesem Zusammenhang führt AUSUBEL die Assimilationstheorie ein, nach der das neu Gelernte immer mit dem Vorwissen verknüpft werden muss.
2. Mechanisches Lernen
Beim mechanischen Lernen wird das Lernmaterial wortwörtlich gelernt, es wird auswendig gelernt, wobei ein inhaltliches Verständnis nicht notwendig ist. Allerdings kann dann der Lernstoff auch nicht assimiliert werden.
Auf der Lehrerseite unterscheidet man das rezeptive vom entdeckenden Lernen. Die Lerntypen der zweiten Dimension machen demnach auch keine Aussage darüber, ob das Wissen assimiliert wird oder nicht.
1. Rezeptives Lernen
Beim rezeptiven Lernen stellt der Lehrer dem Schüler den Lernstoff in abgeschlossener Form vor. Dies kann zum Beispiel durch einen Lehrervortrag oder einen fertigen Text geschehen. Der Schüler kann also keinen Einfluss auf die Wissensvermittlung nehmen. Diese Art der Präsentation hat sowohl Vor- als auch Nachteile. Da der Ablauf der Wissensvermittlung im Vorhinein feststeht, ist es zwar möglich dem Schüler zu Beginn der Lerneinheit einen Überblick über den Lernumfang zu geben, auf der anderen Seite ist es ihm aber nicht möglich, aktiv an der Wissensvermittlung teilzunehmen. Diese Lernform bietet sich, so EDELMANN, eher beim Erlernen komplexer Stoffgebiete an, da "Wissensvermittlung vorwiegend durch entdeckendes Lernen () eine außerordentlich unökonomische Angelegenheit" wäre.
2. Entdeckendes Lernen
"Das wesentlichste Merkmal des entdeckenden Lernens ist die Tatsache, dass der Hauptinhalt dessen, was gelernt werden soll, nicht gegeben ist, sondern vom Schüler entdeckt werden muss". (Ausubel/u.a., 1980/81: S.47) Diese Form des Lernens wird eher bei alltäglichen Problemen des Lebens verwendet[2]. Sie ist darüber hinaus auch die Lernform, mit der Kinder Begriffs- und Regelhierarchien aufbauen.
Nach AUSUBEL ergeben sich durch die Kombination dieser 2 Dimensionen vier Grundformen des Lernens:
Mechanisch-rezeptiv
Sinnvoll-rezeptiv
Mechanisch-entdeckend
Sinnvoll-entdeckend
AUSUBEL befürwortet das sinnvoll-rezeptive Lernen, da das Ziel jeder unterrichtlichen Lernaktivität der "Erwerb einer klaren, stabilen und organisierten Wissensmenge" (Ausubel, 1974: S.139) ist.
Die beiden Theorien zum "verbalen Lernen" setzen verschiedene Schwerpunkte. Während GAGNE seine Überlegungen der Art der Wissensspeicherung widmet, dimensioniert AUSUBEL den Lernbegriff.
Kognitivistische Lernprogramme
Der im Behaviorismus erzeugten Atomisierung der Lernprozesse sollte in den kognitivistischen Lernprogrammen entgegengewirkt werden. Instructional design-Systeme folgen den von GAGNE und AUSUBEL beschriebenen Lerntheorien über die Organisation und den Erwerb von Wissensstrukturen. "Für das didaktisch-methodische Vorgehen hat sich in der pädagogischen Psychologie der Begriff der Instruktion eingebürgert. Man versteht darunter die möglichst präzise Beschreibung der Beeinflussung des Lernens." (Edelmann, 1996: S.11) Aus diesem Grund bezeichnet SCHULMEISTER die von diesen Autoren beschriebenen Theorien als Instruktionstheorien. Außerdem sollte der monoton und linear ablaufende Lernprozess variablen Unterrichtsmethoden Platz machen. LOWYCK und ELEN charakterisieren die enge Verbindung der beiden Theorien innerhalb der Instruktionstheorie folgendermaßen: "Both the behaviouristic origins and the general systems theory strongly influenced the outlook of the ID []. While in ID the design parameters are selected from a behaviouristic framework, the process is structured in line with general systems theory."
Instructional design - Lehrerorientierte Systeme
Typisch für das Instruktionsdesign ist nach BAUERLE die Übertragung von deklarativem, prozedualem und kontextualem Wissen vom Lehrer auf den Schüler (vgl. Bäuerle, 1999: S.50). Somit steht auch dieser Programmtyp ganz im Zeichen der behavioristischen Lerntheorien. Es ist eine Aufgabe der Instructional Design-Systeme (ID-Systeme), Lehrern nach der Formulierung eines Lernziels entsprechende Methoden vorzuschlagen. REIGELUTH stellt sich die Umsetzung solcher ID-Systeme in der Gestalt von Expertensystemen vor. In diesem Fall stehen solche Systeme in einem engen Zusammenhang zu den Autorensystemen, wobei die ID-Systeme eine Weiterentwicklung darstellen, die es dem Lehrer auf der Basis der kognitiven Lerntheorien ermöglicht, seinem selbst entwickelten Lernprogramm eine Reihe unterschiedlicher Lernmethoden hinzuzufügen. Erst später entwickelten sich ID-Systeme, die auch dem Lernenden zur Verfügung standen.
Das ID ist zu jeder Zeit einer vehementen Kritik unterworfen worden. Einige Vorwürfe sollen an dieser Stelle wiedergegeben werden: Das ID gehört nach SCHULMEISTER zu den kognitivistischen Theorien, dennoch sind Programme, die der Instruktionstheorie folgen von der grundlegenden Idee GAGNES u.a. verschieden. Die Kategorien, die diese Lernprogramme bilden, sind eher "Klassifikationsschemata für Objekte nach dem Muster biologischer Taxonomien mit zusätzlichen kausalen, probabilistischen bzw. korrelationalen Relationen zwischen Handlungen [], aber keine kognitiven Konzepte im Sinne der kognitiven Psychologie." (Schulmeister, 1997: S.135) Für die Kognitivisten waren die Eigenschafts- und Erklärungsbegriffe eine Art der Zuordnung von Begriffen, die auf Individualität und Subjektivität beruhten. Das Lernprogramm jedoch gibt solche Klassifikationsschemata vor, ohne dass der Lernende darauf Einfluss nehmen kann. Eine ähnliche Kritik vertritt BAUERLE, der der Ansicht ist, dass "auch modernere, auf den Erkenntnissen der Kognitionspsychologie fußende Ansätze, bei denen die Lernenden möglichst viel von dem, was sie verinnerlichen müssen, auch verstehen sollen, () der Theorie des Instruktionalismus [folgen]. Dies bedeutet, dass auch bei kognitivistisch geprägten Lehrmethoden (und somit bei den meisten der heute als "modern" geltenden Lernprogrammen, auch der Mehrzahl der ITS [siehe Kap. 2.2.3.3.]) der Lernende keinen Einfluss darauf hat, was er wann oder wie lernen muss." (Bäuerle, 1999: S.59/60)
Der in AUSUBELS Theorie integrierte Vorgang der Assimilation spricht desweiteren gegen eine Vorgabe von Kategorien, wie ID-Systeme sie ausführen. Neues Wissen wird dabei nicht nur in schon vorhandene Wissensstrukturen integriert, sondern es findet eine Veränderung in der Wissensstruktur statt, wobei auch das neu erworbene Wissen einer Modifikation unterliegt, da es in die Wissensstruktur eingepasst werden muss.
Eine weitere Schwäche der ID-Systeme skizziert SCHULMEISTER folgendermaßen: "Lerntheorien sind per definitionem deskriptiv, Instruktionstheorien per definitionem präskriptiv." (Schulmeister, 1997: S.137) Nach HABERMAS gilt allerdings, "dass Sätze einer deskriptiven Theorie sich nicht in präskriptive Sätze übersetzten lassen." (Habermas, 1970: S. 24) SCHULMEISTER schreibt dazu weiter: "LANDA unterscheidet Propositionen in deskriptiven Theorien mit der Form von Wenn-Dann-Aussagen, von Propositionen in präskriptiven Theorien mit der Form ,in order to do this'. Und er macht deutlich, dass Propositionen der letzteren Art nicht durch Transformationen aus Wenn-Dann-Regeln gewonnen werden können." (Schulmeister, 1997: S.138) Demnach ist es also nicht möglich, die Erkenntnisse der kognitiven Lerntheorien so in Instruktionen umzuwandeln, dass zum einen ein symbolverarbeitender Computer in der Lage ist, jene Erkenntnisse darzustellen und zum anderen dem Lernenden durch eine Instruktion ein Sachverhalt erklärt werden kann. Ein Beispiel von LANDA soll diese Ausführungen verdeutlichen: " Instruktionen der Art ,suche ein analoges Problem' oder ,versuche das Problem in kleinere Probleme zu unterteilen' sind heuristische Hinweise an den Lernenden in Problemlösungsprozessen. Sie helfen dem Lernenden, erklären aber nichts. Wenn aber Heuristiken als Instruktionen in ID vorkommen können, dann dürfte klar sein, dass der explanative Gehalt von ID gering ist." (Schulmeister, 1997: S. 138)
Ein weiteres sich stellendes Problem ist die einseitige Ausrichtung von ID-Systemen auf zu erlernende Fähigkeiten. Sollen sie jedoch in der Lage sein, einem Lehrer die Planung seines Unterrichts zu erleichtern, müssten sie auch die Einstellungen der Schüler mit berücksichtigen. Wie SCHULMEISTER schreibt, sind "Psychologische Faktoren wie Ausweichen, Unlust, Lust auf Abwechslung, u.a." nicht nur nicht enthalten, sie sind auch ein "offenes Problem" für die Programmierer solcher ID-Systeme. Eine sich daran anschließende Schwierigkeit ist, dass ein ID-System nie eine Gruppe von Schülern betreuen kann, sondern immer nur ein Lernkonzept zur Verfügung stellt. Es ist also nicht in der Lage auf die unterschiedlichen Lernvoraussetzungen einzugehen. Diese Aufgabe bleibt weiterhin dem Lehrer vorbehalten, da der Lehrer in der Lage ist, ad hoc Entscheidungen in bestimmten Situationen zu treffen, die nicht nur auf der kognitiven Ebene liegen, sondern auch auf psychologischen und sozialen Hintergrundinformationen über seine Schüler beruhen. "Die Varianz, über die ein Lehrer verfügt, ist stets größer als die einer Datenbank oder einer in Form von Regeln geschriebenen Wissensbasis." (Schulmeister, 1997: S.151) SCHULMEISTER geht nicht davon aus, dass ID-Systeme je in der Lage sein werden, einen Lehrer zu substituieren.
Die ID-Systeme gehen nach einem deduktiven Ansatz vor. Hierbei werden aus allgemeinen Lernzielen, Lehrmethoden abgeleitet, die sich dann in einem konkreten Lernprozess manifestieren. Als Deduktionsproblem bezeichneten Schulmeister u.a. die Schwierigkeit, die Lernmethode von den Lernzielen abhängig zu machen. Das ID-System wird dadurch deterministisch und damit behavioristischen Lernprogrammen ähnlich, in denen der Lernende ausschließlich eine reaktive Rolle einnimmt. "Selbst wenn die Instruktionalisten ihre ursprüngliche behavioristische Grundlage verlassen zu haben glauben, steckt in ihnen noch der behavioristische Ansatz, der Lehren als Induktion und den Lernenden als Reagierenden versteht, sowie die Annahme, dass man das Ganze gelernt hat, wenn man die Teile des Ganzen identifiziert und gelernt hat." (Schulmeister, 1997: S. 146) Die Kritik zum Deduktionsproblem ist vernichtend. JONES, LI und MERRILL bezeichnen das ID-System als Indoktrination und SCHULMEISTER bezweifelt die "Freiheit des Pädagogen im Instruktionsdesign." (Schulmeister, 1997: S.146)
Einen Ausweg aus dem Deduktionsproblem suchte man in lernerorientierten Programmen. Nicht mehr der Lehrer sollte im Mittelpunkt des Systems stehen, sondern der Schüler. Aus einem Instruktionsprogramm sollte also wieder ein Lernprogramm im herkömmlichen Sinne werden. Zu einem selbstregulierenden System kann man jedoch erst kommen, wenn die präskriptiven Konzepte der Instruktionstheorien gegen deskriptive Konzepte ausgetauscht werden. Dennoch stellen VERMUNT und VAN RIJSWIJK einen allgemeinen Trend mit zunehmendem Alter hin zu extern-regulierten und reproduktionsorientierten Lernerergebnissen fest. Dies scheint die Reaktion auf das "in ihrer Lernumwelt überwiegende Angebot an expositorischer Instruktion und reproduktiven Lernsituationen" (Schulmeister, 1997: S.149) zu sein. So produziert die Instruktionstheorie ihre eigenen Schüler, die weit von Innovation oder Kreativität entfernt sind. Das eher mechanische Lernen nach AUSUBEL gerät in den Vordergrund. Das sinnvolle, verstehende Lernen scheint durch das ID nicht erreicht zu werden, wie MAYES, DRAPER u.a. bei einer Studie zur Wahrnehmung von Benutzerschnittstellen herausfand. "It seems that the necessary information is picked up, used and discarded; it is not learned in the sense that commands are learned. More exactly users retain only enough information for recognition, not the much greater amount required for recall." (Mayes, 1992: S.9/10)
Instructional design Systeme: Lernerorientiert
Eine Kontrolle des Lerners über das Programm soll das Problem der Adaptivität regeln. So ist es ID-Systemen möglich, sich an den Lerner anzupassen. Auch wenn es dem Lernprogramm nicht möglich ist, sich über eine Diagnosefunktion automatisch an den Lernenden anzupassen, so ist es doch dem Lernenden möglich über ein Auswahlmenü an Unterrichtsmethoden das Lernprogramm seinen Lerngewohnheiten anzugleichen. Es bleibt jedoch zu erwähnen, dass diese Form der Adaptivität nicht dem entspricht, was man unter einem sich anpassenden System versteht, denn hierbei müsste sich das Programm über eine Diagnosekomponente dem Lernprozess des Benutzers angleichen können. Es sind unterschiedliche Formen von Kontrollstrategien entworfen worden. CHUNG und REIGELUTH differenzieren eine Kontrolle des Lerners in die "Kontrolle über den Inhalt, die Sequenz, die Lerngeschwindigkeit, das Display bzw. die Strategie, den internen Prozess und die Beratungsstrategie." (Schulmeister, 1997: S.152) MERRILL ist der Meinung, dass es vier bewusste Strategien gibt: Selektion von Inhalten, Selektion von Displays, bewusste Kognition und Metakognition. (vgl. Merrill, 1980) MERRILL beurteilt die Auswahl der Kontrollstrategien allerdings auch sehr kritisch. So kann eine ungezielte Nutzung der Lernerkontrolle eher zu einem Leistungsabfall als zu einer Verbesserung des Lernerfolgs führen. Gerade bei schwachen Lernern oder solchen, die ohne die nötigen Vorkenntnisse mit der Lernerkontrolle umgehen, kann kein klar strukturierter Lernprozess erzeugt werden, so dass der Lernende sich in einer Fülle von Informationen verliert. Vielfach wurde aus diesen Beobachtungen die Konsequenz gezogen, den Lernenden vor solchen unüberschaubaren Systemen zu schützen.
Der Lernerkontrolle, bei der der Lernende die Kontrolle über die Steuerung des Lernprogramms übernimmt, steht also die Programmkontrolle gegenüber, bei der ein großer Teil des Lernprozesses durch den Computer gesteuert wird. SCHULMEISTER sagt hierzu: "Hier wird die Lernerkontrolle wieder zur Lernkontrolle " (Schulmeister, 1997: S.158/159). Dies ist jedoch genau der Vorbehalt, den man gegenüber ID-Systemen hatte. SCHULMEISTER sagt an anderer Stelle, dass jede Beurteilung über Vor- und Nachteile einer Lernerkontrolle von der Lernstrategie abhängt, davon ob es sich z.B. um ein ID-System oder einen Hypertext mit freier Navigation handelt. Darüber hinaus muss man verschiedene Lernstile voneinander unterscheiden, um ein konstruktives Urteil über eine Lernerkontrolle fällen zu können.
Intelligente Tutorielle Systeme (ITS)
Eine grundlegende Eigenschaft von ITS ist ihre Diagnosefähigkeit. Erwachsen aus der Kritik der Instruktionssysteme sollten die IT-Systeme adaptionsfähig gemacht werden. MANDL und HRON definieren deshalb auch Lernprogramme immer nur dann als "intelligent", "wenn sie in der Lage sind, einen flexiblen und adaptiven Dialog mit dem Lernenden zu führen." (Mandl/Hron, 1990: S. 19) Nach einem Input des Lernenden werden über eine Kommunikationsstruktur Kompetenz und Kompetenzdefizite analysiert. Dementsprechend stellt das System ein tutorielles Angebot zusammen. BAUERLE schreibt dazu: "Bei Diagnosesystemen und sog. Intelligenten Tutoriellen Systemen handelt es sich sowohl um flexible als auch adaptive Programme." (Bäuerle, 1999: S.50) Um den unterschiedlichen Anforderungen gerecht werden zu können, hat man ähnlich den Expertensystemen eine Mehrkomponentenstruktur entwickelt:
a) Eine Komponente, die eine Modellierung des Wissensgebietes vornimmt
b) Eine Komponente, die ein Modell des Lernenden konstruiert
c) Eine Komponente, die pädagogische Strategien bereitstellt
d) Eine Komponente zur Kommunikation mit dem Lernenden
Nicht bei allen ITS sind alle vier Komponenten vertreten, so bestehen einige Systeme nur aus einer Wissensbasis, andere bestehen nur aus einem Lernermodell. Im folgenden sollen jedoch alle vier Komponenten und deren Verknüpfung untereinander deutlich gemacht werden. (siehe Abb.3)
Zu a) Wissenskomponente
Diese Komponente entspricht der Wissensbasis eines Expertensystems, was nicht weiter verwundert, da IT-Systeme der KI-Forschung entlehnt sind. Ihr Programmdesign entspricht daher einem, auf den lernenden Benutzer abgestimmten, Expertensystem. Das Wissensmodell besteht aus deklarativem, prozedualem und in neueren Entwicklungen von ITS heuristischem Wissen. Im deklarativen Wissensbereich wurden Begriffe definiert und deren Vernetzung untereinander hergestellt. Das prozeduale Wissen stellt sich in Form von Regeln und Prozessabläufen dar, "mit deren Hilfe sich Probleme lösen lassen sollen." (Schulmeister, 1997: S.182) Heuristisches Wissen imitiert das Problemlöseverhalten eines Experten, wobei dieses Verhalten nicht an einen Inhalt gebunden ist, sondern in Form von Regeln den Computer in die Lage versetzen soll, den Lösevorgang des Lernenden nachzuvollziehen oder ihm vorzugeben. SCHULMEISTER unterscheidet zwei Möglichkeiten für die Gestaltung eines IT-Systems. Zum einen das Black-box-Modell, welches eine Antwort formuliert, ohne dass der Lernende den Lösungsweg nachvollziehen kann. Zum anderen das Glass-box-Modell, das als Gegenteil zum Black-box-Modell mit einer Erklärungskomponente ausgestattet ist und in der Lage ist, das Problemlöseverhalten eines Experten zu imitieren und mit Hilfe seines heuristischen Wissens dem Lernenden die Lösungsschritte erklären kann.
Zu b) Lernerkomponente
Es gibt zwei Möglichkeiten ein Lernermodell zu konstruieren. Zum einen kann das Wissen des Lernenden als Teil des Expertenwissens abgeglichen werden. KERRES spricht in diesem Fall von einem Overlay-Modell (Kerres, 1998: S. 63), zum anderen werden gegebene Antworten von einem System analysiert und immer als Abweichung zum Expertensystem betrachtet. KERRES bezeichnet diese Modelle als Differenzmodelle (Kerres, 1998: S.63). Die erstere Möglichkeit unterliegt der Schwäche, dass das System nicht erkennen kann, "ob das Wissen des Lernenden sich deshalb von dem Wissen des Experten unterscheidet, weil der Lernende nicht über es verfügt oder weil er andere Strategien als der Experte verfolgt." (Schulmeister, 1997: S.184) Auch die zweite Variante, zwischen der Antwort des Lernenden und der Vorgabe in der Wissensbasis zu differenzieren, kann letztlich nur fehlendes Wissen annehmen, nicht aber verschiedene Lösungswege voneinander unterscheiden. Selbst wenn die Wissensbasis über heuristisches Wissen verfügt, ist doch die Menge an Regeln für einen Problemlösevorgang begrenzt, so dass es letztlich nicht eindeutig möglich ist, die falsche von der richtigen Lösung zu unterscheiden.
Eine große Schwäche des Lernermodells ist das Schattendasein der bisher in der Lernpsychologie schon gut erforschten Lernstile und Lernstrategien. Nur sehr begrenzt werden entsprechende Forschungsergebnisse in Lernermodellen verwendet, wodurch es möglich wäre, individuelle Lerndiagnosen durchzuführen.
Zu c) Pädagogisches Modell
Das pädagogische Modell simuliert das Entscheidungsverhalten des Lehrers. Seine Aufgabe besteht darin, die Ergebnisse des Lernermodells, des Diagnoseverfahrens also aufzugreifen, um daraus Lernstrategien abzuleiten. Die Variantenvielfalt, den Schüler zur Einsicht seines Fehlers zu führen und ihn dabei aus seinen eigenen Fehlern lernen zu lassen, lässt sich in zwei Teilgebiete aufspalten. Einerseits gibt es Systeme, die mit Hilfe des sokratischen Dialoges, also durch ein Frage-Antwort-Spiel, den Schüler zu einer Analyse seiner eigenen Fehler zu führen. Andererseits hat sich die Coaching-Methode entwickelt, bei der fehlende Wissensbestände mit Hilfe von einfachen Übungen oder dem Probieren von Problemlösungen ausgeglichen werden sollen, wobei der Coach erklärend aktiv wird, wenn der Lerner danach verlangt.
Zu d) Kommunikationskomponente
Die Kommunikationskomponente wird für die wichtigste und entscheidendste aller 4 Komponenten gehalten. Gerade durch die Interaktion zwischen Tutor und Lernendem ist eine individuelle Anpassung des Tutors an den Lernprozess möglich. Das unterscheidet ein ITS z.B. von einem ID-System, Autorensystem oder anderen frühen kognitivistischen und behavioristischen Lernprogrammen. Dennoch war lange Zeit die Interaktion zwischen Computer und Lernendem ein großes Problem. Heute ist die Computertechnologie und sind die Programmierer in der Lage, eine audio-verbale Kommunikation zwischen Computer und Lernendem herzustellen. Dennoch bemerkt WOOLF an dieser Stelle: "Effective communication with a student does not mean natural language understanding or generation [] Rather effective communication requires looking beyond the words that are spoken and determining what the tutor and the student should be communicating about."
Ahnlich wie in ID-Systemen besteht auch bei den ITS das Problem der Operationalisierbarkeit von pädagogischen Situationen. In diesen Fällen ist eine Wenn-Dann-Abhängigkeit kaum herzustellen, auf die ein symbolverarbeitender Computer jedoch angewiesen ist. Deshalb werden auch die ITS immer in einer engen Verwandtschaft zu den behavioristischen Lernprogrammen stehen, wobei die Programmierer gezwungen sind, pädagogische Situationen auf die nach außen sichtbaren Ausschnitte zu beschränken. SCHULMEISTER schreibt dazu: "Aber die gesamte Anlage der ITS kommt nicht darum herum, diese Konzepte als Verhaltensziele zu operationalisieren, wenn Vergleiche von Lernermodell und Wissensmodell möglich sein sollen.
Es bleibt jedoch auch bei den IT-Systemen eine entscheidende Frage, ob sich der Lernende an das Lernprogramm anpassen soll, oder ob das Lernprogramm in der Lage sein sollte, sich an seinen Schüler anzupassen. Im ersten Fall wäre man wieder bei den Instruktionsmodellen der 50er und 60er Jahre. Der zweite Fall stellt die Programmierer vor wesentlich größere Probleme. Zum einen hat die kognitive Psychologie noch nicht alle Lernparameter so erforscht, dass es einem Computer möglich wäre, sich an die Lernvorgänge des Schülers anzupassen, auf der anderen Seite würde diese Form der Adaptivität zu einer "kombinatorischen Explosion" (Schulmeister, 1997: S.201) führen. Ist es jedoch sowohl der Kognitionsforschung als auch der Computertechnologie irgendwann möglich, diese Probleme aus dem Weg zu räumen, dann wäre ein Lernprogramm auch in der Lage, sich in einer, wie SCHULMEISTER sagt "natürlichen" Form an den Lernenden anzupassen. Bis heute sind ITS aber nur in der Lage, sich grob dem Lernenden anzugleichen. SCHULMEISTER ist jedoch eher der Ausfassung, dass es solche universalen Lernermodelle nie geben wird. Sowohl in der Kognitionsforschung als auch in der KI-Forschung hat man das Problem der Universalität dadurch lösen wollen, dass man Wissensgebiete in immer kleinere Teilgebiete zergliedert hat, um die daraus entstehenden Ergebnisse zu einem immer komplexer werdenden Wissen zusammenzuschließen. Jedoch sind nahezu alle Versuche gescheitert, weil die Atomisierung den Ausgangszustand verändert. (vgl. Kapitel 1.2.)
Eine andere Schwäche der ITS liegt in der Verarbeitung hermeneutischer Wissensgebiete. Die Programmierer eines ITS sind nicht in der Lage ein Sachgebiet, wie z.B. "methodologisches, historisches, soziales, psychologisches, ästhetisches, anthropologisches und ethnographisches Wissen" ( Schulmeister, 1997: S. 205) in die Wissensbasis zu implementieren, da eine Formulierung in Wenn-Dann-Regeln nicht möglich ist. Natürlich bestehen auch solche Wissensgebiete aus deklarativem Wissen, doch der allergrößte Teil ist dem Erfahrungswissen vorbehalten und stellt somit die Fachleute vor große Probleme.
Konstruktivistische Lerntheorien und entdeckendes Lernen mit Hypermedia-Programmen
Durch die sehr subjektive Art der Aneignung von Wissen wird das Charakteristikum der Individualität für konstruktivistische Lernprogramme sehr stark betont. Oft jedoch ist der Grad der konstruktivistischen Anforderungen an sich so offen, dass es schwierig ist, ein Lernumfeld zu schaffen. Mit Hypertexten ist es aber nicht nur gelungen, eine ganz neue Form von Lernprogrammen zu erschaffen, sondern es ist den Designern auch geglückt, ein Computerprogramm auf eine Lerntheorie zuzuschneiden, wie SCHULMEISTER an später noch zu zitierender Stelle erwähnt (siehe Kap. 2.3.2.1.).
Konstruktivistische Lerntheorien
"Der Konstruktivismus ist keine Theorie des Seins, formuliert keine Aussagen über die Existenz der Dinge an sich, sondern ist eine Theorie der Genese des Wissens von Dingen, eine genetische Erkenntnistheorie" (Schulmeister, 1997: S.73) Konstruktivistische Lerntheorien beziehen sich auf situative Lernprozesse. "Lernen entwickelt sich aus Handeln, Handeln vollzieht sich in sozialen Situationen, Denken und Kognition sind demzufolge situativ. Oder mit den schlagkräftig formulierten Sätzen von MATURANA und VARELA: ,Jedes Tun ist Erkennen, und jedes Erkennen ist Tun.' " (Schulmeister: 1997: S.75) Für den Lernprozess bedeutet dies, dass das Augenmerk darauf gelegt werden muss, dass Kognition in situ geschieht, kontextuell gebunden oder "situiert" ist. NEISSER prägte die Formel: "Wir sehen nur das, was wir wissen." Jedes Wissen wird kontextuell erworben. Jedes Wissen ist also hermeneutisch und damit der Subjektivität unterworfen und lässt sich im Gegensatz zu den Aussagen der Kognitivisten nicht in starre Begriffs- oder Erklärungskategorien einordnen. Nach dem Konstruktivismus ist der Wissenserwerb einer noch zu beschreibenden Dynamik unterworfen.
PIAGETS Theorie der genetischen Epistemologie
PIAGET war zweifellos der Pionier der konstruktivistisch orientierten Kognitionsforschung des 20. Jahrhunderts. 1980 starb er im Alter von 84 Jahren. Er war in unterschiedlichen wissenschaftlichen Disziplinen zu Hause. Dazu gehörte Biologie, Psychologie und insbesondere Kognitionspsychologie. Er beschäftigte sich mit der Wahrnehmung, dem Erkennen und dem Gedächtnis.
PIAGET ging davon aus, dass die Entwicklung menschlichen Erkennens vom äußeren zum inneren Handeln vollzogen wird. Hierbei setzt sich der Mensch handelnd und wahrnehmend mit seiner Welt auseinander. Dabei verinnerlicht er bestimmte Handlungsschemata, die sich wiederum über den Vorgang der Assimilation und Akkomodation bilden. Mit zunehmender Handlungskompetenz erreicht der lernende Mensch immer höhere Komplexitätsstufen. Unter Assimilation versteht PIAGET den Umgang mit etwas Neuem als Assoziation von etwas Bekanntem. Ahnlich dem Lochkartensystem wird der Organismus ein Erlebnis in bereits verfügbare begriffliche Strukturen einpassen. Andersherum gesagt nimmt der Organismus nur das wahr, was in seine schon bekannten Strukturen hereinpasst. Assimilation ist stets eine Reduzierung neuer Erfahrungen. Assimilation ist bei PIAGET anders zu verstehen als bei AUSUBEL, da bei AUSUBEL in der Assimilation der Vorgang der Akkomodation eingeschlossen ist. PIAGET hat den Wissenserwerb jedoch in diese zwei Komponenten geteilt. Durch die Akkomodation wird das Neue den schon vorhandenen kognitiven Strukturen hinzugefügt, wodurch sich nicht nur die Struktur selbst ändert, sondern auch das Einzufügende. Die häufigste Ursache von Akkomodation ist die sprachliche Interaktion. Der Vorgang der Assimilation und Akkomodation setzt die Fähigkeit der Objektkonstanz voraus. Hiermit meint PIAGET die fast selbstverständliche Tatsache, Gegenstände auch dann als existent zu betrachten, wenn man sie nicht sieht. Die Motivation, die die Assimilation und Akkomodation vorantreibt, ist die Aquilibration. PIAGET bezeichnet damit ein Gleichgewichtsbedürfnis zwischen der Erwartung des Eintretens einer bestimmten Situation und deren tatsächlichem Verlauf. Ergeben sich hier Diskontinuitäten, muss das Handlungsschema verändert werden. PIAGET hat diese Veränderung der Handlungsschemata noch erweitert, indem er den Subjekt-Objektzirkel eingeführt hat. Hiermit weist PIAGET auf die genetische Entwicklung der Schemata[3] hin und fügt hinzu, dass sich diese Schemata im Laufe eines Lebens ändern (z.B. Erinnerungen an die Kindheit: Der Umgang mit den Eltern, Bruder, Schwester, Oma), so dass die von Piaget entworfene konstruktivistische Lerntheorie einer Dynamik unterworfen ist, die bisher bei keiner der vorgestellten Lerntheorien zu finden war.
Zusammenfassend ist also zu sagen, dass kognitive Veränderungen und Lernen nach PIAGET immer dann auftreten, wenn ein Schema statt des erwarteten Ergebnisses zu Störungen führt, und wenn diese Störungen ihrerseits eine Akkomodation nach sich ziehen, die ein neues Aquilibrium herstellt. Wissen[4] und Lernen ist also nichts anderes als eine höhere Form der Anpassung an die Umwelt.
BRUNERS pädagogisch-methodisches Konzept auf der Basis der PIAGETschen Theorie
Es fällt schwer, die umfassende Theorie BRUNERS einer bestimmten Lerntheorie zuzuordnen. Seine Beiträge zur Kategorisierung von Begriffen und deren Zusammenfassung in Regeln würde man eher den kognitivistischen Lerntheorien zuordnen (vgl. Le Francois, 1995: S.108ff), während seine Ausführungen zum "entdeckenden Lernen" eher in einer nahen Verwandtschaft zu der konstruktivistischen Erkenntnistheorie nach PIAGET steht. Unter entdeckendem Lernen versteht BRUNER allgemein die selbstlernende Erschließung eines Wissensgebietes, wobei der Lehrer nur eine beobachtende und helfende Funktion hat.
Da der Lehrer seine Schüler nie auf jede mögliche Situation vorbereiten kann, muss der Lernende schon früh beginnen, Techniken zum Problemlösen zu entwickeln. Nach BRUNER ist es wichtig, solche Problemlösetechniken zu üben. Es sind vier Merkmale des entdeckenden Lernens nach BRUNER zu benennen:
Transferförderung
Der Schüler geht mit gelerntem Wissen induktiv um, das heißt, er sucht nach jeder neu gelernten Wissenseinheit nach Gemeinsamkeiten in seiner schon vorhandenen Wissensstruktur und formuliert daraufhin Regeln, um sich bestimmte Gemeinsamkeiten erklären zu können. Je mehr Einzelfälle er kennenlernt, umso präziser werden seine Regeln, so dass er nach einer gewissen Weile in der Lage ist, auf der Basis seiner Regel ungewisse Faktoren vorherzubestimmen. Er ist dann also in der Lage von der Regel, dem Allgemeinfall, auf den Einzelfall zu schließen. Solche Gedankengänge bezeichnet BRUNER als deduktiv. In dem Vorgehen des Schülers ist die genetische Theorie PIAGETS wiederzuerkennen. Jeder neue Einzelfall wird assimiliert, also als Differenz zu den bisherigen Beobachtungen verstanden, und durch Akkomodation in die Wissensstruktur eingebunden. Je mehr Einzelfälle dem Schüler bekannt werden, desto komplexer wird die Wissensstruktur oder das Schema.
Problemlösefähigkeit
Hierzu gehört die Fähigkeit, die Lösung eines Problems relativ selbstständig anzugehen. Der Lernende muss in der Lage sein, "die Problemstellung zu analysieren, Hypothesen zu formulieren und zu prüfen." (Edelmann, 1996: S. 216) Beherrscht der Schüler diese Eigenschaft, hat er gelernt, zu lernen, so BRUNER.
Intuitives Lernen
Hiermit sind Einfälle gemeint, deren Herkunft nicht in Worte zu fassen sind. Der Volksmund nennt solche Einfälle auch "Geistesblitze". Intuitives Denken ist zurückzuführen auf die Vertrautheit in einem bestimmten Wissensgebiet. Hierdurch ist der Lernende in der Lage, bestimmte Denkfolgen zu überspringen, um schneller zu seinem Ziel zu gelangen.
Förderung der intrinsischen Motivation
Es wird beim entdeckenden Lernen eine Neugier gegenüber einem Wissensgebiet erzeugt, indem man nur Bruchstücke bekannt gibt, und die Fülle der Informationen von dem Schüler entdecken lässt. Diese Neugier wirkt motivierend auf den Schüler, neues Wissen zu erlangen.
Konstruktivistische Lernprogramme
Es ist gerade die Nicht-Linearität von konstruktivistischen Lernprogrammen, die es dem Benutzer, nach den Erkenntnissen der strukturgenetischen Theorie PIAGETS, ermöglicht, nach seinen eigenen Konstrukten neues Wissen zu assimilieren und zu akkomodieren. "Lernen als Prozess, Lernen in Wissensgemeinschaften und kontextbezogenen Lernumwelten steht im Mittelpunkt des Konstruktivismus. Es wird daher verständlich, dass das Augenmerk der Konstruktivisten auf jenen höheren Lern- und Denkprozessen wie Interpretieren und Verstehen liegt, die Instruktionalisten bewusst ausgespart haben." (Schulmeister, 1997: S.166)
Hypertext - Hypermedia
SCHULMEISTER ist eine Unterscheidung der Begriffe "Multimedia" oder "Hypermedia" sehr wichtig. "Hypermedia ist ein Subset von Hypertext, und Hypermedia ist zugleich ein Subset von Multimedia. Vermutlich ist es besser, Multimedia und Hypertext als zwei unabhängige Entitäten mit einer Schnittmenge zu betrachten, die man als Hypermedia bezeichnet." (Schulmeister, 1997: S.23) Der Begriff "Multimedia geht dabei für SCHULMEISTER über einen Zusammenschluss verschiedener Medien weit hinaus. In einer Zusammenfassung formuliert er, Multimedia sei eine "interaktive Form des Umgangs mit symbolischem Wissen in einer computergestützten Interaktion." (Schulmeister, 1997: S.22)
Historisch gesehen, besteht ein Hypertextsystem aus einem Text, der so als Datei gespeichert ist, dass es möglich ist, mit Hilfe von Links, interaktiven Textverweisen, in der Textstruktur zu springen. Der Hypertext ermöglicht dem Benutzer, eine unüberschaubare Datenmenge zu strukturieren. Der Computer schien für diesen Zweck prädestiniert zu sein. NIELSEN schreibt hierzu: "That hypertext is fundamentally a computer phenomenon [] Hypertext can only be done on a computer, whereas most other current applications of computers might just as well be done by hand." (Nielsen, 1995: S.16) Mit diesen Systemen ist es den Autoren gelungen, dem Computer eine Aufgabe zuzuschreiben, die seinem Charakteristikum gerecht wird, nämlich riesige Datenmengen zu speichern. Es ist für einen symbolverarbeitenden Computer ein Leichtes, jene Datenmengen, also auch Symbole miteinander zu verknüpfen, das entspricht seiner "Eigenart". Heute können Hypertexte aber auch mit Bildern, Videosequenzen und Musik verbunden sein. Deshalb werden solche Systeme heute auch Hypermedia-Systeme genannt. Der wohl bekannteste und größte Hypertext ist das World Wide Web. Das Surfen durch das Internet ist vergleichbar mit der Arbeitsweise an einem Hypertextprogramm.
Hypertexte können den unterschiedlichsten Anforderungen entsprechen. Ahnlich den ID-Systemen können sie den Trainer oder Lehrer bei der Auswahl seiner Lehrmethode unterstützen. Es ist aber auch möglich, Hypertextsysteme dem Schüler als Lernprogramm zur Verfügung zu stellen. Letztlich kann es ebenfalls der schlichten Darbietung von Informationen dienen, wie sie z.B. durch das Internet repräsentiert wird.
SCHOOP und GLOWALLA formulieren vier Strukturelemente eines Hypertextsystems:
strukturelle Aspekte
operationale Aspekte
mediale Aspekte
visuelle Aspekte
Im Folgenden sollen diese vier Elemente so erklärt werden, dass es möglich ist, sich eine Vorstellung von der Funktionsweise eines Hypertextsystems zu machen (siehe Abb.4):
Die Struktur eines Hypertextsystems besteht aus Knoten, Links und Ankern. Die Knoten vernetzen einzelne Begriffe untereinander. Sie sind zu vergleichen mit Straßenkreuzungen, da in einem Knoten mehrere Textpfade aufeinandertreffen. Man unterscheidet große und kleine Knoten. Je mehr Pfade von einem Knoten ausgehen, desto größer ist er. "Knoten können Beispiele, Annotate, Literatur, andere Titel, Bilder, Töne oder Filme sein." (Schulmeister, 1997: S.252) Links und Anker sind die Verknüpfung zweier Knoten. Hierdurch kann der Benutzer zu einem anderen Themengebiet springen. "Diese Links stellen die Verbindung zwischen der Textstelle im Ausgangsdokument (Knoten) und dem Ziel her, an das der Leser geführt werden soll ("Anchor" = engl. für Anker)" (Bäuerle/Schröter, 1999: S. 70) In den meisten Fällen wird das Link oder der Anker im Hypertext speziell markiert, sei es durch eine andere Farbe, Veränderung des Cusors o.ä.. Weiterhin unterscheidet man unidirektionale und bidirektionale Links. Während die unidirektionalen Links in einer Sackgasse enden, verweisen bidirektionale Links, wiederum an einen neuen Knoten, wobei der Benutzer in zwei Richtungen navigieren kann.
Mit operationalen Aspekten meinen SCHOOP und GLOWALLA die Navigation innerhalb des Hypertextes, häufig auch als "browsing" bezeichnet. Sie entspricht der Lernerkontrolle bei den behavioristischen und kognitivistischen Lernprogrammen und unterliegt einer ähnlichen Spannung zwischen einem eher lernerdeterminierten und einem eher programmdeterminierten Lernprozess. Erst wenn sich die Designer über die Zielgruppe im Klaren sind, ist diese Frage ernsthaft zu beantworten. Das Risiko des "lost in hyperspace" liegt nur bei Erstbenutzern und Neulingen in einem Wissensgebiet vor. Hat der Lerner ein klares absehbares Lernziel vor Augen oder hat er sich an die Hypertextumgebung gewöhnt, ist das oben beschriebene Risiko geringer. Auch SPIRO und JEHNG halten Hypertextsysteme für erfahrene Lerner für geeigneter: "It is best suited for advanced learning, for transfer/application learning goals requiring cognitive flexibility, in complex and ill-structured domains rather than introductory learning, for memory tests, in simpler domains." (Spiro/Jehng, 1990: S.167) Die Programmdesigner von Hypertextsystemen sind hier der Wahl zwischen eher strikteren Navigationsformen oder eher offenen Navigationsformen ausgesetzt. Es kann auch eine Vorliebe für das entdeckende Lernen die Wahl zwischen diesen beiden Navigationsformen bestimmen, da hier sicherlich die offene Navigationsform präferiert würde, um dem Lernenden "ein gewisses Maß an Desorientierung zu bieten." (Schulmeister, 1997: S.59)
Ein ähnliches Problem stellt das der Granularität dar. Man bezeichnet damit die Größe der Informationseinheit. Je größer die Informationseinheit, desto schwächer ist der Einfluss des Hypertext-Charakteristikums. Werden aber die Informationseinheiten zu klein gewählt, kann dies zu einer Verfremdung der Gesamtinformation führen und den Lerner im Aufbau seiner kognitiven Konstrukte stören oder sogar verwirren. Zur Lösung des Problems der Granularität schlagen LAVE und WENGER die Einbettung des Hypertextsystems in eine Erzählung, eine Story, vor. Hierdurch kann man die Informationseinheiten relativ klein wählen, um sicherzustellen, dass sie inhaltlich nicht allzu komplex werden. Durch die im Hintergrund erzählte Geschichte ist man dennoch in der Lage, die Zusammenhänge herzustellen. Einer Story gelingt es also, die für den Lerner unabhängig nebeneinanderstehenden Informationen inhaltlich zu strukturieren.
Durch die verschiedenen Formen von Verbindungsarten (siehe Abb.4) ist es möglich, die unterschiedlichen Möglichkeiten von Autorensteuerung zu verdeutlichen:
Pfade verbinden Knoten miteinander, ohne einen Knoten zweimal anzusteuern. Ringe hingegen führen den Lerner durch einen cyclischen "Lernweg", bei dem Startpunkt und Ziel identisch sind. Speichen wiederum sind den Pfaden sehr ähnlich. Sie sind eine lineare Verbindung zwischen zwei Knoten, sie führen den Lerner jedoch wieder zu seinem Ausgangspunkt zurück und zwar über den gleichen Weg, den sie schon auf dem Hinweg genommen haben. Durch diese verschiedenen Verbindungsarten ist es möglich, als Autor den Lerner während seines Lernprozesses zu steuern. Je dominanter die Verbindungen zwischen den Knotenpunkten ist, um so autorengesteuerter ist das System. Ist es möglich in einem Programm ohne Ziel zu "browsen", sind eine Reihe anderer Orientierungshilfen entworfen worden, die im Folgenden beschrieben werden sollen.
KUHLEN benennt eine Reihe gebräuchlicher hypertextspezifischer Orientierungs- und Navigationsmittel: "graphische Übersichten ("Browser"), vernetzte Ansichten ("web views"), autorendefinierte Übersichtsmittel, Pfade ("path/trails"), geführte Unterweisungen ("guided tours"), "Backtrack"-Funktionen, Dialoghistorien, retrospektive graphische (individuelle) Übersichten, leserdefinierte Fixpunkte ("bookmarks"), autorendefinierte Wegweiser ("thumb tabs"), Markierung gelesener Bereiche ("breadcrumbs")." (Kuhlen, 1991: S.144ff.)
Der mediale Aspekt der Hypertextprogramme wurde schon angesprochen und leitete eine neue Entwicklung im Bereich der Hypertextsysteme ein, die Hypermediaprogramme. So ist heute ein Hypertextprogramm als solches kaum noch zu erkennen, da es von einem reichhaltigen Angebot an verschiedenen Programmen überlagert ist.
Der visuelle Aspekt spielt für die Orientierung innerhalb eines Hypertextes eine wichtige Rolle. Aus diesem Grund haben Designer eine Menge von Alternativen entwickelt, die vom klassischen Inhaltverzeichnis abweichen. Unter dem Sammelbegriff "Knowlegde Maps" oder graphische Browser werden graphische Darstellungen von Hypertext-Knoten verstanden. Die unterschiedlichen Abbildungen der Inhaltsübersichten können zweidimensional, dreidimensional oder hierarchisch sein. Die Zukunft soll in dynamischen Verknüpfungen liegen, d.h. dem Benutzer werden durch das Programm nur solche Verknüpfungen zur Verfügung gestellt, die seinen aktuellen Bedürfnissen entsprechen. Für solche Anwendungen müssen jedoch erst die Diagnosesysteme weiterentwickelt werden. Neben der graphischen Darstellung der Verknüpfung von Hypertext-Knoten können aber auch die Relationen von Hypertext zu Echt-Weltphänomenen repräsentiert werden. Hierdurch bliebe die Wissensbasis nicht systemimmanent, sondern es würden ebenfalls Verknüpfungen außerhalb des Systems aufgebaut werden.
Von vielen Autoren werden die Vorteile des Hypertextsystems für den Lerner hervorgehoben. So stellt z.B. SCHULMEISTER fest, dass es durch Hypertexte auch möglich ist, hermeneutische Wissensgebiete zu repräsentieren. Allerdings nicht in der Form eines instruktionellen Lernprogramms, sondern als eine Darbietung von Informationsvielfalt. Dadurch ist es möglich, die Ergebnisse von Verhaltensmodifikationen innerhalb einer bestimmten Situation anzugeben. Die Menge der Verhaltensmodifikationen bleibt dennoch weiter beschränkt, um das System vor dem ewig gefürchteten unendlichen Regress zu bewahren. Trotzdem zeigen Hypertexte in diesem Bereich eindeutig Vorteile gegenüber den bisher vorgestellten behavioristischen und kognitivistischen Lernprogrammen, die sich auf die Präsentation von Faktenwissen, d.h. deklarativem Wissen beschränkt haben, mit Ausnahme der Courseware-Systeme.
TERGAN stellt die Ahnlichkeit zwischen menschlichem Denken und einem Hypertextprogramm heraus und behauptet: "Das Arbeiten mit modernen Hypertext/Hypermedia-Systemen entspricht einem aktiven Aufsuchen, Explorieren, kognitiven Verarbeiten, Umstrukturieren und (falls vom System unterstützt) Kreieren von Informationsknoten unter Nutzung einer interaktiven graphischen Benutzeroberfläche." (Targan, 1995: S.124) Die Strukturgleichheit von Hypertext und Denken wird von SCHULMEISTER auch als die "Hypothese der kognitiven Plausibilität von Hypertext" bezeichnet. Dieser Parallelisierung zwischen der Arbeit des menschlichen Gehirns und der Funktionsweise eines Hypermediaprogramms stimmt BAUERLE jedoch nur bedingt zu: "Dagegen wird jedoch häufig eingewendet, die komplexe Assoziationsstruktur des menschlichen Gedächtnisses könne nicht so ohne weiteres durch ein Netz aus Hypertext-Links nachgestellt werden." (Bäuerle, 1999: S. 73) Dennoch, so BAUERLE weiter, sei eine assoziative Lernumgebung immer einer linearen vorzuziehen. Es soll dem jedoch entgegengesetzt werden, dass jeder Lernsituation und jedem Lernziel eine ihr eigene Lernumgebung zugewiesen werden muss. So ist z.B. der Erwerb wissenschaftlicher Fakten immer einer Linearität unterworfen, da die Wissensstrukturen aufeinander aufbauende sind.
SCHULMEISTER hat auf der Basis der konstruktivistischen Lerntheorien sieben Postulate an ein Lernprogramm aufgestellt:
Aktivität des Lernenden: Der Lernende selbst bestimmt den Aufbau oder die Umstrukturierung von Konstrukten.
Situativität des Lernenden: Der Lernende ist der Kontextgebundenheit unterworfen.
Interaktivität des Wissenserwerbs: Nur durch die Interaktion mit anderen können letztendlich Wissensstrukturen aufgebaut werden.
Kumulation von Informationen: Informationen werden mit allen schon vorhandenen Strukturen verknüpft.
Konstruktivität des Wissenserwerbs: Aufbau von Konstrukten.
Zielorientierung des Lernenden: Am erfolgreichsten wird der Schüler lernen, wenn er das Ziel kennt.
Selbstregulierung des Lernenden: Da die Aussagen konstruktivistischer Lerntheorien jedem Individuum einen eigenen Erkenntnisprozess zuordnen, ist es wichtig, dass der Lernprozess nicht auf einer Instruktion beruht, sondern aktiv und selbstbestimmt ist.
Der Hypertext scheint in den meisten Punkten den Anforderungen an ein konstruktivistisches Lernprogramm zu genügen. Oft fällt es jedoch schwer, den Aspekt der Interaktivität in den computergebundenen Lernkontext mit einzubeziehen, da die Arbeit mit einem Hypermedia-Programm zwar individuell, dadurch jedoch meist auch sehr einsam ist. Ein ähnlicher Konflikt ergibt sich bei der Betrachtung des Aspektes der Zielorientierung. Häufig fällt es den Designern von Lernprogrammen schwer, zu definieren, wieviel Zielorientierung der Benutzer benötigt. Vielfach werden zieldefinierte Programme programmdeterminiert, wie sich schon bei der Modellierung eines Navigationssystems bei Hypertexten herausstellte.
Neben den Hypertextsystemen hat sich eine Reihe anderer Formen entwickelt, die sich ihrer offenen Struktur bedienen. So wurden zum Beispiel Lexika und Enzyklopädien als Hypertext konstruiert. Ihr Vorbild bleibt dabei das geschriebene Buch, so dass sie in einer Programmumgebung als elektronische Bücher bezeichnet werden. Das elektronische Buch lässt sich dennoch aufgrund seiner charakteristischen Eigenschaften von einem Hypertext unterscheiden. Einerseits sieht der Benutzer zu einem bestimmten Kapitel das Layout einer Buchseite vor sich, andererseits kann der Benutzer durch Skip-Tasten das Umblättern einer Buchseite simulieren. Folgende Elemente sind in einem Großteil von elektronischen Büchern zu finden:
Eine Suchoption, die es dem Benutzer ermöglicht, mit Hilfe unterschiedlicher Suchkriterien schnell an die Informationen zu gelangen, die für ihn relevant sind.
Eine Markieroption, um Lesezeichen zu setzen und wichtige Textstellen zu markieren.
Ein Inhaltsverzeichnis, um dem Benutzer die Orientierung zu erleichtern.
Links, wie man sie aus den Hypertexten kennt, jedoch ist ihre Verknüpfung meist nur unidirektional und führt somit nicht zu einem verknüpften Netz, sondern gibt Zusatzinformationen oder Erklärungen an.
Man sieht am Beispiel der Lexika, dass die Umsetzung in ein elektronisches Buch sinnvoll sein kann. Dennoch darf nicht vergessen werden, dass es weiterhin durchaus Textgattungen geben wird, bei denen eine lineare Verwendung sinnvoller erscheint (z.B. Romane, wissenschaftliche Arbeiten). Es hängt also immer von der Art der Wissensvermittlung ab, ob sich eine lineare oder eine nicht lineare Programmgestaltung eignet.
Eine andere Form von Hypertextsystemen sind die sogenannten KIOSK-Systeme. Sie sind wesentlich unverzweigter als ein Hypertextprogramm. Ihre Anwendung finden sie in erster Linie in der Präsentation. Gegenwärtig machen sich jedoch eher Versandhäuser, Museen und das Marketing diese Technologie zunutze. Ihre Struktur ist fest verdrahtet und stark von Autoren geleitet. Eines der Grundelemente von KIOSK-Systemen sind die "guided-tours". Hier haben die Autoren einen Weg durch das System für den Benutzer vordefiniert, um ihn z.B. in ein unbekanntes Wissensgebiet einzuführen. In Lernprogrammen werden sie als Instruktionsteil eingebaut. Die Grenzen zwischen KIOSK-Systemen und Hypertexten sind schwimmend. Je komplexer das System, desto hypertextähnlicher wird es.
Simulationen
Simulationen können in vielen Lernprogrammen zur Anwendung kommen, werden von SCHULMEISTER jedoch als "einer der Stützpfeiler des Konstruktivismus" (Schulmeister,1997: S.374) benannt. Sie dienen der Nachahmung von komplexen Maschinen, Prozessen, Modellen und Systemen. Sie werden als dynamische Systeme bezeichnet, weil es dem Benutzer ermöglicht wird, durch die Anderung von Parametern die Auswirkungen auf das Gesamtsystem zu beobachten. "Der entscheidende Vorteil dieser Simulationen liegt darin, dass sie ohne finanzielles Risiko Entscheidungsabläufe in Echtzeit erlauben." (Bäuerle, 1999: S.10)
Unter einer Simulation, so SACHER, "versteht man das Arbeiten und Experimentieren mit einem Modell anstelle eines realen Objekts", wobei "ein Modell ein vereinfachtes Bild einer Klasse originaler Objekte ist." (Sacher, 2000: S.159) Zu ihrer Erstellung werden reale Abläufe beobachtet. Aufgrund der Differenz zwischen Ausgangs- und Endzustand werden Regeln formuliert, lassen sich diese in die Form eines Algorithmus bringen spricht man von einer Computersimulation (vgl. Sacher, 2000: S.159). Nach WEDEKIND basiert somit jede Computersimulation auf Modellen, genauer auf operativen Modellen, mit denen eine aktive Auseinandersetzung möglich ist (vgl. Wedekind, 1981: S.35).
Viele Ansätze und Begründungen zum Lernen mit Modellierungsprogrammen und Simulationen entwickeln sich aus dem Problemlösen oder dem entdeckenden Lernen, andere aus dem Ansatz Lernumwelten, situierte Kognition und dem Konstruktivismus." (Schulmeister, 1997: S.378) Die Gemeinsamkeiten aller Ansätze sind dem Lernprozess bei Simulationen zu entnehmen. DUFFIELD unterscheidet hierbei 4 Phasen:
Analyse der Ergebnisse
Hypothesengenerierung
Hypothesentesten
Evaluierung
"Simulationen fordern eine Begründung durch kognitionspsychologische und konstruktivistische Theorien geradezu heraus, obwohl [] hier die Unterscheidung zwischen wissenschaftlicher Methodologie und psychologischen Denkprozessen beachtet werden muss. Simulationen werden deshalb auch gern für das Training von Problemlösungsprozessen eingesetzt." (Schulmeister, 1997: S.379) Die oben von SCHULMEISTER beschriebene Unterscheidung soll an dieser Stelle besonders hervorgehoben werden, da Simulationen dazu verführen Variablen an Grenzwerten zu orientieren, um mögliche Auswirkungen auf die Umwelt zu evaluieren. Für forschende Zwecke ist das wohl angebracht, für Ausbildungszwecke ist bei dieser Nutzung von Simulationen jedoch eine große Gefahr zu sehen, da hierdurch keine Assimilation mit realen Abläufen stattfinden kann.
Es sei noch auf den modellhaften Charakter einer Simulation hingewiesen. Modelle können immer nur einen Teil der wirklichen Abläufe darstellen. Sie sind also einer starken Reduktion unterworfen. BAUERLE bemerkt hierzu: "Keine Computersimulation wird alle Möglichkeiten dieser Situation berücksichtigen können." (Bäuerle, 1999: S.11) So bleibt vielfach eine Erprobung bestimmter Abläufe in der Realität unerlässlich.
Gesamtüberblick über alle vorgestellten Lernprogramme und aktuellen Entwicklungen
In einer abschließenden Zusammenfassung sollen noch einmal alle Lernprogramme in einer Übersicht vorgestellt werden.
Lern-theorie |
Lernprogramm |
Komponenten |
Vorteile |
Nachteile |
Behavioristische Lerntheorie |
Programmierte Instruktion |
Instruktion Prüfung |
kleine Lerneinheiten Häufiges Feedback zum Verstärken der Motivation Unmittelbares Feedback Leichter Wiedereinstieg in das Programm |
indifferente Unterscheidung in richtig und falsch stark lineare Programmstruktur standardisiertes Feedback demotivierende Monotonie Suggestivfragen Transferproblem |
Autorensysteme |
Autorenschnittstelle Benutzerschnittstelle Algorithmen zum Umsetzen des Autoreninputs |
Verzweigung des Programms Individualität durch Autorenschnittstelle Programmieren für den Laien wird möglich |
unverhältnismäßig lange Programmierzeit keine Adaptivität kurzfristige Lerneffekte expositorische Instruktion |
|
Courseware, CBT |
unterschiedliche Komponenten aus unterschiedlichen kognitiven Werkzeugen |
ansprechende Gestaltung Multimediasysteme Repräsentation hermeneutischer Wissensgebiete |
geschlossenes System keine Adaptivität |
|
Kognitivistische Lerntheorie |
ID-Systeme Lehrerorientiert |
Autorenschnittstelle Expertenschnittstelle |
Erleichterung bei der Vorbereitung des Unterrichts |
Der Lerner bleibt reaktiv programmdeterminiert die kognitiven Theorien sind nicht mit einem Instruktionsprogramm vereinbar können helfen, aber nicht erklären Deduktionsproblem |
ID-Systeme Lernerorientiert |
Lernerkontrolle Wissensbasis Benutzerschnittstelle |
Anpassung des Lerners an das System |
Anfänger haben Schwierigkeiten im Umgang mit der Lernerkontrolle |
|
IT-Systeme |
Wissensbasis Benutzerschnittstelle Expertenschnittstelle |
Diagnosefähig Möglichkeit zur Interaktion mit dem Programm |
kein Einbezug von Lernstilen innerhalb der Inferenzkomponente keine Verarbeitung hermeneutischer Wissensgebiete möglich |
|
Konstruktivistische Lerntheorie |
Hypertext - Hypermedia |
Links Knoten Navigationskomponente Knowledge Maps |
Nicht-linear können sowohl Lehrer- als auch Lernerorientiert sein entdeckendes Lernen möglich Repräsentation hermeneutischer Wissensgebiete Anpassung des Lerners an das System |
verirren in der Informationsfülle |
Simulationen |
Modell Dynamische Berechnung des Modells |
dynamisches System "Stützpfeiler des Konstruktivismus" können auch bei praktischen Fähigkeiten anleiten |
Reduktion der Wirklichkeit |
Es bleibt festzuhalten, dass jedes Lernprogramm seine eigenen Schwächen und Stärken besitzt. Es ist deshalb auch nicht möglich, ein behavioristisches Lernprogramm durch ein kognitivistisches oder gar konstruktivistisches Lernprogramm zu substituieren. So klassifizieren MIDORO und OLIMPO Lernprogramme nach ihrer Adaptivität, Navigabilität und ihrer Reaktivität. Während z.B. Hypertexte Vorteile in der freien Navigation bilden und so dem Lerner die Möglichkeit zum entdeckenden Lernen geben, besitzen die ITS die Charakteristik, sich an den Lerner anzupassen, weil sie mit einer intelligenten Diagnoseschnittstelle ausgestattet sind. Simulationen wiederum können sehr variabel auf die Eingaben des Lernenden reagieren und gelten deshalb als besonders dynamisch (vgl. Midoro/Olimpo, 1991: S.181). In aktuellen CBT-Entwicklungen werden die vorgestellten Lernprogramme zusammengeschlossen. Es handelt sich bei aktuellen Programmentwicklungen um Multikomponentensysteme. So ist es möglich, ein Lernprogramm mit einem komplexen Anforderungsprofil zu konstruieren.
Das Erschließen der neuen Medien, wie z.B. des Internet oder Multimedia-Anwendungen wird als ein entscheidender Faktor im deutschen Bildungssystem bezeichnet. So ist in den Empfehlungen zur Erneuerung des Bildungswesen zu lesen: "Der Zugang zum Internet wird zu einem entscheidenden Faktor für die Qualität von Bildung und Ausbildung." (Empfehlungen 1999: S.39) Der ehemalige Bundespräsident HERZOG merkt jedoch kritisch an: "Wir müssen die Pädagogik für das Informationszeitalter aber erst noch erfinden." (Herzog, 1999: S.20)
Deutlich wird dieser von Herzog bedenkenswerte Einwand, in einem kürzlich veröffentlichten Aufsatz von SCHULMEISTER. Er beschäftigt sich mit den im Internet zu findenden Lernprogrammen und im speziellen mit virtuellen Universitäten. Schulmeister kommt zu dem Schluss, dass sich das Lernangebot virtueller Universitäten nicht von dem der Präsenzuniversitäten unterscheidet, häufig sogar die Präsenzuniversitäten ein weitergehendes Angebot zu bieten haben. SCHULMEISTER gibt fünf Leistungen an, die das Profil einer virtuellen Universität ausmachen:
"Qualität der didaktischen Materialien im Netz
Qualität der moderierten Seminare im Netz
Intensität der tutoriell begleiteten Arbeitsgruppen im Netz
Die Kommunikation im Chat-Modus
Das Selbstlernen im interaktiven Modus" (Schulmeister, 1999: S. 169)
Durch die Analyse einzelner Aspekte kommt SCHULMEISTER zu der Überzeugung, dass die meisten der angebotenen Medien in virtuellen Universitäten "einfache Rückgriffe auf Methoden des Programmierten Unterrichts" (Schulmeister, 1999: S. 170) sind. Solche Medien werden nicht nur sehr schnell den Lerner demotivieren, sondern auch die Lerneffizienz auf ein Minimum reduzieren (siehe Kap.2.1.2.1.). Bei der Betrachtung virtueller Seminare stellt SCHULMEISTER heraus, dass dieser Aspekt nicht der Virtualität angepasst wurde, sondern "an realen Seminarformen orientiert ist." (Schulmeister, 1999: S.171) Die zusätzlich von diesen Universitäten angebotene Lernsoftware ist meist nicht über das Internet selbst zu erschließen, sondern wird per CD-Rom an den Benutzer geschickt. Seine Untersuchungen zu den Lernprogrammen fallen sehr positiv aus. Er relativiert jedoch auch seine Aussage, indem er die gigantische Informationsflut des Internet in Relation setzt zu den hervorgebrachten Lernprogrammen. In einer abschließenden Bewertung weist SCHULMEISTER noch einmal auf die Entpädagogisierung durch das Internet hin. Hier wurden auf ein modernes Informationsmedium veraltete didaktische Methoden angewandt. Das hat dazu geführt, dass man die Erkenntnisse der Kognitionspsychologie vernachlässigt hat zugunsten der alten Instruktionstheorien. Schulmeister fordert, "dass den Lernenden mehr Raum zur aktiven Dokumentation und zum Austausch ihrer Denkprozesse, mehr Raum für aktives Tun und für das Konstruieren von Wissen und Programmen als Werkzeuge für die kognitive Konstruktion von Wissen angeboten werden." (Schulmeister, 1999: S.173) An dieser Stelle soll noch einmal auf die Bedenken von HERZOG eingegangen werden, der noch nach einer Pädagogik für das Informationszeitalter suchte. Erst wenn es gelingt, einen reflektierten Umgang mit den neuen Medien zu pflegen, ist es auch möglich, diesen Systemen eine didaktisch und lerntheoretisch tragfähige Grundlage zu schaffen. Lange Zeit war die Lern- und Kognitionspsychologie der Computertechnologie voraus. Lernprogramme basierten auf den Erkenntnissen einer Lerntheorie. Heute existiert die Technologie und fordert die Kognitionspsychologen heraus, eine Theorie zu formulieren, die einen konstruktiven Umgang z.B. mit dem Informationsmedium Internet zulässt.
Bewertung von Computerlernprogrammen hinsichtlich ihrer Implementierung in pädagogische Kontexte
In diesem Kapitel soll auf der Basis eines zu entwickelnden Anforderungsprofils für Computerlernprogramme, deren sinnvoller Einsatz in pädagogischen Kontexten diskutiert werden. Hierbei wird auf eine empirische Untersuchung verzichtet, die den Rahmen dieser Arbeit sprengen würde. Anstelle dieser empirischen Untersuchung werden zwei Beispielprogramme analysiert. Dabei steht weniger der Umgang des Lernenden mit einem Programm im Mittelpunkt, als vielmehr die Möglichkeiten, die das jeweilige Programm dem Benutzer offeriert, um sein Ziel, eine bestimmte Fähigkeit zu erwerben, zu erreichen. Neben diesen Lernzielen soll die Lernsituation in die Bewertung mit einfließen. D.h. in welcher Lernumgebung wird das jeweilige Programm genutzt. Schließlich soll untersucht werden auf welchen Lerntheorien das Programm basiert.
BAUMGARTNER weist darauf hin, dass immer einige Schwierigkeiten bei der Bewertung von Lernprogrammen vorliegen werden. So können Kriterienkataloge nie einem Anspruch auf Vollständigkeit genügen, da die Entwicklungen im Bereich der Lernpsychologie und der Computertechnologie zu rasant voranschreiten, um die Aktualität zu wahren. Desweiteren hinterfragt BAUMGARTNER die Objektivierbarkeit von Bewertungskatalogen. So stünden zwar jedem Evaluator eine Reihe von Lerntheorien zur Verfügung, dennoch, so BAUMGARTNER, seien die Kriterien, die eine gute von einer schlechten Software unterschieden, einer Gewichtung des jeweiligen Pädagogen unterworfen. "Damit ist es mit der scheinbaren Objektivität von Kriterienkatalogen vorbei." (Issing/Klimsa,1995: S.242) Dem ist jedoch zu Widersprechen, da es Anforderungen an ein Lernprogramm gibt, die nicht der Beliebigkeit unterliegen. Es sind doch gerade die Lernziele, die der Überprüfbarkeit unterliegen müssen. Es sind aber auch die Lernsituationen und die Postulate, die sich aufgrund der Lerntheorien formulieren lassen, die allgemein gültig sein müssen. Das Bewertungsergebnis kann jedoch durch die Subjektivität des Pädagogen gefärbt sein.
Anforderung an ein Strukturprofil von Computerlernprogrammen zur Förderung von Lehr- und Lernprozessen
Dieser Abschnitt beleuchtet explizit nur solche Komponenten, die zur Förderung von Lernprozessen beitragen, wie sie in Kapitel 2 beschrieben wurden. Die lerntheoretische Betrachtung von Lernprogrammen hat ergeben, dass der Wissenserwerb individueller Natur ist. Es ist deshalb wichtig diese Individualität deutlich hervorzuheben, um sie in eine kritische Beziehung zu den regelgeleiteten, symbolverarbeitenden Maschinen zu setzten. Individualität des Lernprozesses bedeutet hierbei jedoch nicht, sich alleine einen Wissensstoff anzueignen, sondern eine Fähigkeit oder einen Inhalt so zu erlernen, wie es für den Einzelnen am effektivsten ist. SCHANDA schreibt dazu: "Zu zweit am Gerät lässt sich, entsprechende Motivation vorausgesetzt, die Konzentration und Ausdauer fördern. Verständnisprobleme des einen können zumindest zum Teil vom anderen oder im gemeinsamen Gespräch geklärt werden." (Schanda: S.35)
Zum methodischen Vorgehen der Bewertung von Lernprogrammen ist folgendes zu sagen: In Anlehnung an PUPPES Darstellung der Komponenten eines Expertensystems (Kap. 1.3.2.) sollen auch Lernprogramme in Abhängigkeit ihrer Nutzungsmöglichkeiten segmentiert werden. Deshalb werden im ersten Abschnitt dieses Kapitels die einzelnen Komponenten, die zu einem Lernprogramm gehören, beschrieben, so dass es möglich wird, anhand der Funktionsweise eines Lernprogramms auf dessen Komponenten zu schließen. Im zweiten und dritten Abschnitt dieses Kapitels soll auf der Basis einer strukturellen Bestandsaufnahme erklärt werden, welchen Beitrag das Lernprogramm aufgrund vorhandener Komponenten zum Lernprozess leisten kann, und welchen Aufgaben es aufgrund fehlender Komponenten nicht gerecht werden kann. So ist es möglich die Stärken und Schwächen einzelner Computerlernprogramme in pädagogischen Kontexten herauszustellen. Es wird dabei eine lerntheoretische Positionierung vollzogen, wobei das Einlösen von Lernzielen und die Beschreibung der Lernsituation mit berücksichtigt werden soll.
KI-Anforderungen
Wie im ersten Kapitel mit einem Hinweis auf CRUSE/DEAN/RITTER schon festgestellt wurde, ist es schwer, intelligentes Verhalten auf nur eine Eigenschaft zu reduzieren. Vielmehr unterliegt Intelligenz einer Dimensionierung, bei der vor allen Dingen bei Lernprogrammen die Fähigkeiten zur Adaption und zur Interaktivität für einen konstruktiven Wissenserwerb zugrunde liegen sollten. Diese KI-Anforderungen lassen sich in den folgenden drei Komponenten realisieren:
Diagnosekomponente
Problemlösungskomponente
Interaktionskomponente
Diagnosekomponente
Ziel eines jeden intelligenten Lernprogramms ist die Adaption an den Lernenden. (vgl. Kap. 2.2.3.3.) Dabei soll das Programm entsprechend dem Wissensstand des Lerners das Lernangebot zusammenstellen. VOSS bezieht diese Fähigkeit auf die Navigationskomponente und postuliert: "Insbesondere dann, wenn größere Informationsmengen bereitgestellt werden, ist es außerordentlich wichtig, dass ,intelligente' Suchalgorithmen zur Verfügung stehen. Nur so kann in akzeptabler Zeit der Informationsvorrat unter den interessierenden Gesichtspunkten durchsucht werden. Sehr große Datenbanken wären fast wertlos, wenn nicht mit geeigneten Suchalgorithmen rasch auf die Daten zugegriffen werden könnte." (Voss, 1985: S.76) Diagnosefähigkeit heißt also, den zu suchenden Begriff in den Zusammenhang des bisher Erlernten zu stellen, um so speziell für den Benutzer wichtige Informationen bereitstellen zu können, die ihn nicht aufgrund einer Überfülle an Auswahlmöglichkeiten verwirren, sondern sich nahtlos in den Lernprozess eingliedern.
Problemlösungskomponente
Die Installation einer Problemlösungskomponente, die in der Lage ist, aufgrund von programmierten Regelsystemen parallel zum Benutzer Aufgaben zu lösen, könnte eine konstruktive Hilfe für den Lernenden sein. Dadurch, dass ein solches Programm eine gestellte Aufgabe mit Hilfe der vom Experten definierten Regeln berechnet, ist es auch in der Lage, eventuelle Fehler bei der Lösung des Problems zu analysieren und kann somit auch ein spezifisches Feedback an den Benutzer weitergeben. (siehe auch Kap. 3.1.2.1. und 1.3.4.)
Interaktionskomponente
Einen Definitionsansatz bezüglich der Interaktion zwischen Mensch und Computer benennt HAACK: "Dieser Begriff bezeichnet sowohl das reale Nutzungsgeschehen zwischen Mensch und Computer, als auch die entsprechende Teildisziplin der Informatik, die sich mit der Beschreibung, Erklärung und Optimierung dieser Vorgänge befasst." (Issing/Klimsa, 1995: S.152) Da in dieser Arbeit das reale Nutzungsgeschehen im Vordergrund stehen soll, wird im Folgenden anhand eines Zitates von SCHANDA dieser Bereich weiter spezifiziert: "Spricht man von Interaktion(smöglichkeiten) der Lernenden mit dem Programm, so ist es sinnvoll, zu unterscheiden zwischen
den Möglichkeiten der Lernenden, das Programm zu beeinflussen (auch als Benutzeroption bezeichnet) und
den "Eingaben", die das Programm den Lernenden abverlangt um Aufgaben, Übungen etc. zu bearbeiten oder im Programm weiterzukommen." (Schanda: S. 75)
Diese beiden sehr unterschiedlichen Qualitäten von Interaktionsmöglichkeiten sollen an dieser Stelle deutlich herausgearbeitet werden. Im ersten Fall hat der Benutzer die Möglichkeit nonverbal und autorendefiniert in das Programm einzugreifen. Er kann z.B. mit dem Mauszeiger auf vom Autor vorher bestimmte Items "klicken" und somit in den Programmverlauf eingreifen. Eine andere Interaktionsform ist die verbal-schriftliche, wobei dem Benutzer ein Eingabefeld zur Verfügung steht, in das eine beliebige Frage oder Aufforderung eingegeben wird, worauf das Programm reagieren soll. Solche Maschine-Mensch-Schnittstellen gehören seit langem zu den Aufgaben der KI-Forschung, weil das Programm selbständig eine Aktion ausführen soll, die nicht explizit definiert wurde. Wie allerdings in Kapitel 1.2.3./1.2.4. nachgewiesen wurde, sind symbolverarbeitende Maschinen bis heute nicht in der Lage den geschriebenen Worten einen kontextabhängigen Sinn zu verleihen, also zu verstehen. An dieser Stelle soll auch noch einmal auf das Zitat von MANDL und HRON im zweiten Teil dieser Arbeit hingewiesen werden, in dem gesagt wurde, ein Lernprogramm sei nur dann intelligent, wenn es in der Lage sei, einen "flexiblen und adaptiven Dialog mit dem Lernenden zu führen." (vgl. Kap. 2.2.2.3. S.20) Nach dieser Funktionsbestimmung sind damit den intelligenten Lernprogrammen Grenzen gesetzt, die mit symbolverarbeitenden Maschinen zur Zeit nicht zu überwinden sind. Deshalb ist nur theoretisch von einer intelligenten Interaktionskomponente auszugehen, praktisch jedoch sind die natürlich-sprachlichen oder verbal-schriftlichen Interaktionen zwischen einer Maschine und einem Menschen immer sehr unzureichend geblieben. Es bleibt dennoch bei den zu bewertenden Lernprogrammen zu untersuchen, inwieweit die Interaktionskomponente verwirklicht wurde. Die Grenzen sind schwimmend.
Aufgrund dieser unterschiedlichen Qualitäten von Interaktionsmöglichkeiten ist es nicht eindeutig möglich, sie den KI-Anforderungen unterzuordnen und wie festgestellt wurde ist dies, wenn auch nur theoretisch, denkbar.
Lerntheoretische Anforderungen
Für jeden Lernstoff bieten sich unterschiedliche Lernmethoden an. Deshalb sind heutige Lernprogramme nicht mehr nur einer Lerntheorie entlehnt, sondern in einem Programm sind unterschiedliche lerntheoretische Erkenntnisse für einen erfolgreichen Lernprozess zusammengeführt worden. Aus diesem Grund sind aus den drei in Kapitel zwei vorgestellten Lerntheorien für dieses Kapitel drei Komponenten abgeleitet worden, die die unterschiedlichen Lerntheorien repräsentieren sollen.
Drill and Practice-Komponente - behavioristische Lerntheorie
Tutorielle Komponente - kognitivistische Lerntheorie
Forschend-entdeckende Komponente - konstruktivistische Lerntheorie
Drill&Practice-Komponente
Extrahiert aus den behavioristischen Lerntheorien wird hierdurch eine Lernstrategie repräsentiert, die sich auf eine einseitige Informationsdarbietung beschränkt, nach dem Vorbild eines Lehrervortrags. Dies kann z. B. durch eine Videoeinspielung oder dem Abspielen einer Audiodatei oder der einfachen Darbietung eines Textes verwirklicht werden. Während der Wissensvermittlung ist der Lerner in einer reaktiven Haltung. Häufig werden zu diesem Zweck Drill&Practice-Programmkomponenten verwendet. Dabei ist die Drillkomponente eine gute Möglichkeit, um dem Benutzer gesichert Faktenwissen zu vermitteln. Sie dient zur Einführung in unbekannte Wissensgebiete. Gerade Anfänger können hierdurch in komplexe Problemstellungen eingewiesen werden. Im Anschluss an die Drill-Komponente hat der Lerner meist die Möglichkeit, ähnlich einer programmierten Instruktion (vgl. Kap. 2.1.2.1.) mit Hilfe der Practice-Komponente das zuvor Vorgetragene in einem kurzen Übungsteil zu wiederholen, wobei er mit Hilfe einer konstruktiven Rückmeldung in die Lage versetzt wird, selbständig herauszufinden, wie gut er einen bestimmten Lernstoff verstanden hat.
COHEN gibt einige allgemeine Kriterien für die Gestaltung von Rückmeldungen an:
informierende Rückmeldung: Durch eine Fehleranalyse soll der Benutzer nicht nur auf einen Fehler hingewiesen werden, sondern er ist auch in der Lage zu verstehen, welchen Fehler er gemacht hat.
sofortige Rückmeldung: Diese Form der Rückmeldung ist vor allen Dingen bei schwachen Schülern angebracht, um dauerhaft kleine Motivationsschübe zu geben.
verzögerte Rückmeldung: Dem fortgeschrittenen Lerner werden die sich wiederholenden Verstärkungen eher lästig sein, so dass hier eine längere Frequenz der Feedbacks gewählt werden kann.
Die Practice-Komponente arbeitet nach den behavioristischen Gesetzen der Verhaltenskonditionierung. So werden richtig wiedergegebene Inhalte durch ein Lob verstärkt, während falsche Inhalte durch eine entsprechende Deklaration gelöscht werden.
Tutorielle Komponente
Die tutorielle Komponente ist z.B. durch eine Form des Coaching oder den sokratischen Dialog in der Lage, Begriffsnetze bei dem Lerner zu erzeugen. Hierbei steht weniger die Vermittlung von Faktenwissen, also deskriptiver Konstrukte, als vielmehr die Aneignung von Regeln, also explikativer Konstrukte im Vordergrund.
Inhaltlich gehört die tutorielle Komponente zu den lerntheoretischen Komponenten, programmiertechnisch ist sie allerdings den KI-Komponenten zuzuordnen, da sie auf dem Dialog basiert. (vgl. Kap. 2.2.2.3.) Deshalb soll die tutorielle Komponente im Kapitel der lerntheoretischen Anforderungen beschrieben werden, aber dennoch den KI-Komponenten zugeordnet werden. (vgl. Kap. 3.1.4.)
Forschend-entdeckende Komponente
Die forschend-entdeckende Komponente soll dem Benutzer eine dem entdeckenden Lernen nahestehende Umgebung offerieren. Hierdurch soll die aktive Rolle des Lerners gefördert werden, um sich den Lernstoff anzueignen, den der Lerner selbst für sinnvoll erachtet. Eine schon beschriebene und als geeignet befundene Benutzeroberfläche ist der Hypertext. Hierbei wird der Benutzer z.B. mit einem bestimmten Lernziel in die explorative Lernumgebung entlassen und hat so die Möglichkeit, seine eigenen Wissensstrukturen zu konstruieren. Hält der Benutzer das Lernziel für erreicht, kann er z.B. mit Hilfe einer Practice-Komponente nachprüfen, ob seine Wissensstrukturen den Anforderungen des Lernziels entsprechen.
Designtheoretische[5] Anforderungen
Ein gutes Programmdesign soll den Benutzer motivieren können. Es sollte ansprechend sein und die Bildschirmoberfläche so strukturieren, dass es dem Benutzer leicht fällt, ohne entsprechendes Vorwissen mit dem Programm umzugehen. BONSIEPE beschreibt die Aufgabe der Infodesigner folgendermaßen: "Ein Infodesigner wird sich den Kommunikationsaufgaben nicht nur, vielleicht nicht einmal überwiegend, unter der Perspektive der Visualisierung, als vielmehr unter der Perspektive der Organisation und Strukturierung von Informationen nähern. Gerade die digitalen Medien machen deutlich, dass visuelle Gestaltung nicht eine illustrative Zusätzlichkeit ist, sondern die hinter dem Sichtbaren liegenden Strukturen angeht." (Bonsiepe, 1996: S.75) Erst durch ein gutes, das heißt prägnantes Design (vgl. Kap. 3.1.3.4.) ist es möglich, eine Information so zu strukturieren, das der Lerner sie leicht aufnehmen, also assimilieren kann und so die Komplexität des Lernstoffes geringer wird.
Aus den Erkenntnissen der Gestaltpsychologie soll im Rahmen dieser Arbeit der Teil der Ergebnisse dargelegt werden, der sich mit der Wahrnehmung graphischer Darstellungen befasst. Die Gestaltpsychologie leitet sich aus dem Bereich der Phänomenologie ab und beschäftigt sich als solche mit beobachtbaren Phänomenen. Der Begriff der Wahrnehmung spielt deshalb eine entscheidende Rolle. BRAUER definiert den Begriff "Wahrnehmung" folgendermaßen: "Wahrnehmung ist also der Prozess der Reizaufnahme und das Ergebnis derselben (Erkenntnis dessen, was die Reizkonfiguration bedeutet)." (Bräuer, 1994: S.49) Je klarer und unmissverständlicher also das Design ist, umso höher ist die Wahrscheinlichkeit, dass der Lerner leicht die Inhalte aufnehmen kann, die zur Erreichung des Lernzieles beitragen. Im Folgenden sollen einige Gestaltgesetze, die für ein Interfacedesign von Bedeutung sein können referiert werden. (vgl. Bräuer, 1994 und Abb.5)
Figur-Grund Gesetz
Bei dreidimensionalen Objekten in der zweidimensionalen Ebene ist der Beobachter nicht mehr in der Lage, Gegenstände hervorzuheben. Es entstehen sogenannte Kippfiguren. D.h. die Figur kann zum Hintergrund werden, oder aber der Hintergrund wird zur Figur. Die Wahrnehmung des Benutzers wird dabei stark strapaziert.
Gesetz der durchgehenden Linie
Der Beobachter folgt bei der Kreuzung zweier Linien immer der dominanteren, d.h. der längeren, wobei auch die eindeutige geometrische Positionierung (senkrecht/waagerecht) für den Betrachter eine große Strukturierungshilfe ist.
Symmetrie-Gleichgewicht Gesetz
BRAUER unterscheidet drei Grundformen der Symmetrie: Die Symmetrie von Dingen, von Eigenschaften und von Relationen (vgl. Bräuer, 1994: S.63). Im Zusammenhang mit der Interfacegestaltung ist die Symmetrie von Dingen von besonderer Bedeutung, da sie sich auf die visuell wahrnehmbare Symmetrie bezieht. So nimmt man z.B. einen rechten Winkel im Gegensatz zu einem 40 Grad Winkel als sehr angenehm wahr. Ein rechter Winkel ist in der Lage zu strukturieren. Auch ein Kreis, ein Rechteck oder ein Quadrat sind dem Menschen geläufige Darstellungen, die eine Benutzeroberfläche strukturieren können.
BRAUER schreibt an anderer Stelle: "Im Wahrnehmungssystem scheint Symmetrie als eine starke Tendenz zur Prägnanz angelegt zu sein." (Bräuer, 1994: S.64) Bei graphischen Darstellungen hat also die unterschiedliche Ausprägung von Prägnanz einen entscheidenden Einfluss auf den Wahrnehmungsprozess.
Prägnanz
RAUSCH hat einige Aspekte der Prägnanz benannt, z.B. Gesetzmäßigkeit vs. Zufälligkeit. Die gesetzmäßige Ordnung von Taskleisten wirkt so auf den Benutzer strukturierter als eine zufällige Anordnung. Desweiteren benennt RAUSCH den Aspekt Abgeleitetheit vs. Eigenständigkeit, wobei davon auszugehen ist, dass die sich wiederholende Ableitung einer Darstellung für den Benutzer einprägsamer wird, als eine ständig neue eigenständige Darstellung. Es geht also um den "roten Faden". Erst mit seiner Hilfe wird es dem Lernenden möglich, ohne Vorwissen ähnliche Interfaces zu erkennen und zu bedienen. Ein weiterer Aspekt ist Gestörtheit vs. Integrität. Hiermit meint RAUSCH, dass sich unterschiedliche Darstellungen nicht überlagern dürfen und die Kumulation vieler Abbildungen den Benutzer verwirren wird. RAUSCH legt auch Wert auf die Einfachheit einer Veranschaulichung, damit der Lernende einerseits die wichtigen Inhalte sofort erkennt und diese Inhalte andererseits für den Lernenden einprägsamer werden. Soll allerdings eine Darstellung prägnant sein, so muss sie auch realistisch die Komplexität, Ausdrucks- und Bedeutungsfülle wiedergeben können. Dazu sollte die Darstellung einfach sein aber nicht vereinfachen und dadurch komplexe Sachverhalte reduzieren. Es muss dem Betrachter möglich sein, die Komplexität eines Objekts wahrzunehmen. Allerdings dürfen die Eigenschaften eines Objektes nicht verfälscht werden, nur dann kann der Lernende die Ausdrucks- und Bedeutungsfülle erkennen.
Teile und Ganzes
Das gewohnte Ganze sollte immer als solches zusammenbleiben. So ist z.B. die graphische Darstellung eines Kuchendiagramms als nebeneinanderstehende Kuchenstücke für den Betrachter ungewohnt. Er ist gewohnt, die Stücke als Teil eines Kreises zu betrachten. Dann ist es ihm auch möglich, die Aussage eines Kuchendiagramms einfacher zu überschauen.
Gruppen und Grenzen
Es spielt eine erhebliche Rolle im Wahrnehmungsprozess, in welcher räumlichen Entfernung die graphischen Elemente angelegt werden. Nach dem Gesetz von Gruppen und Grenzen unterscheidet der Betrachter hierdurch Elementengruppen voneinander. Eine Benutzeroberfläche, die solche Erkenntnisse nicht umsetzt, würde den Lernenden verwirren.
Zusammenfassung aller beschriebenen Strukturkomponenten
Art der Komponente |
Strukturkomponente |
Aufgabe |
Grundlegende Komponenten |
Wissensbasis |
Enthält den gesamten Lernstoff |
Navigationskomponente |
Gibt dem Benutzer verschiedene Möglichkeiten, innerhalb des Lernprogramms zu agieren |
|
KI-Komponenten |
Interaktionskomponente |
Soll innerhalb einer Mensch-Maschine-Schnittstelle eine verbal-schriftliche Kommunikation ermöglichen |
Problemlösungskomponente |
Ist in der Lage, aufgrund einer Regelbasis eigenständig Probleme zu lösen |
|
Diagnosekomponente |
Ist eine Art Beobachtungs- und Analysekomponente, um die Lerneigenschaften des Benutzers auf die Präsentation des Lernstoffs abzustimmen |
|
Tutorielle Komponente |
Baut beim Benutzer hierarchische Begriffsstrukturen auf |
|
Lerntheoretische Komponenten |
Drillkomponente |
Konfrontiert den Benutzer in einem Vortrag mit dem Lernstoff (Instruktion) |
Practice-Komponente/Lernkontrolle |
Verstärkt oder löscht beim Benutzer bestimmte Reiz-Reaktions-Verbindungen |
|
Forschend-entdeckende Komponente |
Ermöglicht eine entdeckende Lernumgebung (BRUNER) |
|
|
Wie schon in Kap. 2.3.2.3. erklärt wurde, bestehen Lernprogramme heute nicht mehr aus nur einer Komponente, sondern der Begriff Hypermedia wird mit einem Konglomerat aus ganz vielen unterschiedlichen Lernprogrammkomponenten assoziiert.
Es müssen jedoch nicht alle Komponenten in einem Hypermediaprogramm vorkommen. Es sind nötige und hinreichende Komponenten zu unterscheiden. Ganz grundsätzlich muss ein Lernprogramm aus einer Wissensbasis bestehen, desweiteren sollte eine der drei Wissensvermittlungskomponenten (Drillkomponente, Tutorielle Komponente, Forschend-entdeckende Komponente) vertreten sein. Schließlich ist es eine nötige Voraussetzung für ein Computerlernprogramm, dass es mit einer Navigationskomponente versehen ist, um die Bedienbarkeit des Lernprogramms zu gewährleisten. Alle anderen Komponenten sind als hinreichende Voraussetzungen zu betrachten und dienen somit eher der Ergänzung des Lernangebots.
Auswahl der zu bewertenden Lernprogramme
Innerhalb dieses Kapitels soll es nicht nur um die Bewertung von Lernprogrammen gehen, sondern auch um die Bedeutung eines Lernprogramms in seinem pädagogischen Kontext. Aus diesem Grund wurden Lernprogramme aus zwei unterschiedlichen Lernumgebungen ausgewählt, zum einen ein computergestütztes Lernprogramm (CBT) und zum anderen ein sogenannter Lernserver aus dem world wide web (WBT). Während die CBTs meist auf einer CD oder einem ähnlichen Datenträger gespeichert sind, werden WBTs dem Lerner im Internet zur Verfügung gestellt. Während also das CBT dem Lerner einen abgesteckten Raum zur Verfügung stellt, sind Benutzer von WBTs in der Lage in der unendlich scheinenden Informationsfülle des Internet arbeiten zu können. Beide Lernumgebungen haben ihre Stärken und Schwächen, die durch die folgende Analyse herausgestellt werden sollen.
Darüber hinaus wurden die Lernprogramme aufgrund ihres starken exemplarischen Charakters ausgewählt, wobei es nicht möglich war, Lernprogramme mit implementierter KI aufzufinden. Hierfür lassen sich mehrere Gründe anführen. Zum einen stellt BORK fest, "dass die Programme der künstlichen Intelligenz in der Entwicklung zu kostenintensiv sind und zu teure Hardware voraussetzen." (Schulmeister, 1997: S.417) Hinzukommt, dass zu lange Entwicklungszeiten von KI-Programmen nicht dem Aspekt der Aktualität genügen können. Lehrpläne und damit auch Lerninhalte haben sich neuen Anforderungen angepasst, so sind viele Programme veraltet, wenn sie zum Einsatz kommen sollen. Für den Verfasser der Arbeit stellt sich die Situation so dar: Aufgrund der Interaktions- und damit auch Adaptionsmöglichkeiten des Internets, werden KI-spezifische Erkenntnisse im Bereich der Maschine-Mensch-Schnittstellen substituiert durch einfache Mensch-Mensch-Schnittstellen im Bereich des Chats im Internet.
Dies bedeutet im Folgenden für die Bewertung der Lernprogramme, dass neben dem Fokus des pädagogischen Kontextes auch die Defizite aufgezeigt werden sollen, die aus dem Fehlen der KI-Komponenten resultieren, um zu verdeutlichen welche Vorteile die Implementierung von KI in Computerlernprogramme haben könnte.
Bewertung des Lernprogramms "PHYSIKUS"
Die Bewertung des Lernprogramms lässt sich in drei Teile zergliedern. Zuerst sollen die einzelnen Komponenten, die in PHYSIKUS verwendet wurden, analysiert werden und in einem zweiten Schritt sollen diese Komponenten in einer Struktur miteinander verknüpft und bewertet werden. In einem dritten Schritt geht es darum zu bewerten, was dieses Lernprogramm leisten kann, bzw. welche Defizite es im Hinblick auf Lernziele und lerntheoretische Betrachtungen aufweist.
Beschreibung des Lernprogramms
PHYSIKUS gehört in den Bereich der Lernspiele. Es ist in einen Lernteil und einen Spielteil eingeteilt. Beide Teile lassen sich über die Anfangsseite des Spiels direkt anwählen. Trotz der sehr klaren Trennung in zwei unterschiedliche CDs ist der Spielteil sehr eng mit dem Lernteil verwoben. Der Lernteil jedoch ist unabhängig vom Spielteil zu benutzen. In 5 Themengebieten der Physik kann der Benutzer das Wissen sammeln, das nötig ist, um bestimmte Maschinen innerhalb des Spiels in Gang zu setzten. Im Folgenden wird zunächst die Geschichte von PHYSIKUS kurz referiert, um dann die einzelnen Teile des Lernprogramms darzustellen und diese auf die zuvor beschriebenen Strukturkomponenten hin zu untersuchen.
Die Spielidee
Durch einen Meteoriteneinschlag auf einem kleinen Planeten hört dieser auf zu rotieren. Von jenem Zeitpunkt an gibt es eine der Sonne zugewandte Seite, die von der glühenden Hitze ausgedörrt wird und eine der Sonne abgewandte Seite, auf der extrem tiefe Temperaturen ein Leben unmöglich machen. Ein Professor möchte diese gefährliche Situation beheben, indem er eine riesige Impulsmaschine baut, mit deren Hilfe der Planet wieder in Rotation versetzt werden kann. Kurz vor der Fertigstellung seiner Maschine muss der Professor jedoch aufgrund extrem lebensunfreundlicher Bedingungen fliehen. Nun wird der Lernende aufgefordert fünf Generatoren soweit in Stand zu setzten, dass sie die Impulsmaschine mit Strom versorgen können. Die Mechanismen der Maschinen innerhalb eines Generators unterliegen jedoch physikalischen Gesetzmäßigkeiten. Mit Hilfe des physikalischen Grundwissens, welches der Professor auf seinem Laptop gespeichert hat, sollen die Maschinen durch den Lernenden funktionstüchtig gemacht werden.
Beschreibung des Interface des Spielteils
Aus der Ich-Perspektive des Benutzers erhält man einen Einblick in die Spielwelt. (siehe Abb.6) Diese erschließt sich dem Benutzer deshalb auch nur nach und nach, eine Gesamtansicht der Aktionsfläche bleibt dem Lernenden verwehrt. Durch eine Veränderung des Mauszeigers wird dem Spielenden deutlich gemacht, dass bestimmte Gegenstände innerhalb eines Bildes zu benutzen oder für den Spielverlauf von Relevanz sind. Im unteren Bildschirmviertel befindet sich die Navigationsleiste. Zum einen ist es möglich, durch einen ON-Schalter das Lernlaptop zu aktivieren, um somit auch in den Lernteil wechseln zu können, zum anderen steht dem Benutzer eine Interaktionskomponente in Form eines Scanners zur Verfügung. Der Scanner hat die Funktion, Gegenstände zu "nehmen" und sie in einem anderen Zusammenhang zu aktivieren. In der oberen rechten Ecke des Bildschirms befindet sich eine Hilfeleiste, durch die der Lernende auf entsprechende Verweise im Lernteil aufmerksam gemacht wird.
Beschreibung des Interface des Lernteils
Das Laptop des Professors, wie die Programmierer von PHYSIKUS den Lernteil genannt haben, bietet dem Lernenden auf der Anfangsseite fünf Wissensgebiete an, die nach einer Auswahl einen sofortigen Einstieg in das Lernprogramm bieten. Die Mitte des Bildschirms wird dominiert von einer Animation, die gekoppelt ist mit einem links darüber stehenden Text. (siehe Abb.7) Dem Benutzer steht es frei, den Sprecher über die Navigationsleiste zu aktivieren oder nicht, um so den Fokus auf die Animation zu richten. In vielen Fällen wird nach der Instruktion die Animation zur Interaktion freigegeben. Hierdurch wandelt sich die Animation zu einer Simulation um, bei der der Benutzer durch das Einsetzen verschiedener Variablen die Anderung des Endzustandes miteinander vergleichen kann. Der Benutzer wird über die "Tu-was-Zeile" am linken unteren Bildschirmrand darauf hingewiesen, dass er mit dem Mauszeiger in die Simulation eingreifen kann. Über die Pfeiltasten in der Navigationskomponente am unteren rechten Rand des Bildschirms ist es möglich, innerhalb einer Lektion vor- oder zurückzugehen oder mit Hilfe der Doppelpfeile ein Kapitel zu überspringen bzw. zu wiederholen. Mit Hilfe des Kassettenitems kommt man zu einer kompletten Kapitelübersicht mit allen im Lernprogramm möglichen Lektionen. Durch den OFF-Schalter kann der Benutzer das Laptop schließen und zum Spielteil zurückkehren.
Verknüpfung der Strukturelemente und ihre Bewertung unter Berücksichtigung der KI-Anforderungen und lern- und designtheoretischer Gesichtspunkte
Im Folgenden soll unter Rückbezug auf die oben beschriebenen Komponenten aufgezeigt werden, ob das Programm PHYSIKUS in der Lage ist, einer pädagogischen Bewertung standzuhalten.
Bewertung unter Berücksichtigung der KI-Anforderungen
PHYSIKUS ist nicht mit KI-Anteilen ausgestattet worden. Das bedeutet auf der anderen Seite natürlich auch, dass das Programm nicht in der Lage ist, sich dem Lernenden anzupassen, wodurch ein wichtiges Element im Lernprozess fehlt. Der Lernende bleibt dem ständigen Gefühl überlassen, innerhalb des Programms auf sich allein gestellt zu sein. Das hat an vielen Stellen des Spiels zur Folge, dass die Motivation, weiterzuspielen strapaziert wird.
Bewertung unter Berücksichtigung der lerntheoretischen Anforderungen
Der Lernteil ist so angelegt, dass die Animationen die Instruktionen visuell unterstützen und der Lerner somit in die Lage versetzt wird, durch zwei verschiedene Sinneskanäle (auditiv und visuell) Zugang zum Lernstoff zu erlangen. (siehe Abb.7) EDELMANN weist darauf hin, dass PAVIO diese duale Form der Informationsaufnahme und -speicherung hervorgehoben hat. "Im Zusammenhang mit dualer Kodierung kann man aber auch die sinnvolle Hypothese aufstellen, dass bestimmte Wissensstoffe leichter erfasst und besser behalten werden, wenn sie sowohl bildhaft, als auch sprachlich-inhaltlich verarbeitet werden." (Edelmann, 1996: S.220-221)
Der Lernteil folgt nur bedingt den von GAGNE aufgestellten Postulaten des Wissenserwerbs. So werden neu eingeführte Begriffe definiert, um sicherzustellen, dass sie zu jedem Zeitpunkt die gleiche Bedeutung haben. Anschließend werden die neu eingeführten Begriffe an Beispiele gekoppelt. In einem dritten Schritt wird der erlernte Sachverhalt im Spielteil in einem anderen Zusammenhang angewendet, um sicher zu stellen, dass eine Regel erlernt wurde und nicht nur ein Begriff. Bis hierhin entspricht der Wissenserwerb dem von GAGNE erforschten Verlauf. Es gibt jedoch zwei Optionen, die gegen eine klare Durchhaltung des Erwerbs von Regelhierarchien nach GAGNE verstoßen:
Die direkte Verbindung zwischen dem Lern- und dem Spielteil (siehe Abb.8) legt nahe, die erlernten Regeln nur mechanisch aufzunehmen, und unmittelbar im Spielteil anzuwenden. So ist es trotz des Transfers eines erlernten Sachverhaltes in eine Anwendungsumgebung nicht möglich, das Wissen für längere Zeit zu speichern. Deshalb ist, nach GAGNE, der Lernende auch nicht in der Lage den Lernstoff zu verstehen, sondern er lernt ihn für eine kurze Zeit auswendig, wodurch nur ein kurzfristiger Lernerfolg gewährleistet ist.
Die Suche nach dem Lösungsprinzip von trial und error nach der Lösung kann nicht in GAGNES Sinne gewesen sein. Möchte der Benutzer also eine Maschine in Gang setzen, so wird es wahrscheinlich mehrere vernünftige Lösungen geben, von denen jedoch nur eine die richtige, die programmierte ist. Theoretisch müsste es möglich sein, jede vernünftige Lösung im Spielteil anzuerkennen, dem ist jedoch nicht so. Es gibt nur eine mögliche Lösung, obwohl die anderen sicherlich auch richtig wären. Durch eine derartige Verwirrung werden schon einmal verknüpfte Begriffe mit dem Regelnetzwerk wieder gelöscht, da sie nicht zum erwarteten Erfolg führen. Letztendlich ist dem Benutzer nicht klar, ob die verwendete Lösung richtig war oder nicht.
Das Wiedererkennen von erlernten Sachverhalten setzt ein Abstraktionsvermögen voraus, das PIAGET als "hypothetisch-deduktiv" bezeichnet. Diese dem Jugendlichen eigentümliche Fähigkeit manifestiert sich, wenn" a) einfache Annahmen, die mit der Wirklichkeit oder mit dem, was das Subjekt wirklich glaubt, in keiner notwendigen Beziehung stehen und b) wenn es der Notwendigkeit des Schlusses als solchem, im Gegensatz zur Übereinstimmung seiner Folgerungen mit der Erfahrung, vertraut." (Piaget, 1974: S.167) Je nach Entwicklung des Kindes sind solche formalen Operationen jedoch erst ab ca.11-12 Jahren möglich. Deshalb müsste das Mindestalter für dieses Lernprogramm auf 12 Jahre datiert werden, während es nach Angaben der PHYSIKUS-Mitarbeiter keine Altersbeschränkung gibt.
Neben diesen kognitivistisch orientierten Lernprozessen, ist jedoch auch darauf hinzuweisen, dass die Instruktionen des Lernteils den behavioristischen Lernstrategien folgen. Es ist eine Ahnlichkeit zu den Instruktionsprogrammen der 50-er und 60-er Jahre zu erkennen, mit dem Unterschied, dass nach der Instruktion keine Prüfung des Erlernten Wissens ansteht, sondern die Nutzung einer Simulation vorgeschlagen wird, um das Erlernte nachzuvollziehen. Hierdurch ergibt sich für den Lerner keine Möglichkeit nachzuprüfen, ob er das Erlernte verstanden hat oder nicht.
Festzustellen ist auch eine stringente Autorensteuerung im Spielteil (vgl. Abb.6), die es dem Lernenden nicht erlaubt, zu jeder programmierten Spielsituation zu "surfen". Nur durch die erfolgreiche Inbetriebsetzung einer Maschine ist der Benutzer in der Lage, im Spielverlauf voranzuschreiten. Gerade in diesem Fall kommt der Autorensteuerung eine ambivalente Bedeutung zu. Auf der einen Seite ist es dem Lerner nicht möglich selbstgesteuert und eigenverantwortlich zu lernen, auf der anderen Seite ist es vor allen Dingen die Linearität, die es dem Benutzer gestattet, aufeinander aufbauende Sachverhalte zu erlernen. Hinzu kommt, dass die Lernmotivation gerade dadurch entfacht wird, dass der Lerner nicht zusammenhangslos Wissen auswendig lernt (mechanisch nach AUS-UBEL), sondern den Lernprozess sinnvoll-rezeptiv gestalten muss, wenn er in der Lage sein will, erlernte Gesetzmäßigkeiten auf andere Zusammenhänge zu übertragen. Nach AUSUBEL ist diese Form des Wissenserwerbs die beste, da der Schüler verstehend lernt. (vgl. Kap. 2.2.1.2.) Aufgrund der Linearität des Wissenserwerbs ist das Programm auch für das Selbststudium geeignet. Während am Anfang des Spiels triviale Aufgaben vom Lerner zu lösen sind, werden diese zum Ende zunehmend komplexer.
Bewertung unter Berücksichtigung der designtheoretischen Anforderungen
Das Interface-design folgt den gestaltpsychologischen Postulaten. So dient die Einfassung des Aktionsfensters (im Spielteil) durch das Lernlaptop einer klaren Strukturierung (siehe Abb.7) und folgt den Gesetzen der Symmetrie. Durch die räumliche Nähe der einzelnen Komponenten (im Lernteil) wird es dem Benutzer leicht fallen Beziehungen herzustellen und andere entferntere Komponenten einer anderen Einheit zuzuordnen (siehe Kap.3.1.3.6.). In diesem Zusammenhang ist jedoch die Installation der Hilfezeile für die Navigationskomponente ungünstig gewählt worden, da sie gerade gegen das Gesetz von Gruppen und Grenzen verstößt. An dieser Stelle wird aufgrund der räumlichen Distanz die Beziehung zwischen diesen beiden Einheiten erst relativ spät deutlich.
Zusammenfassende Bewertung des Lernspiels "PHYSIKUS"
Die Bewertung von Lernprogrammen kann immer nur unter der Berücksichtigung der konkreten Lernsituation erfolgen da sie meistens vorher durch die Autoren des Programms definiert wurden. Hierzu gehören zum einen die Beweggründe des Lerners, ein Lernprogramm zu benutzen und gehört zum anderen der Zusammenhang, in dem das Lernprogramm genutzt wird. PHYSIKUS spricht eine große Bandbreite von Nutzern an. So kann das Programm sinnvoll von Schülern und Erwachsenen gleichermaßen im Sinne der Weiterbildung oder auch zum Zweck des Erwerbs von Grundkenntnissen genutzt werden. Der Wissenserwerb kann sowohl in einer Gruppe als auch alleine vollzogen werden. Das Programm sollte jedoch nicht im schulischen Umfeld benutzt werden, da es aufgrund seiner Linearität keinen lehrplanspezifischen Zugriff ermöglicht, sondern einen allgemeinen Überblick über einzelne Teilbereiche der Physik verschafft. Es ist also für den Schüler unterrichtsergänzend einzusetzen, für den Erwachsenen unterrichtssubstituierend, d.h. um sich selbst physikalische Grundkenntnisse beizubringen.
PHYSIKUS ist in den Bereich der Lernspiele einzuordnen, da eine Geschichte im Vordergrund des Erscheinungsbildes steht. An dieser Stelle soll noch einmal auf die strukturierende Funktion einer Geschichte innerhalb eines Lernprogramms hingewiesen werden (vgl. Kap. 2.3.1.2.), jedoch auch auf die Gefahren, wenn der Spielteil, wie bei Physikus zu dominant wird und so erlerntes Wissen dem spielerischen Aspekt untergeordnet wird (vgl. Kap.3.2.2.2.).
Der Benutzer ist während des Spiels keinen Sackgassen ausgeliefert, an denen ein Weiterkommen im Spielverlauf unmöglich wird, da das Programm keine falschen Lösungen zulässt. Das bedeutet jedoch auf der anderen Seite durch die schmale Ausstattung der Diagnosekomponente, dass das Programm autorendeterminiert ist, was sich nicht zuletzt auf die Anzahl der Lösungsvarianten auswirkt. Zu jedem Problem gibt es genau eine Lösung aber mehrere Lösungsmöglichkeiten, wodurch oftmals trial and error zur Problemlösungsmethode wird und nicht, wie man es nach dem Studium eines Lernkapitels erwarten sollte, eine vernünftige Lösung im Vordergrund steht. So ist der Lernende nach den Instruktionen des Lernprogrammes zwar theoretisch in der Lage das Problem zu lösen, doch scheitert die Umsetzung meist am Fehlen eines bestimmten Gegenstands, oder weil das Programm eine bestimmte vom Benutzer logisch durchdachte Lösung nicht vorsieht.
Abschließend sollen die Defizite und Vorteile des Programms auf der Basis der Bewertung der Einzelkomponenten benannt werden:
Defizite |
Auswirkung auf den Lernprozess/den Lerner |
Vorteile |
Auswirkung auf den Lernprozess/den Lerner |
Autorengesteuerter Spielteil |
Langatmige Suche nach der richtigen Lösung kann zur Demotivation des Lerners beitragen |
Interaktionskomponente |
Individualisierung des Lernprozesses |
Fehlen einer individuellen Hilfefunktion im Lernteil |
Der Lerner wird im Problemlösungsprozess allein gelassen |
Links im Spielteil verweisen auf Lernkapitel |
Erinnern den Lerner an ein Studium des Lernteils, der für die Problemlösung relevant ist |
Geringe Ausstattung der Diagnosekomponente |
Es ist keine Lernzielüberprüfung möglich, keine Substituierung von Reiz-Reaktions-Verbindungen bei falschen Antworten |
Verbindung der Drillkomponente mit Animationen |
Durch die duale Form der Informationsaufnahme ist eine eindeutigere Informationsspeicherung möglich |
Schneller Wechsel zwischen Lern- und Spielteil möglich |
Der Benutzer lernt den Sachverhalt für kurze Zeit auswendig, um ihn dann anzuwenden. (mechanisches Lernen) |
Ständiger Zugriff zum Lernteil bzw. Spielteil |
Entdeckende und individualisierte Lernumgebung |
|
|
Unterstützung der Instruktion durch einen Sprecher |
Durch den, die Instruktion vorlesenden Sprecher, kann der Benutzer den Fokus auf die Animation richten. |
|
|
Simulationen |
Fördern entdeckende Lernprozesse (siehe Kap. 2.3.2.2.) |
|
|
Inhaltsverzeichnis des Lernteils |
Gibt dem Lerner die Möglichkeit, einzelne Gesetze in einem Zusammenhang zu sehen |
|
|
Design des Interface nach gestaltpsychologischen Gesichtspunkten |
Sich selbst erklärende Handhabung des Programms Der Einstieg ist ohne programmtechnisches Vorwissen möglich |
Es ist darauf hinzuweisen, dass alle Folgerungen aus den Defiziten und Vorteilen im zweiten Kapitel der Arbeit ihre lerntheoretische Basis haben.
Es ist deutlich herauszustellen, dass gerade durch das Fehlen der KI-Programmteile Defizite im Bereich der Adaptivität zu sehen sind. Deshalb wird sich der Benutzer an vielen Stellen unverstanden fühlen. So werden z.B. dem Benutzer häufig dieselben Lerneinheiten als Verweise in der Hilfezeile angeboten werden, weil das Programm nicht in der Lage ist zu speichern, welche Lernkapitel der Lernende schon absolviert hat. Auch die unzureichende Diagnosekomponente und die unzureichende Überprüfbarkeit von Lernzielen sprechen gegen eine positive Bewertung des Lernprogramms, dennoch ist es gerade die Gestaltung der Lernumgebung, in die der Lernende geführt wird, die eine hohe Motivation für den Lernprozess erzeugt.
Bewertung eines WebBasedtTraining (WBT): http://www.learnetix.de
Dieser im Internet zu findende Lernserver soll nach einem ähnlichen Prinzip wie das ComputerBasedTraining (CBT) PHYSIKUS bewertet werden. So werden anfangs die Benutzeroberflächen beschrieben, um anschließend learnetix.de unter KI-spezifischen, lern- und designtheoretischen Gesichtspunkten zu bewerten. Abschließend sollen aufgrund der Bewertung die Vorteile und Defizite des WBTs benannt werden.
Erläuterung einzelner Menüs des Lernservers
Da es sich um eine komplexe Hypermediastruktur handelt, wird es im Rahmen dieser Arbeit nur möglich sein, einzelne Menüs des WBTs darzustellen. Es sollen aber die wichtigsten Links analysiert werden. Hierzu zählen insbesondere alle Instruktionen und Lernangebote. Die sonstigen Freizeitangebote, die der Lernserver offeriert, werden nur am Rande erwähnt. Für den Überblick soll ein Schaubild Aufschluss über die Gesamtstruktur des Servers geben (siehe Abb.9).
Dieser Lernserver richtet sich vor allen Dingen an die Schüler der Jahrgangsstufen 5-13 einer jeden Schulform. Das Lernangebot erstreckt sich über die drei Fächer Deutsch, Englisch und Mathematik. Für jedes Fach steht dem Benutzer ein Guide zur Verfügung, der durch das fachspezifische Untermenü führt. Der Benutzer wird in eine eigene Welt eingeführt, in der er ein virtuelles Haus in einer virtuellen Straße in einer virtuellen Wohngegend besitzt. Durch das Lösen von Aufgaben und das richtige Beantworten von Fragen sammelt der Benutzer Cybergeld, wodurch er sein Haus einrichten kann. Eine der Hauptaufgaben des Servers ist die Hilfe bei Hausaufgaben und ihre Korrektur. Jeden Tag zwischen 15.00 Uhr und 17.00 Uhr besteht die Möglichkeit, eine Hilfestellung bei den Hausaufgaben zu bekommen. Hierzu ist eine Chat eingerichtet worden, der von drei fachspezifischen Tutoren geleitet wird.
Im Folgenden sollen einige Menüs beschrieben werden, die dem Schüler für den zusätzlichen Wissenserwerb zur Verfügung stehen.
Beschreibung des Interface der Navigationszeile
Die Navigationszeile zeigt die acht Hauptmenüs an, auf die der Benutzer nach Belieben zugreifen darf. Neben den drei Guides besteht unter anderem die Möglichkeit, den eigenen Schreibtisch anzuwählen, an dem Notizen zurückgelassen werden können. Über den Treffpunkt gelangt man in das Chatmenü. Durch Anklicken der Links Fun&Action bzw. Haus dringt der Benutzer in den Bereich der 3-D-Welten vor. Hier kann er entweder sein Haus bzw. seine persönliche Identifikation bearbeiten oder Graffities sprühen und Bungeeseil springen. Dieser Bereich jedoch dient eher der Konstruktion einer eigenen Welt als der Wissensvermittlung durch Tutoren oder auch dem Wissenserwerb.
Beschreibung des Interface eines Lernguides
Im oberen Bildschirmteil ist die schon beschriebene Hauptmenüleiste zu finden. Im Hauptfenster werden aktuelle Informationen zu dem jeweiligen Fach angegeben, die sich teilweise sogar mit dem Startmenü decken. Am linken Rand des Bildschirms werden dem Benutzer die jeweiligen fachspezifischen Optionen offeriert. Im Folgenden soll beispielhaft der Mathelernguide näher beschrieben werden. (siehe Abb.9) Mit der Überschrift "Hausaufgaben direkt" wird der Lernende z.B. auf den Hausaufgabenservice hingewiesen. Er hat die Wahl zwischen dem Hausaufgabenchat, der Korrektur schon gemachter Hausaufgaben und der Möglichkeit, eine Frage an den Guide zu richten. Mit dem Titel "Nachschlagen/Wissen" wird der Benutzer in die Wissensbasis eingeführt. Hier kann er im Archiv mit Hilfe einer Suchmaschine nach Begriffen suchen. Das Ergebnis wird dem Benutzer in Form von Links aufbereitet, so dass er sich das Passende herausfiltern kann. Es ist möglich, sich in Form eines sowohl alphabetischen, als auch chronologischen Lexikons mit berühmten Mathematikern zu beschäftigen oder aber Merksätze zu bestimmten Themen abzufragen. Durch weitere Links hat der Benutzer die Möglichkeit, auch außerhalb von learnetix.de zusätzliche Informationen zu beziehen. Anhand von Arbeitsblättern und Abitrainings ist der Benutzer in der Lage, sich auf eine Prüfung vorzubereiten. In einem vierten Abschnitt mit der Überschrift "Action" kann der Lerner sein Wissen auf spielerische Art anwenden. Durch verschiedene Quiz kann der Benutzer logisches Schlussfolgern üben. Mit Hilfe des Kopfrechentrainings ist es möglich, die Konzentrationsfähigkeit zu trainieren.
Verknüpfung der Strukturelemente und ihre Bewertung unter Berücksichtigung der KI-Anforderungen und lern- und designtheoretischer Gesichtspunkte
Im Folgenden werden die einzelnen Strukturelemente dargestellt. Hierbei soll das Internet mit seinen Möglichkeiten und Schwächen als Lernumgebung hervorgehoben werden. Im Zusammenhang mit individuellen Lernprozessen geht es darum, insbesondere die neuen Kommunikationsmöglichkeiten kritisch zu beleuchten.
Bewertung unter Berücksichtigung der KI-Anforderungen
Ein Großteil der KI-Komponenten wie z.B. Teile der Diagnosekomponente oder der verbal-kommunikativen Anteile der Interaktionskomponente wird in diesem WBT durch eine Mensch-Mensch-Schnittstelle wiedergegeben. So ist zwar ein sehr hohes Maß an Individualität gegeben, das jedoch nicht durch eine Interaktion zwischen dem Benutzer und der Maschine erzeugt wird, sondern, beruhend auf den neuen Kommunikationsformen, die das Internet bietet, zu einem, wenn auch anonymen Mensch-Mensch-Kontakt führt.
Die Fähigkeit der Diagnosekomponente, die vom Benutzer gelösten Aufgaben zu überprüfen, beschränkt sich jedoch auf den Vergleich mit einer Vorlage, so dass das Programm zwar über die Unterteilung in richtig und falsch hinaus dazu in der Lage ist, bei falschen Lösungen die richtige zu benennen. Hierbei wird dem Lerner jedoch weder der Rechenweg erklärt, noch wird der Fehler des Benutzers analysiert. Deshalb ist diese Hilfe nicht mit den Eigenschaften einer KI-Komponente zu vergleichen.
Auch die installierten Suchmaschinen sind nicht in der Lage, sich den Bedürfnissen des Benutzers soweit anzupassen, dass dieser nur die Links zur Verfügung gestellt bekommt, die für seinen aktuellen Wissensstand relevant sind. Dennoch ist das Programm in der Lage, individuell auf den Lernenden einzugehen. Zum einen wird dies erreicht durch die Benutzererkennung, wodurch dem Benutzer seine persönlichen Daten vom Hauptterminal übermittelt werden können, zum anderen steht im Vordergrund des Servers der Chat, also eine Mensch-Mensch-Schnittstelle, durch den der Benutzer Kontakt zu anderen gleichgesinnten Lernenden aufnehmen kann. Es ist also die Frage zu stellen, ob die bisher mehr oder weniger erfolgreichen Versuche einer Maschine-Mensch-Schnittstelle im WBT substituiert werden durch eine Mensch-Mensch-Schnittstelle, dem Chat.
Bewertung unter Berücksichtigung der lerntheoretischen Anforderungen
Unter dem Item Nachschlagen/Wissen begegnet der Lerner Formen des entdeckenden Lernens. Aufgrund einer spartanisch ausgestatteten Wissensbasis hat der Benutzer jedoch eher begrenzte Möglichkeiten, ein Wissensgebiet lernend zu entdecken, so dass ein Großteil der Fragen für den Benutzer unbeantwortet bleiben, da die Wissensbasis zu klein ist. BRUNERS Erwartungen an einen Lehrer wird der Server jedoch gerecht. Der Tutor verharrt in einer reaktiven Position, bis der Lerner ihn anfordert. Neben dem lerntheoretisch eher konstruktivistischen Programmteil ist der Übungsteil behavioristischer Natur. Hierbei steht die verstärkende Rückmeldung im Vordergrund. Falsche Antworten werden zwar markiert, rot hervorgehoben und richtiggestellt. So werden Fehler festgestellt und gelöscht, wobei gleichzeitig alternative Reiz-Reaktions-Verbindungen aufgebaut werden, wodurch letztendlich der Lernprozess eingeleitet wird.
Der Chat, der auch im Mittelpunkt des Lernservers steht, bietet in nahezu vollendeter Form dem Lerner eine in IT-Systemen (vgl. Kap.2.2.2.3.) selten erreichte Form des Dialoges zwischen einem Experten und dem Lerner an. Die Tutoren von learnetix.de wollen dem Lerner keine endgültige Lösung vorlegen, sondern einen Lösungsweg gemeinsam mit dem Lerner erarbeiten. Dieses von den Pädagogen von learnetix.de vereinbarte Vorgehen erinnert sehr an das Regellernen nach GAGNE. Der Lernstoff wird erklärt, die Lösung jedoch muss der Lerner selber finden.
Ein Chat ersetzt die ursprünglichen Bemühungen der KI-Forschung um natürlich-sprachliche Schnittstellen zwischen Maschine und Mensch durch eine Mensch-Mensch-Schnittstelle, so hat der Benutzer die Möglichkeit, mit Experten gemeinsam ein Problem zu lösen. Welche Vor- und Nachteile der Chat für die Benutzer mit sich bringt, soll in einem kurzen Einschub erläutert werden.
Einschub: Vor- und Nachteile des Chat bezogen auf die Funktionsweise einer tutoriellen Komponente
Bevor die Vor- und Nachteile abgewogen werden sollen, müssen die Charakteristika dieser Kommunikationsform kurz erläutert werden. Mit Hilfe eines Nicknames, also eines Pseudonyms lockt, man sich in einen Chatraum ein. Neben einer Eingabezeile, in die der Benutzer seine zu versendenden Nachrichten schreibt, steht ihm eine Liste mit allen im Chatraum anwesenden Namen zur Verfügung. Durch ein meist etwas größeres Fenster kann der Benutzer der Kommunikation folgen. Durch spezielle Kommunikationsmodi, wie z.B. dem Flüstern, ist es möglich, einem bestimmten Chatraumbesucher eine persönliche Nachricht zukommen zulassen. Diese gesendete Botschaft ist nur auf dem eigenen Bildschirm und auf dem Empfängerbildschirm zu lesen. Es besteht auch die Möglichkeit, bestimmte Anwesende im Chatraum zu ignorieren. Deren Nachrichten werden dann erst gar nicht auf dem eigenen Bildschirm erscheinen. Mit Hilfe entsprechender Symbole ist es dem Chatter gestattet, seiner Aussage den nötigen Gesichtsausdruck zu verleihen, damit bestimmte Botschaften verstanden werden können.
THIMM lehnt die Chatkultur an die alten verlorengegangenen öffentlichen Kommunikationsorte wie Salons und Kaffeehäuser an. THIMM fügt an anderer Stelle hinzu, dass von einer neuen "eigenen Schriftlichkeitskultur" zu sprechen ist, denn es ist gerade das Lesen und nicht das Hören, wodurch eine Wirkung der Außerungen im Chat erzielt wird. In diesem Zusammenhang sieht BÖHME die Schreib- und Lesekompetenz gefährdet, da Texte nicht mehr als Ganzes gelesen und verstanden werden und sich das Schreiben auf "einen Flickenteppich von Zitaten und aphoristischen Überlegungen" (Böhme, 1999: S.51) reduziert. APEL sieht gerade in der Verschriftlichung von Gedachtem Vorteile für den Lernprozess (vgl. Apel,1999: S.223).
LENKE und SCHMITZ kommen zu der Ansicht, dass sozialer Status, Rasse, Geschlecht oder Aussehen im Chat keine Rolle mehr spielen (vgl. Lenke/Schmitz, 1996: S.123). Und KLEMM/GRANER ergänzen, dass eine solche Kommunikation dem Habermasschen Ideal des herrschaftsfreien Diskurses sehr nahe komme. Sehr häufig wird in diesem Zusammenhang von der strengen A-nonymität im Netz gesprochen. Für eine tutorielle Komponente hat jedoch diese Anonymität große Vorteile, da sich der Lernende seiner Unwissenheit nicht zu schämen braucht. So können in der virtuellen Welt auch Fragen gestellt werden, die in einer realen Lerngruppe, wie z.B. der Schulklasse, nicht gestellt würden, um Bloßstellungen zu vermeiden. SACHER schreibt dazu: "Anonyme und distanzierte Kommunikation gibt mehr Sicherheit. Vielfach legen schüchterne und weniger befähigte Benutzer ihre sonst geübte Zurückhaltung ab." (Sacher, 2000: S.106) Dennoch steht der Anonymität im Internet eine Öffentlichkeit gegenüber. Das ist vielleicht auch der Grund, warum ein Großteil der Fragen im learnetix-Chat im Flüstermodus gestellt sind. So ist der Chat gerade aufgrund seiner zuvor referierten Eigenschaften eine gute Lösung für eine tutorielle Komponente. Andererseits, so SACHER, "fällt es vielen Benutzern schwer, sich auf Partner einzustellen, die sie nicht persönlich kennen und nicht unmittelbar wahrnehmen können. Häufig wird beobachtet, dass die Sensibilität dafür verloren geht, wie Kommentare und Feedbacks auf andere wirken." (Sacher, 2000: S.106)
Bewertung unter Berücksichtigung der designtheoretischen Anforderungen
Anders als bei einem CBT ist hier eine eindeutige Interfacegestaltung wesentlich wichtiger, da dem Benutzer kein Handbuch zur Verfügung steht. Hinzukommt, dass dieses WBT nicht über eine Hilfekomponente (abgesehen von der Suchmaschine) verfügt, durch die sich der Lernende unverständliche Menüoptionen erklären lassen kann. D.h. das Interface muss sich selbst erklären, um für den Lernenden nutzbar zu sein. Häufig wird der Server auch von Kindern und Jugendlichen genutzt, die, nach Auskunft der Tutoren keine Geschwister haben, oder deren Eltern keine Zeit zur Beantwortung der Fragen haben, so dass der Lerner alleine mit der Benutzeroberfläche und dem Lernstoff zurechtkommen muss.
Die Postulate der Prägnanz wurden von den Designern eingehalten. (siehe Abb.9) So ist z.B. jede Oberfläche von der jeweils vorangegangenen abgeleitet, wodurch, so RAUSCH, die Darstellung für den Benutzer einfacher zu überschauen ist. Die Oberflächen sind sehr einfach strukturiert und beschränken sich nur auf die wesentlichen Aussagen. Dafür ist nicht zuletzt die Hypertextstruktur verantwortlich, durch die mit Hilfe von Links der für den Benutzer interessante Bereich eingeschränkt werden kann. So müssen nicht alle Informationen auf einem Bildschirm dargestellt werden, wo sie den Benutzer verwirren könnten, sondern jede Information kann sich isoliert auf einer eigenen Oberfläche präsentieren. Durch die farbliche Gestaltung wird das Gesetz der Prägnanz noch einmal unterstützt. Deshalb werden die einzelnen Fächer in einer jeweils einheitlichen Farbe gestaltet, genauso wie die Navigationskomponente, die dem Benutzer immer deutlich in der Farbe Orange ins Auge sticht. Durch die Abgrenzung zu anderen Farben wird dem Lernenden deutlich, welche Bereiche zusammengehören, wodurch das Gesetz von Gruppen und Grenzen umgesetzt wurde.
Diese sehr klare Strukturierung macht es dem Benutzer leicht, diesen Server zu nutzen, um Defizite zu kompensieren, die im Unterricht entstanden sind. Diese Form von Lernprogrammen ist deshalb nach Ansicht des Autors eher unterrichtsunterstützend einzusetzten.
Zusammenfassende Bewertung des Lernservers: learnetix.de
Im Folgenden sollen noch einmal alle relevanten Komponenten und ihre Auswirkungen auf den Lernprozess dargestellt werden. Hierbei sollen die Defizite und Vorteile des Lernservers herausgestellt werden:
Defizite |
Auswirkung auf den Lernprozess/den Lerner |
Vorteile |
Auswirkung auf den Lernprozess/den Lerner |
Karge forschend-entdeckende Komponente aufgrund einer unzureichenden Wissensbasis |
Misserfolge bei der Suche nach konkreten Informationen |
Diagnosekomponente |
Konditioniert richtige Antworten durch Verstärkung und falsche Antworten durch das bereitstellen alternativer Reiz-Reaktions-Verbindungen |
Universelle Suchmaschinen |
Sind nicht intelligent und überschwemmen den Benutzer oft mit einem Überangebot von Links |
Universelle Suchmaschinen |
Geben dem Benutzer auch bei nicht fachspezifischen Begriffen eine Auskunft und können so als Hilfefunktion dienen |
|
|
Practice-Komponente |
Lückentexte ersparen lange Schreibarbeit und sind schnell zu bearbeiten |
|
|
Interaktionskomponente/ Chat |
Wahrung der Anonymität, der Lerner kann sich nicht blamieren |
|
|
Tutorielle Komponente |
Individualisiert den Lernprozess |
|
|
Einrichtung eines Arbeitsplatzes |
Spricht den Lerner persönlich an |
|
|
Farbliche Gestaltung der Oberfläche |
Steigert die Prägnanz und ist damit eine Erleichterung für den Wahrnehmungsprozess des Benutzers |
Der Lernserver scheint nicht das Ziel zu verfolgen, Wissen zu assimilieren, sondern hat sich darauf spezialisiert, Wissen zu akkomodieren, d.h. Defizite oder auch Inkonsistenzen im Lernstoff so zu beheben, dass der Lernende dieses Wissen in seine schon bestehenden Wissensstrukturen eingliedern kann. So wird der Server zu einer Art Nachhilfelehrer. Das ist wahrscheinlich auch der Grund dafür, dass nicht die forschend-entdeckende Komponente, sondern die tutorielle Komponente, bei der der explikative Aspekt betont wird, im Vordergrund steht. Der Lernserver hat eher eine ergänzende Funktion. Er soll den Lernstoff erklären, den der Schüler in der Schule nicht verstanden hat. Es geht dabei weniger darum, ein bestimmtes Lernziel zu erreichen, sondern eher darum, den Weg zur Erreichung der Lernziele in der Schule zu bereiten.
Ein anderer Aspekt, der im Konzept vom learnetix.de in den Vordergrund gerät, ist die Generierung einer angenehmen Lernwelt. Durch den Erwerb eines eigenen Hauses und dessen Einrichtung mit Möbeln, kann der Benutzer einen eigenen Lebensraum erschaffen, wobei die Anlehnung an die reale Welt nicht zu übersehen ist. Hier kann der Lernende der realen Welt entfliehen und hat die Möglichkeit, in eine virtuelle Welt einzutauchen. So werden die eher unangenehmen Assoziationen an Lernumgebungen, wie z.B. der Schule, kompensiert durch ein sehr ansprechendes und motivierendes Milieu, in dem die spielerische Komponente betont wird. Der Lernende soll Spaß am Lernen haben. Dennoch wägen Theoretiker, veranlasst durch das wachsende Interesse an solchen Angeboten im Internet, Vorzüge und Gefahren ab. Eine der am häufigsten benannten Gefahren ist die Entfremdung vom Alltagsleben, hinein in die Isolation. Nach KLEMM und GRANER ist dies jedoch eine der Gefahren, die bei jeder medialen Neuerung von Kritikern benannt wird (vgl. Klemm/Graner: S.156). Dieser Vorwurf ist dennoch nicht zu unterschätzen. Auch wenn VOGELSANG formuliert, dass die Jugendlichen sehr wohl zwischen Phantasie und Alltagswelt differenzieren können und er sie vielmehr für "kompetente Pendler zwischen medialen und realen Welten" (Vogelsang: S.251) hält, sind seine darauffolgenden Aussagen über das Wirklichkeitsempfinden jugendlicher Internetuser als sehr problematisch zu betrachten: "Wirklichkeit ist für sie ein Kosmos, in dem sich physische und fiktive Umgebungen und Areale gleichrangig gegenüberstehen. Dementsprechend nehmen sich die Mitspieler auch als unmittelbar anwesend wahr, verbunden mit einem Gefühl von Nähe und Gleichzeitigkeit. Das klassische Raum-Zeit-Gefüge scheint in virtuellen Zusatzräumen gleichsam außer Kraft gesetzt" (Vogelsang: S.251) VOGELSANG beschreibt hiermit zwar keine Entfremdung vom Alltag, jedoch eine Gleichschaltung von der virtuellen zur realen Welt. Aber sowohl VOGELSANG, als auch SCHLACHNER können dieser Tatsache nur Positives abgewinnen. Während VOGELSANG mit Blick auf die Mediengeschichte herausstellt, dass der Jugendliche gelernt hat, mit Hilfe "eines am und im Medienalltag geschulten elaborierten Wahrnehmungsinstrumentariumsdie mediale Inszenierung von Wirklichkeit" zu reflektieren, beschreibt SCHLACHNER den Computer als eine "attraktive Spielwiese für das Bedürfnis heutiger Jugendlicher nach dem Experiment mit verschiedenen Identitäten." (Schlachner, 1996: S.17) Auch durch die Shell-Studie wurden diese Aussagen bestätigt. "Es zeigt sich, dass Heavy-User wesentlich stärker in sozialen Strukturen eingebunden sind, als die Technikabstinenten, und dass ihre "Soziabilität" nicht unter sondern im Gegenteil über dem Durchschnitt liegt." (Shell-Studie, 2000: S. 214)
Abschließender Vergleich der analysierten Lernprogramme
Wie schon in der Begründung der Auswahl der beiden Lernprogramme angedeutet und in den beiden vorangegangenen Abschnitten referiert, lassen sich sowohl für die WBTs als auch für die CBTs Stärken und Schwächen für den Lernprozess benennen. Drei Kriterien sind dabei von besonderer Bedeutung:
Erreichung des Lernziels
Beschreibung der Lernsituation
Einhalten der lerntheoretischen Postulate
Im Folgenden wird unter Berücksichtigung dieser drei Kriterien ein Vergleich der beiden Lernprogramme durchgeführt.
Die Bestimmung und die Ereichung der Lernziele ist für beide Lernprogramme verschieden, da die Benutzermotivation sehr unterschiedlich ist. Während PHYSIKUS dem Benutzer die Möglichkeit gibt, sich die Grundlagen der Physik anzueignen, soll learnetix.de dem Lerner als Nachhilfelehrer zu Verfügung stehen. PHYSIKUS soll also einen allgemeinen Überblick geben, learnetix.de hingegen soll einzelne Wissenslücken stopfen. So ist auch die Formulierung der Lernziele sehr unterschiedlich.
Mögliches Lernziel für das Lernspiel PHYSIKUS: Der Benutzer soll Grundkenntnisse in den Disziplinen Mechanik, Optik, u.s.w. der Physik erwerben.
Mögliches Lernziel für den Lernserver learnetix.de: Der Benutzer soll Probleme in einem der Fächer Deutsch, Englisch oder Mathematik benennen können und die anschließende Lösung verstanden haben.
Lernziele wiederum sollten immer so formuliert sein, das sie operationalisierbar sind, das heißt, sie müssen überprüfbar sein. Gerade dann, wenn es dem Lernenden möglich ist, selbst zu entscheiden, ob er ein bestimmtes Lernziel erreicht hat oder nicht, ist das Programm hinsichtlich der Lernzielerreichung für gut zu erachten. Hinzu kommt, dass der Benutzer natürlich grundsätzlich in der Lage sein muss, ein Lernziel durch den Gebrauch eines Lernprogramms zu erreichen. Der Rückblick auf die Bewertung der Diagnosekomponenten der beiden Lernprogramme zeigt, dass PHYSIKUS gegenüber learnetix.de keine Lernzielkontrolle bzw. eine schlecht ausgestattete vorsieht. Das hat zur Folge, wie der Autor dieser Arbeit aus eigenen Erfahrungen zu berichten weiß, dass trotz guter Animation und damit Motivation der Lerner viel Gefallen an dem Spiel findet, jedoch in einer abschließenden Prüfung nicht in der Lage wäre, das erlernte Wissen außerhalb des Spieles anzuwenden oder wiederzugeben. Learnetix.de hingegen bietet dem Lerner nach Beantwortung eines Arbeitsblattes grundsätzlich eine Berichtigung an, die dem Lerner eine Lernzielüberprüfung möglich macht.
Ausgehend von der unterschiedlichen Klientel der Lernprogramme definieren sich auch unterschiedliche Lernsituationen vor deren Hintergrund grundsätzlich die Bewertung stattfinden muss. Während learnetix.de den Schüler der 5.-13. Klasse anspricht, der sich nach der Schule in den Server einwählt, wird durch PHYSIKUS eine viel größere Bandbreite an potentiellen Anwendern angesprochen. Nicht nur der Schüler, der in Physik eine schlechte Note auf dem Zeugnis hatte, ist hier richtig sondern auch der Erwachsene, der Grundkenntnisse erwerben möchte oder der Rentner, der als Autodidakt physikalische Phänomene erklären will. So ist learnetix.de eindeutig dem schulischen Milieu zuzuordnen, während PHYSIKUS der privaten Weiterbildung dient und durch Instruktionen im Lernteil auf einen Lehrer verzichten kann. Dabei sind beide Lernprogramme vornehmlich dem Einzellernen vorbehalten.
Die lerntheoretische Auseinandersetzung der einzelnen Lernprogramme hat ergeben, dass PHYSIKUS eher behavioristische Lerntheorien verwirklicht hat. Dies manifestiert sich vor allem in den dominierenden Instruktionen des Lernteils, während learnetix.de auf konstruktivistische vornehmlich aber kognitivistische Lerntheorien zurückgreift. Das wird in der explorativen Lernumgebung und dem Bemühen der Tutoren um Erklärung des Lernstoffs deutlich, die trotz einer kleinen Wissensbasis dem Lerner eine sinnvoll-entdeckende Lernumgebung zur Verfügung stellt. Es lässt sich jedoch herausstellen, dass das Lernprogramm PHYSIKUS gegenüber learnetix.de ein erhebliches Manko aufweist. Es ist gerade das Fehlen der KI-Komponente, die das Lernspiel lerntheoretisch gesehen fast unbrauchbar macht. Wäre es dem Programm möglich, den Lernenden zu verstehen, könnte es eine Rückmeldung bezüglich der Anwendung des Wissens im Spielteil geben. So könnte ein solcher Programmteil den Benutzer ermutigen, indem beispielsweise formuliert wird: "Theoretisch hast du aufgrund deines Wissens einen richtigen Gegenstand benutzt, aber innerhalb dieses Spiels wird ein anderer Gegenstand benötigt." Hierdurch hat der Lernende eine klare Rückmeldung über sein angewandtes Wissen bekommen, im Sinne der Spiels wird er jedoch darauf verwiesen, nach einem anderen Gegenstand zu suchen. Learnetix.de braucht sich über ein derartiges Defizit nicht zu sorgen, da sich hinter dem Lernserver verstehende Menschen verbergen, die ihrem Benutzer jederzeit eine so differenzierte Rückmeldung zukommen lassen können, wie sie bis heute nicht von einem Computer erwartet werden kann. Hier ist es also gelungen, eine der KI vorbehaltene Funktion erfolgreich durch eine Mensch-Mensch-Schnittstelle zu ersetzen.
Schlussbetrachtung
Bill GATES hat einmal gesagt: "Eines nicht allzufernen Tages wird es ihnen möglich sein, Geschäfte zu betreiben, die Welt und ihre Kulturen zu erkunden, ein beliebiges Unterhaltungsprogramm aufzurufen, Freunde kennen zu lernen, in der Nachbarschaft einzukaufen und Verwandten in der Ferne Bilder zu zeigen, ohne dass sie ihren Schreibtisch oder Lehnstuhl verlassen müssen." (Gates, 1995: S.19)
Nach der aktuellen Shell-Studie besitzen ca. 60% aller deutschen Jugendlichen einen Computer, den sie entweder für sich alleine haben oder mit jemand anderem zusammen benutzen. Außerdem wurde herausgefunden, dass ca. 29% aller befragten Jugendlichen zwischen 15 und 24 den Computer für den Lernprogrammeinsatz nutzen, wobei festzuhalten ist, das mehr Studenten als Schüler den Computer für Lernzwecke gebrauchen. Es ist vor allen Dingen hervorzuheben, dass Studenten mit 51% den größten Anteil an der Nutzung des Internets einnehmen. (vgl. Fische A./ u.a., 2000: S. 201-202) Gepaart mit dem Zitat von GATES ergibt sich daraus die Frage, ist der Einfall des Computers in unser Alltagsleben eine Bedrohung oder eher eine Bereicherung?
Vor allen Dingen im Bereich von Lehr-/Lernsituationen wurde der Computer lange Zeit verteufelt, nun sind die pessimistischen Stimmen leiser geworden. Heute heißt das Motto: "Schulen ans Netz". D.h. für den Pädagogen wird das Medium Computer unumgänglich, da es als Multimedium Einzug in unterschiedliche pädagogische Kontexte erhält (Schule, Jugendarbeit, Erwachsenenbildung) Deshalb erscheint es wichtig, der Aufforderung HERZOGS nach einer Entwicklung einer "Pädagogik für das Informationszeitalter" (Herzog, 1999: S.20) nachzukommen.
Grundsätzlich gibt es zwei Möglichkeiten den Computer in pädagogischen Kontexten einzusetzen. Zum einen im computergesteuerten Unterricht und zum anderen im computerunterstützten Unterricht. Im ersten Fall würde der Lehrer komplett durch einen Computer ersetzt. In diesem Zusammenhang stellt SACHER die Frage: "Werden menschliche Lehrer entbehrlich"(Sacher, 2000: S.73). Dem stellt SCHIEFERLE gegenüber: "Sachverhalte, bei denen das Schwergewicht auf Bewertung, Stellungnahme und intersubjektivem Austausch liegt, eignen sich generell weniger für die multimediale Lehre." (Schieferle, 1999: S.208) Demgegenüber offeriert der computerunterstützte Unterricht eine Einbettung in traditionelle Lernumgebungen. Hinzu kommt, dass gerade die Interpersonalität in Lehr-Lern-Prozessen eine entscheidende Rolle spielt. So schreibt SACHER: "Gerade wenn wir Computerlehre einführen wollen, müssen wir also die Bildung stärken. Bildung aber ist, nach allem was wir wissen, an das unmittelbare Gegenüber gebunden." (Sacher, 2000: S. 75)
PAPERT hat gesagt, "aber die wahre Fähigkeit, mit Computern umzugehen, also die wahre "Computer literacy", bedeutet nicht einfach nur, dass man weiß, wie man Computer und informatische Ideen benutzen kann. Es bedeutet, dass man weiß, wann ein solcher Einsatz angemessen ist." (Dreyfus/Dreyfus, 1988: S.169)Geht man davon aus, dass der Computer in Lehr-Lern-Prozessen nur nach dem Subsidiaritätsprinzip eingesetzt werden sollte, kommt dieser Form von Wissensvermittlung ihre volle Berechtigung zu. Also genau dann, wenn die traditionellen Lehrmethoden versagen, ist auf den computergestützten Unterricht zurückzugreifen. Dabei bleibt der Computer ein Werkzeug. Sei es z.B. bei der Demonstration eines gefährlichen Versuches im Physikunterricht durch Simulationen, bei entdeckenden Lernumgebungen, bei denen sich der Lernende einen Überblick über ein bestimmtes Wissensgebiet mittels des Internet verschaffen soll oder der in Kapitel drei beschriebenen Nachhilfe durch einen Tutor im Chat.
Der Trend der Entwicklung gipfelt in multimedialen intelligenten Lernsystemen mit der Grundidee Schrift, Standbild, Film, Musik und Sprache in einer Lernumgebung zu vereinen. Systeme mit diesen Fähigkeiten sind bestimmt geeignet, die Lerneffizienz erheblich zu steigern, sind aber sowohl wegen der hohen Kosten der Hardware als auch der zu erstellenden Software Zukunftsmusik für den breiten Einsatz. Was bei dem Hochrüsten der Hardware zu kurz kommt, ist der Entwurf von Konzepten, die den Benutzer in den Mittelpunkt der Lernprogramme stellten und die Implementation solcher Konzepte in Lernsysteme. Diesem Aspekt wird in den kommenden Jahren mehr Aufmerksamkeit zu schenken sein.
In jedem Fall ist der Entpädagogisierung durch eine Überfülle des Lernprogrammangebotes durch eine kompetente Evaluierung von Lernsoftware entgegenzuarbeiten. Die vorgestellten Programme verfolgten unter anderem das Ziel, den Benutzer während des Lernens auf angenehme Weise zu unterhalten. Im Informationsmanagement haben sich dafür zwei Begriffe herausgeschält, Infotainment und Edutainment. Bei dem einen geht es um die angenehme Aufbereitung von Informationen, der zweite Begriff beschreibt die unterhaltsame Gestaltung einer Lernumgebung. ECKHARDT weist auf die Gefahr hin, die sich durch die lockere Aufbereitung von Lerninhalten ergibt. Hiernach wird vielfach nicht mehr gründlich genug gelernt. Es steht nicht mehr die sachliche Auseinandersetzung im Vordergrund, sondern der Unterhaltungseffekt. Auch beim Infotainment warnt SACHER vor "Informiertheitsillusionen". Die Informationsfülle, die dem Benutzer in einem WBT durch die Einbettung in das Internet zur Verfügung steht, ist unvergleichbar größer, als eine Wissensbasis, die auf einem Datenträger abgespeichert werden kann. Häufig wird das schon in Kapitel 2 erwähnte Problem des "Informations-Overkills" (Postman, 1995: S.66) zu einem entscheidenden in der Bewertung von WBTs. Nach SACHER gilt dies sogar auch für einen Großteil der CBTs. "Letztlich sind diese Medien überhaupt keine Lernumgebungen, sondern nur Informationsumgebungen." (Sacher, 2000: S.100) SACHER stellt fest, das mit zunehmender Informationsfülle die Schwierigkeit anwächst, trotz eines definierten Lernziels die jeweils relevanten Informationen zu finden. (vgl. Sacher, 2000: S.104). Dieser unüberschaubaren Informationsflut stellen MANDL und REINMANN-ROTHMEIER die Begrenztheit der menschlichen Aufnahmefähigkeit gegenüber. Selbst das Angebot an Suchmaschinen im Internet ist so übermächtig geworden, dass dem Benutzer die Wahl der Suchhilfe schwer fällt. ASTLEITNER hat darüber hinaus herausgefunden, dass selbst geübte Benutzer nur etwa 40% der prinzipiell vorhandenen Informationen im Internet mit Hilfe einer Suchmaschine auffinden können. (vgl. Astleitner, 1997: S.67ff.) POSTMAN stellt deshalb die Überlegung an, ob der Mensch nicht besser mit weniger Informationen leben würde. Da jedoch die Technologie niemals einen Schritt zurück gehen würde, wird es im Falle POSTMANS bei einer Überlegung bleiben. Es ist deshalb nötig, dass es sich vor allen Dingen Pädagogen zur Aufgabe machen, vor dem Hintergrund der Kognitionspsychologie Lernprogramme zu bewerten, um den Benutzer auch vor einer Schwemme im Internet dargebotener Lernsoftware zu schützen. Eine Art pä-dagogisches Gütesiegel wäre sinnvoll, erfordere aber eine ständige sichtende Begleitung der Entwicklung und Veröffentlichung von Lernprogrammen.
Soll der Benutzer mit einem Computer lernen können, muss der Computer ähnlich dem Lehrer in der Lage sein zu lernen. Bis jetzt ist es aber erst gelungen, selbstlernende Systeme in definierten Umgebungen zu schaffen. Erst wenn es gelingt, lernende und umgebungsunabhängige Systeme zu erschaffen, kann der Computer zu einem Lehrer werden. Bis dahin muss der Lernende mit intelligenten Teilkomponenten wie z.B. intelligenten Suchmaschinen auskommen.
Ahrweiler P.: Künstliche Intelligenz - Forschung in Deutschland. Die Etablierung eines Hochtechnologiefaches. Münster, 1995. |
Apel, H.: Teleteaching und Teletutoring. Erfahrungen mit Online-Seminaren. In: medien + erziehung. 1999,43. S.221-225. |
Astleitner, H.: Lernen in Informationsnetzen. Frankfurt a. M., 1997. |
Ausubel, D.P.: Psychologie des Unterrichts. Band 2. Weinheim, 19741. |
Bäuerle, M./Schröter, F.: Multimedia und Interface. Studie zum Lernen mit Computern. St. Augustin, 1999. |
Baumgartner, P./ Payr, S.: Lernen mit Software. Innsbruck, 1994. |
Bibel, W./u.a.: Studien - und Forschungsführer künstliche Intelligenz. Berlin, 1987. |
Böhme, G.: Bildung als Widerstand. Was sollen die Schulen und Hochschulen lehren? Ein Versuch über die Zukunft des Wissens. In: DIE ZEIT. 1999, 38. S.51. |
Bräuer, K.: Gestaltpsychologie in Erziehung und Unterricht. Theoretische Aspekte, Analysen, Denkmodelle. Essen, 1994. |
Buchanan/Bibel et al.: Constructing an Expert System. In: Hayes - Roth, F./Waterman, D./Lenat, D.: Building expert Systems, Kap.5, Addison Wessley, 1983. |
Busch, B./ Herrmann, T./ Just, K./ Ritterbruch, M.: Systeme für Experten statt Expertensysteme. Von der Folgenforschung zur kompetenzförderlichen Gestaltung wissensbasierter Technik. Bonn, 1994. |
Cohen, V.B.: A Reexamination of Feedback in Computer-Based-Instruction: Implications for Instructional Design. In: Educational Technology, 25/1885. S.33-37. |
Coy, W./ Bonsiepen, L.: Erfahrung und Berechnung - Kritik der Expertensystemtechnik. Band 229 Informatik - Fachberichte. Springer, 1989. |
Cruse, H./Dean, J./Ritter, H.: Die Entdeckung der Intelligenz oder können Ameisen denken? Intelligenz bei Tieren und Maschinen. München, 1998. |
Daniel, M./Striebel, D.: Künstliche Intelligenz, Expertensysteme. Anwendungsfelder, Neue Dienste, soz. Folgen. Opladen, 1993. |
Dreyfus, H., L.: Die Grenzen künstlicher Intelligenz. Was Computer nicht können. Königstein, 1985. |
Dreyfus, H., L./Dreyfus, S., E.: Künstliche Intelligenz. Von den Grenzen der Denkmaschine und dem Wert der Intuition. Hamburg, 1988. |
Eckhardt, B.: Multimedia, Edutainment und die Entwicklung zum "homo zappens". Einige Hintergründe des Multimedia-Spektakels. In: Päd extra. 1993, 21. S.42-47. |
Empfehlungen zur Erneuerung des Bildungswesens. In: Bertelsmann - Stiftung (Hrsg.): Roman Herzog/Initiativkreis Bildung: Zukunft gewinnen - Bildung erneuern. München, 1999. S.33 - 76. |
Feigenbaum (Hrsg.)/Feldmann: Computers an thought: A collection of articles. New York, 1963. |
Fische, A./Fritzsche, Y./ u.a.: Jugend 2000. 13. Shell Jugendstudie. Leske + budrich, 2000. |
Fischer, P.M.: Wissenserwerb mit interaktiven Feedbacksystemen. In: Mandl, H./Fischer, P.M.: Lernen im Dialog mit dem Computer. Wien, 1985. |
Friedrich, J./Herrmann, Th./u.a.: Informatik und Gesellschaft. Berlin, 1995. S.275 |
Gagne, R.M.: Die Bedingungen des menschlichen Lernens. Hannover, 1969. |
Gates, B.: Der Weg nach vorn. Die Zukunft der Informationsgesellschaft. Hamburg, 1995. |
Habermas, J.: Nachtrag zu einer Kontroverse (1963): Analytische Wissenschaftstheorie und Dialektik. In: Habermas, J.: Zur Logik der Sozialwissenschaften. Frankfurt a. M., 1970. S.9 - 38. |
Häuslein, A.: Wissensbasierte Unterstützung der modellbildung und Simulation im Umweltbereich. Frankfurt a.M., 1993. |
Herzog, O./ Christaller, Th./ Schütt, D. (Hrsg.): Grundlagen und Anwendung der künstlichen Intelligenz. 17. Fachtagung für künstliche Intelligenz. Humboldt-Universität zu Berlin. 13.-16. September 1993. Berlin, 1993. |
Herzog, R.: Megathema Bildung - vom Reden zum Handeln. In: Bertelsmann - Stiftung (Hrsg.): Roman Herzog/Initiativkreis Bildung: Zukunft gewinnen - Bildung erneuern. München, 1999. S.11 - 23. |
Issing, L. J./Klimsa, P.: Information und Lernen mit Multimedia. Berlin, 1995. |
Jones, M./Li, Z./Merrill, M.D.: Domain Knowledge Representation for Instructional Analysis. In: Educational Technology. |
Kail R./Pellegrino, J.W.: Menschliche Intelligenz. Heidelberg, 1988. |
Kallmeier, W (Hrsg.).: Sprache und Neue Medien. Institut für deutsche Sprache, Jahrbuch. Berlin, 1999. |
Kerres, M.: Multimediale und telemediale Lernumgebungen. Konzeption und Entwicklung. Wien, 1998. |
Klemm, M./Graner, L.: Chatten vor dem Bildschirm: Nutzerkommunikation als Fenster zur alltäglichen Computerkultur. In: Thimm, C. (Hrsg.): Soziales im Netz. Sprache, Beziehungen und Kommunikationskulturen im Internet. Wiesbaden, 2000. S.156-179. |
Kuhlen, R.: Ein nicht - lineares Medium zwischen Buch und Wissenschaft. Berlin, 1991. |
Lave, J./Wenger, E.: Situated Learning: Legitimate Peripheral Participation. Cambridge University Press, 1991. |
Lefrancois, R.G.: Psychologie des Lernens. Heidelberg, 1994. |
Lenke, N./Schmitz, P.: Geschwätz im ,Globalen Dorf' - Kommunikation im Internet. In: OBST 1996, 50, S.117-141. |
Lowyck, J./ Elen, J.: Hypermedia for Learning Cognitive Instructional Design. In: Oliveira, A./u.a.: Hypermedia Courseware: Structures of Communication and Intelligent Help. Berlin, 1992. S. 131 - 144. |
Mainzer, K.: Gehirn, Computer, Komplexität. Heidelberg, 1997. |
Mandl, H./Gruber, H./Renkl, A.: Situiertes Lernen in Multimedialen Lernumgebungen. In: Issing, L.J./Klimsa, P. (Hrsg.):Information und Lernen mit Multimedia. Weinheim, 1995. S.167 - 178. |
Mandl, H./Hron, A.: Lernen mit intelligenten tutoriellen Systemen. In: Landesinstitut für Schule und Weiterbildung: Neue Technologien und Zukunftsperspektiven des Lernens. Soest, 1990. S.18 - 35. |
Mandl, H./ Reinmann-Rothmeier, G.: Die Technik ist da, aber was soll man wissen? In: Süddeutsche Zeitung vom 12.04.1997. |
Mayes, J.T./Draper, S.W./u.a.: Information flow in user Interface: The Effect of Experience and Context on the Recall of Mac Write Screens. In: Jones, D.M./Winder, R.: People and Computers IV. Cambridge, 1988. |
Meyers Enzyklopädisches Lexikon |
Merrill, M.D.: Leaner Control in Computer Based Learning. In: Computers and Education IV. 1980. |
Midoro, V./Olimpo, G./ et al: Multimedia navigable Systems and Artificial Inelligence. In: Lewis, R./Otsuki: Advanced Research on Computers in Education. Proceedings of the IFIP TC3 International Converrence on Advanced Research on Computers in Education. Amsterdam, 1991. S. 179 - 184. |
Nebendahl, D.: Expertensysteme: Einführung in Technik und Anwendung. Berlin, 1987. |
Neisser, U.: Cognitive psychology. New Jersey. Educational Media Publications, 1967. |
Newell/Simon: GPS: A Programm that simulates human thought. S.293. |
Nielsen, Jakob: Multimedia and Hypertext. The Internet and Beyond. Boston u.a.: Academic Press, 1995. |
Piaget, J.: Psychologie der Intelligenz. Walter-Verlag. 19746. |
Postman, N.: Das Technopol. Die Macht der Technologien und die Entmündigung der Gesellschaft. Frankfurt a. M., 1992. |
Postman, N.: Mehr Daten - mehr Dumme. In: Geo Extra 1995, 1. S.66-69. |
Puppe, F.: Einführung in Expertensysteme. Berlin, 19882. |
Rausch, E.: Das Eigenschaftsproblem in der Gestalttheorie der Wahrnehmung. In: Gottschadt, K. (Hrsg.)/u.a.: Handbuch der Psychologie. Göttingen, 1966. S.911 ff. |
Ruske&Pühretmaier Design und Multimedia GmbH: Physikus. Das Abenteuer aus der Welt der Naturwissenschaften. Heureka, Klett, 1999. |
Sacher, W.: Schulische Medienarbeit im Computerzeitalter.Grundlagen, Konzepte und Perspektiven.Klinkhardt, 2000. |
Savory, S. E.: Künstliche Intelligenz und Expertensysteme. München/Wien, 19852. |
Schanda, F.: Computerlernprogramme. Wie damit gelernt wird. Wie sie entwickelt werden. Was sie im Unternehmen leisten. Weinheim, 1995. |
Schäfer, E.: Grenzen der künstlichen Intelligenz. John R. Searls Philosophie des Geistes. Köln, 1994. |
Schieferle, H.: Konkurrenz für Lehrer? Vom Programmierten Unterricht zum Computerlernprogramm. In: medien+erziehung, 1999, 43, S.203-209. |
Schlachtner, C.: Einübung in Zukunft. Computer als Medium der Bildung in der Lebenswelt Jugendlicher. In: Medien Praktisch, 1996, 2, S.16-19. |
Schoop, E./Glowalla, U.: Computer in der Aus- und Weiterbildung. Potentiale, Probleme und Perspektiven. In: Glowalla, U./ Schoop, E.: Hypertext und Multimedia. Neue Wege in der computerunterstützen Aus- und Weiterbildung. Berlin, 1992. S.4-20. |
Schulmeister, R.: Grundlagen hypermedialer Lernsysteme. Theorie - Didaktik - Design. Wien, 19972. |
Schulmeister, R.: Virtuelle Universitäten aus didaktischer Sicht. In: Das Hochschulwesen. Forum für Hochschulforschung, -praxis und -politik. Luchterhand. 47. Jahrgang. 6/99. S. 166 - 174. |
Spiro, R.J./Jehng, J. - Ch.: Cognitve Flexibility and Hypertext: Technology for the Nonlinear and Multidimensional Traversal of Complex Subject Matter. In: Nix, D./Spiro, R.J. (eds): Cognition, Education, and Multimedia. Exploring Ideas in High Technology. Hillsdale, 1990. |
Spörl, A.: Spörls Computerbuch. 1971. |
Strube, G.(Hrsg.): Kapitel "Kognition". In: Görz, G(Hrsg.): Einführung in die künstliche Intelligenz. Bonn, 1993. |
Tergan, O.S.: Hypertext und Hypermedia: Konzeptionen, Lernmöglichkeiten, Lernprobleme. In: Issing, L.J./ Klimsa, P.: Informationen und Lernen mit Multimedia. Weinheim, 1995. S.123 - 139. |
Thimm, C. (Hrsg.): Soziales im Netz. Sprache, Beziehungen und Kommunikationskulturen im Internet. Wiesbaden, 2000. |
Turing, A.M.: Kann eine Maschine denken? In Kursbuch 8. Frankfurt, 1967. |
V. Glasersfeld, E.: Piagets konstruktivistisches Modell: Wissen und Lernen. S.16 - 43. In: Rusch, Gebhard/ Schmidt, Siegfried J.: Piaget und der Radikale Konstruktivismus. Frankfurt a. M., 1994. |
Vogelsang, W.: "Ich bin, wen ich spiele." Ludische Identitäten im Netz. In: Thimm, C. (Hrsg.): Soziales im Netz. Sprache, Beziehungen und Kommunikationskulturen im Internet. Wiesbaden, 2000. S.240-259. |
Voss, W.: Einführung in die künstliche Intelligenz. Düsseldorf, 1985. |
Woolf, B.P.: Theoretical Frontiers in Building a Machine Tutor. In: Kearsley, G.P.: Artificial Intelligence and Instruction. |
Zimmerli, W./Wolf, S.:KI - Philosophische Probleme. Reclam Verlag. 1994. |
Des öfteren wird der Begriff des Systems im Laufe dieser Arbeit benutzt. Er wird auf die Definition von Cruse, Dean und Ritter zurückgeführt. "Es muss zum einen die Möglichkeit besitzen, Signale von außen aufzunehmen, z.B. durch Sensoren, und es muß zum zweiten Signale nach außen abgeben können." (Cruse/ Dean/ Ritter, 1998: S.19)
Diese Meinung vertritt allerdings nur Ausubel, Bruner ist da ganz anderer Meinung. Für ihn ist das entdeckende Lernen eine Möglichkeit, Problemlösestrategien zu entwickeln.
Unter Schemata versteht Piaget die festen Zuschreibungen von Funktionsweisen gegenüber einer bestimmten Sache, die so im Subjekt eine subjektive Bedeutung erlangt.
Haupt | Fügen Sie Referat | Kontakt | Impressum | Nutzungsbedingungen