LERNREFERAT
Auf ebenso einfache wie eindrucksvolle Weise zeigten Watson und Rayner (1920), wie es dazu kommt, daß bisher neutrale oder sogar positiv bewertete Reize Angst hervorrufcn. Die Versuchsperson war der 11 Monate alte Knabe Albert. Als bedingter Reiz wurde eine weiße Ratte verwendet, die Albert bereits kannte und auf deren Anblick er offensichtlich mit freudiger Zuwendung reagierte. Der Konditionierungsprozeß bestand darin, daß von einem gewissen Zeitpunkt an gleichzeitig mit der weißen Ratte ein erschreckendes, lautes Geräusch dargeboten wurde (es wurde mit einem Hammer aufein Stahlstange geschlagen). Bereits nach wenigen Darbietungen des Reizpaares Ratte-Lärm hatte Albert starke Angst vor der Ratte entwickelt. Die Schreckreaktion - eine unbedingte Reaktion auf den unbedingten Reiz Lärm war auf den bisher nicht nur neutralen, sondem höchst angenehmen Reiz weiße Ratte konditioniert worden. Der Anblick der Ratte allein genügte jetzt schon, um Schreien und Fluchtbewegungen hervorzurufen.
Auf ähnliche Weise lernen wir die konnotative Bedeutung von Wörtern. Wenn ein bestimmter Reiz und ein bestimmtes
Wort mehrmals gleichzeitig (oder kurz hintereinander) wahrgenommen werden, dann werden die zunächst nur vom Reiz hervorgerufenen Reaktionen später auch vom Wort allein hervorgerufen (allerdings nur teilweise und in abgeschwächter Form). Lernprozesse dieser Art sind vor allem in der frühen Kindheit sehr häufig. Wenn ein kleines Kind etwas Unerwünschtes tut, kommt es häufig vor, daß die Mutter mit lautcr Stimtnc "nein" odcr "das ist böse" ruft, und dem Kind auf die Hand schlägt. In diesern Fall sind die laute Stimme und der Schmerz (durch den Schlag auf die Hand) unbedingte Reize, die eine Schreckreaktion und eine erhöhte Aktivierung auslösen. Diese Reaktionen werden nun auf die gleichzeitig wahrgenommenen Wörter "nein" und "böse" konditioniert. Dadurch haben diese Wörter später die Eigenschaft, selbst in abgeschwächter Form, unangenehme Gefühle hervorzurufen.
Dieser Prozeß findet nicht nur bei unangenehmen, sondern auch bei angenehmen Gefühlen statt. Wenn ein Kind das Wort "gut" hört, während es gestreichelt wird, so werden die durch das Streicheln bewirkten angenehmen Gefühle auf das Wort "gut" konditioniert. Dadurch erhält das Wort "gut" eine positive Konnotation.
In der späteren Kindheit und im Erwachsenenalter treten dann Konditionierungsprozesse.höherer Ordnung auf. Konnotationen werden nicht mehr ausschließlich von Reizen (wie Schreien oder Streicheln) auf Wörter konditionien, sondem auch von Wörtem auf Wörter. Man konnte das in einer Reihe von Experimenten nachweisen. Ein zu Beginn neutrales Wort, das mehrmals unmittelbar vor oder nach konnotativ positiven Wörtern (wie "gut" oder "schön") dargebotcn wird, erwirbt dadurch selbst eine positive Konnotation. Genau so verhält es sich im negativen Fall. Prozesse dieser Art sind unter anderem in Werbung und politischer Propaganda außerordentlich häufig, und haben großen Einfluß auf unsere Meinungen und Einstellungen. Sie kommen aber auch, häufig unbewußt und unabsichtlich, in den meisten alltäglichen Gesprächen vor. Von Konditionierung höherer Ordnung spricht man in diesen Fällen deshalb, weil hier nicht eine Reaktion von einem unbedinglen Reiz auf einen neutralen konditioniert wird, sondern von einem bedingten Reiz, zum Beispiel ein Wort auf einen neutralen. Es handelt sich also um Lemprozesse, die auf früheren Lernprozessen aufbauen.
Eine Begleiterscheinung jeder Konditionierung ist Generalisation (Verallgemeinerung). Der bedingte Reflex wird nach der Konditionierung nicht nur von jenem Reiz hervorgerufen, der während der Konditionierung als bedingter Reiz eingesetzt wurde, sondern auch von anderen Reizen, die während der Konditioniemng nie anwesend waren. Allerdings wird er nicht von jedem beliebigen Reiz hervorgerufen, sondem nur von solchen, die dem bedingten Reiz einigermaßen ähnlich sind. Genauer gesagt: je ähnlicher ein neuer Reiz dem bedingten Reiz ist, desto größer ist die Stärke des von ihm hervorgerufenen bedingten Reflexes. Die größte Reaktionsstärke erzielt der bedingte Reiz selbst.
Wenn also beispielsweise der Speichelreflex eines Hundes auf einen Glockenton mit einer Grundtonfrequenz von 1000 Hz konditioniert wurde, so löst später der 1000 Hz-Ton die stärkste Reaktion aus. Aber auch bei ähnlichen Tönen (z. B. 900 Hz oder 1100 Hz) kommt es zu starken Speichelreflexen. Bei Tönen, die deutlich höher oder tiefer als der bedingte Reiz sind (z. B. 500 Hz oder 1500 Hz) ist die Speichelabsonderung nur mehr sehr schwach. Bei extrem tiefen oder hohen Tönen bleibt sie ganz aus.
Auch der kleine Albert im Experiment von Watson und Rayner zeigte Generalisation. Nach der Konditionierung hatte er nicht nur vor der weißen Ratte Angst, sondem auch vor Hasen und Hunden. Die Angst generalisierte auch auf andere pelzige Objekte. So begann er z. B. beim Anblick eines Pelzmantels zu weinen.
Von großer Bedeutung ist die semantische Generalisation. Die auf ein bestimmtes Wort konditionierte Reaktion (oder Konnotation) generalisien automatisch auf andere, inhaltlich ähnliche Wörter, und zwar um so mehr, je größer die Ahnlichkeit ist. Wichtig ist dabei, wie gesagt, die inhaltliche, und nicht etwa die lautliche Ahnlichkeit. Die Reaktion generalisiert stark auf semantisch ähnliche (z. B. von "Hase" auf "Kaninchen"), aber kaum aufklangähnliche Wörter (z. B. "Hase ' und "Nase"). - Das gilt natürlich nur für Wörter aus Sprachen, die wir verstehen. Bei unbekannten Wörtern tritt eher Generalisation nach Klangähnlichkeit auf Auch bei kleinen Kindern, die noch wenig Sprachverständnis haben, ist Generalisation nach Klangähnlichkeit häufig.
Jede Generalisation erstreckt sich zunächst auf einen relativ breiten Reizbereich. Durch geeignete Lernprozesse (Diskriminationsletnen = Unterscheidungslemen) ist es möglich, diesen Bereich einzuschränken, so däß die Reaktion schließlich nur mehr von wenigen Reizen hervorgerufen wird. Im Fall des bedingten Speichelreflexes könnte man dabei folgendermaßen vorgehen: Man bietet in wechselnder Reihenfolge mehrmals Töne von 900,1000 und 1100 Hz (die Unterschiede zwischen den Reizen müssen groß genug sein, so daß die Reize leicht und eindeutig unterscheidbar sind). Dabei wird der l000Hz-Ton bei jeder Darbietung von einem unbedingten Reiz (Nahrung) begleitet, die beiden anderen Töne aber nicht. Dadurch extingiert der bedingte Reflex bei den Tönen von 900 und 1100 Hz. Er wird dann nur mehr vom 1000 Hz-Ton (und von diesem sehr ähnlichen Frequenzen) ausgelöst. Auf ähnliche Weise erfolgt Diskriminationslernen auch bei anderen Reizen und anderen Reaktionen.
Was geschieht während der Extinktion? Wird die Verbindung zwischen bedingtem und unbedingtem Reiz im Sinn eines Spurenzerfalls vergessen, oder wird sie von einem neuen Lemprozeß überlagert, ohne völlig zerstört zu werden? Bereits Pawlow vertrat die auch heute noch akzeptierte Annahme, daß Extinktion kein passives Vergessen, sondern ein eigener Lernprozeß ist, der die vorangegangene Konditionierung überlagert, aber nicht auslöscht (das heißt, die Verbindung zwischen bedingtem und unbedingtem Reiz bleibt weiterhin im Gedächtnis gespeichert). Pawlow verwendete den Ausdruck "Hemmung". Während der Extinktion wird eine Hemmung, also eine Unterdrückung des bedingten Reflexes, gelernt.
Diese wohlbegründete Annahme stützt sich auf mehrere Ergebnisse:
Wenn nach einer vollständigen Extinktion neuerlich eine Konditionierung desselben Reflexes aufdenselben Reiz vorgenommen wird, gelingt das schneller als beim ersten Mal. Daher müssen auch nach der Extinktion noch Gedächtnisspuren der Konditionierung vorhanden sein.
Wenn man nach der Extinktion eine längere Pause vergehen läßt, und danach wieder den bedingten Reiz darbietet, löst er wieder - wenn auch in geringem Ausmaß - den bedingten Reflex aus. Man nennt das eine Spontanerholung. Nach Pawlow wird während der Pause die Hemmung teilweise vergessen oder abgebaut, so daß die Konditionierung wieder wirksam werden kann.
Wenn während der Extinktion ein ablenkender Störreiz (z. B. ein Lichtblitz oder ein lautes Geräusch) dargeboten wird, tritt der Reflex vorübergehend wieder mit hoher Reaktionsstärke auf Auch das läßt den Schluß zu, daß das Ergebnis des Konditionierungsvorgangs keineswegs aus dem Gedächmis verschwunden ist.
Was geschieht während der Konditionierung? Früher neigte man zur Annahme, daß durch die gemeinsame Darbietung von CS und UCS eine Assoziation zwischen den beiden Reizen hergestellt wird, und daß dadurch der Reflex vom UCS auf den CS übertragen wird. Nach dieser Auffassung ist die gemeinsame Darbietung von CS und UCS hinreichend dafür,daß ein bedingter Reflex entsteht: Durch die gemeinsame Darbietung entsteht eine Assoziation,und je öfter CS undUCS gemeinsam dargeboten werden,desto stärker wird die Assoziation und damit die Stärke des bedingten Reflexes. Diese Assoziationstheorie der Konditionierung ist zwar einfach und einleuchtend, aber nach heutigem Wissen unhaltbar. Schon Pawlow selbst sprach lieber von "Signalen" als von Assoziationen. Nach seiner Meinung wird durch die Konditonierung der CS ein Signal für den UCS, das heißt, der CS kündigt den UCS an. Anders ausgedrückt: Man lernt eine Erwartung. Die Konditionierung führt zu dem Ergebnis, daß man nach dem Auftreten des CS erwartet, es werde auch der UCS kommen. Der Unterschied zwischen Erwartung (oder Signal) und bloßer Assoziation wurde erst in neueren Untersuchungen klar herausgearbeitet. Man führte ein Experiment folgender Art durch : Zuerst wurde mehrmals ein CS (z.B..ein Ton) und ein UCS (elektrischer Schlag) gemeinsam dargeboten. Dadurch wird eine Angstreaktion auf den CS konditioniert. Anschließend wurde der Vorgang leicht verändert: Außer dem bereits verwendeten CS wurde gleichzeitig ein weiterer konditoinierter Reiz (Licht) gemeinsam mit dem UCS dargeboten. Das Ergebnis war,daß der von Anfang an verwendete CS, eine Angstreaktion auslöste, wenn er nach der Konditionierung allein dargeboten wurde, der später hinzugekommene CS2 aber nicht. Dieses Ergebnis steht in deutlichem Widerspruch zu einer Assoziationstheorie des Konditionierens.Der zweite CS wurde genauso wie der erste mehrmals. Es entstand also keine Assoziation zwischen dem CS2 und dem UCS. Im Rahmen einer Erwartungstheorie ist dieses Ergebnis einfach zu erklären: Der erste CS kündigt den UCS bereits zuverlässig an. Der zweite CS bringt nicht mehr Information über das Auftreten des UCS als der ursprüngliche konditonierte Reiz allein. Da der CS1 bereits ein zuverlässiges Signal für den UCS ist, der CS2 aber keinerlei zusätzliche Information bringt, löst nur der CS1 die bedingte Reaktion aus.
Dieselbe Anzahl gemeinsamer Darbietungen von CS und UCS kann ganz unterschiedliche Auswirkungen haben, je nachdem,welche Informationen der CS bezüglich des UCS enthält. Besonders wichtig ist in diesem Zusammenhang, wie oft der UCS ohne CS auftritt, denn es kann zu völlig unterschiedlichen Ergebnissen kommen. Nehmen wir an, der CS sei ein Ton, der UCS ein elektrischer Schlag, so daß wenn eine Konditionierung gelingt eine bedingte Angstreaktion auf den Ton konditioniert wird.
Kommt der UCS genauso oft wie gemeinsam mit dem CS vor,dann ist die Wahrscheinlichkeit des UCS ist in Gegenwart des CS genauso groß wie ohne CS. Der CS enthält in dic Fall also keinerlei Information über das Auftreten des UCS. Daher fmdet in dic Fall keine Konditionierung statt. Bietet man nach dieser "Konditionierung" CS allein dar, löst er keinerlei Angst aus - obwohl er genauso oft gemeinsam dem UCS dargeboten wurde.
Kommt der UCS wesentlich häufiger ohne Ton als gemeinsam dem Ton vor, dann enthält der Ton jetzt die Information größerer Sicherheit dem elektrischen Schlag: Wenn der Ton da ist, ist ein elektrischer Schlag weniger wahrscheinlich als ohne Ton. Dementsprechend wirkt der CS, wenn er anschließend allein dargeboten wird, ausgesprochen entspannend.
Nach dem Lernen von Reflexen, wollen wir uns jetzt dem Lernen von Operanten zuwenden. In beiden Fällen, beim Lernen von Reflexen und beim Lernen von Operanten, spricht man von Konditionieren. Um jedoch hervorzuheben, daß es sich dabei nicht nur um zwei verschiedene Arten von Verhalten, sondern auch um zwei unterschiedliche Lernvorgänge handelt, nennt man den einen Vocgang "klassisches Konditionieren" und den anderen "operantes Konditionieren".
Mit operantem Konditionieren beschäftigten sich vor allem amerikanische Psychologen seit Beginn dieses Jahrhunderts. Die meisten von ihnen gehörten einer psychologischen Richtung an, die man Behaviorismus nennt (behavior(engl.) = Verhalten). Ziel der Behavioristen war es, ihre Forschung ausschließl ich auf objektive Sachverhalte zu stützen. Direkt beobachtbar sind aber in der Psychologie nur Reize und Verhalten. Daher beschränkten sich die Behaviocisten darauf gesetzmäßige Beziehungen zwischen Reizen und Verhalten festzustellen.
Zu den ersten Behavioristen zählten John B. Watson (1878-1956) und Edward L. Thorndike (1874-1949). Watson formulierte das Programm des Behaviorismus. Von Thorndike stammt das Kemstück der behavioristischen Lernpsychologie, das Gesetz des Effekts: Handlungen. die angenehme Folgen haben, werden in Zukunft wieder durchgeführt; Handlungen. die unangenehme haben, werden in Zukunft unterlassen. Genauer: Die Wahrscheinlichkeit (Häufigkeit) von Handlungen mit angenehmen Folgen nimmt zu, die Häufigkeit von Handlungen mit unangenehmen Folgen nimmt ab.
Der wohl bekannteste und einflußreichste Behaviorist ist Burrhus F. Skinner (geboren im Jahr 1904). Sein Werk ist ebenso durch klare, einfache Versuchsanordnungen wie durch klare Formulierungen ausgezeichnet. Er arbeitete vorwiegend mit weißen Ratten und Tauben als Versuchstieren. Die "Skinnerbox", mit deren Hilfe Skinner viele seiner Experimente durchführte, ist ein relativ geräumiger Versuchskäfig, der nur wenige Gegenstände enthält: einen Futternapf, einen Napf für Trinkwasser, eine Lampe, um optische Reize darzubieten, manchmal auch einen Lautsprecher, um akustische Reize darzubieten, ferner - für Ratten - einen kleinen Hebel, der vom Tier hinuntergedrückt werden kann, oder für Tauben, eine kleine Kreisscheibe in der Wand, auf die das Versuchstier mit dem Schnabel picken kann.
Die Skinnerbox ermöglicht die gezielte Herstellung von Reiz-ReaktionsVerbindungen durch den Versuchsleiter. Sie erleichtert außerdem die Verhaltensbeobachtung (im Vergleich zu Verhaltensbeobachtungen in der natürlichen, komplizierten Umwelt). Außerdem ermöglicht sie Experimente, bei denen der Versuchsleiter nicht einmal anwesend sein muß. Sowohl die Aufzeichnung des Verhaltens als auch die Reizdarbietung kann automatisch erfolgen. Die Skinnerbox kann z.B. so programmiert werden, daß sofort nach jedem Hebeldrücken eine Futterpille (aus dem außen befestigten Behälter) in den Futternapf fällt. Ein automatisches Schreibgerät hält außerdem fest, wann und wie oft der Hebel betätigt wird. Worin besteht Lernen bei Operanten? Lernen bedeutet hier in erster Linie:
Anderung der Verhaltensstärke. Verhaltensstärke kann beim operanten Konditionieren genauso wie beim klassischen Konditionieren auf mehrere Arten gemessen werden, z. B. als Schnelligkeit, als Häufigkeit oder als Intensität (Kraftaufwand) eines Verhaltens. Von vielen Psychologen (z. B. von Skinner) wird die Feststellung der Verhaltenshäufigkeit bevorzugt. Die Häufigkeit (und ganz allgemein die Stärke) eines operanten Verhaltens hängt in erster Linie von seinen Folgen (den Konsequenzen des Verhaltens) ab. Durch angenehme Konsequenzen nimmt die Stärke eines Verhaltens zu, durch unangenehme Konsequenzen nimmt sie ab (Gesetz des Effekts). Das läßt sich besonders einfach und deutlich mit Hilfe der Skinnerbox zeigen.
Wenn man eine Ratte in eine Skinnerbox gibt, macht sie alles Mögliche. Sie schaut herum, kratzt an den Wänden, schnuppert, usw. Gelegentlich, eher zufällig, drückt sie auf den Hebel. Das Hebeldrücken soll nun als jener Operant ausgewählt werden, der einem Lernprozeß unterzogen wird. Zunächst stellt man fest, wie häufig der Operant auftritt, wenn er keinerlei Folgen hat. Diese Häufigkeit nennt man die Basisrate oder Grundhäufigkeit. Nun soll der ernprozeß beginnen. Die Skinnerbox wird so programmiert, daß nach jedem Hebeldrücken eine kleine Futterpille in den Napf fällt. Das Hebeldrücken hat nun angenehme Konsequenzen. Dadurch ändert sich seine Häufigkeit. Diese wächst zunächst schnell und dann immer langsamer, bis wieder eine konstante Häufigkeit erreicht wird, die aber wesentlich größer ist als die Basisrate. Es handelt sich wieder um eine negativ beschleunigte Lernkurve. Entfemt man wieder die Verbindung zwischen Hebel und Futterbehälter, so daß Hebeldrücken wie zu Beginn des Versuchs keinerlei Konsequenzen hat, dann sinkt seine Häufigkeit wieder bis zur Basisrate. Diesen Vorgang nennt man Extinktion.
Jeder Reiz, der die Stärke eines Verhaltens erhöht, wenn er als Verhaltenskonsequenz aufftritt, ist ein Verstärker. Statt Verstärker sagt man auch Belohnung oder positiver Reiz jeder angenehme Reiz kann als Verstärker verwendet werden. Unangenehme Reize bewirken eine Verringerung der Verhaltensstärke, wenn sie als Verhaltenskonsequenz auftreten. Solche Reize heißen Strafreize oder negative Reize. Wenn z.B. nach jedem Hebeldrücken ein sehr lautes Geräusch ertönt, so ist das eine "Bestrafung" und die Verhaltensstärke sinkt. Läßt man das Geräusch wieder weg, tritt Extinktion ein. Die gelernte Verhaltensänderung verschwindet und das Verhalten erreicht wieder seine ursprüngliche Häufigkeit bzw. Stärke. Außerdem gibt es noch neutrale Reize, die keinerlei Wirkung auf die Verhaltensstärke ausüben.
Das Ausmaß der Verhaltensänderung hängt weitgehend von der Menge bzw. dem Ausmaß der Qualität der Verstärker und Strafreize ab. Große bzw. besonders angenehme Verstärker bewirken eine größere Zunahme der Verhaltensstärke als kleine oder nur mäßig angenehme Verstärker. Ahnlich bewirken besonders unangenehme Strafreize (z. B. sehr laute oder sehr schmerzhafte Reize) eine größere Abnahme der Verhaltenshäufigkeit als schwache Strafreize.
Auch das Verhalten des Menschen ist in hohem Maße von Verstärkern und Strafreizen abhängig. Handlungen, für die wir belohnt werden, führen wir häufig aus; Handlungen, die unangenehme Folgen für uns haben, werden nur selten ausgeführt. Das gilt auch für komplexe Verhaltensweisen wie Aggression ode Hilfsbereitschaft.
erbales Ein ßeispiel Für die Wirksamkeit von Verstärkern bei komplexen Verhaltens Konditionieren weisen des Menschen ist das sogenannte verbale (sprachliche) Kondttionieren
Zahlreiche Experimente (z. B. Verplanck,1955) haben gezeigt, daß die Häufigkeit mit der jemand über bestimmte Themen spricht, in der gleichen Weise vor Verstärkern abhängt, wie die Häufgkeit des Hebeldrückens bei Ratten in dei Skinnerbox. Man spricht mit großer HäuGgkeit über solche Themen, für die man Verstärker in Form von Zustimmung, Lob, Aufmerksamkeit usw. vom Gesprächs. parener erhält. Dagegen werden Themen, die zu unangenehmen Konsequenzen wie Ablehnung oder Langeweile führen, nur selten auEgegriffen.
In manchen Experimenten zum verbalen Konditionieren wissen die Vpn gat nicht, daß sie an einem Experiment teilnehmen. Der V1 Führt einfach ein Gespräch mit der Vp. Im ersten Teil des Experiments (etwa lOMinuten) läßt er nach Möglichkeit die Vp allein sprechen. Er greiEt kaum in das Gespräch ein, um die Vp (noch nicht) durch Verstärker oder Strafreize zu beeinflussen. In dieser Phase de Experiments wird die Basisrate eines bestimmten verbalen Operanten festgestellt (z. B. die Häufigkeit aller Sätze, in denen die Vpn über sich selbst spricht, oder die Häu6gkeit von Meinungsäußerungen).
Der zweite Teil des Experiments (wieder etwa 10 Minuten) ist die Lernphase. Jetzt verstärkt der V1, indem er unmittelbar nachjedem Satz der erwünschten Art
n und nur nach solchen, nicht bei anderen Sätzen - zustimmend mit dem Kopf nickt, oder beifällig murmelt, oder,ja" sagt. Anschließend folgt eine Extinktionsphase (ebenfalls etwa 10 Minuten), in der der VI nicht mehr systematisch verstärkt. Die Häufigkeit der ausgewählten Art von Sätzen ändert sich während solcher Experimente so, wie es in Abb. 72 dargestellt ist: Im ersten Teil des Experiments ist die Häufigkeit des ausgewählten verbalen Operanten konstant (Basisrate). In der Lernphase nimmt seine Häufigkeit dann stark zu (die Vp spricht z. B. immer mehr über sich selbst), und geht während der Extinktion wieder aufdie Ausgangshäufigkeit zurück.
2.422 Generalisatlon und Diskrimination
Generalisation Genauso wie beim klassischen Konditionieren gibt es auch beim Operantenkonditionieren die Prozesse Generalisation und Diskrimination. In eiriem Experiment von Guttmann und Kalish (1956) wurden Tauben verstärkt, wenn sie aufeine leuchtende Scheibe pickten. Während der Lernphase leuchtete die Scheibe immer in derselben Farbe (bei einer Gruppe von Vtn wurde ein Licht mit einer Wellenlänge von 550nm, also gelbgrün, verwendet). In der anschließenden Extinktionsphase wechselte die Lichtfarbe ständig und in zufälliger Reihenfolge. Jede Farbe wurde mehrmals dargeboten, jede einzelne Darbietung dauerte 30 Sekunden. Es wurde fürjede der verwendeten Farben gezählt, wie oft die Tiere auf die Scheibe pickten, während diese in der betreffenden Farbe leuchtete.
Reizähnlichkeit Abb. 74 zeigt die Ergebnisse. Das gelernte operante Verhalten generalisiertund zwar genauso wie beim klassischen Konditionieren: Die stärkste Reaktion tritt beim ursprünglichen Reiz auf(gelbgrün). Etwas schwächer, aber immer noch sehr
nach Di;skriiniatiönslernen
ig, tritt das Verhalten bei den ähnlichsten Reizen auf (grün und gelb). Je nger die Ahnlichkeit eines neuen Reizes mit dem ursprünglichen Reiz ist, desto ner und schwächer ist das Verhalten in Gegenwart des neuen Reizes.
Das Verhalten generalisiert zunächst über einen weiten Bereich von Reizen (im Diskiminarion hriebenen Experiment von grünblau bis orange). Wenn das Verhalten nur in enwart bestimmter Reize au Etreten soll - wenn es also ceiz- oder situationsspech sein soll -, ist ein eigener Lemprozeß notwendig: Diskriminationslecnen
Zu diesem Zweck muß das oben beschriebene Experiment in einer leicht bgewandelten Form wiederholt werden. Dabei sind zwei Untecschiede wesentch: (1) Schon während der Lemphase - und nicht erst während der Extinktioncchselt die Lichtfarbe häufig und in zufälliger Reihenfolge. Die Umgebung, in dcr gelemt wird, ändert sich also mehrmals: Der Lemprozeß 8ndet in verschiedenen Situationen statt. (2) Das Picken aufdie Scheibe wird nur dann verstärkt, wenndie Scheibe gelbgrün leuchtet (und bei keiner anderen Lichtfarbe). Der Lemprozeß findet somit zwar in verschiedenen Situationen (bei wechselnden Umgebungsreizcn) statt, aber das Picken wird nur in einer einzigen Situation (gelbgrünes Licht) vcrstärkt. Es wird also nur dann verstärkt, wenn der diskriminative Reiz (abgekürzt Sd) anwaend ist, sonst nicht.
i Das Ergebnis dieses Diskriminationslemens ist in Abb. 74 dargestellt. Nach dem Diskriminationslemen tritt das Verhalten nur mehr in Anwesenheit des Sd mit 'großer Häufigkeit auE Bei Reizen, die dem Sd sehr ähnlich sind, tritt es noch gelegentlich auf bei allen anderen Reizen praktisch gar nicht mehr. Das Vechalten ist reiz- bzw. situationsabhängig geworden.
AuE ganz ähnliche Weise lemen auch Kinder und Erwachsene situationsangepaßtes Verhalten. Wie alle anderen Lebewesen neigt auch der Mensch zunächst zu
n manchmal unpassenden - Generalisationen. Ein Verhalten, das in einer bestimmten Situation erfolgreich war (belohnt wurde), wird auch in vielen anderen Situationen "ausprobiert". Oft muß man jedoch Eeststellen, daß in zahkeichen Situationen der Erfolg (z.B. die Belohnung durch Lob) ausbleibt, und daß
diskriminetive Rrize
sitrationsangepnUtes Verbalten
manchmal sogar unangenehmc Konsequcnzcn auftreten (z. B. Bestrafung durch Mißbilligung). Nach diesem Diskriminationslernen beschränkt manjenes Verhal ten auf die erfolgversprechenden Situationen. - Versuchen Sie selbst, ein paär
Beispiele für Lernprozesse dieser Art aus dem Alltagsleben zu finden.
2.423 Iierschiedene Arten oon Verstürkern und Strafreizen
primäre und Es ist üblich, zwischen primären und sekundären Verstärkern - und ebenso sekundäre zwischen primären und sekundären StraFreizen - zu unterscheiden. Primäre Verstäiker Verstärker bzw. StraFreize sind jene Reize, deren verstärkende bzw. bestraEende
Wirkung schon vor jeder LernerEahrung vorhanden ist - Reize, die schon bei neugeborenen oder völlig unerfahrenen Lebewesen verstärkende oder bestrafende Wirkung haben, indem sie von vornherrin als angenehm bzw. unangenehm cmpfunden werden. Sekundäre Verstärker und sekundäre StraEreize sind zunächst neutrale Reize, die erst aufgrund besonderer Lemprozesse zu Verstärkern bzw. Strafreizen werden.
prlmäre Es gibt nicht sehr viele primäre Verstärker und Strafreize. Wichtige primäre Verstärker Verstärker sind Nahrung und Wasser (auch andere durstlöschende oder nahrhafte und StraFreizc F)üssigkeiten). Primäre Strafreize sind alle sehr intensiven Reize (laute Geräusche,
helles Licht, starke Gerüche, hoher Druck aufdie Haut, große Hitze oder Kälte, usw.), die durch ihre hohe Intensität unangenehm oder sogar schmerzhaft sind. Reizinrensiai Die Reduktion sehr intensiver Reize (z. B. die Verminderung starker Hitze
oder das Aufhören lärmender Geräusche) wirkt primär verstärkend. Nahrung und Flüssigkeit wirken auf ähnliche Weise: Es wird die Intensität der unarrgenehmen Hunger- oder Durstreize verrnindert.
sekvndirr Weitaus die meisten Verstärker und StraEreize im täglichen Leben sind Verstirker sekundäre Verstärker und StraFreize. Lob, Geld, Zustimmun, freundliches Lächeln und StraFreize
und viele andere häußge Belohnungen sind sekundäre Verstärker. Ebenso sind viele häufige StraEreize (z.B. ablehnende Bemerkungen) keine primären, sondem sekundäre Strafreize.
Enate&ung Wie wird aus einem neutralen Reiz ein sekundärer Verstärker? Die Antwort ist
srtondirer einfach: Durch klassische Konditionierung. Damit aus einem neutralen Reiz ein Verxtirker sekundärer Verstärker wird, muß er mehrmals äuf solche Weise gemeinsam mit
durc6
tlrxrisc6es einem (primären) Verstärker auftreten, daß der neutrale Reiz ein "Signal" für den Kondirionieren Verstärker wird. Er muß das Auftreten eines Verstärkers "ankündigen".
Erinnern Sie sich an das früher beschriebene einfache Experiment: Eine Ratte lernt in einer Skinnerbox, häufig einen Hebel niederzudrücken, weil sie dafür mit Futter verstärkt wird (primärer Verstärker). Nun soll das Experiment so abgeändert werden, daß zwischen Hebeldrücken und Futtervorgabe immer kurz ein blaues Licht aufleuchtet. Das blaue Licht ist zunächst ein neutraler Reiz. Nachdem es jedoch längere Zeit regelmäßig unmittelbar vor dem Futter erschien, hat das Tier gelemt, daß das blaue Licht das Futter ankündigt.
Aber noch ein zweiter Lernprozeß hat stattgefunden. Klassisches Konditionieren bestehtja darin, daß die anFangs nur vom bedingten Reiz ausgelöste Reaktion schließlich (wenigstens zum Teil) auch vom bedingten (also vom anfangs neutralen) Reiz ausgelöst wird. Ein sekundärer Verstärker hat wiejeder bedingte
Rciz dic Eigenscha Et, eine bedingte Reaktion auszulösen: Es wird ein abgeschwächter Teil jener Reaktionen, die zunächst nur vom primären Verstärker (Futter) ausgelöst wurden, auch vom sekundären Verstärker (Licht) hervorgeruFen. Das sind - wie wir bereits wissen - nicht zuletzt Gefühle. Zum Beispiel können die mit der NahrungsauEnahme verbundenen freudigen Gefühle auF den sekundären Verstärker Licht übertragen werden.
Dadurch ist das blaue Licht nicht mehr ein neutraler Reiz, sondern es ist ein positiver (angenehmer) Reiz geworden. Jetzt kann das blaue Licht allein - ohne
n Futter - als Verstärker cingesetzt werden. Wenn z. B. immer das blaue Licht aufleuchtet, nachdem das Tier an einem kleinen Rad in der Skinnerbox gedreht hat,
stcigt dadurch die HäuFgkeit des Drehens.
Jede bedingte Reaktion extingiert, wenn der bedingte Reiz häuFg allein Extinktion dargebocen wird. Das gilt auch für sekundäre Verscärker. Wenn sehr oEt das blaue
srkndärrr Licht allein als Verstärker verwendet wird, verliert es seine verstärkende Wirkung vrntirker
n es wird wieder zu einem neutralen Reiz. Damit es ein sekundärer Verstärker bleibt, muß cs wenigstens gelegentlich gemeinsam mit einem primären Verstärker auFtreten. Genaucr: Es muß wenigstens gelegentlich einen primären Verstärker ankündigen.
Wir haben am Bcispiel eines einfachen Tierexperiments gesehen, wie ein sekundärer Verstärker entsteht. Nach dem gleichen Prinzip werden auch Lob, Geld, Zuscimmung usw. für Menschen sekundäre Verstärker. Es kommt beispielsweise häufig vor, daß ein Kind für bestimmte Handlungen von seiner Mutter gelobt wird und danach eine Süßigkeit erhält. Dadurch wird das Lob zu einem sekundären Verstärker. (Lemvorgänge dieser Art wurden bereits im Kapitel über Klassisches Kondicionieren, und zwar im Abschnitt 2.412 über Gefühle, beschrieben.)
Sekundäre Strafreize entstehen genauso wie sekundäre Verstärker. Ein neutral er Reiz, der mehrmals einen StraEreiz signalisiert, indem er cegelmäßig vor dem Strafreiz auFeritt, wird ein sekundärer StraFreiz.
Damit aus einem neutralen Reiz ein sekundärer Verstärker oder StraFreiz wird, sign,lr
muß der neutrale Reiz einen Ventäcker odec Strafreiz signnlisieren. Das wiederholte gemeinsame Auftreten genügt nicht immer. Wann ein Reiz einen anderen ankündigt, wurde genauer in Abschnitt 2.414 (Theorien des klassischen Konditionierens) besprochen, daher soll hier nicht nochmals darauf eingegangen werden. Alles in Abschnitt 2.414 Gesagte ist auch bei sekundären Verstärkem von Bedeutung. In diesem Zusammenhang sei noch daraufhingewiesen, daß diskrimi- distrimmrivr native Reize immer auch sekundäre Verstärker werden, weil sie ja das Eintrefien Rcizc von Belohnungen zuverlässig voraussagen.
Abschließend soll noch die Möglichkeit der Selbstverstärkung erwähnt selbstwerden. Bisher wurden ausschließlich Vecstärker und Strafreize beschrieben, die ventärkng von außen (z. B. vom V1) dargeboten wurden. Man kann sich jedoch auch selbst d srlbstverstärken, z. B. indem man auf bestimmte Handlungen, die man zur eigenen bestrafimg Zufriedenheit durchgeführt hac, mit angenehmen Gefühlen wie Freude oder Stolz reagiert. Man kann sich auch selbst bestrafen, indem man nach Handlungen, die man besser unterlassen hätte, negative Gefühle wie Scham oder Selbstvorwürfe empfindet.
Selbstbelohnungen und Selbstbestrafungen haben die gleichen Wirkungen wie
I G4 Lenten von lierhnlten
Verhaltenskonsequcnzen, die von außen kommen: Sie beeinflussen die Verhaltenshäufigkeit. thre Besonderheit und ihre große Bedeutung liegt darin, daß sie dazu beitragen, das eigene Verhalten von äußeren Einflüssen unabhängig zu machen und selbst zu kontrollieren.
Für weJche Handlungen man sich belohnt bzw. bestraEt, muß erst gelemi werden. Hier spielen Eltern und Vorbilder eine große Rolle. Diese Lernprozesse werden im Kapitel G.2 (soziales Lernen) genauer beschrieben werden.
2.424Tierstärkerpläne
konrinuierliche Es ist nicht notwendig,jedes Auftreten eines bestimmten Operanten zu verstärken.
und inter- Wenn ein Verhalten nur manchmal verstärkt wird,ftihrt das ebenfalls zu einem
mitticrende Ansteigen seiner Häufigkeit.Im ersten Fall spricht man von einem kontinuierlichen
Verrtärkerpläne
Verstärkerplan,im zweiten von einem intermittierenden. Kontinuierliche, also
hundertprozentige Verstärkung kommt in Realsituationen äußerst selten vor und
wird auch in lempsychologischen Experimenten nicht oFt verwendet.
Es gibt sehr viele Möglichkeiten,intermittierend zu verstärken.Hier sollennur
die beiden wichtigsten Arten von Verstärkerplänen besprochen werden: Verhält-
Verhältnispläne nispläne (Häufigkeitspläne) und lntervallpläne (Zeitpläne).Bei Verhältnisplänen ist
die Verhaltenshäufigkeit entscheidend: Es wird beispielsweise jedes dritte oder
zehnte Auftreten eines bestimmten Operanten verstärkt.
Verhältnispläne bewirken in der Regel eine größere Verhaltenshäufigkeit als
kontinuierliche Verstärkung.Ferner ist die Verhaltenshäufigkeit um so größer,je
seltener verstärkt wird (je geringer der Prozentsatz verstärkter Operanten ist).Das
mag zunächst seltsam erscheinen,wird jedoch sofort verständlich,wenn man
bedenkt,daß die Zahl der erhältlichen Verstärker von der Verhaltenshäufigkeit
abhängt.Um die gleiche Anzahl von Verstärkem zu erhalten,sind bei mtermittie-
render Verstärkung mehr Operanten nötig als bei kontinuierlicher,und zwar um so
mehr Operanten,je selcener verstärkt wird.
lnrervallplänc Bei Intervallplänen ist die Zeit entscheidend.Es wird jeder Operant verstärkt,
der nach einem bestimmten Zeitintervall auftritt.Es kann beispielsweise jede
Minute oder jede fünfte Minute ein Verstärker gegeben werden (auch wesentlich
längere Intervalle sind möglich).Genauer: Es wird nur der erste Operant verstärkt,
der nach Ablauf des Intervalls auftritt,dann wieder nach dern nächsten Intervall,
usw.Operanten,die innerhalb der Intervalle auftreten,werden nicht verstärkt.
Die Verhaltenshäufigkeit ist bei Zeitplänen in der Regel geringer als bei
kontinuierlicher Verstärkung.Das ist deshalb der Fall,weil bei Intervallplänen die
Zahl der erhaltenen Verstärker nicht von der Verhaltenshäufigkeit abhängt: Es
wird nur zu bestimmten Zeitpunkten verstärkt.Wie viele Operanten zwischen
diesen Zeitpunkten auEtreten,ist gleichgültig,denn sie bleiben unbelohnt.Femer
sind die Operanten nicht gleichmäßig über die Zeit verteilt, sondem die
Verhaltenshäufigkeit ist unmittelbar nach jeder Verstärkung gering (weil in dieser
Zeit keine Belohnung erwartet wird),und nimmt am Ende des Intervalls stark zu
(weil jetzt die Wahrscheinlichkeit einer Belohnung groß ist).
Ie5re nd Bei Verhältnisplänen und bei Intervallplänen unterscheidet man zwischenfesten
variable (oderfixen) und varlablen Plänen.Bei den festen Plänen erfolgt die Verstärkung
Verstärkerpläne völlig regelmäßig.Zum Beispiel wird genau jeder zwanzigste Operant verstärkt
7erhaltrrr ()prrrrrrtrrr
IG5
ialtens- oder das Intervall zwischen zwei Belohnungen dauert immer genau 5Minuten.Bei
sie daztt variablen Plänen wird unregelmäßig belohnt.Es wird z.B.im Durchschnitt jeder
cn und zwanzigstc Operant verstärkt,das heißt,es wird nicht wie beim festen Plan der 20.,
40.,G0.usw.Operant verstärkt,sondern beispielsweise der 17.,41.,G4.,77.usw.
gelernt Ahnlich sind bei einem variablen 5-Minutenplan die einzelnen Intervalle nicht
rozesse genau 300Sekunden lang,sondern beispielsweise 280,330,2G0,310Sekunden usw.
Alle intermittierenden Verstärkerpläne unterscheiden sich in ihrer Wirkung
auf zweierlei Weise von kontinuierlicher Verstärkung. Bei jeder Art von
intermittierender Verstärkung wird Iangsamer gelemt als bei hundertprozentiger
Verstärkung (das heißt,die Verhaltens- bzw.HäuGgkeitsänderung dauert länger).
;tärken. Außerdem geht auch die Extinktion langsamer vor sich. A66.75zeigt den
i einem Unterschied zwischen Lern- und Extinktionskurven bei kontinuierlicher und
ierlichen intermittierender Verstärkung.
konlimcrlichc t'erslärkung
f-iirlermiiY,eendc lies/äkung
i'irkung intermittierender Verstirkng
Zi1 Abb.75
Aber auch zwischen intermittierenden Plänen gibt es noch beträchtliche
Unrerschicdc.Hicr sind vor allem zwci Aspekte wichtig.(t))e seltener verstärkt
wird,desto langsamer wird gelemt,und desto länger daucrt die Extinktion.Bei sehr
xltener Verstärkung (z.B. 1% der auftretenden Operanten) sinkt auch die
Verhalecnshäufigkeit während der Extinktion sehr langsam.(2) Je unregelmäßiger
erstärkt wird,desto langsamer wird gelernt und desto länger dauert die
Extinktion.
Variable Pläne mit geringer Verstärkerhäufigkeit haben also zugleich einen Esiinkioa:-
Nachteil und einen Vorteil.Der Nachteil ist die geringe Lerngeschwindigkeit.Der rerisrenz
Vorteil ist die langsame Extinktion.(Man sagt auch: Die hohe Extinktionsresistenz.
Das heißt: Der große Widerstand gegen die Extinktion.)
Daß langsames Lernen ein Nachteil ist,leuchtet ein.Aber warum ist die vorieil6obor
angsame Extinktion ein Vorteil? Langsame Extinktion bedeutet,daß ein Verhalten ExtinkNons-
uch ohne weitere Belohnung noch lange durchgeführt wird.Das ist sehr praktisch. resistenz
Der größte Teil der Kindererziehung wäre nutzlos,wenn ein mühsam erlerntes
Verhalten des Kindes bei Ausbleiben von Belohnungen sofort wieder verschwände.
Verhaltensweisen belohnt (wenn sie sich ein Kleidungsstück richtig anziehen,wenn
e ein Wort oder einen Satz richtig aussprechen,usw.). Dadurch steigt die
äufigkeit erwünschter Verhaltensweisen. Später erwartet man jedoch von
Cindern (und erst recht von Erwachsenen),daß sie ihren Pullover richtig anziehen,
md daß sie korrekt sprechen,auch wenn sie nicht daFtir belohnt werden.
xombination Daß wir die genannten und viele andere Verhatensweisen (fast) ohne
verschiedener Verstärkung beibehalten,ist zu einem großen Teil das Ergebnis intermittierender
Verstärkerpläne und noch dazu seltener und unregelmäßiger - Verstärkung.Am Anfang wird
cin Kind immer (oder meistens) belohnt,wenn es etwas richtig macht.Später wird
das gleiche Verhalten immer seltener verstärkt: Nach anfänglich fast hundertpro-
zentiger Verstärkung wird bald nur mehr die Hälfte der auftretenden Verhaltens-
weisen verstärkt,später nur mehr IO%,dann vielleicht 5%,usw.Durch diese
häufig (und meistens gar nicht bewußt) praktizierte Vorgangsweise erzielt man am
AnEang (bei häufiger Belohnung) eine hohe Lerngeschwindigkeit,also eine tasche
Zunahme der Verhaltenshäufsgkeit.Später bewirkt dann die immer seltenere
Belohnung ein Verhalten mit hoher Extinktionsresistenz.Die Verhaltenshäufigkeit
sinkt nur ganz langsam,und nach Abschluß des Lernprozesses genügen ganz seltene
Belohnungen,um die Verhaltenshäufigkeit praktisch konstant zu halten.
Bei erwünschten Verhaltensweisen ist also die Verwendung intermittierender
Verstärkung zu empfehlen.Bei unerwünschten Verhaltensweisen ist unbedingt
davon abzuraten.Pennoch wird sehr häufig (unabsichtlich) der Fehler gemacht,
unerwünschtes Verhalten intermittierend zu belohnen und damit extinktionsresi-
inkonsequente stent zu machen.Pas ist bei inkonsequenter Erziehung der Fall.Häufig reagieren
Erziehung Eltern oder Lehrer auF unerwünschte Verhaltensweisen (z.B.Wutanfälle) mit
Nichtbelohnung (z.ß.indem sie das tobende Kind tadeln oder nicht beachten).
Vielfach geschieht jedoch der Fehler,daß das unerwünschte Verhalten doch
gelegentlich durch "gutes Zureden" oder eine andere Form von Zuwendung
belohnt wird.Das ist aber nichts anderes als intermittierende Verstärkung.Die
Folgen kennen wir: Das unerwünschte Verhalten verschwindet nicht,sondem wird
ganz im Gegenteil sehr dauerhaft.
2.425 Theorien
Erwarrungrn Wie beim klassischen Konditionieren kann man auch beim operanten Konditionieren annehmen, daß der Lernprozeß darin besteht, Erwartungen zu bilden. Beim klassischen Konditionieren wird gelemt, daß der bedingte Reiz den unbedingten Reiz ankündigt. Die Konditionierung bewirkt, daß man den unbedingten Reiz erwartet, sobald man den bedingten Reiz wahrgenommen hat.
Erwartung von Beim operanten Konditionieren lemt man die Erwartung, daß auFbestimmte
Konsrqcnzrn Verhaltensweisen bestimmte Konsequenzen fölgen. Nach Rotter (1954) wollen
wir im vorliegenden Zusammenhang eine Erwartung als subjektive Wahrscheinlichkeit definieren, und zwar als die subjektive Wahrscheinlichkeit daFtir, daß auf Verhalten A die Konsequenz B folgt. Unter subjektiver Wahrscheinlichkeit versteht man den Grad der Gewißheit, mit der Konsequenz B nach Verhalten A erwartet wird. Das läßt sich in Prozenten ausdrücken und reicht in Feinen Abstufungen von völliger Gewißheit (l00% = sichere Konsequenz) über Fast sicher, meistens, oFt, manchmal, vielleicht bis nie (O%, das heißt, B wird nie als Konsequenz von A erwartet).
sprzitsrhe urfd Rotter unterscheidet spezifische und generalisierte Erwartungen. Spezifische generalisierte Erwartungen sind situationsbezogene Erwartungen. Die Wahrscheinlichkeit, mit Erwartungen der man B als Konsequenz von A erwartet, kann in Situation X (oder in Gegenwart
des diskriminativen Rcizes X) wesentlich höher oder geringer sein als in Situation Y. Generalisierte Erwartungen sind allgemeine, aufmehrere Situationen bezogene Erwartungen. [)as sind Erwartungen, die man aus früheren Lernprozessen au Eneue, mehr oder weniger ähnliche Sitnationen überträgt ("mit diesem Verhalten habe ich meistens Erfolg gehabt, das wird wahrscheinlich auch jetzt Eunktionieren"). In völlig neuen Situationen ist man vollständig auf genecalisierte Erwartungen angewiesen. In bekannten Situationen werden spezifische Erwartungen und generalisierte Erwartungen (aus ähnlichen Situationen) wirksam.
Außer den Erwartungen spielen nach Rotter auch die subjektiven BewertinQen Bewerrungen der Verhaltenskonsequenz eine wesentliche Rolle. Es ist nicht nur wichtig, ob und mic welcher Wahrscheinlichkeit eine Konsequenz erwartet wird, sondern auch, wie die erwarcete Konsequenz bewertet wird (das heißt, wie angenehm oder wie unangenehm sie erlebt wird). Erwartungen und Bewertungen bestimmen gemeinsam die Verhaltensstärke.Je größer die Erwartung undje positiver die Bewertung der Konsequenz B (nach Verhalten A) ist, desto häußger wird das Verhalten A ausgeFührt. Bei mittleren Erwartungen und mittleren Bewertungen liegt auch dic Verhalcensstärke im mittleren Bereich. Bei Erwartungen negativer Konsequenzen wird das becreffende Verhalten nur selten durchgeführt bzw. akciv vermieden oder unterdrückt. Allgemeiner formuliert: Je größer das Produkt aus Erwartung und Produkt anr Bewertung ist, desto größer ist die Verhaltensstärke. (Diese Formulierung setzt Erwartng nd voraus, daß man sowohl Erwartungen als auch Bewertungen in Zahlen ausdrücken Bewertmg kann.)Je kleiner oder negativer dieses Produkt ist, desto seltener wird das Verhalten auFtreten.
Dabei sollten Verhaltensweisen nie isoliert betrachtet werden. Immer mehr Entschcidt,grn setzt sich der Standpunkt durch, daß (East)jedes Verhalten ein Entscheidungsverhal: ten ist. Das heißt: In (fast)jeder Situation stehen mehrere mögliche Verhaltenswei· sen zur Verfügung, zwischen denen man sich entscheiden muß. (Zur Illustration zwei Beispiele: Wenn man ein Gasthaus aufsucht, muß man sich entscheiden, welche Speise man bestellen will. Wenn man einen Bekannten trifit, muß man sich entscheiden, ob man ein Gespräch mit ihm beginnt, oder nur grüßt und weitergeht. Falls man ein Gespräch führen wi1], muß man sich entscheiden, über welches Thema man sprechen will.) Es wird in der Regel die relativ beste Alternative gewählt: Von den möglichen Verhaltensweisen wird jene ausgeFührt,. für die das oben beschriebene Produkt aus Erwartung und Bewertung am größten ist. (Darauf wird im Abschnitt 3, im Kapitel über Entscheidungen, ausführlicher eingegangen.)
Die isolierte Betrachtung einzelner Verhaltensweisen ist auch deshalb nicht Hiu6gkcit
s""voll, weil verschiedene Verhaltensweisen einander gegenseitig beeintlussen. cn Genauer: Die Häuftgkeit eines bestimmten Verhaltens hängt nicht nur von dessen Verbaltens eigenen Konsequenzen ab, sondern auch von den Konsequenzen der anderen :ngtnic6t
nr von deucn
Ver uptung soll du d h e n Ex erimenc S Cation mö lich sind. Diese wichtige eigenen KonscBeh p n atania (1963) veranschaulicht werden. qucnzen ab Tauben lernten, auf Scheiben zu picken, wofür sie mit Futter belohnt wurden. Da der Einfluß mehrerer Verhaltensweisen (bzw. von deren Konsequenzen) aufeinander untersucht werden sollte, mußten mindestens zwei Verhaltensweisen zur Verfügung stehen. Diese beiden Verhaltensweisen (im folgenden R und R Ex eriment
ürzt) wa
ab ek z p g ren Picken auEzwei verschiedene Scheiben in einer Skinnerbox. Da das Picken bei beiden Scheiben Belohnungen brachte, wurden auch beide Scheiben
Haupt | Fügen Sie Referat | Kontakt | Impressum | Nutzungsbedingungen