Instrumentelle Konditionierung ist ein anderer Begriff für operante Konditionierung, einen Lernprozess, der erstmals von B. F. Skinner beschrieben wurde.1 Bei der instrumentellen Konditionierung werden Verstärkung oder Bestrafung verwendet, um die Wahrscheinlichkeit, dass ein Verhalten in der Zukunft wieder auftritt, entweder zu erhöhen oder zu verringern.
Beispiele für operante Konditionierung
Wenn ein Schüler beispielsweise jedes Mal, wenn er im Unterricht die Hand hebt, mit Lob belohnt wird, wird er in Zukunft eher die Hand heben.
Wenn sie auch beschimpft wird, wenn sie ausserhalb der Reihe spricht, wird sie den Unterricht weniger wahrscheinlich unterbrechen. In diesen Beispielen verwendet der Lehrer Verstärkung, um das Verhalten beim Heben der Hand zu verstärken, und Bestrafung, um das Verhalten außerhalb der Reihe zu schwächen.
Instrumentelle Konditionierung wird auch häufig im Tiertraining eingesetzt. Zum Beispiel würde das Training eines Hundes zum Händeschütteln beinhalten, dass jedes Mal, wenn das gewünschte Verhalten auftritt, eine Belohnung angeboten wird.
Geschichte der operanten Konditionierung
Psychologe E. L. Thorndike war einer der ersten, der die Wirkung von Verstärkung in Puzzlebox-Experimenten mit Katzen beobachtete.2 Während dieser Experimente beobachtete Thorndike einen Lernprozess, den er als Trial-and-Error-Lernen bezeichnete.
Die Experimente bestanden darin, eine hungrige Katze in eine Puzzlebox zu legen, und um sich zu befreien, musste die Katze einen Fluchtweg finden. Thorndike notierte dann, wie lange es dauerte, bis sich die Katzen in jedem Versuchsversuch befreien. Anfangs beschäftigten sich die Katzen mit ineffektiven Fluchtmethoden, kratzten und gruben an den Seiten oder der Oberseite der Kiste. Schließlich würde Trial-and-Error dazu führen, dass die Katzen erfolgreich den Fluchtweg schieben oder ziehen. Nach jedem aufeinanderfolgenden Versuch engagierten sich die Katzen immer weniger in den ineffektiven Fluchtverhalten und reagierten schneller mit den richtigen Fluchtaktionen.
Thorndike bezeichnete seine Beobachtungen als das Gesetz der Wirkung. Die Stärke einer Reaktion steigt, wenn ihr unmittelbar ein „Befriedigender“ (Verstärker) folgt.2 Andererseits werden Handlungen, denen unangenehme Wirkungen folgen, eher abgeschwächt.
In Thorndikes Puzzle-Box-Experimenten war es am befriedigender, der Box zu entkommen. Jedes Mal, wenn die Katzen erfolgreich aus der Box entkamen, wurde das Verhalten, das der Flucht unmittelbar vorausging, verstärkt und verstärkt.
Thorndikes Arbeit hatte einen enormen Einfluss auf B.F. Skinners spätere Forschungen zur operanten Konditionierung. Skinner hat sogar seine eigene Version von Thorndikes Puzzle-Boxen entwickelt, die er als operante Kammer bezeichnete, auch als Skinner-Box bekannt.1
So funktioniert operante Konditionierung
Skinner identifizierte zwei Schlüsseltypen von Verhaltensweisen. Der erste Typ ist das Verhalten der Befragten. Dies sind einfach Aktionen, die reflexartig ohne Lernen erfolgen.3 Wenn Sie etwas Heißes berühren, werden Sie sofort Ihre Hand zurückziehen. Die klassische Konditionierung konzentriert sich auf diese Verhaltensweisen der Befragten.
In Pavlovs klassischen Experimenten mit Hunden war Speichelfluss bei der Präsentation von Nahrung das Verhalten der Befragten. Indem er eine Verbindung zwischen dem Geräusch eines Summers und der Präsentation von Futter herstellte, konnte Pavlov Hunden jedoch beibringen, tatsächlich nur beim Klang dieses Summers zu sabbern.4
Skinner erkannte, dass die klassische Konditionierung zwar erklären kann, wie das Verhalten der Befragten zum Lernen führen kann, aber nicht jede Art von Lernen erklären kann. Stattdessen schlug er vor, dass es die Konsequenzen freiwilligen Handelns sind, die zum größten Lernvolumen führen.
Die zweite Art von Verhaltensweisen bezeichnet Skinner als operante Verhaltensweisen. Er definierte diese als jedes freiwillige Verhalten, das auf die Umwelt einwirkt, um eine Reaktion zu erzeugen.3 Dies sind die freiwilligen Verhaltensweisen, die unter unserer bewussten Kontrolle stehen. Auch das sind erlernbare Handlungen. Die Konsequenzen unseres Handelns spielen eine wichtige Rolle im Lernprozess.
Verstärkung und Bestrafung
Skinner identifizierte zwei Schlüsselaspekte des operanten Konditionierungsprozesses. Verstärkung dient dazu, das Verhalten zu verstärken, während Bestrafung dazu dient, das Verhalten zu verringern. Außerdem gibt es zwei verschiedene Arten der Verstärkung und zwei verschiedene Arten der Bestrafung.3
Positive Verstärkung bedeutet, ein positives Ergebnis zu präsentieren, z.
Negative Verstärkung beinhaltet die Beseitigung eines unangenehmen Reizes, wie zum Beispiel, einem Kind zu sagen, dass es seinen Brokkoli nicht essen muss, wenn es alle seine Kartoffeln isst. Da das Essen von Brokkoli für das Kind unangenehm ist und das Essen der Kartoffeln zum Wegfall dieser unerwünschten Aufgabe führt, wird das Essen der Kartoffeln dann negativ verstärkt.
Positive Bestrafung bedeutet, nach einem Verhalten ein unangenehmes Ereignis anzuwenden. Spanking zum Beispiel ist ein gängiges Beispiel für positive Bestrafung. Diese Art der Bestrafung wird oft als Bestrafung durch Anwendung bezeichnet. Eine negative Konsequenz wird direkt angewendet, um das unerwünschte Verhalten zu reduzieren.
Negative Bestrafung bedeutet, etwas Angenehmes wegzunehmen, nachdem ein Verhalten aufgetreten ist. Wenn ein Kind beispielsweise sein Zimmer nicht aufräumt, sagen seine Eltern ihm möglicherweise, dass es nicht mit seinen Freunden ins Einkaufszentrum gehen kann. Das Wegnehmen der erwünschten Aktivität wirkt wie ein negativer Bestrafer für das vorhergehende Verhalten.