TY - THES A1 - Ventura-Bort, Carlos T1 - Temporo-spatial dynamics of the impact of emotional contexts on visual processing and memory T1 - Zeitlich-räumliche Dynamik der Auswirkungen emotionaler Kontexte auf die visuelle Verarbeitung und das Gedächtnis N2 - It has frequently been observed that single emotional events are not only more efficiently processed, but also better remembered, and form longer-lasting memory traces than neutral material. However, when emotional information is perceived as a part of a complex event, such as in the context of or in relation to other events and/or source details, the modulatory effects of emotion are less clear. The present work aims to investigate how emotional, contextual source information modulates the initial encoding and subsequent long-term retrieval of associated neutral material (item memory) and contextual source details (contextual source memory). To do so, a two-task experiment was used, consisting of an incidental encoding task in which neutral objects were displayed over different contextual background scenes which varied in emotional content (unpleasant, pleasant, and neutral), and a delayed retrieval task (1 week), in which previously-encoded objects and new ones were presented. In a series of studies, behavioral indices (Studies 2, 3, and 5), event-related potentials (ERPs; Studies 1-4), and functional magnetic resonance imaging (Study 5) were used to investigate whether emotional contexts can rapidly tune the visual processing of associated neutral information (Study 1) and modulate long-term item memory (Study 2), how different recognition memory processes (familiarity vs. recollection) contribute to these emotion effects on item and contextual source memory (Study 3), whether the emotional effects of item memory can also be observed during spontaneous retrieval (Sstudy 4), and which brain regions underpin the modulatory effects of emotional contexts on item and contextual source memory (Study 5). In Study 1, it was observed that emotional contexts by means of emotional associative learning, can rapidly alter the processing of associated neutral information. Neutral items associated with emotional contexts (i.e. emotional associates) compared to neutral ones, showed enhanced perceptual and more elaborate processing after one single pairing, as indexed by larger amplitudes in the P100 and LPP components, respectively. Study 2 showed that emotional contexts produce longer-lasting memory effects, as evidenced by better item memory performance and larger ERP Old/New differences for emotional associates. In Study 3, a mnemonic differentiation was observed between item and contextual source memory which was modulated by emotion. Item memory was driven by familiarity, independently of emotional contexts during encoding, whereas contextual source memory was driven by recollection, and better for emotional material. As in Study 2, enhancing effects of emotional contexts for item memory were observed in ERPs associated with recollection processes. Likewise, for contextual source memory, a pronounced recollection-related ERP enhancement was observed for exclusively emotional contexts. Study 4 showed that the long-term recollection enhancement of emotional contexts on item memory can be observed even when retrieval is not explicitly attempted, as measured with ERPs, suggesting that the emotion enhancing effects on memory are not related to the task embedded during recognition, but to the motivational relevance of the triggering event. In Study 5, it was observed that enhancing effects of emotional contexts on item and contextual source memory involve stronger engagement of the brain's regions which are associated with memory recollection, including areas of the medial temporal lobe, posterior parietal cortex, and prefrontal cortex. Taken together, these findings suggest that emotional contexts rapidly modulate the initial processing of associated neutral information and the subsequent, long-term item and contextual source memories. The enhanced memory effects of emotional contexts are strongly supported by recollection rather than familiarity processes, and are shown to be triggered when retrieval is both explicitly and spontaneously attempted. These results provide new insights into the modulatory role of emotional information on the visual processing and the long-term recognition memory of complex events. The present findings are integrated into the current theoretical models and future ventures are discussed. N2 - Es wurde häufig beobachtet, dass einzelne emotionale Ereignisse effizienter verarbeitet und besser erinnert werden und länger anhaltende Gedächtnisspuren bilden als neutrales Material. Wenn jedoch emotionale Informationen als Teil eines komplexen Ereignisses wahrgenommen werden, wie beispielsweise im Kontext oder in Bezug auf andere Ereignisse und/oder Quellendetails, sind die modulierenden Einflüsse von Emotionen weniger klar. Die vorliegende Arbeit zielt darauf ab zu untersuchen, wie emotionale, kontextuelle Quelleninformationen die anfängliche Kodierung und den anschließenden langfristigen Abruf von zugehörigem neutralen Material (Itemgedächtnis) und kontextuellen Quellendetails (Quellengedächtnis) modulieren. Dazu wurde ein Zwei-Aufgaben-Experiment verwendet, bestehend aus einer nicht instruierten Enkodierungsaufgabe, bei der neutrale Objekte eingebettet in verschiedene kontextuelle Hintergrundszenen dargeboten wurden, die in ihrem emotionalen Inhalt variierten (unangenehm, angenehm und neutral), und einer verzögerten Abrufaufgabe (1 Woche), bei der zuvor enkodierte und neue Objekte präsentiert wurden. In einer Reihe von Studien wurden Verhaltensindizes (Studien 2-5), ereigniskorrelierte Potenziale (EKPs; Studien 1-4) und funktionelle Magnetresonanztomographie (Studie 5) verwendet, um zu untersuchen, ob emotionale Kontexte die visuelle Verarbeitung der zugehörigen neutralen Informationen kurzfristig verändern können (Studie 1) und das Langzeitgedächtnis modulieren (Studie 2), wie verschiedene Prozesse des Wiedererkennens (Vertrautheit vs. Rekollektion) zu diesen Emotionseffekten auf das Item- und das kontextuelle Quellengedächtnis beitragen (Studie 3), ob die emotionalen Effekte auf das Itemgedächtnis auch bei der spontanen Abfrage beobachtet werden können (Studie 4) und über welche Hirnregionen die modulierenden Effekte emotionaler Kontexte auf das Item- und kontextuelle Quellengedächtnis vermittelt werden (Studie 5). In Studie 1 wurde beobachtet, dass emotionale Kontexte durch emotionales assoziatives Lernen die Verarbeitung der zugehörigen neutralen Informationen kurzfristig verändern können. Neutrale Elemente, die mit emotionalen Kontexten verbunden sind (im Folgenden „emotional Assoziierte“ genannt), zeigten nach einer einzigen Paarung im Vergleich zu neutralen Elementen eine verbesserte perzeptuelle und elaboriertere Verarbeitung, wie durch höhere Amplituden in den P100- bzw. LPP-Komponenten nachgewiesen wurde. Studie 2 zeigte, dass emotionale Kontexte länger anhaltende Gedächtniseffekte erzeugen, was sich in einer besseren Itemgedächtnisleistung und größeren EKP-alt/neu Unterschieden für emotional Assoziierte zeigte. In Studie 3 wurde eine mnemonische Differenzierung zwischen Item- und kontextuellem Quellengedächtnis beobachtet, die durch Emotionen moduliert wurde. Das Itemgedächtnis wurde durch den Prozess der Vertrautheit getrieben unabhängig von den emotionalen Kontexten während der Enkodierung. Das kontextuelle Quellengedächtnis wurde dagegen durch Rekollektion getrieben und war besser für emotionales Material. Wie in Studie 2 wurden in EKPs, die mit Rekollektionsprozessen in Verbindung stehen, verstärkende Effekte von emotionalen Kontexten für das Itemgedächtnis beobachtet. Ebenso wurde für das kontextuelle Quellengedächtnis eine ausgeprägte Rekollektionsbezogene Potenzierung der EKPs ausschließlich für emotionale Kontexte beobachtet. Studie 4 zeigte, dass die langfristige Verstärkung der Rekollektion, die emotionale Kontexten im Itemgedächtnis verursachen, auch dann beobachtet werden kann, wenn der Abruf nicht explizit instruiert wird. Dieser Befund zum spontanen Erinnern deutet darauf hin, dass die gedächtnissteigernden Effekte von Emotionen nicht mit der Aufgabe zusammenhängen, die während des Abrufs gestellt wurde, sondern mit der motivationalen Relevanz des auslösenden Ereignisses. In Studie 5 wurde beobachtet, dass an der verstärkenden Wirkung von emotionalen Kontexten auf das Item- und kontextuelle Quellengedächtnis solche Hirnregionen beteiligt sind, die mit der Rekollektionsprozessen assoziiert werden, einschließlich der Bereiche des medialen Temporallappens, des posterioren parietalen Kortex und des präfrontalen Kortex. Zusammengenommen deuten diese Ergebnisse darauf hin, dass emotionale Kontexte die anfängliche Verarbeitung der zugehörigen neutralen Informationen und der nachfolgenden, langfristigen Erinnerungen an Items und kontextuelle Quellen schnell modulieren. Die durch emotionaler Kontexte ausgelösten Gedächtniseffekte werden eher durch Rekollektions- und weniger durch Vertrautheitsprozesse vermittelt und zeigen sich sowohl bei expliziten als auch bei spontanen Abruf. Diese Ergebnisse liefern neue Erkenntnisse über die modulierende Rolle emotionaler Informationen bei der visuellen Verarbeitung und der Langzeiterinnerung an komplexe Ereignisse. Die vorliegenden Erkenntnisse werden in aktuelle theoretische Modelle integriert und zukünftige Forschungsperspektiven werden diskutiert. KW - memory KW - fMRI KW - Emotion KW - emotion KW - EEG KW - Gedächtnis KW - EEG KW - fMRT Y1 - 2020 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-550236 ER - TY - THES A1 - Patzwald, Christiane T1 - Actions through the lens of communicative cues BT - the influence of verbal cues and emotional cues on action processing and action selection in the second year of life N2 - The PhD thesis entitled “Actions through the lens of communicative cues. The influence of verbal cues and emotional cues on action processing and action selection in the second year of life” is based on four studies, which examined the cognitive integration of another person’s communicative cues (i.e., verbal cues, emotional cues) with behavioral cues in 18- and 24-month-olds. In the context of social learning of instrumental actions, it was investigated how the intention-related coherence of either a verbally announced action intention or an emotionally signaled action evaluation with an action demonstration influenced infants’ neuro-cognitive processing (Study I) and selection (Studies II, III, IV) of a novel object-directed action. Developmental research has shown that infants benefit from another’s behavioral cues (e.g., action effect, persistency, selectivity) to infer the underlying goal or intention, respectively, of an observed action (e.g., Cannon & Woodward, 2012; Woodward, 1998). Particularly action effects support infants in distinguishing perceptual action features (e.g., target object identity, movement trajectory, final target object state) from conceptual action features such as goals and intentions. However, less is known about infants’ ability to cognitively integrate another’s behavioral cues with additional action-related communicative cues. There is some evidence showing that in the second year of life, infants selectively imitate a novel action that is verbally (“There!”) or emotionally (positive expression) marked as aligning with the model’s action intention over an action that is verbally (“Whoops!”) or emotionally (negative expression) marked as unintentional (Carpenter, Akhtar, & Tomasello, 1998; Olineck & Poulin-Dubois, 2005, 2009; Repacholi, 2009; Repacholi, Meltzoff, Toub, & Ruba, 2016). Yet, it is currently unclear which role the specific intention-related coherence of a communicative cue with a behavioral cue plays in infants’ action processing and action selection that is, whether the communicative cue confirms, contrasts, clarifies, or is unrelated to the behavioral cue. Notably, by using both verbal cues and emotional cues, we examined not only two domains of communicative cues but also two qualitatively distinct relations between behavioral cues on the one hand and communicative cues on the other hand. More specifically, a verbal cue has the potential to communicate an action intention in the absence of an action demonstration and thus a prior-intention (Searle, 1983), whereas an emotional cue evaluates an ongoing or past action demonstration and thus signals an intention-in-action (Searle, 1983). In a first research focus, this thesis examined infants’ capacity to cognitively integrate another’s intention-related communicative cues and behavioral cues, and also focused on the role of the social cues’ coherence in infants’ action processing and action selection. In a second research focus, and to gain more elaborate insights into how the sub-processes of social learning (attention, encoding, response; cf. Bandura, 1977) are involved in this coherence-sensitive integrative processing, we employed a multi-measures approach. More specifically, we used Electroencephalography (EEG) and looking times to examine how the cues’ coherence influenced the compound of attention and encoding, and imitation (including latencies to first-touch and first-action) to address the compound of encoding and response. Based on the action-reconstruction account (Csibra, 2007), we predicted that infants use extra-motor information (i.e., communicative cues) together with behavioral cues to reconstruct another’s action intention. Accordingly, we expected infants to possess a flexibly organized internal action hierarchy, which they adapt according to the cues’ coherence that is, according to what they inferred to be the overarching action goal. More specifically, in a social-learning situation that comprised an adult model, who demonstrated an action on a novel object that offered two actions, we expected the demonstrated action to lead infants’ action hierarchy when the communicative (i.e., verbal, emotional) cue conveyed similar (confirming coherence) or no additional (un-related coherence) intention-related information relative to the behavioral cue. In terms of action selection, this action hierarchy should become evident in a selective imitation of the demonstrated action. However, when the communicative cue questioned (contrasting coherence) the behaviorally implied action goal or was the only cue conveying meaningful intention-related information (clarifying coherence), the verbally/emotionally intended action should ascend infants’ action hierarchy. Consequently, infants’ action selection should align with the verbally/emotionally intended action (goal emulation). Notably, these predictions oppose the direct-matching perspective (Rizzolatti & Craighero, 2004), according to which the observation of another’s action directly resonates with the observer’s motor repertoire, with this motor resonance enabling the identification of the underlying action goal. Importantly, the direct-matching perspective predicts a rather inflexible action hierarchy inasmuch as the process of goal identification should solely rely on the behavioral cue, irrespective of the behavioral cue’s coherence with extra-motor intention-related information, as it may be conveyed via communicative cues. As to the role of verbal cues, Study I used EEG to examine the influence of a confirming (Congruent) versus contrasting (Incongruent) coherence of a verbal action intention with the same action demonstration on 18-month-olds’ conceptual action processing (as measured via mid-latency mean negative ERP amplitude) and motor activation (as measured via central mu-frequency band power). The action was demonstrated on a novel object that offered two action alternatives from a neutral position. We expected mid-latency ERP negativity to be enhanced in Incongruent compared to Congruent, because past EEG research has demonstrated enhanced conceptual processing for stimuli that mismatched rather than matched the semantic context (Friedrich & Friederici, 2010; Kaduk et al., 2016). Regarding motor activation, Csibra (2007) posited that the identification of a clear action goal constitutes a crucial basis for motor activation to occur. We therefore predicted reduced mu power (indicating enhanced motor activation) for Congruent than Incongruent, because in Congruent, the cues’ match provides unequivocal information about the model’s action goal, whereas in Incongruent, the conflict may render the model’s action goal more unclear. Unexpectedly, in the entire sample, 18-month-olds’ mid-latency ERP negativity during the observation of the same action demonstration did not differ significantly depending on whether this action was congruent or incongruent with the model’s verbal action intention. Yet, post hoc analyses revealed the presence of two subgroups of infants, each of which exhibited significantly different mid-latency ERP negativity for Congruent versus Incongruent, but in opposing directions. The subgroups differed in their productive action-related language skills, with the linguistically more advanced infants exhibiting the expected response pattern of enhanced ERP mean negativity in Incongruent than Congruent, indicating enhanced conceptual processing of an action demonstration that was contrasted rather than confirmed by the verbal action context. As expected, central mu power in the entire sample was reduced in Congruent relative to Incongruent, indicating enhanced motor activation when the action demonstration was preceded by a confirming relative to a contrasting verbal action intention. This finding may indicate the covert preparation for a preferential imitation of the congruent relative to the incongruent action (Filippi et al., 2016; Frey & Gerry, 2006). Overall, these findings are in line with the action-reconstruction account (Csibra, 2007), because they suggest a coherence-sensitive attention to and encoding of the same perceptual features of another’s behavior and thus a cognitive integration of intention-related verbal cues and behavioral cues. Yet, because the subgroup constellation in infants’ ERPs was only discovered post hoc, future research is clearly required to substantiate this finding. Also, future research should validate our interpretation that enhanced motor activation may reflect an electrophysiological marker of subsequent imitation by employing EEG and imitation in a within-subjects design. Study II built on Study I by investigating the impact of coherence of a verbal cue and a behavioral cue on 18- and 24-month-olds’ action selection in an imitation study. When infants of both age groups observed a confirming (Congruent) or unrelated (Pseudo-word: action demonstration was associated with novel verb-like cue) coherence, they selectively imitated the demonstrated action over the not demonstrated, alternative action, with no difference between these two conditions. These findings suggest that, as expected, infants’ action hierarchy was led by the demonstrated action when the verbal cue provided similar (Congruent) or no additional (Pseudo-word) intention-related information relative to a meaningful behavioral cue. These findings support the above-mentioned interpretation that enhanced motor activation during action observation may reflect a covert preparation for imitation (Study I). Interestingly, infants did not seem to benefit from the intention-highlighting effect of the verbal cue in Congruent, suggesting that the verbal cue had an unspecific (e.g., attention-guiding) effect on infants’ action selection. Contrary, when infants observed a contrasting (Incongruent) or clarifying (Failed-attempt: model failed to manipulate the object but verbally announced a certain action intention) coherence, their action selection varied with age and also varied across the course of the experiment (block 1 vs. block 2). More specifically, the 24-month-olds made stronger use of the verbal cue for their action selection in block 1 than did the 18-month-olds. However, while the 18-month-olds’ use of the verbal cue increased across blocks, particularly in Incongruent, the 24-month-olds’ use of the verbal cue decreased across blocks. Overall, these results suggest that, as expected, infants’ action hierarchy in Incongruent (both age groups) and Failed-attempt (only 24-month-olds) drew on the verbal action intention, because in both age groups, infants emulated the verbal intention about as often as they imitated the demonstrated action or even emulated the verbal action intention preferentially. Yet, these findings were confined to certain blocks. It may be argued that the younger age group had a harder time inferring and emulating the intended, yet never observed action, because this requirement is more demanding in cognitive and motor terms. These demands may explain why the 18-month-olds needed some time to take account of the verbal action intention. Contrary, it seems that the 24-month-olds, although demonstrating their principle capacity to take account of the verbal cue in block 1, lost trust in the model’s verbal cue, maybe because the verbal cue did not have predictive value for the model’s actual behavior. Supporting this interpretation, research on selective trust has demonstrated that already infants evaluate another’s reliability or competence, respectively, based on how that model handles familiar objects (behavioral reliability) or labels familiar objects (verbal reliability; for reviews, see Mills, 2013; Poulin-Dubois & Brosseau-Liard, 2016). Relatedly, imitation research has demonstrated that the interpersonal aspects of a social-learning situation gain increasing relevance for infants during the second year of life (Gellén & Buttelmann, 2019; Matheson, Moore, & Akhtar, 2013; Uzgiris, 1981). It may thus be argued that when the 24-month-olds were repeatedly faced with a verbally unreliable model, they de-evaluated the verbal cue as signaling the model’s action intention and instead relied more heavily on alternative cues such as the behavioral cue (Incongruent) or the action context (e.g., object affordances, salience; Failed-attempt). Infants’ first-action latencies were higher in Incongruent and Failed-attempt than in both Congruent and Pseudo-word, and were also higher in Failed-attempt than in Incongruent. These latency-findings thus indicate that situations involving a meaningful verbal cue that deviated from the behavioral cue are cognitively more demanding, resulting in a delayed initiation of a behavioral response. In sum, the findings of Study II suggest that both age groups were highly flexible in their integration of a verbal cue and behavioral cue. Moreover, our results do not indicate a general superiority of either cue. Instead, it seems to depend on the informational gain conveyed by the verbal cue whether it exerts a specific, intention-highlighting effect (Incongruent, Failed-attempt) or an unspecific (e.g., attention-guiding) effect (Congruent, Pseudo-word). Studies III and IV investigated the impact of another’s action-related emotional cues on 18-month-olds’ action selection. In Study III, infants observed a model, who demonstrated two actions on a novel object in direct succession, and who combined one of the two actions with a positive (happy) emotional expression and the other action with a negative (sad) emotional expression. As expected, infants imitated the positively emoted (PE) action more often than the negatively emoted (NE) action. This preference arose from an increase in infants’ readiness to perform the PE action from the baseline period (prior to the action demonstrations) to the test period (following the action demonstrations), rather than from a decrease in readiness to the perform the NE action. The positive cue thus had a stronger behavior-regulating effect than the negative cue. Notably, infants’ more general object-directed behavior in terms of first-touch latencies remained unaffected by the emotional cues’ valence, indicating that infants had linked the emotional cues specifically to the corresponding action and not the object as a whole (Repacholi, 2009). Also, infants’ looking times during the action demonstration did not differ significantly as a function of emotional valence and were characterized by a predominant attentional focus to the action/object rather than to the model’s face. Together with the findings on infants’ first-touch latencies, these results indicate a sensitivity for the notion that emotions can have very specific referents (referential specificity; Martin, Maza, McGrath, & Phelps, 2014). Together, Study III provided evidence for selective imitation based on another’s intention-related (particularly positive) emotional cues in an action-selection task, and thus indicates that infants’ action hierarchy flexibly responds to another’s emotional evaluation of observed actions. According to Repacholi (2009), we suggest that infants used the model’s emotional evaluation to re-appraise the corresponding action (effect), for instance in terms of desirability. Study IV followed up on Study III by investigating the role of the negative emotional cue for infants’ action selection in more detail. Specifically, we investigated whether a contrasting (negative) emotional cue alone would be sufficient to differentially rank the two actions along infants’ action hierarchy or whether instead infants require direct information about the model’s action intention (in the form of a confirming action-emotion pair) to align their action selection with the emotional cues. Also, we examined whether the absence of a direct behavior-regulating effect of the negative cue in Study III was due to the negative cue itself or to the concurrently available positive cue masking the negative cue’s potential effect. To this end, we split the demonstration of the two action-emotion pairs across two trials. In each trial, one action was thus demonstrated and emoted (PE, NE action), and one action was not demonstrated and un-emoted (UE action). For trial 1, we predicted that infants, who observed a PE action demonstration, would selectively imitate the PE action, whereas infants, who observed a NE action demonstration would selectively emulate the UE action. As to trial 2, we expected the complementary action-emotion pair to provide additional clarifying information as the model’s emotional evaluation of both actions, which should either lead to adaptive perseveration (if infants’ action selection in trial 1 had already drawn on the emotional cue) or adaptive change (if infants’ action selection in trial 1 signaled a disregard of the emotional cue). As to trial 1, our findings revealed that, as expected, infants imitated the PE action more often than they emulated the UE action. Like in Study III, this selectivity arose from an increase in infants’ propensity to perform the PE action from baseline to trial 1. Also like in Study III, infants performed the NE action about equally often in baseline and trial 1, which speaks against a direct behavior-regulating effect of the negative cue also when presented in isolation. However, after a NE action demonstration, infants emulated the UE action more often in trial 1 than in baseline, suggesting an indirect behavior-regulating effect of the negative cue. Yet, this indirect effect did not yield a selective emulation of the UE action, because infants performed both action alternatives about equally often in trial 1. Unexpectedly, infants’ action selection in trial 2 was unaffected by the emotional cue. Instead, infants perseverated their action selection of trial 1 in trial 2, irrespective of whether it was adaptive or non-adaptive with respect to the model’s emotional evaluation of the action. It seems that infants changed their strategy across trials, from an initial adherence to the emotional (particularly positive) cue, towards bringing about a salient action effect (Marcovich & Zelazo, 2009). In sum, Studies III and IV indicate a dynamic interplay of different action-selection strategies, depending on valence and presentation order. Apparently, at least in infancy, action reconstruction as one basis for selective action performance reaches its limits when infants can only draw on indirect intention-related information (i.e., which action should be avoided). Overall, our findings favor the action-reconstruction account (Csibra, 2007), according to which actions are flexibly organized along a hierarchy, depending on inferential processes based on extra-motor intention-related information. At the same time, the findings question the direct-matching hypothesis (Rizzolatti & Craighero, 2004), according to which the identification (and pursuit) of action goals hinges on a direct simulation of another’s behavioral cues. Based on the studies’ findings, a preliminary working model is introduced, which seeks to integrate the two theoretical accounts by conceptualizing the routes that activation induced by social cues may take to eventually influence an infant’s action selection. Our findings indicate that it is useful to strive a differentiated conceptualization of communicative cues, because they seem to operate at different places within the process of cue integration, depending on their potential to convey direct intention-related information. Moreover, we suggest that there is bidirectional exchange within each compound of adjacent sub-processes (i.e., between attention and encoding, and encoding and response), and between the compounds. Hence, our findings highlight the benefits of a multi-measures approach when studying the development of infants’ social-cognitive abilities, because it provides a more comprehensive picture how the concerted use of social cues from different domains influences infants’ processing and selection of instrumental actions. Finally, this thesis points to potential future directions to substantiate our current interpretation of the findings.. Moreover, an extension to additional kinds of coherence is suggested to get closer to infants’ everyday-world of experience. KW - infancy KW - social cognition KW - action processing KW - emotions KW - language KW - imitation KW - EEG Y1 - 2020 ER - TY - THES A1 - Breakell Fernandez, Leigh T1 - Investigating word order processing using pupillometry and event-related potentials T1 - Untersuchung von Wortfolge-Verarbeitungen unter Verwendung von Pupillometrie und EEG N2 - In this thesis sentence processing was investigated using a psychophysiological measure known as pupillometry as well as Event-Related Potentials (ERP). The scope of the the- sis was broad, investigating the processing of several different movement constructions with native speakers of English and second language learners of English, as well as word order and case marking in German speaking adults and children. Pupillometry and ERP allowed us to test competing linguistic theories and use novel methodologies to investigate the processing of word order. In doing so we also aimed to establish pupillometry as an effective way to investigate the processing of word order thus broadening the methodological spectrum. N2 - Die Doktorarbeit befasste sich mit der Untersuchung von Satzverarbeitung mittels der psychophysiologischen Methode Pupillometrie sowie EEG .Sie umfasst die Untersuchung verschiedener syntaktischer Konstruktionen und Kasusmarkierungen, deren Verarbeitung bei Muttersprachlern und Zweitsprachenlernern des Englischen sowie deutschsprachigen Erwachsenen und Kindern getestet wurden. Pupillometrie und EEG machten es möglich, konkurrierende linguistische Theorien zu testen und neuartige Methodiken zur Untersuchung der Verarbeitung von Wortfolgen zu nutzen. Ein besonderer Schwerpunkt bestand darin, Pupillometrie als effektive Art der Untersuchung von Wortfolge-Verarbeitungen zu etablieren und damit das methodologische Spektrum zu erweitern. KW - pupillometry KW - ERP KW - movement structures KW - L2 KW - word order processing KW - child language processing KW - auditory sentence processing KW - Verarbeitung von Zweitsprachen KW - EEG KW - Verarbeitung von Wortfolgen KW - Pupillometrie KW - Eye-Tracking Satzverarbeitung KW - Sprachverarbeitung bei Kindern Y1 - 2016 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-91438 ER - TY - THES A1 - Metzner, Paul-Philipp T1 - Eye movements and brain responses in natural reading T1 - Blickbewegungen und Hirnströme im natürlichen Lesen N2 - Intuitively, it is clear that neural processes and eye movements in reading are closely connected, but only few studies have investigated both signals simultaneously. Instead, the usual approach is to record them in separate experiments and to subsequently consolidate the results. However, studies using this approach have shown that it is feasible to coregister eye movements and EEG in natural reading and contributed greatly to the understanding of oculomotor processes in reading. The present thesis builds upon that work, assessing to what extent coregistration can be helpful for sentence processing research. In the first study, we explore how well coregistration is suited to study subtle effects common to psycholinguistic experiments by investigating the effect of distance on dependency resolution. The results demonstrate that researchers must improve the signal-to-noise ratio to uncover more subdued effects in coregistration. In the second study, we compare oscillatory responses in different presentation modes. Using robust effects from world knowledge violations, we show that the generation and retrieval of memory traces may differ between natural reading and word-by-word presentation. In the third study, we bridge the gap between our knowledge of behavioral and neural responses to integration difficulties in reading by analyzing the EEG in the context of regressive saccades. We find the P600, a neural indicator of recovery processes, when readers make a regressive saccade in response to integration difficulties. The results in the present thesis demonstrate that coregistration can be a useful tool for the study of sentence processing. However, they also show that it may not be suitable for some questions, especially if they involve subtle effects. N2 - Es erscheint offensichtlich, dass neuronale Prozesse und Blickbewegungen im Lesen eng miteinander verwoben sind, aber nur wenige Studien haben beide Signale simultan betrachtet. Der übliche Ansatz ist, sie stattdessen in separaten Esxperimenten aufzuzeichnen und die Ergebnisse anschließend miteinander zu vereinbaren. Es wurde jedoch bereits gezeigt, dass Blickbewegungen und EEG im natürlichen Lesen koregistriert werden können; Studien, die diesen Ansatzes verfolgen, haben entscheidend zum Verständnis okulomotorischer Prozesse beim Lesen beigetragen. Von diesen Studien ausgehend erörtert die vorliegende Dissertation, inwieweit Koregistrierung auch für Satzverarbeitungsforschung nützlich sein kann. In der ersten Studie wird erörtert, wie gut Koregistrierung für die Erfassung schwacher Effekte geeignet ist, wie sie für psycholinguistische Experimente typisch sind. Die linguistische Fragestellung in dieser Studie ist, wie sich Distanz auf die Auflösung linguistischer Abhängigkeiten auswirkt. Die Ergebnisse verdeutlichen, dass Forscher den Signal-Rausch-Abstand erhöhen müssen, um kleinere Effekte mittels Koregistrierung zu erfassen. In der zweiten Studie werden neuronale Oszillationen in unterschiedlichen Präsentationsformen untersucht. Mithilfe robuster Effekte in Reaktion auf Weltwissensverletzungen wird gezeigt, dass Enkodierung und Abruf von Gedächtnisspuren sich zwischen natürlichem und wortweisem Lesen unterscheidet. In der dritten Studie wird eine Verbindung zwischen behavioralen und elektrophysiologischen Reaktionen auf Integrationsschwierigkeiten im Lesen hergestellt. Hierzu wird das EEG in An- und Abwesenheit regressiver Sakkaden analysiert. Die P600, eine neuronale Reflektion von Reparaturprozessen, ist nur im Kontext von regressiven Sakkaden in Reaktion auf Integrationsschwierigkeiten zu beobachen. Die Ergebnisse der vorliegenden Arbeit demonstrieren, dass Koregistrierung eine vielversprechende Methode für die Satzverarbeitungsforschung ist. Sie zeigen jedoch auch, dass Koregistrierung sich nicht für jede Fragestellung eignet, insbesondere, wenn schwache Effekte zu erwarten sind. KW - natural reading KW - sentence processing KW - eye tracking KW - EEG KW - coregistration KW - dependency resolution KW - neural oscillations KW - regressive saccades KW - natürliches Lesen KW - Satzverarbeitung KW - Blickbewegungen KW - EEG KW - Koregistrierung KW - Abhängigkeitsauflösung KW - neuronale Oszillationen KW - regressive Sakkaden Y1 - 2015 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-82806 ER - TY - THES A1 - Dornhege, Guido T1 - Increasing information transfer rates for brain-computer interfacing T1 - Erhöhung der Informationstransferrate einer Gehirn-Computer-Schnittstelle N2 - The goal of a Brain-Computer Interface (BCI) consists of the development of a unidirectional interface between a human and a computer to allow control of a device only via brain signals. While the BCI systems of almost all other groups require the user to be trained over several weeks or even months, the group of Prof. Dr. Klaus-Robert Müller in Berlin and Potsdam, which I belong to, was one of the first research groups in this field which used machine learning techniques on a large scale. The adaptivity of the processing system to the individual brain patterns of the subject confers huge advantages for the user. Thus BCI research is considered a hot topic in machine learning and computer science. It requires interdisciplinary cooperation between disparate fields such as neuroscience, since only by combining machine learning and signal processing techniques based on neurophysiological knowledge will the largest progress be made. In this work I particularly deal with my part of this project, which lies mainly in the area of computer science. I have considered the following three main points: Establishing a performance measure based on information theory: I have critically illuminated the assumptions of Shannon's information transfer rate for application in a BCI context. By establishing suitable coding strategies I was able to show that this theoretical measure approximates quite well to what is practically achieveable. Transfer and development of suitable signal processing and machine learning techniques: One substantial component of my work was to develop several machine learning and signal processing algorithms to improve the efficiency of a BCI. Based on the neurophysiological knowledge that several independent EEG features can be observed for some mental states, I have developed a method for combining different and maybe independent features which improved performance. In some cases the performance of the combination algorithm outperforms the best single performance by more than 50 %. Furthermore, I have theoretically and practically addressed via the development of suitable algorithms the question of the optimal number of classes which should be used for a BCI. It transpired that with BCI performances reported so far, three or four different mental states are optimal. For another extension I have combined ideas from signal processing with those of machine learning since a high gain can be achieved if the temporal filtering, i.e., the choice of frequency bands, is automatically adapted to each subject individually. Implementation of the Berlin brain computer interface and realization of suitable experiments: Finally a further substantial component of my work was to realize an online BCI system which includes the developed methods, but is also flexible enough to allow the simple realization of new algorithms and ideas. So far, bitrates of up to 40 bits per minute have been achieved with this system by absolutely untrained users which, compared to results of other groups, is highly successful. N2 - Ein Brain-Computer Interface (BCI) ist eine unidirektionale Schnittstelle zwischen Mensch und Computer, bei der ein Mensch in der Lage ist, ein Gerät einzig und allein Kraft seiner Gehirnsignale zu steuern. In den BCI Systemen fast aller Forschergruppen wird der Mensch in Experimenten über Wochen oder sogar Monaten trainiert, geeignete Signale zu produzieren, die vordefinierten allgemeinen Gehirnmustern entsprechen. Die BCI Gruppe in Berlin und Potsdam, der ich angehöre, war in diesem Feld eine der ersten, die erkannt hat, dass eine Anpassung des Verarbeitungssystems an den Menschen mit Hilfe der Techniken des Maschinellen Lernens große Vorteile mit sich bringt. In unserer Gruppe und mittlerweile auch in vielen anderen Gruppen wird BCI somit als aktuelles Forschungsthema im Maschinellen Lernen und folglich in der Informatik mit interdisziplinärer Natur in Neurowissenschaften und anderen Feldern verstanden, da durch die geeignete Kombination von Techniken des Maschinellen Lernens und der Signalverarbeitung basierend auf neurophysiologischem Wissen der größte Erfolg erzielt werden konnte. In dieser Arbeit gehe ich auf meinem Anteil an diesem Projekt ein, der vor allem im Informatikbereich der BCI Forschung liegt. Im Detail beschäftige ich mich mit den folgenden drei Punkten: Diskussion eines informationstheoretischen Maßes für die Güte eines BCI's: Ich habe kritisch die Annahmen von Shannon's Informationsübertragungsrate für die Anwendung im BCI Kontext beleuchtet. Durch Ermittlung von geeigneten Kodierungsstrategien konnte ich zeigen, dass dieses theoretische Maß den praktisch erreichbaren Wert ziemlich gut annähert. Transfer und Entwicklung von geeigneten Techniken aus dem Bereich der Signalverarbeitung und des Maschinellen Lernens: Eine substantielle Komponente meiner Arbeit war die Entwicklung von Techniken des Machinellen Lernens und der Signalverarbeitung, um die Effizienz eines BCI's zu erhöhen. Basierend auf dem neurophysiologischem Wissen, dass verschiedene unabhängige Merkmale in Gehirnsignalen für verschiedene mentale Zustände beobachtbar sind, habe ich eine Methode zur Kombination von verschiedenen und unter Umständen unabhängigen Merkmalen entwickelt, die sehr erfolgreich die Fähigkeiten eines BCI's verbessert. Besonders in einigen Fällen übertraf die Leistung des entwickelten Kombinationsalgorithmus die beste Leistung auf den einzelnen Merkmalen mit mehr als 50 %. Weiterhin habe ich theoretisch und praktisch durch Einführung geeigneter Algorithmen die Frage untersucht, wie viele Klassen man für ein BCI nutzen kann und sollte. Auch hier wurde ein relevantes Resultat erzielt, nämlich dass für BCI Güten, die bis heute berichtet sind, die Benutzung von 3 oder 4 verschiedenen mentalen Zuständen in der Regel optimal im Sinne von erreichbarer Leistung sind. Für eine andere Erweiterung wurden Ideen aus der Signalverarbeitung mit denen des Maschinellen Lernens kombiniert, da ein hoher Erfolg erzielt werden kann, wenn der temporale Filter, d.h. die Wahl des benutzten Frequenzbandes, automatisch und individuell für jeden Menschen angepasst wird. Implementation des Berlin Brain-Computer Interfaces und Realisierung von geeigneten Experimenten: Eine weitere wichtige Komponente meiner Arbeit war eine Realisierung eines online BCI Systems, welches die entwickelten Methoden umfasst, aber auch so flexibel ist, dass neue Algorithmen und Ideen einfach zu verwirklichen sind. Bis jetzt wurden mit diesem System Bitraten von bis zu 40 Bits pro Minute von absolut untrainierten Personen in ihren ersten BCI Experimenten erzielt. Dieses Resultat übertrifft die bisher berichteten Ergebnisse aller anderer BCI Gruppen deutlich.
Bemerkung: Der Autor wurde mit dem Michelson-Preis 2005/2006 für die beste Promotion des Jahrgangs der Mathematisch-Naturwissenschaftlichen Fakultät der Universität Potsdam ausgezeichnet. KW - Kybernetik KW - Maschinelles Lernen KW - Gehirn-Computer-Schnittstelle KW - BCI KW - EEG KW - Spatio-Spectral Filter KW - Feedback KW - Multi-Class KW - Classification KW - Signal Processing KW - Brain Computer Interface KW - Information Transfer Rate KW - Machine Learning KW - Single Trial Analysis KW - Feature Combination KW - Common Spatial Pattern Y1 - 2006 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-7690 ER - TY - THES A1 - Ziehe, Andreas T1 - Blind source separation based on joint diagonalization of matrices with applications in biomedical signal processing T1 - Blinde Signalquellentrennung beruhend auf simultaner Diagonalisierung von Matrizen mit Anwendungen in der biomedizinischen Signalverarbeitung T1 - Blinde Signalquellentrennung beruhend auf simultaner Diagonalisierung von Matrizen mit Anwendungen in der biomedizinischen Signalverarbeitung N2 - This thesis is concerned with the solution of the blind source separation problem (BSS). The BSS problem occurs frequently in various scientific and technical applications. In essence, it consists in separating meaningful underlying components out of a mixture of a multitude of superimposed signals. In the recent research literature there are two related approaches to the BSS problem: The first is known as Independent Component Analysis (ICA), where the goal is to transform the data such that the components become as independent as possible. The second is based on the notion of diagonality of certain characteristic matrices derived from the data. Here the goal is to transform the matrices such that they become as diagonal as possible. In this thesis we study the latter method of approximate joint diagonalization (AJD) to achieve a solution of the BSS problem. After an introduction to the general setting, the thesis provides an overview on particular choices for the set of target matrices that can be used for BSS by joint diagonalization. As the main contribution of the thesis, new algorithms for approximate joint diagonalization of several matrices with non-orthogonal transformations are developed. These newly developed algorithms will be tested on synthetic benchmark datasets and compared to other previous diagonalization algorithms. Applications of the BSS methods to biomedical signal processing are discussed and exemplified with real-life data sets of multi-channel biomagnetic recordings. N2 - Diese Arbeit befasst sich mit der Lösung des Problems der blinden Signalquellentrennung (BSS). Das BSS Problem tritt häufig in vielen wissenschaftlichen und technischen Anwendungen auf. Im Kern besteht das Problem darin, aus einem Gemisch von überlagerten Signalen die zugrundeliegenden Quellsignale zu extrahieren. In wissenschaftlichen Publikationen zu diesem Thema werden hauptsächlich zwei Lösungsansätze verfolgt: Ein Ansatz ist die sogenannte "Analyse der unabhängigen Komponenten", die zum Ziel hat, eine lineare Transformation V der Daten X zu finden, sodass die Komponenten Un der transformierten Daten U = V X (die sogenannten "independent components") so unabhängig wie möglich sind. Ein anderer Ansatz beruht auf einer simultanen Diagonalisierung mehrerer spezieller Matrizen, die aus den Daten gebildet werden. Diese Möglichkeit der Lösung des Problems der blinden Signalquellentrennung bildet den Schwerpunkt dieser Arbeit. Als Hauptbeitrag der vorliegenden Arbeit präsentieren wir neue Algorithmen zur simultanen Diagonalisierung mehrerer Matrizen mit Hilfe einer nicht-orthogonalen Transformation. Die neu entwickelten Algorithmen werden anhand von numerischen Simulationen getestet und mit bereits bestehenden Diagonalisierungsalgorithmen verglichen. Es zeigt sich, dass unser neues Verfahren sehr effizient und leistungsfähig ist. Schließlich werden Anwendungen der BSS Methoden auf Probleme der biomedizinischen Signalverarbeitung erläutert und anhand von realistischen biomagnetischen Messdaten wird die Nützlichkeit in der explorativen Datenanalyse unter Beweis gestellt. KW - Signaltrennung KW - Mischung KW - Diagonalisierung KW - Bioelektrisches Signal KW - Magnetoencephalographie KW - Elektroencephalographie KW - Signalquellentrennung KW - Matrizen-Eigenwertaufgabe KW - Simultane Diagonalisierung KW - Optimierungsproblem KW - blind source separation KW - BSS KW - ICA KW - independent component analysis KW - approximate joint diagonalization KW - EEG KW - MEG Y1 - 2005 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-5694 ER - TY - THES A1 - Allefeld, Carsten T1 - Phase synchronization analysis of event-related brain potentials in language processing N2 - Das Forschungsthema Synchronisation bildet einen Schnittpunkt von Nichtlinearer Dynamik und Neurowissenschaft. So hat zum einen neurobiologische Forschung gezeigt, daß die Synchronisation neuronaler Aktivität einen wesentlichen Aspekt der Funktionsweise des Gehirns darstellt. Zum anderen haben Fortschritte in der physikalischen Theorie zur Entdeckung des Phänomens der Phasensynchronisation geführt. Eine dadurch motivierte Datenanalysemethode, die Phasensynchronisations-Analyse, ist bereits mit Erfolg auf empirische Daten angewandt worden. Die vorliegende Dissertation knüpft an diese konvergierenden Forschungslinien an. Ihren Gegenstand bilden methodische Beiträge zur Fortentwicklung der Phasensynchronisations-Analyse, sowie deren Anwendung auf ereigniskorrelierte Potentiale, eine besonders in den Kognitionswissenschaften wichtige Form von EEG-Daten. Die methodischen Beiträge dieser Arbeit bestehen zum ersten in einer Reihe spezialisierter statistischer Tests auf einen Unterschied der Synchronisationsstärke in zwei verschiedenen Zuständen eines Systems zweier Oszillatoren. Zweitens wird im Hinblick auf den viel-kanaligen Charakter von EEG-Daten ein Ansatz zur multivariaten Phasensynchronisations-Analyse vorgestellt. Zur empirischen Untersuchung neuronaler Synchronisation wurde ein klassisches Experiment zur Sprachverarbeitung repliziert, in dem der Effekt einer semantischen Verletzung im Satzkontext mit demjenigen der Manipulation physischer Reizeigenschaften (Schriftfarbe) verglichen wird. Hier zeigt die Phasensynchronisations-Analyse eine Verringerung der globalen Synchronisationsstärke für die semantische Verletzung sowie eine Verstärkung für die physische Manipulation. Im zweiten Fall läßt sich der global beobachtete Synchronisationseffekt mittels der multivariaten Analyse auf die Interaktion zweier symmetrisch gelegener Gehirnareale zurückführen. Die vorgelegten Befunde zeigen, daß die physikalisch motivierte Methode der Phasensynchronisations-Analyse einen wesentlichen Beitrag zur Untersuchung ereigniskorrelierter Potentiale in den Kognitionswissenschaften zu leisten vermag. N2 - The topic of synchronization forms a link between nonlinear dynamics and neuroscience. On the one hand, neurobiological research has shown that the synchronization of neuronal activity is an essential aspect of the working principle of the brain. On the other hand, recent advances in the physical theory have led to the discovery of the phenomenon of phase synchronization. A method of data analysis that is motivated by this finding - phase synchronization analysis - has already been successfully applied to empirical data. The present doctoral thesis ties up to these converging lines of research. Its subject are methodical contributions to the further development of phase synchronization analysis, as well as its application to event-related potentials, a form of EEG data that is especially important in the cognitive sciences. The methodical contributions of this work consist firstly in a number of specialized statistical tests for a difference in the synchronization strength in two different states of a system of two oscillators. Secondly, in regard of the many-channel character of EEG data an approach to multivariate phase synchronization analysis is presented. For the empirical investigation of neuronal synchronization a classic experiment on language processing was replicated, comparing the effect of a semantic violation in a sentence context with that of the manipulation of physical stimulus properties (font color). Here phase synchronization analysis detects a decrease of global synchronization for the semantic violation as well as an increase for the physical manipulation. In the latter case, by means of the multivariate analysis the global synchronization effect can be traced back to an interaction of symmetrically located brain areas.
The findings presented show that the method of phase synchronization analysis motivated by physics is able to provide a relevant contribution to the investigation of event-related potentials in the cognitive sciences. T2 - Phase synchronization analysis of event-related brain potentials in language processing KW - Synchronisation KW - EEG KW - Sprachverarbeitung KW - Multivariate Analyse KW - synchronization KW - EEG KW - language processing KW - multivariate analysis Y1 - 2004 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-0001873 ER - TY - THES A1 - Ribback, Sven T1 - Psychophysiologische Untersuchung mentaler Beanspruchung in simulierten Mensch-Maschine-Interaktionen N2 - In der vorliegenden Untersuchung wurde ein arbeitspsychologisches Problem thematisiert, dass in Mensch-Maschine-Systemen auftritt. In Mensch-Maschine-Systemen werden Informationen in kodierter Form ausgetauscht. Diese inhaltlich verkürzte Informationsübertragung hat den Vorteil, keine lange Zustandsbeschreibung zu benötigen, so dass der Mensch auf die veränderten Zustände schnell und effizient reagieren kann. Dies wird aber nur dann ermöglicht, wenn der Mensch die kodierten Informationen (Kodes) vorher erlernten Bedeutungen zuordnen kann. Je nach Art der kodierten Informationen (visuelle, akustische oder alphanumerische Signale) wurden Gestaltungsempfehlungen für Kodealphabete entwickelt. Für Operateure resultiert die mentale Belastung durch Dekodierungsprozesse vor allem aus dem Umfang des Kodealphabetes (Anzahl von Kodezeichen), der wahrnehmungsmäßigen Gestaltung der Kodes und den Regeln über die Zuordnung von Bedeutungen zu Kodezeichen. Die Entscheidung über die Güte von Kodealphabeten geschieht in der Arbeitspsychologie in der Regel über Leistungsindikatoren. Dies sind üblicherweise die zur Dekodierung der Kodes benötigte Zeit und dabei auftretende Zuordnungsfehler. Psychophysiologische Daten werden oft nicht herangezogen. Fraglich ist allerdings, ob Zeiten und Fehler allein verlässliche Indikatoren für den kognitiven Aufwand bei Dekodierungsprozessen sind, da im hochgeübten Zustand bei gleichen Alphabetlängen, aber unterschiedlicher Kodezeichengestaltung sich häufig die mittleren Dekodierungszeiten zwischen Kodealphabeten nicht signifikant unterscheiden und Fehler überhaupt nicht auftreten. Die in der vorliegenden Arbeit postulierte Notwendigkeit der Ableitung von Biosignalen gründet sich auf die Annahme, dass mit ihrer Hilfe zusätzliche Informationen über die mentale Beanspruchung bei Dekodierungsprozessen gewonnen werden können, die mit der Erhebung von Leistungsdaten nicht erfasst werden. Denn gerade dann, wenn sich die Leistungsdaten zweier Kodealphabete nicht unterscheiden, können psychophysiologische Daten unterschiedliche Aspekte mentaler Beanspruchung erfassen, die mit Hilfe von Leistungsdaten nicht bestimmt werden können. Daher wird in Erweiterung des etablierten Untersuchungsansatzes vorgeschlagen, Biosignale als dritten Datenbereich, neben Leistungsdaten und subjektiven Daten mentaler Beanspruchung, abzuleiten, um zusätzliche Informationen über die mentale Beanspruchung bei Dekodierungsprozessen zu erhalten. Diese Annahme sollte mit Hilfe der Ableitung von Biosignalen überprüft werden. Der Begriff mentaler Beanspruchung wird in der bisherigen Literatur nur unzureichend definiert und differenziert. Daher wird zur Untersuchung dieses Konzepts, die wissenschaftliche Literatur berücksichtigend, ein erweitertes Modell mentaler Beanspruchung vorgestellt. Dabei wird die mentale Beanspruchung abgegrenzt von der emotionalen Beanspruchung. Mentale Beanspruchung wird weiterhin unterschieden in psychomotorische, perzeptive und kognitive Beanspruchung. Diese Aspekte mentaler Beanspruchung werden jeweils vom psychomotorischen, perzeptiven oder kognitiven Aufwand der zu bearbeitenden Aufgabe ausgelöst. In der vorliegenden Untersuchung wurden zwei zentrale Fragestellungen untersucht: Einerseits wurde die Analyse der anwendungsbezogenen Frage fokussiert, inwieweit psychophysiologische Indikatoren mentaler Beanspruchung über die Leistungsdaten (Dekodierungszeiten und Fehleranzahl) hinaus, zusätzliche Informationen zur Bestimmung der Güte von Kodealphabeten liefern. Andererseits wurde der Forschungsaspekt untersucht, inwieweit psychophysiologische Indikatoren mentaler Beanspruchung die zur Dekodierung notwendigen perzeptiven und kognitiven Aspekte mentaler Beanspruchung differenzieren können. Emotionale Beanspruchung war nicht Gegenstand der Analysen, weshalb in der Operationalisierung versucht wurde, sie weitgehend zu vermeiden. Psychomotorische Beanspruchung als dritter Aspekt mentaler Beanspruchung (neben perzeptiver und kognitiver Beanspruchung) wurde für beide Experimentalgruppen weitgehend konstant gehalten. In Lernexperimenten hatten zwei anhand eines Lern- und Gedächtnistests homogenisierte Stichproben jeweils die Bedeutung von 54 Kodes eines Kodealphabets zu erwerben. Dabei wurde jeder der zwei unahbhängigen Stichproben ein anderes Kodealphabet vorgelegt, wobei sich die Kodealphabete hinsichtlich Buchstabenanzahl (Kodelänge) und anzuwendender Zuordnungsregeln unterschieden. Damit differierten die Kodealphabete im perzeptiven und kognitiven Aspekt mentaler Beanspruchung. Die Kombination der Abkürzungen entsprach den in einer Feuerwehrleitzentrale verwendeten (Kurzbeschreibungen von Notfallsituationen). In der Lernphase wurden den Probanden zunächst die Kodealphabete geblockt mit ihren Bedeutungen präsentiert. Anschließend wurden die Kodes (ohne deren Bedeutung) in sechs aufeinanderfolgenden Prüfphasen randomisiert einzeln dargeboten, wobei die Probanden instruiert waren, die Bedeutung der jeweiligen Kodes in ein Mikrofon zu sprechen. Während des gesamten Experiments wurden, neben Leistungsdaten (Dekodierungszeiten und Fehleranzahl) und subjektiven Daten über die mentale Beanspruchung im Verlauf der Experimente, folgende zentralnervöse und peripherphysiologische Biosignale abgeleitet: Blutdruck, Herzrate, phasische und tonische elektrodermale Aktivität und Elektroenzephalogramm. Aus ihnen wurden zunächst 13 peripherphysiologische und 7 zentralnervöse Parameter berechnet, von denen 7 peripherphysiologische und 3 zentralnervöse Parameter die statistischen Voraussetzungen (Einschlusskriterien) soweit erfüllten, dass sie in die inferenzstatistische Datenanalyse einbezogen wurden. Leistungsdaten und subjektive Beanspruchungseinschätzungen der Versuchsdurchgänge wurden zu den psychophysiologischen Parametern in Beziehung gesetzt. Die Befunde zeigen, dass mittels der psychophysiologischen Daten zusätzliche Erkenntnisse über den kognitiven Aufwand gewonnen werden können. Als weitere Analyse wurden die Kodes post hoc in zwei neue Kodealphabete eingeteilt. Ziel dieser Analyse war es, die Unterschiede zwischen beiden Kodealphabeten zu erhöhen, um deutlichere reizbezogene psychophysiologische Unterschiede in den EEG-Daten zwischen den Kodealphabeten zu erhalten. Dazu wurde diejenigen, hinsichtlich ihrer Bedeutung, parallelen Kodes in beiden Kodealphabeten ausgewählt, die sich in der Dekodierungszeit maximal voneinander unterschieden. Eine erneute Analyse der EEG-Daten erbrachte jedoch keine Verbesserung der Ergebnisse. Drei Hauptergebnisse bezüglich der psychophysiologischen Parameter konnten festgestellt werden: Das erste Ergebnis ist für die psychophysiologische Methodik bedeutsam. Viele psychophysiologische Parameter unterschieden zwischen den Prüfphasen und zeigen damit eine hinreichende Sensitivität zur Untersuchung mentaler Beanspruchung bei Dekodierungsprozessen an. Dazu gehören die Anzahl der spontanen Hautleitwertsreaktionen, die Amplitude der Hautleitwertsreaktionen, das Hautleitwertsniveau, die Herzrate, die Herzratendifferenz und das Beta-2-Band des EEG. Diese Parameter zeigen einen ähnlichen Verlauf wie die Leistungsdaten. Dies zeigt, dass es möglich ist, die hier operationaliserte Art mentaler Beanspruchung in Form von Dekodierungsprozessen psychophysiologisch zu analysieren. Ein zweites Ergebnis betrifft die Möglichkeit, Unterschiede mentaler Beanspruchung zwischen beiden Gruppen psychophysiologisch abzubilden: Das Hautleitwertsniveau und das Theta-Frequenzband des Spontan-EEG zeigten Unterschiede zwischen beiden Stichproben von der ersten Prüfphase an. Diese Parameter indizieren unterschiedlichen kognitiven Aufwand in beiden Stichproben über alle Prüfphasen. Das wichtigste Ergebnis betrifft die Frage nach einem Informationsgewinn bei Einsatz psychophysiologischer Methoden zur Bewertung der Güte von Kodealphabeten: Einen tatsächlichen Informationsgewinn gegenüber den Leistungsdaten zeigte die Amplitude der elektrodermalen Aktivität und die Herzraten-Differenz an. Denn in den späteren Prüfphasen, wenn sich die Leistungsdaten beider Kodealphabete nicht mehr unterschieden, konnten unterschiedliche Ausprägungen dieser psychophysiologischen Parameter zwischen beiden Kodealphabeten verzeichnet werden. Damit konnten unterschiedliche Aspekte mentaler Beanspruchung in beiden Kodealphabeten in den späteren Prüfphasen erfasst werden, in denen sich die Leistungsdaten nicht mehr unterschieden. Alle drei Ergebnisse zeigen, dass es, trotz erheblichen technischen und methodischen Aufwands, sinnvoll erscheint, bei der Charakterisierung mentaler Belastungen und für die Gestaltung von Kodealphabeten auch psychophysiologische Daten heranzuziehen, da zusätzliche Informationen über den perzeptiven und kognitiven Dekodierungsaufwand gewonnen werden können. N2 - In this study a problem from the work psychology was focussed, which appears in human-machine systems. In human-machine systems informations were exchanged as codes. Using this kind of shortened information transmission needs no long description of the system state, so that the operator can react to the changed system state in a quick and efficient way. This is possible only in this case, if the operator has learned the meaning of the codes before. For the different kinds of coded informations (visual, acoustic or alphanumeric signals) special recommendations for their design were developed. Mental workload caused by decoding processes resulting from the size of the code alphabet, the percepted design of the codes, and the rules about the allocation of code meanings. The decision about the validity of code alphabets in work psychology is normally made by indicators of performance, which are the decoding times and decoding mistakes. Nearly all studies do not refer to psychophysiological data. It is questioned, if times and mistakes alone are valid indicators for the cognitive cost, because in well learned state and for the same size of the code alphabet but different design of the codes, the decoding times between code alphabets are not significantly different, and mistakes do not appear. This study postulates a necessity for the registration of psychophysiological data, so that additionally informations, which are not included in the performance data, can be examined. If the performance data does not differ between two code alphabets, psychophysiological data measures different aspects of mental workload, which could not be detected by performance data. To enlarge the established approach, it is recommended to registrate biosignals as a third domain of data to get additional informations about decoding processes. These hypotheses should be verified by registration of biosignals. There are vague definitions and deficient differentiations of the concept of mental workload in the scientific publications. To examine mental workload an enlarged model of mental workload is presented. Mental workload is delimited from emotional strain. Furthermore mental workload is differentiated in psychomotoric, perceptive, and cognitive aspects. These aspects of mental workload are caused by the psychomotoric, perceptive, and cognitive cost, which are initiated by the assigned task. Two main questions were examined in this study. First question refers to applied research. Do psychophysiological indicators of mental workload provide more information about the validity of code alphabets than performance data? The second question refers to what extent psychophysiological indicators of mental workload necessary for the decoding process could differentiate the perceptive and cognitive aspects of mental workload. >The emotional strain was not the objective of this study, therefore it was excluded from the experimental design. Psychomotoric workload as the third aspect of mental workload was a constant value for both experimental samples. In two learning experiments two samples with identical habituational memory performance were instructed to learn the meaning of 54 codes of a code alphabet. Both samples was presented another code alphabet, which differed in the number of included letters and the allocation rules. Thus the two code alphabets differed in the perceptive and in the cognitive aspect of mental workload. The combination of abbreviations was comparable to those used in a fire station. In a learning phase the code alphabets were presented with their meanings. Afterwards the codes were presented without their meanings in six following tests phases. Subjects were instructed to answer in a microphone. During the whole experiment performance data, subjective data of perceived strain, and psychophysiological data were registrated. The psychophysiological data contained: blood pressure, heart rate, phasic and tonic electrodermal activity, and the EEG. Thirteen peripherphysiological and seven EEG parameters were extracted from these raw data. Seven peripherphysiological and three EEG parameters accomplished the statistical premises and were included to further statistical analysis. Performance data and subjective data were set in relation to the psychophysiological parameters. The outcomes showed that using psychophysiological data generate additional informations about the cognitive cost. For further analysis the code items were divided into two new code alphabets. The intention of this analysis was to maximize the difference between the two code alphabets to get more stimuli based psychophysiological differences in the EEG data. This analysis included those pairs of codes with identical meaning and maximum difference in their decoding time. This further analysis did not improve the outcomes. Three main outcomes in respect to the psychophysiological data were detected. The first one is an important outcome for psychophysiological methodology. Many psychophysiological parameters differ between the test phases and thus show a sufficient sensitivity to examine mental workload in decoding processes. The number of spontaneous electrodermal responses, the amplitude of electrodermal responses, the electrodermal level, the heart rate, the heart rate difference, and the beta-2 frequency band of the EEG belong to these parameters. These parameters show a similar distribution like performance data. This shows the possibility of the operationalized mental workload through decoding processes analysable with psychophysiological methods. A second outcome concerns the possibility to show differences in mental workload between both samples in psychophysiological parameters: The electrodermal level and the theta frequency band of the EEG showed differences between both samples beginning from the first test phase. These parameters indicate different cognitive cost in both samples in all test phases. The most important outcome regards to the profit of information by using psychophysiological methods to test the validity of code alphabets. The amplitude of the electrodermal responses and the heart rate difference shows a surplus of information compared to performance data. Thus in later test phases, in which the performance data did no longer differ, different characteristics of psychophysiological parameters between both code alphabets were registrated. Therefore different aspects of mental workload could be quantified. All three outcomes showed that, nevertheless of the considerable technical and methodological expenditure, it is reasonable to use psychophysiological data to design code alphabets, because it supplies additional information about the perceptional and cognitive cost of the decoding processes. KW - Psychophysiologie KW - mentale Beanspruchung KW - Dekodierung KW - Stress KW - EEG KW - Herzrate KW - EKG KW - Herzratenvariabilität KW - EDA KW - Psychophysiology KW - mental workload KW - decoding process KW - mental stress KW - EEG KW - heart rate KW - ECG KW - heart rate variability KW - electrodermal activity Y1 - 2003 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-0000833 ER -