Aperçu: G.M.
Lorsqu'un interlocuteur parle, les conséquences peuvent être entendues (audio) et visualisées (visuelles). Une
nouvelle tâche de restauration phonémique visuelle a été utilisée pour
évaluer la discrimination comportementale et les signatures neuronales
(potentiels liés à l'événement, ou ERP) du traitement audiovisuel dans
les enfants au développement typique avec une gamme de compétences
sociales et communicatives évaluées à l'aide de l'échelle de réactivité
sociale, une mesure des traits associés à l'autisme.
Un
concept auditif fantaisiste présentait deux types de stimuli pour
l'auditeur, un exemple clair d'une syllabe auditive consonne-voyelle /
ba / (le stimulus standard le plus fréquent) et une syllabe dans
laquelle les signaux auditifs pour la consonne étaient considérablement
affaiblis, créant un stimulus qui ressemble davantage à / a / (le stimulus déviant rarement présenté). Tous
les signes de discours ont été jumelés avec un visage produisant / ba /
ou un visage avec une bouche pixelée contenant du mouvement mais pas de
discours visuel. Dans
ce paradigme, le visuel / ba / devrait provoquer l'audition / a / être
perçue comme / ba /, créant une réponse bizarre atténuée; En revanche, une vidéo pixelée (sans information articulatoire) ne devrait pas avoir cet effet.
De
manière comportementale, les participants ont montré une restauration
phonémique visuelle (une précision réduite dans la détection de déviant /
a /) en présence d'un visage parlant. En
outre, les ERP ont été observés à la fois dans une fenêtre de temps
précoce (N100) et une fenêtre de temps ultérieure (P300) sensibles au
contexte de la parole (/ ba / ou / a /) et modulés par le contexte du
visage (visage parlant avec articulation visible ou avec bouche pixelée). Plus
précisément, les réponses fantaisistes pour les N100 et P300 ont été
atténuées en présence d'un visage produisant / ba / par rapport à un
visage pixelé, ce qui représente un corrélatif neuronal possible de
l'effet de restauration phonémique. De façon notable, les personnes ayant plus de traits associés à l'autisme
(encore dans la gamme non clinique) ont eu des réponses P300 plus
petites en général, quel que soit le contexte du visage, ce qui
suggère généralement une réduction de la discrimination phonémique.
Brain Sci. 2017 Jun 2;7(6). pii: E60. doi: 10.3390/brainsci7060060.
Electrophysiological Indices of Audiovisual Speech Perception in the Broader Autism Phenotype
Author information
- 1
- Haskins Laboratories, New Haven, CT 06511, USA. julia.irwin@yale.edu.
- 2
- Department of Psychology, Southern Connecticut State University, New Haven, CT 06515, USA. julia.irwin@yale.edu.
- 3
- Haskins Laboratories, New Haven, CT 06511, USA. trey.avery@yale.edu.
- 4
- Haskins Laboratories, New Haven, CT 06511, USA. jacqueline.turcios@yale.edu.
- 5
- Department of Communication Disorders, Southern Connecticut State University, New Haven, CT 06515, USA. jacqueline.turcios@yale.edu.
- 6
- Haskins Laboratories, New Haven, CT 06511, USA. brancaziol1@southernct.edu.
- 7
- Department of Psychology, Southern Connecticut State University, New Haven, CT 06515, USA. brancaziol1@southernct.edu.
- 8
- Department of Communication Disorders, Southern Connecticut State University, New Haven, CT 06515, USA. cookb5@southernct.edu.
- 9
- Haskins Laboratories, New Haven, CT 06511, USA. nicole.landi@yale.edu.
- 10
- Psychological Sciences, University of Connecticut, Storrs, CT 06269, USA. nicole.landi@yale.edu.
Abstract
When
a speaker talks, the consequences of this can both be heard (audio) and
seen (visual). A novel visual phonemic restoration task was used to
assess behavioral discrimination and neural signatures (event-related
potentials, or ERP) of audiovisual processing in typically developing
children with a range of social and communicative skills assessed using
the social responsiveness scale, a measure of traits associated with
autism. An auditory oddball design presented two types of stimuli to the
listener, a clear exemplar of an auditory consonant-vowel syllable /ba/
(the more frequently occurring standard stimulus), and a syllable in
which the auditory cues for the consonant were substantially weakened,
creating a stimulus which is more like /a/ (the infrequently presented
deviant stimulus). All speech tokens were paired with a face producing
/ba/ or a face with a pixelated mouth containing motion but no visual
speech. In this paradigm, the visual /ba/ should cause the auditory /a/
to be perceived as /ba/, creating an attenuated oddball response; in
contrast, a pixelated video (without articulatory information) should
not have this effect. Behaviorally, participants showed visual phonemic
restoration (reduced accuracy in detecting deviant /a/) in the presence
of a speaking face. In addition, ERPs were observed in both an early
time window (N100) and a later time window (P300) that were sensitive to
speech context (/ba/ or /a/) and modulated by face context (speaking
face with visible articulation or with pixelated mouth). Specifically,
the oddball responses for the N100 and P300 were attenuated in the
presence of a face producing /ba/ relative to a pixelated face,
representing a possible neural correlate of the phonemic restoration
effect. Notably, those individuals with more traits associated with
autism (yet still in the non-clinical range) had smaller P300 responses
overall, regardless of face context, suggesting generally reduced
phonemic discrimination.
- PMID:28574442
- DOI:10.3390/brainsci7060060