De hersenen gebruiken de functie 'autocorrectie' om geluiden te onderscheiden

Nieuw onderzoek heeft ingezoomd op het spraakherkenningsvermogen van de hersenen en heeft het mechanisme blootgelegd waarmee de hersenen dubbelzinnige geluiden kunnen onderscheiden.

De hersenen gebruiken fascinerende mechanismen om geluiden te onderscheiden.

"In verband met een onderzoek in de Cmabrigde Uinervtisy, het is niet de vraag wat de ltteers in een wrod zijn, het enige wat niet moet gebeuren, is de eerste en het enige dat ik op de juiste pc moet doen."

U, net als vele anderen, was waarschijnlijk in staat om de bovenstaande zin zonder problemen te lezen - wat de reden is voor de massale online oproep die deze meme meer dan tien jaar geleden had.

Psycholinguïsten leggen uit dat de meme op zichzelf onjuist is, aangezien de exacte mechanismen achter de visuele "autocorrectie" -functie van de hersenen onduidelijk blijven.

In plaats van dat de eerste en laatste letter de sleutel zijn tot het vermogen van de hersenen om verkeerd gespelde woorden te herkennen, leggen de onderzoekers uit, is context wellicht van groter belang bij visuele woordherkenning.

Nieuw onderzoek, nu gepubliceerd in het Journal of Neuroscience, onderzoekt de vergelijkbare mechanismen die de hersenen gebruiken om gesproken woorden te ‘autocorrectie’ en om gesproken woorden te herkennen.

Onderzoeker Laura Gwilliams - van de afdeling Psychologie aan de New York University (NYU) in New York City en het Neuroscience of Language Lab aan de NYU Abu Dhabi - is de eerste auteur van het artikel.

Prof. Alec Marantz, van de afdelingen Taalkunde en Psychologie van de NYU, is de hoofdonderzoeker van het onderzoek.

Gwilliams en team keken naar hoe de hersenen dubbelzinnige geluiden ontwarren. De uitdrukking 'een geplande maaltijd' klinkt bijvoorbeeld erg als 'een neutrale maaltijd', maar de hersenen weten op de een of andere manier het verschil tussen de twee te onderscheiden, afhankelijk van de context.

De onderzoekers wilden zien wat er in de hersenen gebeurt nadat het dat eerste geluid als een "b" of een "p" heeft gehoord. De nieuwe studie is de eerste die laat zien hoe spraakverstaan ​​plaatsvindt nadat de hersenen het eerste geluid hebben gedetecteerd.

Onderscheidende dubbelzinnigheid in een halve seconde

Gwilliams en collega's voerden een reeks experimenten uit waarbij 50 deelnemers luisterden naar afzonderlijke lettergrepen en hele woorden die erg op elkaar leken. Ze gebruikten een techniek genaamd magneto-encefalografie om de hersenactiviteit van de deelnemers in kaart te brengen.

De studie onthulde dat een hersengebied dat bekend staat als de primaire auditieve cortex de dubbelzinnigheid van een geluid oppikt, slechts 50 milliseconden na het begin. Vervolgens, terwijl de rest van het woord ontrafelt, “her-roept” de hersenen geluiden op die ze eerder hadden opgeslagen, terwijl ze het nieuwe geluid opnieuw evalueerden.

Na ongeveer een halve seconde beslissen de hersenen hoe ze het geluid interpreteren. "Wat interessant is", legt Gwilliams uit, "is het feit dat [de] context kan optreden nadat de geluiden zijn geïnterpreteerd en nog steeds worden gebruikt om de manier waarop het geluid wordt waargenomen te veranderen."

"[A] n dubbelzinnig eerste geluid", vervolgt prof. Marantz, "zoals‘ b ’en‘ p ’worden op de een of andere manier gehoord, afhankelijk van of het voorkomt in het woord‘ parkiet ’of‘ barricade. '' '

"Dit gebeurt zonder bewust besef van de dubbelzinnigheid, ook al komt de ondubbelzinnige informatie pas in het midden van de derde lettergreep", zegt hij.

"In het bijzonder", merkt Gwilliams op, "ontdekten we dat het gehoorsysteem actief het akoestische signaal in [de] auditieve cortex vasthoudt, terwijl het tegelijkertijd gissingen doet over de identiteit van de woorden die worden uitgesproken."

"Met een dergelijke verwerkingsstrategie," voegt ze eraan toe, "kan de inhoud van het bericht snel worden opgevraagd, terwijl het ook mogelijk is om het akoestische signaal opnieuw te analyseren om gehoorfouten te minimaliseren."

"Wat iemand denkt te horen, komt niet altijd overeen met de daadwerkelijke signalen die het oor bereiken", zegt Gwilliams.

"Dit komt omdat, zo suggereren onze resultaten, de hersenen de interpretatie van een spraakgeluid opnieuw evalueren op het moment dat elk volgend spraakgeluid wordt gehoord, om de interpretaties indien nodig bij te werken."

"Het is opmerkelijk dat ons gehoor tot een seconde later kan worden beïnvloed door de context, zonder dat de luisteraar zich ooit bewust is van deze veranderde perceptie."

Laura Gwilliams

none:  immuunsysteem - vaccins menopauze dyslexie