O que limita nossa capacidade de compreender frases complexas?

Saturday, 22 de August de 2020
Para que entendamos uma frase, nosso cérebro combina uma sequência de palavras em uma representação que faça sentido para nós. A ordem em que essa combinação de palavras deve ocorrer, no entanto, não é trivial, uma vez que diferentes palavras podem estar em concordância mesmo que distantes. Por causa disso, o cérebro deve decidir se, quando e como guardar uma palavra como informação. A maneira como nosso cérebro faz isso varia de caso a caso. Por exemplo, frases que contêm palavras concordantes distantes uma da outra demandam mais processamento quando comparadas a frases com dependências locais (palavras com concordâncias mais próximas). Por exemplo, a frase:
 
“O cachorro que o gato perseguiu correu”
 
contém uma oração central (o gato perseguiu), que separa os elementos da outra oração “O cachorro fugiu”. Dependências longas como esta envolvem mecanismos e processamento mais complexos no cérebro, o que tende a dificultar e retardar nossa compreensão desses casos. Tem até exemplos mais absurdos: Por exemplo:
 
“O cachorro que o gato que o rato mordeu perseguiu correu”
 
Muito estranha, né? Mas se analisarmos um pouco mais a fundo, vemos que cada elemento na frase tem um verbo com o qual concorda:
 
O cachorro que o gato que o rato mordeu perseguiu correu”.
 
O que explica essa nossa dificuldade em compreender esse tipo de construção de frases? Na verdade, diversas tentativas de explicar esse fenômeno já foram propostas:


Teorias baseadas na memória
 
Dependency locality theory (DLT): Essa teoria diz que a elementos distantes em uma frase são mais difíceis de serem processados do que elementos próximos. A frase “Maria disse que os meninos nadarão ontem”, por exemplo, pode parecer estranha pra quem ouve. Isso porque imediatamente associamos o advérbio “ontem” ao verbo “nadar”, que, no caso, está conjugado no futuro. No entanto, “ontem” aqui concorda com a ação de “Maria”. Para explicar esses efeitos, a teoria parte do pressuposto de que temos um “custo” de energia para processar frases. Construções de frases mais complexas demandam um maior processamento do cérebro, e esse nossa energia para esse processamento se exauriria, portanto. 
 
Adaptive Control of Thought - Rational (ACT-R): Para essa teoria, a dificuldade não deriva simplesmente da distância entre elementos em uma frase, mas do conteúdo desses elementos. O processamento de palavras seria realizado com base em blocos de memória, com significados semelhantes, acionados conforme a frase é lida. A ocorrência de elementos semanticamente parecidos seria, então, responsável pelas dificuldades, o que foi demonstrado também por meio de experimentos. Em contraste com a DLT, esta teoria leva em conta interferência entre os elementos ao invés de depleção de recursos (energia). 
 
Teorias baseadas em expectativa
 
Essas teorias propõem que a demanda cognitiva depende mais das expectativas do leitor antes do processamento de uma palavra. Essas expectativas seriam derivadas das estatísticas da linguagem natural – estruturas sintáticas mais frequentes são mais predizíveis, o que reduz o esforço necessário para processá-las. Em contraste, estruturas mais raras seriam mais dispendiosas de processamento.
 
Symbolic neural architectures
 
A teoria proposta por Smolenski e colaboradores sugere que nossa capacidade limitada para processamento de tais frases se deveria a uma razão material: a insuficiência de unidades neurônios para tal função. Propostas subsequentes falharam, no entanto, em fazer predições a respeito dessas construções sintáticas específicas.
 
imagem: https://globalhealthnewswire.com/
 
Usando modelos neurais da linguagem
 
Yair Lakretz, Stanislas Dehaene e Jean-Rémi King propõem o uso de modelos neurais de linguagem artificiais para estudar essa questão. De cara, essa abordagem apresenta a vantagem de não depender de pressupostos a priori, além de produzir predições sobre dinâmicas neurais, ausentes nos outros modelos. 
O que os cientistas descobriram usando esse modelo é que as redes neurais desenvolvem pouquíssimas unidades para processamento de número (singular/plural) para elementos distantes – apenas duas entre 1300. Juntamente a unidades sintáticas, que analisam as estruturas sintáticas das frases, formam um circuito que se ativa quando ocorrem elementos distantes em uma frase. Essa esparsidade desse mecanismo denota uma capacidade limitada para processar múltiplos elementos distantes em frases. Por exemplo, retornando à frase anterior,
 
“O cachorro que o gato que o rato mordeu perseguiu correu.”
 
Enquanto os elementos distantes mais externos (O cachorro correu) podem ser compreendidos pelo modelo, os mais internos (o gato perseguiu) não são compreendidos uma vez que o circuito de processamento para os elementos distantes já está ocupado. 
Essa característica do modelo provê uma explicação mecanística para a limitação no processamento de elementos distantes em frases. Durante o treinamento, a rede neural especializa um pequeno número de unidades para processamento desses elementos, uma vez que estes são raros nos dados usados no treino. A limitação se desenvolve a partir de uma limitação de recursos específicos para o processamento dessas estruturas, mas não de uma limitação geral no número de unidades. Isso foi demonstrado também usando redes neurais com mais unidades, que também desenvolviam um mecanismo esparso.
Esse modelo é capaz de fornecer predições sobre como esses processos ocorrem em humanos, tanto ao nível comportamental quanto neural. No entanto, os cientistas reconhecem que as redes neurais ainda são muito limitadas, uma vez que falham em replicar diversos processos que sabidamente ocorrem nos humanos. São necessários mais estudos na área para desenvolver o conhecimento. Futuramente, espera-se que esses modelos neurais possam ser extrapolações cada vez mais fiéis dos mecanismos que usamos para compreender e atuar no mundo.


Referências
 
Lakretz et al., (2020) What Limits Our Capacity to Process Nested Long-Range Dependencies in Sentence Comprehension?. Entropy 22:446.
Smolensky (1990) Tensor product variable binding and the representation of symbolic structures in connectionist networks. Artif. Intell. 46:159-216.

The content published here is the exclusive responsibility of the authors.

Autor:

Alan Henrique

#neuroscience #languageprocessing #semioticsresearch #neurocognition