Estudo do MIT descobre a pólvora e a roda. Fantástico!

Torre de Babel (Pieter Bruegel, o velho. c. 1563)
Torre de Babel (Pieter Bruegel, o velho. c. 1563)

Às vezes nos é necessário retornar às religiões.

Pois como já se diz há um bocado de tempo, a ciência é aquela atividade humana que, um dia, vai chegar onde os textos religiosos já estão há milênios.

Pra quem gosta de ler e pesquisar, algumas sugestões:

– os Vedas, base do extenso sistema de escrituras sagradas do hinduísmo, representam a mais antiga literatura de qualquer língua indo-europeia. A palavra Veda, em sânscrito, da raiz विद् vid- (reconstruída como sendo derivada do Proto-Indo-Europeu weid-) significa conhecer, escreve-se वेद veda no alfabeto devanágari e significa “conhecimento”.

– os Upanixades, parte das escrituras Shruti hindus que discutem principalmente meditação e filosofia, consideradas pela maioria das escolas do hinduísmo como instruções religiosas, que contêm as transcrições de vários debates espirituais, e 12 de seus 123 livros são considerados básicos por todos os hinduístas.

– o Bhagavad-Gita , texto religioso hindu, parte do épico Maabárata, embora seja de composição mais recente que o todo deste livro. A obra é uma das principais escrituras sagradas da cultura da Índia, e compõe a principal obra da religião Vaishnava, que envolve várias ramificações de fé em Vishnu ou Krishna.

A descoberta do MIT

De acordo com o laborioso estudo do MIT “Todas as línguas (…) se organizam de tal modo que conceitos relacionados ficam tão próximos quanto possível dentro de uma frase, facilitando a compreensão da noção geral que expressam”.

Sei…

E qual é a novidade?

Meu pai, que estudou até o antigo comercial, e minha mãe, até o velhíssimo primário (tudo isso na década de 30, do século passado) e por lá pararam, já sabiam disso.

Mas sigamos.

Leiamos o pomposo texto do MIT.

“MIT descobre o universal linguístico (ou não)”

[Ao redor do mundo, as línguas assumem uma estonteante variedade de formas — a tal ponto que isso mantém um longo debate sobre se todas as línguas podem ter alguma propriedade em comum. Agora, de acordo com um paper publicado na edição dessa semana da PNAS, há um novo candidato ao fugidio título de “universal linguístico”. Todas as línguas, segundo os autores, se organizam de tal modo que conceitos relacionados ficam tão próximos quanto possível dentro de uma frase, facilitando a compreensão da noção geral que expressam.

Universais linguísticos são importantes porque lançam luz em questões fundamentais sobre a cognição humana. O mais famoso proponente da ideia de universais linguísticos é Noam Chomsky, que sugeriu uma “gramática universal”, a qual seria a base de todas as línguas. Encontrar a propriedade que ocorre em cada uma de todas as línguas seria uma indicação de que algum elemento da linguagem é geneticamente pré-determinado e talvez que exista uma arquitetura cerebral especificamente dedicada à linguagem.

Entretanto, como argumentam outros pesquisadores [em pdf], são pouquíssimos os candidatos a um verdadeiro universal linguístico. Eles afirmam que há uma enorme variedade em cada nível possível de estrutura linguística, incluindo os próprios sons que fazemos com nossas cordas vocais (ou os sinais das línguas de sinais).

Eles reconhecem a existência de tendências espalhadas através das línguas, mas argumentam que esses padrões são apenas um sinal de que as línguas encontram soluções comuns para problemas comuns. Se não encontrarmos um verdadeiro universal, fica difícil manter a hipótese de que a linguagem é um pacote cognitivo específico em vez de ser um resultado genérico das notáveis capacidades do cérebro humano.

Sistemas auto-organizantes

Muito tem sido escrito sobre essa tendência das línguas de colocar as palavras com íntima relação sintática tão próximas quanto o possível. No Departamento do Cérebro e das Ciências Cognitivas do MIT, Richard Futrell, Kyle Mahowald e Edward Gibson estavam interessados em saber se todas as línguas usam esta técnica para facilitar o entendimento das sentenças.

A ideia é que amontoar conceitos relacionados alivia a memória de trabalho. Por exemplo, adjetivos (como “old”/”velha”) se ligam aos substantivos que modificam (“lady”/”senhora”). Assim, é mais fácil entender todo o conceito de “velha senhora” se as palavras aparecem juntas numa frase.

Você pode observar esse efeito decidindo qual dessas duas sentenças é mais fácil de entender: “John threw out the old trash sitting in the kitchen” [João jogou fora o lixo velho sentado na cozinha] ou “John threw the old trash sitting in the kitchen out” [João jogou o lixo velho sentado na cozinha fora]. Para muitos falantes de inglês [ou português], a segunda sentença vai soar estranha – nós estamos inclinados a manter as palavras “jogar” e “fora” tão juntas como possível. Esse processo que limita a distância entre palavras relacionadas é conhecido como minimização do comprimento de dependência [dependency length minimisation] ou DLM.

As línguas desenvolvem gramáticas que forçam os falantes a empacotar os conceitos, facilitado o acompanhamento e compreensão das frases? Ou, quando olhamos para toda a variedade de línguas, percebemos que nem todas seguem esse padrão?

Em vez de escrever as próprias frases, os cientistas do MIT queriam observar a linguagem tal como é realmente usada. Para isso, eles reuniram bancos de dados com exemplos linguísticos de 37 idiomas diferentes. Cada sentença no banco de dados recebeu um índice de acordo com o grau de DLM que apresentava: frases onde as palavras conceitualmente relacionadas ficavam longe tinham índices maiores; frases nas quais as palavras relacionadas ficavam sentadas juntinhas receberam índices mais baixos.

Em seguida, os pesquisadores compararam esses índices a um baseline. Eles tomaram as palavras em cada sentença e as embaralharam até que as palavras correlatas tivessem distâncias aleatórias entre si. Se a DLM não tivesse um papel no desenvolvimento de gramáticas, nós deveríamos ver padrões aleatórios como esses nas línguas. Palavras correlacionadas funcionariam com qualquer distância entre si. Por outro lado, se a DLM é importante, então os índices das sentenças reais seriam bem menores que os das frases embaralhadas.

Eles encontraram o que era esperado: “Todas as línguas têm uma média de comprimentos de dependência menores que a baseline aleatória”, segundo o paper. Isso é especialmente verdadeiro para sentenças mais longas, o que faz sentido – perto dos exemplos supracitados, não há tanta diferença entre “João jogou fora o lixo” e “João jogou o lixo fora”.

Os pesquisadores do MIT também descobriram que algumas línguas têm mais DLM que outras. As línguas que não se baseiam exclusivamente na ordem de palavras para comunicar o relacionamento entre os termos tendem a ter índices maiores de DLM. Línguas como o alemão e o japonês têm marcadores ou substantivos que indicam o papel de cada palavra numa sentença, o que lhes permite ter uma ordem frasal mais livre do que o inglês ou português. O estudo indica que os marcadores de tais línguas auxiliam a memorização e o entendimento, o que torna o DLM um pouco menos importante. Entretanto, mesmo essas línguas tiveram índices menores do que a baseline aleatória.

A árvore genealógica

Para Jennifer Culbertson, que estuda linguística evolucionária na Universidade de Edimburgo, esta nova pesquisa mostra uma importante peça do quebra-cabeça da linguagem. “É uma importante fonte de evidência para uma hipótese duradoura sobre como a ordem de palavras é determinada através das línguas do mundo”, disse ela ao Ars Technica.

Embora o paper tenha estudado apenas 37 línguas, é importante considerar o quanto é difícil reunir bancos de dados dos usos reais da linguagem. Para Culbertson, temos uma amostra de trabalho razoável. O problema, porém, é outro: muitas das línguas estudadas são aparentadas entre si, representando apenas umas poucas das inúmeras famílias linguísticas. Era de se esperar que todas se comportassem de modo parecido. Mais pesquisas são necessárias para controlar o fator parentesco linguístico.

Este artigo é o último sobre uma pilha de trabalhos anteriores dedicados ao assunto. Não é a única evidência da DLM — é mais uma prova corroborativa. Um bom conjunto de evidências convergentes, nas palavras de Culbertson. “Há muitas propostas de universais linguísticos”, explica ela, “mas basicamente todas são controversas.” Entretanto, é plausível que a DLM — ou coisa parecida — possa ser um candidato promissor para um mecanismo cognitivo universal que afeta a forma como as línguas são estruturadas.

Para um debate tão acalorado quanto este sobre universais linguísticos, há múltiplas interpretações desta evidência. Proponentes da escola de Chomsky podem argumentar que a DLM é indício de um módulo de linguagem dedicado ao passo que os que favorecem uma interpretação diferente podem sugerir que a memória de trabalho afeta todas as funções cerebrais e não apenas a linguagem.]

[Tradução e adaptação de: “MIT claims to have found a “language universal” that ties all languages together“, por Cathleen O’Grady, no Ars Technica]

Referência

FUTRELL, R., MAHOWALD, K., GIBSON, E. Large-scale evidence of dependency length minimization in 37 languages [Evidência em larga escala da minimização do comprimento da dependência em 37 línguas]. PNAS, vol. 112, n. 33, pp. 10336–10341. doi: 10.1073/pnas.1502134112.

Poderá também gostar de:

Os problemas da coleta não controlada e do comércio de …

Aos graduandos em biologia

“Grandes promessas são a alma de um anúncio”

Sobre beagles, ativismo e divulgação científica

In SicenceBlogs.

Anúncios

Deixe um comentário

Preencha os seus dados abaixo ou clique em um ícone para log in:

Logotipo do WordPress.com

Você está comentando utilizando sua conta WordPress.com. Sair / Alterar )

Imagem do Twitter

Você está comentando utilizando sua conta Twitter. Sair / Alterar )

Foto do Facebook

Você está comentando utilizando sua conta Facebook. Sair / Alterar )

Foto do Google+

Você está comentando utilizando sua conta Google+. Sair / Alterar )

Conectando a %s