RYBENINHA

RYBENINHA
SINAL: BEM -VINDOS

DÊ-ME TUA MÃO QUE TE DIREI QUEM ÉS



“Em minha silenciosa escuridão,
Mais claro que o ofuscante sol,
Está tudo que desejarias ocultar de mim.
Mais que palavras,
Tuas mãos me contam tudo que recusavas dizer.
Frementes de ansiedade ou trêmulas de fúria,
Verdadeira amizade ou mentira,
Tudo se revela ao toque de uma mão:
Quem é estranho,
Quem é amigo...
Tudo vejo em minha silenciosa escuridão.
Dê-me tua mão que te direi quem és."


Natacha (vide documentário Borboletas de Zagorski)


SINAL DE "Libras"

SINAL DE "Libras"
"VOCÊ PRECISA SER PARTICIPANTE DESTE MUNDO ONDE MÃOS FALAM E OLHOS ESCUTAM, ONDE O CORPO DÁ A NOTA E O RÍTMO. É UM MUNDO ESPECIAL PARA PESSOAS ESPECIAIS..."

LIBRAS

LIBRAS

LIBRAS

LIBRAS
"Se o lugar não está pronto para receber todas as pessoas, então o lugar é deficiente" - Thaís Frota

LIBRAS

LIBRAS
Aprender Libras é respirar a vida por outros ângulos, na voz do silêncio, no turbilhão das águas, no brilho do olhar. Aprender Libras é aprender a falar de longe ou tão de perto que apenas o toque resolve todas as aflições do viver, diante de todos os desafios audíveis. Nem tão poético, nem tão fulgaz.... apenas um Ser livre de preconceitos e voluntário da harmonia do bem viver.” Luiz Albérico B. Falcão

QUANDO EU ACEITO A LÍNGUA DE SINAIS

QUANDO EU ACEITO A LÍNGUA DE SINAIS
“ A língua de sinais anula a deficiência e permite que os sujeitos surdos constituam, então, uma comunidade linguística minoritária diferente e não um desvio da normalidade”. Skliar

domingo, 29 de abril de 2012

Música "A LUA QUE EU TE DEI" -Almenara em março de 2012.

Apresentação da música "A LUA QUE EU TE DEI" por minha turma do 8º período de Pedagogia de Almenara em 29 de março de 2012.

OFICINA DE LIBRAS EM ALMENARA - 20/04/2012

Melhores momentos durante a Oficina "Libras no Contexto da Educação Inclusiva". 


Aqui os professores da Unimontes (Universidade Estadual de Montes Claros) Rossane Glads Freitas Pereira Veloso e Diócles Igor Castro Pires Alves, que participaram da Oficina junto com seus alunos.













Parabéns a toda minha turma do 8º período de Pedagogia da Unimontes Campus Almenara. 

quinta-feira, 26 de abril de 2012

O Poder e a Magia estão em suas mãos

Mão, um símbolo de vida
Exercendo a comunicação por excelência, nossas mãos são ferramentas e um símbolo de proteção.

Nós usamos as mãos para entrar em contato com os outros, para dar e para receber, acariciar e quando temos um acidente ou qualquer parte do corpo dói, elas vão direto ao local de dor.
Nossas mãos são a “continuidade do nosso ser”, daí a importância de cuidar delas.
Assim como o pé, a mão está equipado com 7200 terminações nervosas.
De acordo com os princípios da medicina chinesa, as mãos e os pés são a representação em miniatura do corpo humano.
Assim, na mão direita, o fígado, na mão esquerda seu estômago e coração, e em ambas as mãos, coluna vertebral, vasos linfáticos, intestinos, os brônquios …
Fazendo massagem em determinadas áreas é possível localizar a tensão e restaurar o equilíbrio.

Exemplos:
Se você pressionar a área correspondente do reflexo para os rins, isso ajuda a diminuir a retenção de líquido.
Para combater a insônia: una as mãos como se você fosse rezar, mas tocando apenas a ponta dos dedos. O segredo é fazer uma boa pressão, de dez a 15 minutos.

“Não é uma cura, e sim um estímulo para acalmar o problema…”

Reflexologia é uma abordagem milenar de tratamento oriental que parte do princípio da correlação de um microsistema (menor parte que representa o todo) com o organismo humano.
A reflexologia revitaliza o corpo, melhora a circulação sanguínea, equilíbra o sistema nervoso, induz a um estado profundo de relaxamento e estimula a capacidade natural de cura.
É uma técnica praticada por chineses e egípcios que estuda a relação de pontos específicos dos pés, mãos, orelhas e crânio com os órgãos vitais.
Foi trazida para o Ocidente no início do século 20 pelo médico americano William Fitzgerald e usada como recurso no diagnóstico das doenças ou na prevenção destas.
Um minuto de massagem é muito eficaz, e é possível ser auto-aplicada.
Experimente apertar a ponta do dedo maior, o “pai de todos” em uma crise de dor de cabeça, é imprecionante o efeito causado, a dor some em pouco tempo.
Quando estiver com dores razoáveis, sente ou deite relaxado(a) e massageie suas mãos alternando com compressões em alguns pontos.
A auto massagem nas mãos pode ser feita com cremes, que além de hidratar a pele, ajuda a escorregar por todos os pontos importantes das mãos, que você nem precisa saber ao certo quais são.
Nunca esqueça que suas mãos são instrumentos valiosos de comunicação e trabalho, então dê manutenção à elas.


Fonte:

quarta-feira, 25 de abril de 2012

Escolas ensinam a língua dos sinais





Oficialização de libras é comemorada por centro de apoio a deficientes

Apresentações de relatos de experiências, oficinas e o lançamento do projeto “Libras na Mão” marcaram, nesta terça-feira (24), a programação comemorativa aos 10 anos de oficialização da Língua Brasileira de Sinais (Libras), promovida pelo Centro de Ensino de Apoio à Pessoa com Surdez (CAS), da Secretaria de Estado de Educação (Seduc).
Durante a programação comemorativa, o CAS lançou o projeto Libras na Mão, que prevê a realização de cursos rápidos de Libras em escolas, que agora também serão oferecidos em parcerias com Secretarias de Estado.
“É muito importante que mais pessoas aprendam Libras. A comunidade surda também precisa avançar em conhecimentos e novas oportunidades profissionais como entrar numa universidade, para alcançar uma vida melhor”, ressaltou o secretário do CAS, Cláudio Jorge de Oliveira.
Realizada na Superintendência de Recursos Humanos da Secretaria de Educação (Seduc), no bairro Monte Castelo, a programação alusiva aos 10 anos de oficialização da Libra contou com a participação de gestores, professores, estudantes e profissionais que atuam com a pessoa surda.
Para a Supervisora de Educação Especial da Seduc, Maria do Perpétuo do Socorro Castelo Branco, trata-se de uma data comemorativa e também marca a luta pelo direito das pessoas surdas. “Em uma dessas lutas pelo direito do surdo, o Maranhão está à frente de muitos estados quando realizou concurso específico para instrutor e intérprete de libras. Hoje são mais de 100 intérpretes efetivos da rede estadual de ensino”, destacou.
“Esse é um momento ímpar para a educação dos surdos. Uma década de oficialização da Libras, língua da comunidade surda, que precisa ser mais ainda difundida em outras instituições para que tanto surdos como profissionais das mais diversas áreas e a sociedade em geral tenham acesso às variadas informações”, salientou a gestora-geral do CAS, Irene Cabral.
Fundado há nove anos, o CAS oferta cursos de Libras para surdos e ouvintes e apoio pedagógico especializado às 24 escolas de São Luís que têm alunos surdos. Além disso, realiza formação continuada para professores instrutores e intérpretes de Libras.
Instituída pela Lei 10.436, de 24 de abril de 2002, a Libras é a forma de comunicação, em que o sistema linguístico de natureza visual-motora, com estrutura gramatical própria, constitui um sistema lingüístico de transmissão de idéias e fatos, oriundos de comunidades de pessoas surdas do Brasil.
FONTE:

QUIZ LIBRAS - Teste seus conhecimentos em Libras e outros assuntos relacionados à surdez.




Teste seus conhecimentos em Libras e outros assuntos relacionados à surdez.
Cada Quiz tem 10 perguntas com 25 segundos para responder.
Para ser aprovado, é preciso acertar todas as respostas! Boa sorte!


Surdos enxergam melhor que ouvintes?


Discovery: Os cientistas descobriram que as retinas de pessoas que nasceram surdas, ou que perderam a audição no início da vida, desenvolvem de forma diferente - e isso significa que eles têm uma melhor visão. Pesquisadores da Universidade de Sheffield descobriram que as células nervosas da retina são distribuídas de forma diferente para aqueles que são surdos e aqueles que podem ouvir. Isso os fazem priorizar o que eles podem ver na sua visão periférica mais distante, perto de seus ouvidos. Enquanto pesquisas anteriores já haviam descoberto o vínculo entre a surdez e aumento da visão periférica, os cientistas pensavam que o córtex visual no cérebro era responsável, não as retinas. Cientistas dilataram as pupilas dos participantes e depois digitalizaram suas retinas. Eles também mediram os campos visuais de ambos os olhos, para comparar com as digitalizações da retina. Os resultados, publicados na revista PLoS ONE, mostram uma significativa correlação entre as mudanças na distribuição da retina em indivíduos surdos e o efeito que isso teve, ampliando a sua visão periférica. Co-autor do estudo, o Dr. Charlotte Codina disse: "Nossa esperança é que, como nós entendemos melhor a retina e a visão das pessoas surdas, podemos melhorar os cuidados visuais delas."
 

Fonte:

A língua de sinais da tribo Urubu-Kaapor

Quem são
Urubu-Kapoor é o nome de uma tribo indígena que vive no estado do Maranhão, no Brasil. O seu nome significa "povo da mata", através da junção dos termos tupis ka'a ("mata") e poro ("povo"). Também são conhecidos pelos nome: urubus, cambôs, urubus-caapores, urubus-caapores e ka’apor.
História
Os Ka´apor surgiram como povo distinto há cerca de 300 anos, provavelmente na região entre os rios Tocantins e Xingu. Talvez por causa de conflitos com colonizadores luso-brasileiros e com outros povos nativos, iniciaram uma longa e lenta migração que os levou, nos idos de 1870, do Pará, através do rio Gurupi, ao Maranhão. Colonizadores brasileiros que atacaram e aniquilaram aldeias Ka'apor, por volta de 1900, ficaram surpresos ao descobrirem esplêndidos cocares de penas coloridas dentro de pequenos baús de cedro, que os sobreviventes, em fuga, teriam deixado para trás. Quando as autoridades brasileiras tentaram "pacificá-los" pela primeira vez, em 1911, os Ka'apor, como os Nambiquara no Mato Grosso, eram considerados um dos povos nativos mais hostis no país . Tal pacificação, tanto dos Ka'apor quanto dos karaí (não índios), ocorreu em 1928 e durou por quase 70 anos. Recentes invasões da terra dos Ka´apor pelos Karaí, entretanto, ocasionaram novas hostilidades e estão colocando a sobrevivência étnica dos Ka´apor novamente em risco. A população atual é de aproximadamente 800 indivíduos
São um povo agricultor, dependendo da mandioca-brava, que é consumida principalmente na forma de farinha. Armazenam frutos e caçam cervos-do-pantanal, porcos-do-mato, pacas, cutias, jabutis, jacarés, mutuns, queixadas, bugios, jacus, aracuãs e inhambus.
Língua
A língua Kaapor é uma língua da família Tupi-Guarani, não falada por nenhuma outra tribo ou povo, excepto como segunda língua. É mais ligada à língua oiampi, falada a uma distância de novecentos quilômetros, do outro lado do Rio Amazonas. Aparentemente, foi influenciada pela língua geral amazónica, pela língua oiampi e pelas línguas caribes setentrionais.
Possuem uma elevada taxa de surdez, de 1 surdo para cada grupo de 75 ouvintes, superior à média de outros povos. Por este motivo, a tribo possui uma língua de sinais própria (a Língua de Sinais Kaapor Brasileira - LSKB), usada tanto pela comunidade surda do povo, como também por seus membros não surdos na comunicação com os surdos.






Fonte:

24 DE ABRIL DE 2012: 10 ANOS DA LEI DA LIBRAS

FONTE:




FONTE:



FENEIS-SP disponibiliza acesso a livros no formato digital

Coleção de Livros "Libras em estudo" disponíveis para Download Grátis



LIBRAS EM ESTUDO: TRADUÇÃO/INTERPRETAÇÃO
Autoras/Organizadoras: Neiva de Aquino Albres e Vânia de Aquino Albres Santiago
Ano de Publicação: 2012 
Preço: Distribuição gratuita em Pdf

Download Now


LIBRAS EM ESTUDO: ENSINO-APRENDIZAGEM
Autora/Organizadora: Neiva de Aquino Albres 
Ano de Publicação: 2012 
Preço: Distribuição gratuita 
LIBRAS EM ESTUDO: DESCRIÇÃO E ANÁLISE
Autores/Organizadores: Neiva de Aquino Albres e André Nogueira Xavier
Ano de Publicação: 2012 
Preço: Distribuição gratuita em versão Pdf.

FONTE:
http://oficinadelibras.blogspot.com.br/2012/08/colecao-de-livros-libras-em-estudo.html

LIBRAS – 10 anos - Programa na Rede Minas

A Língua Brasileira de Sinais foi regulamentada no Brasil como a língua oficial dos surdos no dia 24 de abril de 2002

Há dez anos, nosso país dava um importante passo rumo à inclusão. Era reconhecida a Língua Brasileira de Sinais.

A Rede Minas promove vários programas e vídeos para mostrar como essa Língua é tão importante para a comunidade surda.

O programa Planeta desta semana vai mostrar esse mundo onde as palavras são pronunciadas por meio das mãos. Você vai conhecer vários cenários onde as pessoas surdas estão incluídas:
  • o professor surdo que dá aulas para alunos ouvintes,
  • uma família onde mãe e filho são surdos.
  • E como a alfabetização bilíngue – Libras e português – é importante para criança surda.
  • E quem são as pessoas que se matriculam nos cursos de Libras e por que elas buscam esse conhecimento?
Uma outra novidade é um software, que poderá ser instalado no telefone celular, promete fazer a tradução da Libras para o português e vice versa.
Confira no Planeta exibido pela Rede Minas, com tradução para Libras, nos seguintes horários:

Segunda-feira – 23/04/2012 – 22h00
Terça-feira – 24/04/2012 – 13h00
Sábado – 28/04/2012 – 20h00

No Facebook curta a página do programa e assista aos vídeos na quinta-feira, dia 26/04/2012.

Outra novidade vem da Interprogramação Infantil que produziu o quadro “Ouvindo com os Olhos”. É uma série de vídeos com crianças surdas ensinando pequenas frases para crianças ouvintes. Esses vídeos serão exibidos na interprogramação da emissora durante os programas infantis.

E no Jornal Visual você fica por dentro de todos os acontecimentos dessa data pelo Brasil. Confira o programa de segunda a sábado as 7h50 e no youtube.

Esperamos você!

Rosane Lucas - Jornalista /Apresentadora do Jornal Visual da Rede Minas

Fonte:

segunda-feira, 23 de abril de 2012

III Congresso Nacional de Pesquisas em Tradução e Interpretação de Libras e Língua Portuguesa



O III Congresso Nacional de Pesquisas em Tradução e Interpretação de Libras e Língua Portuguesa estará reunindo pesquisadores convidados de outros países e pesquisadores brasileiros para discutir sobre as pesquisas que envolvem a tradução e interpretação de língua de sinais de e para língua portuguesa. Este congresso tem como público alvo intérpretes e tradutores de língua de sinais, surdos e demais profissionais interessados no tema.

Local: Hotel Maria do Mar
Rodovia João Paulo, 2285, Bairro João Paulo
Florianópolis/SC

www.mariadomar.com.br

Período:
13 e 14 de agosto de 2012 – Mini-cursos - serão ministrados na Universidade Federal de Santa Catarina
15 a 17 de agosto de 2012 – III Congresso Nacional de Tradução e Interpretação de Libras e Língua Portuguesa

Inscrições:

http://www.congressotils.com.br/inscricao.php

Fonte:
http://cursolibrasnet.blogspot.com.br/

Caldeirão do Huck, Altas Horas e Domingão do Faustão não têm Closed Caption: vejam a resposta da Rede Globo


 O que Luciano Huck, Serginho Groisman e Faustão têm em comum (além de serem as maiores audiências da Rede Globo)??? Fácil: nenhum deles disponibiliza Closed Caption em seus programas!! Já faz tempo que a gente vem pedindo pelo Twitter e pelo Facebook pro Huck colocar CC no Caldeirão, mas ele jamais respondeu a qualquer apelo. Serginho Groisman também não. E Faustão que eu saiba não está nas redes sociais.

A Greize enviou um email para a Rede Globo reclamando da falta de closed caption no Caldeirão do Huck e recebeu a seguinte resposta:

“Greiziane,

Respeitamos sua opinião e crítica. Suas considerações serão levadas ao conhecimento da direção do programa.

A Rede Globo introduziu no Brasil a transmissão de closed captions em 1998. Fez isso espontaneamente, sem que houvesse nenhuma exigência legal. Na época, inclusive, não havia a tecnologia necessária para fazer isso em português e a TV Globo teve que investir para torná-la acessível, o que beneficiou também as demais emissoras, que puderam seguir pelo mesmo caminho.

A transmissão de closed captions tem custos e dificuldades operacionais, que estão sendo superadas, possibilitando que o número de programas com esse recurso venha sempre aumentando. Estamos trabalhando para disponibilizar esse recurso em cada vez mais programas.

Vale ressaltar que, até o momento, a transmissão de closed captions está disponível nos programas Globo Educação, Globo Ciência, Globo Ecologia, Globo Universidade, nos Telecursos, no Bom Dia Brasil, Mais Você, Bem Estar, TV Globinho, Turma da Mônica, Hannah Montana, Glee, Aventuras do Didi, Auto Esporte, Esporte Espetacular, Globo Rural Dominical, Jornal Hoje, Estrelas, Sessão da Tarde (eventualmente), Temperatura Máxima, Globo Notícia, Malhação, novela das seis, novela das sete, Jornal Nacional, novela das nove, Fantástico, Tela Quente, Tapas e Beijos, A Grande Família, Globo Repórter, Zorra Total, Supercine, Domingo Maior, Sessão de Gala, Profissão Repórter, Jornal da Globo, Programa do Jô, Crimes do Colarinho Branco, Corujão (eventualmente).

Cordialmente,
Rede Globo.”

A resposta foi padrão: somos bonzinhos porque colocamos CC quando a lei ainda não exigia, não incomodem! Agora, por favor: se estivéssemos falando de programinhas pequenos sem verba em emissoras minúsculas, ainda vá lá, mas estamos falando do Caldeirão do Huck, do Domingão do Faustão e do Altas Horas. É uma vergonha até pros apresentadores essa falta de acessibilidade. Será que se os filhos deles tivessem algum grau de deficiência auditiva o papo seria outro? Com certeza!!! A Rede Globo reclamar de custos e dificuldades operacionais é uma PIADA!

O email é falecom@redeglobo.com.br e eu sugiro que todos vocês que lerem esse post enviem uma reclamação. É o mínimo que podemos fazer – além disso, devemos reclamar da falta de closed caption nos jornais locais das suas afiliadas (a RBS é um ótimo exemplo dessa falta de acessibilidade nos telejornais).
Fonte:
http://cronicasdasurdez.com/caldeirao-do-huck-altas-horas-e-domingao-do-faustao-nao-tem-closed-caption-vejam-a-resposta-da-rede-globo/

segunda-feira, 16 de abril de 2012

Paul McCartney's 'My Valentine' na Língua de Sinais Americana

AI SE EU TE PEGO - ALMENARA 28-03-12.MOV



Apresentação da música AI SE EU TE PEGO por minha turma do 8º período de Pedagogia de Almenara em março de 2012.

Abecedário da Xuxa- 8º período de Pedagogia de Almenara -2012




Apresentação da música Abecedário da Xuxa por minha turma do 8º período de Pedagogia de Almenara em março de 2012.

sexta-feira, 13 de abril de 2012

Dois Mundos - Documentário (versão Libras)




Gênero: Documentário
Diretor: Thereza Jessouroun
Duração: 15 min     Ano: 2009     Bitola: Vídeo
País: Brasil     Local de Produção: RJ
Cor: Colorido
Sinopse: Para os surdos, existem dois mundos: o mundo do silêncio e o mundo sonoro. Este filme é sobre a experiência com o mundo sonoro dos surdos que transitam entre os dois mundos.
Realizado com o Prêmio de Incentivo ao Curta-Metragem da RioFilme de 2008

Assista!
Link:

http://www.portacurtas.org.br/beta/filme/?name=dois_mundos_versao_libras

SMS Emergência para surdos



fonte:http://www.youtube.com/watch?v=VP-a4Vh_A2g&feature=related

FILME - O País dos Surdos (Les Pays des Sourds, 1992)



Fonte:http://www.youtube.com/watch?v=LOlhaOfbP3s

Superação: aluno cego aprendendo LIBRAS



Fonte:http://www.youtube.com/watch?v=Id7uxs-1qQ8&feature=relmfu

Oração do Pai-Nosso em Libras



Fonte:http://www.youtube.com/watch?v=6TBaZkoGvYU&feature=related

Clipe "Ao Único" em Libras



Fonte: http://www.youtube.com/watch?v=ygtVwsXv_ws&feature=relmfu

Nilton Câmara ensinando sinais bíblicos



Fonte:http://www.youtube.com/watch?v=Q31VV_p37eY&feature=relmfu

Clipe da música "Família" em LIBRAS - Nilton Câmara



Fonte: http://www.youtube.com/watch?v=tv0hwj1c-YM&feature=relmfu

Pai Nosso em Libras - Programa Caminhos de Luz



Fonte: http://www.youtube.com/watch?v=hXxVMnNQQks

Faz um Milagre em mim em LÍNGUA BRASILEIRA DE SINAIS: LIBRAS



Fonte:http://www.youtube.com/watch?v=5fx5VYTt-eg&feature=related

"Usei a Fé" - Music Libras



Fonte:http://www.youtube.com/watch?v=Zw2amoEnSUg&feature=related

O sapo não lava o pé - libras



Fonte:http://www.youtube.com

Carinhoso - Libras



Fonte:http://www.youtube.com

Homenzinho Torto - libras



Fonte:http://www.youtube.com

Hino Nacional Brasileiro em Libras com Rosani Suzin



Fonte:http://www.youtube.com

Fábula em Libras: A Arara e o Macaco



Fonte:http://www.youtube.com

O Príncipe Sapo - Libras



Fonte:http://www.youtube.com

CHAPEUZINHO VERMELHO EM LIBRAS



Fonte:http://www.youtube.com

Os Tres Porquinhos - Libras



Fonte:http://www.youtube.com

João e Maria - libras



Fonte:http://www.youtube.com

A Cigarra e as Formigas - libras

Branca de neve em Libras

Branca de neve em Libras - parte 1/3




Branca de neve em Libras - parte 2/3




Branca de neve em Libras - parte 3/3




Fonte:
http://www.youtube.com

UM ESTUDO ELETROENCEFALOGRAFICO DE SUA FUNCIONALIDADE CEREBRAL

                                                                           "LIBRAS"
                                                  (LÍNGUA BRASILEIRA DE SINAIS)
         UM ESTUDO ELETROENCEFALOGRAFICO DE SUA FUNCIONALIDADE CEREBRAL

Fábio Theoto Rocha
Gerente da EINA - Estudos em Inteligência Natural e Artificial Ltda

Introdução

No mundo tecnológico moderno aumentou-se a necessidade de uma educação formal que habilite o indivíduo ao mercado de trabalho e lhe permita usufruir melhor das oportunidades de lazer e saúde disponíveis na sociedade. Essa demanda de educação formal, por sua vez, pressiona a sociedade para que melhore seus serviços de ensino, quer público ou privado, para prover uma educação que não só beneficie o indivíduo, mas que também garanta o desenvolvimento tecnológico futuro dessa mesma sociedade. A demanda pela educação inclui grupos de indivíduos com necessidades especiais decorrentes de suas condições físicas e biológicas, que acarretam distúrbios ou deficiências de aprendizagem.

Cerca de dez por cento da população em idade escolar experimenta uma disfunção cerebral que resulta em um distúrbio ou deficiência de aprendizagem (Aicardi, 1998; Capute e Accardo, 1996; Coffey and Brumback, 1998; Spreen et al, 1995). Entre 0.56 a 2.3 por 1000 crianças apresentam perda sensível da audição que compromete o desenvolvimento da linguagem falada (Panoscha, 1996). Embora essas crianças tenham sido discriminadas no passado, hoje se procura incluí-las no processo educacional. Para isso torna-se necessária uma melhor compreensão de suas capacidades e de como utilizá-las no processo de ensino.

O uso dos novos conhecimentos disponibilizados pelas neurociências na modelagem dos processos formais educativos tem resultado em novas propostas de trabalho nas áreas da educação infantil e ensino fundamental (Butterworth, 1999; Cardoso-Martins, 1996; Harley, 1995; Pinheiro, 1994; Siegler, 1996; Rocha, 1999, 2000). Essas novas abordagens têm contribuído para uma melhoria da qualidade de ensino e um aumento de sua efetividade. Assim, para que novas propostas de trabalhos sejam criadas é fundamental primeiro compreender o processamento neural da criança com deficiência, para com isso saber quais são os recursos a serem utilizados para facilitar seu aprendizado.

Todas as sociedades humanas utilizam gestos motores para complementarem suas informações sonoras veiculadas por meio da fala. Muitas vezes nos parece impossível falar sem movermos nossas mãos, nossos olhos e nossos braços (Armstrong et al. 1995). Para os falantes esses gestos apenas ajudam a ilustrar um objeto, indicar uma direção, mostrar um estado emocional, mas para indivíduos privados da percepção do estímulo sonoro, eles passam a ser a única expressão capaz de ser compreendida. Esses indivíduos aprimoram tanto seus gestos que se tornam capazes de se comunicarem exclusivamente por meio de uma linguagem de sinais.

As línguas de sinais surgem de maneira espontânea, pela utilização de gestos e por mímicas realizadas por um grupo de indivíduos surdos (Capovila et al, 1998). Tal grupo convenciona e desenvolve certos padrões gestuais próprios para cada objeto, ação, estado psíquico e emocional. O aperfeiçoamento de tais padrões alcança a complexidade existente em qualquer língua falada, contendo todos os níveis lingüísticos: fonológico, morfológico, sintático, semântico e pragmático.

Para a língua brasileira de sinais (Libras), como para outras linguagens por sinais, a fonologia delimita as unidades mínimas distintivas, consideradas como fonemas, a partir da decomposição dos movimentos das mãos, dos braços e das expressões faciais. Brito (1995) divide os fonemas manuais em duas categorias, baseando-se nos seguintes parâmetros: primários, que definem a configuração das mãos, sua posição em relação ao corpo (ponto de articulação) e o movimento exercido por elas; secundários, que se referem à região de contato das mãos, à orientação das mesmas e à disposição das palmas (para baixo ou para cima). As expressões faciais e os movimentos do corpo não chegam a distinguir significados distintos, mas funcionam como modificadores.

A morfologia da língua de sinais também pode ser segmentada em fonemas. Algumas palavras são formadas apenas por uma determinada configuração de mão apresentada em qualquer posição do espaço, porém a maioria das palavras nas línguas de sinais é formada por um conjunto visual que pode envolver todos os parâmetros distintivos. Na sintaxe, a Libras se faz compreender pela ordem temporal dos constituintes durante a sinalização. A ordem padrão é sujeito, objeto e verbo, mas como nas línguas faladas tal ordem pode ser trocada de acordo com a topicalização desejada, contanto que não se crie ambigüidade.

Sabe-se que no processamento e produção da fala os falantes usam áreas específicas do lóbulo temporal esquerdo e de áreas frontais esquerdas. No processamento cerebral de uma língua falada o estímulo sensorial sonoro é codificado primeiramente na área auditiva verbal, onde as informações sensoriais referentes a cada palavra fazem certos neurônios dessa área se associarem aos neurônios da área de Broca e certos neurônios à área de Wernicke (van Berkum et al. 1999; Cohen et al. 2000; Federmeier et al, 2000; Murta et al, 1999; Perani et al. 1999; Ni et al, 2000; Rocha 1999; Rocha 2000; Tarkiainen et al. 1999). As palavras que denominam uma ação (verbo) são codificadas por neurônios da área de Broca, que representa os movimentos dos verbos. As palavras que definem um nome (substantivo e adjetivo) são codificadas pelos neurônios da área de Wernicke, que por sua vez se associam com os neurônios ou das áreas visuais para composição de um objeto, ou da área límbica para identificação de um sentimento, ou das áreas de olfação e gustação para recriação das sensações olfativas e palatais. Isto é, por meio de Wernicke ativam-se neurônios que estão associados às características semânticas das palavras (Damasio et al. 1996).

Pode-se criar a hipótese de que os verbos são inicialmente identificados em Broca, sendo ativadas a partir dele áreas parieto-temporais para o recrutamento das palavras adequadas referentes à semântica e à sintaxe de cada verbo (Rocha et al, 2001). Rizzolatti and Arbib (1998) propuseram que Broca é uma área análoga a uma área frontal do cérebro dos macacos, onde os autores encontraram "neurônios espelhos", ou seja, células que são ativadas quando os macacos estão executando uma ação ou quando estão apenas observando outro indivíduo realizar uma ação semelhante. A área de Broca possui, portanto, neurônios que respondem tanto à ação motora em si quanto à informação sensorial associada à mesma ação, sendo ela auditiva ou visual. No primeiro caso um neurônio representa uma ação no sistema motor e será chamado, aqui, de neurônio de representação de ações; no segundo caso representa a fonação de uma palavra e será chamado, aqui, de neurônio de representação verbal. A proximidade desses dois neurônios na área de Broca facilita as conexões sinápticas entre eles, e consequentemente cria a condição para definir a sintaxe e semântica (neurônio de representação da ação) do verbo (neurônio de representação verbal). Um modelo semelhante pode ser assumido para a área de Wernicke, onde neurônios que possuem conexões com as áreas de processamento das outras sensações físicas: visão, tato, olfato, e com as áreas de memória, do sistema límbico, etc., possibilitariam o acesso à semântica das palavras representadas verbalmente em neurônios do córtex auditivo vizinho ou mesmo em neurônios da própria área de Wernicke.

Na figura 1, por exemplo, os neurônios auditivos temporais que reconhecem a forma auditiva da palavra comer, ativam neurônios na área de Broca (come na Fig 1) correspondentes à sua fonação e à ação representada por esse verbo, e o reconhecimento das formas sonoras das palavras leão e carne ativa os neurônios da área de Wernicke que dão acesso às áreas cerebrais que reconhecem esses elementos e definem a semântica dessas palavras. O neurônio de representação das ações na área de Broca estabelece relações sinápticas com neurônios de representação dos nomes em Wernicke, que representem elementos que podem estar envolvidos com a ação que o verbo descreve. Dessa maneira o reconhecimento do verbo comer na área de Broca, favorece a ativação dos neurônios referentes às palavras leão e comer, o que confirma que essas palavras obedecem a sintaxe do verbo comer e fazem parte do campo semântico da ação desse verbo.

 Além de Broca e Wernicke há uma região específica para codificação das palavras de função (Berkum et al, 1999; Brown et al. 1999). A posição de tal área ainda não está bem definida, mas supõe-se que ela se encontra próxima à área de Broca. Essa área é fundamental para a análise da relação das palavras em uma frase, pois, fora a ordem das palavras, é por meio das conjunções e preposições que podemos definir a função delas na frase. No lóbulo frontal a ordem das palavras e as informações veiculadas pelas palavras de função fazem com que as palavras da frase façam sentido, uma em relação à outra e permitam a compreensão do enunciado como um todo.

A decodificação verbal deve acessar memórias distintas para extrair significado das informações recebidas visual ou verbalmente (Smith et al, 1998), algumas vezes de forma ordenada no tempo; algumas vezes de acordo com relações espaciais definidas; algumas vezes dependendo da familiaridade, etc.(Curtis et al, 2000; Dafner et al, 2000; Gabrieli, et al, 1998; Elias et al, 1999; Hopfinger et al, 2000; Marshetz et al, 2000; Smith et al, 1998; St George et al, 1999; Ungerleider et al, 1998). A decodificação verbal é, portanto, uma tarefa complicada que deve ser resolvida por um grande número de neurônios distribuídos por quase todo o cérebro, neurônios esses especializados em tratar os diferentes aspectos do discurso. O recrutamento da memória, o controle da atenção, o processamento visual e a imaginação mental envolvida nesse processo, são basicamente controlados pelo córtex frontal, mas também envolve neurônios distribuídos por outras áreas: parietal, temporal e occipital, além do hipocampo e áreas adjacentes (Brewer et al, 1998; Henson et al, 1999; Hopfinger et al, 2000; Kosslyn et al, 1999; McDermott et al, 2000; Rocha et al, 2001).

A literatura tem mostrado até o instante que os circuitos neurais para a linguagem de sinais funcionam de maneira, senão idêntica, ao menos semelhante no processamento cerebral da língua oral. Porém, a diferença clara e fundamental é a natureza do estímulo sensorial. As áreas lingüísticas não sendo mais ativadas a partir da área auditiva verbal serão ativadas a partir de áreas de processamento visual (Nishimura et al, 1999; Söderfeldt et al, 1997; Emmorey et al, 2001). As áreas visuais primárias se associam a área de representação de movimento das mãos (que se encontra na região parietal esquerda). Essa área passa a fornecer a informação necessária para Wernicke e Broca codificarem a ação dos verbos e a semântica dos nomes. Outras áreas visuais serão recrutadas para a identificação da sua relação em relação ao corpo, ao seu formato e sua direção. (Ishai et al, 2000; Kanwisher et al, 1997; Maunsell et al, 1995; Nakamura et al, 2000; O’Craven et al, 2000; Riesenhuber et al, 1999; Young, 1995; Emmorey et al, 2001). Essas áreas se acham distribuídas no córtex temporal bilateralmente.

Outra diferença marcante nas línguas de sinais é o uso do espaço como referência anafórica. Assim, projeta-se um objeto em uma determinada posição do espaço e quando se quer retomar esse objeto na frase aponta-se para a posição em que ele havia sido transportado (Bellugi et al, 1996). Tal recurso cria a necessidade de outras áreas cerebrais, referentes ao processamento visual espacial, se envolverem no processamento lingüístico. A incapacidade de controlar tal processo acarreta aos sinalizantes um tipo de afasia onde o indivíduo perde a capacidade de manter um discurso coerente. Segundo Hickok et al. (1999), um indivíduo com lesões nas áreas mais anteriores do hemisfério direito era incapaz de utilizar a referência espacial e manter um discurso coerente, contudo ele ainda mantinha operante todas as outras funções lingüísticas. A referência espacial depende praticamente do processamento neural do campo visual, relacionando os objetos uns em relação aos outros de acordo com sua posição no espaço. Tal processamento ocorre justamente nas áreas mais anteriores do hemisfério direito, por isso a afazia de discurso nos pacientes com lesões de hemisfério direito.

A organização estrutural das redes neurais referentes a cada processamento cognitivo, apesar de estar predeterminada pela genética, também depende dos estímulos externos recebidos, principalmente, durante a infância (Neville et al., 1997). Analisando a atividade cerebral de indivíduos surdos e ouvintes que haviam aprendido a língua de sinais na infância, Neville observa ativações semelhantes àquelas ocorridas no processamento das línguas faladas. No entanto, quando analisa a atividade cerebral de indivíduos que aprenderam a língua de sinais tardiamente, nota ativações diferentes, pois tal língua não foi incorporada pelo mesmo sistema lingüístico da criança surda, o que acarreta um déficit na performance daqueles indivíduos. A surdez congênita induz modificações na estruturação cerebral, pois elimina a competição sináptica entre informações visuais e verbais em várias regiões do cérebro. Tal surdez acarreta uma diminuição das terminações nervosas sonoras, e um conseqüente aumento das terminações nervosas visuais. Essa recompensa faz com que indivíduos surdos adquiram maior capacidade computacional do campo visual periférico com a utilização de áreas temporais. Essas áreas normalmente estão relacionadas ao processamento sonoro, mas nos surdos, por falta do estímulo físico, passam a processar informações visuais refletidas nas margens periférica da retina (Neville, 1996).

Objetivos.

O objetivo básico do presente trabalho é procurar compreender o processo neurofisiológico empregado pelos surdos durante o processamento da Libras, analisando a atividade elétrica cerebral através da tecnologia de Mapeamento Cognitivo Cerebral (MCC), desenvolvido por Rocha et al (2001). Pretende-se também estudar as possíveis diferenças de ativação cerebral no processamento da Libras entre surdos e ouvintes sinalizantes. Esse estudo visa orientar o processo didático dos surdos, mostrando os caminhos mais fáceis e produtivos para o cérebro de uma criança surda aprender a se comunicar com outros surdos e com ouvintes não sinalizantes através da escrita.

Com isso pretende-se contribuir para um melhor conhecimento da Libras e para o desenvolvimento de estratégias de ensino mais adequadas aos surdos, aumentando a consciência da rede educacional brasileira para a existência de uma nova língua atuante no Brasil e carente de um apoio pedagógico apropriado.

Metodologia.

Uma história folclórica do Currupira e um conjunto de charadas sobre animais foram utilizados para investigar a atividade elétrica cerebral associada à compreensão da Libras. A sinalização da história e das charadas foi gravada em vídeo, por uma sinalizadora da Libras (Fig. 2). A história foi dividida em quatro trechos, correspondente à descrição do personagem Currupira, do seu comportamento e de sua função na floresta. Cada um dos trechos da história e das charadas foi ilustrado por um desenhista profissional. O vídeo e as ilustrações foram utilizados para montagem de videojogos do sistema ENSCER (Rocha, 2000), chamados aqui de História e Charadas (Fig. 3). Esses jogos com as respectivas ilustrações e sinalizações encontram-se no CD Rom anexado.

Os vídeos correspondentes a cada trecho da história ou da charada eram apresentados em um monitor A, enquanto que as figuras correspondentes eram apresentadas em outro monitor B (Fig. 4). Ambos os vídeos foram ligados ao mesmo computador que controlava os jogos. Após a visualização de cada vídeo os voluntários deviam escolher a cena correspondente ao trecho da história descrito no vídeo, ou ao animal descrito na sinalização da charada.

O estudo da atividade elétrica cerebral associada à compreensão da LIBRAS utilizou voluntários destros: 10 crianças surdas congênitas sinalizadoras, idade média de 12 anos, e 5 adultos em processo de aquisição da Libras, idade média de 28 anos. Com nenhuma história de distúrbios neurológicos.


                                  Fig. 2 Uma amostra do vídeo com a sinalização da LIBRAS
A

B

 Fig. 3 Figuras utilizadas no videojogo Histórias (A) e Charadas (B)

Utilizou-se dois computadores para realizar o estudo (Figura 4). Um deles fez a aquisição e o registro dos sinais eletroencefalográficos e o outro apresentou os videojogos. Os dois computadores operaram em rede, de modo a permitir a sincronização da aquisição do EEG com os eventos associados às distintas fases dos vídeos jogos. Para colocação dos eletrodos utilizou-se o sistema 10/20, como ilustrado na figura 4, e a aquisição do EEG é feita a uma freqüência de 256 Hz e com uma precisão de 10 bits.

Os 20 eletrodos são fixados com ajuda de pasta condutora e distribuídos pelo crânio, 7 na região frontal (FP1; FP2, F7; F3; FZ; F4; F8), 3 na região central (C3; CZ; C4), 3 parietais (P3; PZ; P4), 4 temporais (T3; T5; T4; T6) e 3 occipitais (O1; OZ; O2). São utilizados também 3 eletrodos ( 1 para terra e duas referências), localizados 1 na fronte e 2 nos lóbulos da orelha, conforme ilustrado na figura 4.
 

A atividade elétrica cerebral associada a uma tarefa cognitiva registrada pelo EEG, pode ser estudada através da técnica da Atividade Relacionada a Eventos (ARE) (veja, por exemplo, Deary et al, 1997, Hillyard et al, 1998, Rocha, 1990). Nessa técnica, determina-se quais eventos associados à determinada tarefa cognitiva serão estudados. A atividade elétrica cerebral durante um período pré-definido é registrada e sua média calculada para todas as ocorrências desses eventos durante o teste a que o grupo de indivíduos é submetido. Calcula-se, portanto, a AREe,k associada ao evento e do videojogo k (Fig. 4) para todos os m voluntários de cada grupo experimental. Esse cálculo foi realizado para um período de 2000 ms, para os seguintes eventos:

Apresentação da história: 0, 2 e 4 segundos após o início da apresentação, a conectividade média calculada para todo o período da apresentação, dois segundos antes e dois segundos depois do término da apresentação.

Charadas: 0, 2 e 4 segundos após o início da apresentação, a conectividade média calculada para todo o período da apresentação, dois segundos antes e dois segundos depois do término da apresentação, e no momento da escolha da decisão correta.

Após a obtenção da AREe,k para o evento e do videojogo k, calcula-se a correlação ri,j entre a atividade promediada para cada um dos eletrodos ( i ) com os outros 19 eletrodos ( j ), e assim sucessivamente. Utiliza-se esse coeficiente de correlação linear ri,j para a geração do correspondente Mapa Cognitivo Cerebral (MCCe,k) de acordo com os seguintes cálculos (Rocha et al, 2001b):

a) a entropia de associação h(ai,j) entre a atividade elétrica promediada para os eletrodos i,j é obtida como:

h(ai,j) = - ri,j log2 ri,j - ( 1 - ri,j ) log2 ( 1 - ri,j )

b) a entropia média de associação h(mi) entre o eletrodo i os outros 19 eletrodos j é obtida como:

h(mi) = - ri log2 ri - ( 1 - ri ) log2 ( 1 - ri )

onde:
20
ri = 1/20 S ri,j
j=1

c) a entropia de comunicação h(ci) utilizada pelos neurônios registrados pelo eletrodo i é obtida como:

20

h(ci) = S h(mi) - h(ai,j)

j=1

O MCCe,k para o evento e do videojogo k é um gráfico em que os valores de h(ci) para cada eletrodo i é normalizado e codificado em cores conforme escala previamente definida (Fig. 4), e plotado de acordo com a distribuição espacial dos eletrodos de registro.

Resumindo o procedimento para realizar tal estudo:

    registra-se o EEG durante a realização dos videojogos,

    utilizam-se dois computadores ligados em rede: um para o registro do EEG e outro para a execução das atividades

    os dois computadores são sincronizados, de modo que o EEG registrado é referenciado aos diversos eventos para cada um dos vídeos jogos;

    selecionam-se os trechos do EEG associados a cada um dos eventos de cada jogo.

    calcula-se para cada evento da atividade e para cada grupo experimento, a média da atividade elétrica relacionada a esse evento (ARE);

    obtém-se a correlação linear da atividade promediada para cada derivação dos AREs em relação à atividade promediada de todas as outras 19 derivações;

    calcula-se então a capacidade computacional (h(c)), ou seja, a entropia alocada em cada área ou derivação do EEG para a execução do vídeo jogo, e finalmente

    constrói-se os mapas cognitivos cerebrais ( MCCs ) mostrando a capacidade computacional (h(c)) alocada em cada derivação para a execução de um evento da tarefa estudada.

Usou-se, também, análise fatorial para estudar as possíveis correlações de variança entre os valores de h(c) calculados para as distintas derivações do EEG. Dois fatores foram extraidos usando a técnica de Componente Principais, e esses fatores foram rotacionados usando-se o método Varimax Normalizado. Se esses dois fatores explicassem mais de 50% da variabilidade total da h(c), então a análise era considerada válida, e mapas cerebrais eram construídos (chamados aqui de MFs – figs.) codificando em cores os valores do coeficiente de correlação obtido para cada uma das derivações do EEG.

Resultados.

O início da apresentação de cada trecho da história do Currupira (fig. 5) aos surdos recrutou neurônios das áreas centrais (CZ, C3, C4) e frontais (F3, FP2, F4) de ambos os hemisférios, e da área parietal medial (PZ). Após dois segundos de apresentação da história observa-se o envolvimento predominante de neurônios na região frontal e parietal do hemisfério esquerdo (F3, P3), na região frontal e central medial (FZ, CZ), e na região temporal direita (T6). Após quatro segundos o recrutamento envolve áreas bilaterais frontais (F7, F8), áreas mediais da região parietal e central (PZ, CZ), e ainda a área frontal direita (F4). A conectividade média calculada para todo o período de sinalização, mostrou envolvimento de ampla área frontal (F3, F4, FZ, F8), parietal (PZ, P3, P4), e central (C3, C4, CZ), além de OZ. Dois segundos antes do termino da sinalização as mesmas áreas estão ativadas com exceção de FZ, P3 e F8, que deixam de serem recrutadas, e de T6 que passa a ser ativada. Dois segundos após a sinalização as únicas áreas não ativadas são O2, T5, T6, T4, T3, P4 e FP1.

No jogo de charada (fig. 6) foi adicionado mais um evento: A – o momento de escolha da resposta correta. O início da apresentação da informação sinalizada recrutou células das áreas centrais do cérebro (CZ, C3, C4), frontais (F3), com um predomínio do hemisfério direito (F4, F8, FP2), e parietais (PZ). Após dois segundos de sinalização, observou-se uma maior participação de neurônios de ambos os hemisférios nas áreas frontais (F3, F4, F8, F7,FP2), além de neurônios temporais e occipitais direitos (T4, T6, O2). Após quatro segundos a ativação bilateral permanece nas áreas frontais, nas regiões dos eletrodos F3 e F4, e passa também a recrutar bilateralmente as áreas occipitais (O1, O2) e temporais (T5, T6), no hemisfério esquerdo há ainda a ativação de neurônios temporais e centrais (T3, C3), na região medial ocorre ativação de CZ. 

Aqui e na figura seguinte a primeira linha representa os Mapas Cognitivos Cerebrais (MCCs); a segunda e terceira linha representam o resultado das correlações calculadas pela Analise Fatorial, através do Fator 1 e do Fator 2, respectivamente. Os eventos escolhidos são marcados por: 0, 2 e 4 – início da sinalização, dois e quatro segundos após o início; M – média geral de todo o período da sinalização; F – dois segundos antes do término da sinalização; e D – dois segundos após o término da sinalização. O gráfico acima ilustra a entropia mínima e máxima de cada um dos eventos escolhidos.

Na conectividade média aparece o recrutamento de neurônios de todas as áreas cerebrais: occipitais (OZ, O1), temporais (T5), parietais (P3, PZ), centrais (CZ, C3, C4) e frontais (F3, FP2), podemos observar o predomínio de áreas esquerdas (O1, T5, P3, C3, F3). Dois segundos antes do termino da sinalização são recrutados os neurônios da área frontal bilateral (F3, F4), da área central medial (CZ), das áreas occipitais (OZ, O2) e das áreas frontais direitas (F8, FP2). Dois segundos após terminada a sinalização temos uma ativação predominantemente do hemisfério direito, envolvendo áreas frontais (FP2, F4, F8), centrais (C4), e temporais (T4), enquanto no hemisfério esquerdo ocorre ativação somente na área frontal F3. Na região medial temos ativação da área frontal (FZ), central (CZ) e parietal (PZ). No momento do acerto as áreas recrutadas são praticamente todas frontais (F7, F8, F4, FP2, FZ), com exceção de CZ.
 Além da análise baseada no cálculo de entropia das Atividades Relacionadas a Eventos, fizemos uma análise de estatística fatorial utilizando dois fatores, os quais explicam 60% das correlações. O Fator 1 na história do Currupira associa fundamentalmente áreas centrais e frontais, as quais corresponderiam à análise verbal da informação lingüística, enquanto o Fator 2 associa áreas occipitais e áreas temporais e frontais do hemisfério direito, que devem corresponder ao processamento visual gerado pela informação lingüística. No jogo de charada o Fator 1 explica cerca de 50% de toda a variância, mostrando também áreas centrais e frontais correlacionadas entre si.

 Nos falantes, durante o início da história (fig. 7) temos o recrutamento das áreas mediais parietais e centrais (PZ, CZ), das áreas frontais bilaterais (F7, F8, F4, FP1), além da área central direita (C4). Após dois segundos temos o recrutamento praticamente de áreas frontais mediais e do hemisfério direito (FZ, FP2, F4, F8), além de T4, que se encontra na região temporal direita. Após quatro segundos os voluntários passam a recrutar os neurônios frontais bilaterais e mediais (FP1, FZ, FP2), continuam a ativar T4, e voltam a recrutar a área central medial (CZ). Na conectividade média o recrutamento envolve todas as áreas mediais (OZ, PZ, CZ, FZ), quase toda a área frontal (F7, F8, F4, FP1, FP2), áreas temporais direitas e esquerdas (T6, T4, T3), além da região parietal direita (P4). Dois segundos antes do término da sinalização ocorre unicamente ativação frontal do hemisfério direito (FP2, F4, F8). Dois segundos após a sinalização essas áreas permanecem ativadas, mas passam a se associarem também com áreas mediais (FZ, CZ), frontais esquerdas (F7) e centrais direitas (C4). No acerto ocorre o recrutamento principalmente do hemisfério direito, das áreas frontais (FP2, F4, F8) e centrais (C4), além de F7 e da zona medial (FZ, CZ, PZ).

 Na charada (fig. 8) os falantes recrutam somente as áreas frontais (F7, FP1, FZ, FP2). Após dois segundos ocorre a associação de neurônios das áreas frontais (F3, F4, F7) com áreas centrais (CZ, C3, C4), e com a área parietal medial (PZ). Após quatro segundos temos a ativação dos eletrodos das áreas frontais mais anteriores (FP1, FZ, FP2, F3), enquanto a outras áreas permanecem as mesmas: centrais (CZ, C3, C4) e parietal medial (PZ). Na conectividade média ocorre o recrutamento de todas as áreas centrais (CZ, C3, C4) e parietais (PZ, P3, P4), de amplas áreas frontais (F7, F3, F4, F8, FP2), e ainda da região occipital medial (OZ). Dois segundos antes de terminar a sinalização houve o recrutamento de neurônios de toda a zona medial (FZ, CZ, PZ, OZ), de áreas frontais direitas (F4, F8) e de áreas frontais e centrais do hemisfério esquerdo (F7, C3). Dois segundos após o término da sinalização as áreas relacionadas são predominantemente do hemisfério esquerdo: frontal (F7), central (C3), temporal (T3, T5), parietal (P3) e occipital (O1), porém ainda ocorre a ativação de OZ, PZ e O1. No acerto são recrutadas as áreas parietais (PZ, P3, P4), centrais (CZ, C3) e frontais (F3, F4), e ainda ocorre ativação das áreas frontais anteriores (FP1, FZ, FP2) e da área temporal esquerda (T3).

Discussão

O fato mais marcante na ativação cerebral dos surdos, observada no presente trabalho, é a associação de neurônios da área parietal medial (PZ) com as áreas centrais (C3, C4) e frontais (F3, F4) bilaterais (fig. 6 e 7), ativação essa que em geral não se observa no processamento cerebral dos falantes, durante tarefas de processamento verbal, como pôde ser constatado em trabalho anterior de Rocha et al, (2000). Como mostrou Neville et al. (1997), dependendo do período de aprendizagem de uma língua, determinadas redes neurais irão se formar de acordo com o estímulo sensorial recebido. Dessa forma, pode-se propor aqui que crianças com surdez congênita, por lhes faltar o estímulo auditivo, tendem a organizar fibras neurais que associem a informação visual ao processamento lingüístico, relacionando áreas visuais do hemisfério direito às áreas lingüísticas do hemisfério esquerdo através da região parietal medial.

Os presentes resultados (fig. 5 e 6) mostram que as áreas verbais frontais (F7, FP1 e F3) e do lóbulo temporal esquerdo (T3 e T5) continuam a trabalhar para o processamento lingüístico, mas agora associadas a neurônios das áreas de decodificação de estímulos visuais e não sonoros. Os estímulos visuais provenientes da linguagem de sinais envolvem expressões faciais, formas e movimentos das mãos, e referência espacial, ou seja, posição das mãos em relação ao resto do corpo. Há no cérebro áreas específicas para o processamento de tais estímulos, uma vez que o manuseio das mãos e dos braços é extremamente importante para todas as atividades que exercemos, e expressões faciais são muito importantes para nosso relacionamento em grupo. Encontra-se ativada nos surdos a área central e parietal esquerda, que justamente contém neurônios que controlam o formato das mãos (Corina et al, 1999), e próxima a ela encontra-se a área de Wernicke, responsável pelo levantamento de informações acerca da semântica de um nome. Além disso a área parietal da mão estabelece conexões com o córtex premotor e provavelmente também com a área de Broca. A posição da mão em relação ao corpo é também identificada por áreas parietais, enquanto o movimento delas é processado por áreas temporais mediais. Áreas de processamento visual de faces localizam-se nas regiões central e parietal do hemisfério direito, as quais também se encontram ativadas pelos surdos durante a visualização e decodificação da Libras. Dessa forma supõe-se que todas essas áreas, relativas ao processamento das mãos e da face, relacionam-se com a área verbal de Broca, com a área nominal de Wernicke e com áreas frontais de memória executiva verbal.

Alguns estudos feitos sobre a linguagem americana de sinais descobriram ativações cerebrais semelhantes àquelas ocorrentes nas línguas faladas (Hickok et al, 1999; Corina et al, 1999; Söderfeldt et al, 1997). No entanto, uma vez que o estímulo sensorial da linguagem de sinais é visual e não auditivo, outras áreas também são ativadas para a decodificação de tal estímulo (Neville et al, 1997; Söderfeldt et al, 1997). Áreas visuais do cérebro também são ativadas pela linguagem durante a comunicação oral entre indivíduos falantes (Rocha et al 2001), porém essa ativação é gerada a partir da imaginação fornecida pela linguagem falada no processo de criar uma imagem visual mental do que é falado. No caso dos surdos essa ativação faz parte do processo de decodificação da própria linguagem além de participar da criação da imagem visual do que é sinalizado. Dessa forma pode-se constatar, a partir dos resultados aqui apresentados, que os surdos apresentam ativações nas áreas referentes ao processamento visual durante a visualização da sinalização da Libras, mas que essa ativação difere da maneira como ela se associa com as áreas verbais do hemisfério esquerdo. Os falantes apresentaram no trabalho de Rocha um maior recrutamento de neurônios das regiões occipitais, associadas às regiões frontais, quando eram submetidos a ouvir uma história e induzidos a imaginá-la visualmente. Aqui os surdos apresentaram associações de áreas frontais, centrais e parietais bilateralmente.
Fig. 9 Processamento lingüístico da Libras

Na Fig. 9, à direita, observa-se que as áreas responsáveis pela decodificação do movimento, das formas e das posições das mãos, além da área de identificação de faces, se encontram distribuídas ao longo de toda a região central e parietal de ambos os hemisférios. Essas áreas, para os surdos, fornecem a informação necessária para Broca e Wernicke definirem as ações e os objetos das palavras descritas pela língua de sinais, através de gestos motores, da mesma maneira como as áreas de Broca e de Wernicke, no caso da língua falada, definem a semântica e a sintaxe do verbo comer e a semântica de seus complementos.

Observando a analise fatorial pode-se constatar que o Fator 1 agrupou áreas centrais e frontais do hemisfério esquerdo (F3, C3 – áreas verbais) e direito (F4, C4 – áreas visuais), enquanto o Fator 2 mostra um maior agrupamento de neurônios occipitais relacionados ao processamento visual. Pode-se hipotetizar dessa forma que a informação visual é decodificada nas áreas occipitais quando não faz parte do processamento lingüístico, enquanto que ao pertencer à fonologia ou morfologia da língua de sinais passa a ser processada pelas áreas visuais mais anteriores (F4, C4), adjacentes às áreas de processamento lingüístico (F3, C3).

Nos falantes, que tiveram um aprendizado tardio da Libras, nota-se uma maior ativação de áreas frontais, mediais e temporais. A Libras, por se tratar de uma segunda língua, parece exigir dos falantes uma tradução dos sinais para a língua portuguesa, associando dessa forma áreas frontais bilaterais de memória verbal e visual com áreas temporais de processamento lingüístico. Essa diferença no padrão de ativação cerebral entre surdos e falantes mostra a necessidade de se aprender uma língua de sinais na infância, para que ela seja diretamente decodificada pelo seu próprio padrão neural (Neville et al, 1997).

De todos os métodos de comunicação propostos para os surdos a língua de sinais foi a que mais deu certo, e isso se comprova cientificamente pela facilidade natural do homem de associar áreas cerebrais responsáveis por todas as informações visuais veiculadas pela Libras às áreas cerebrais responsáveis pela significação dos nomes (Wernicke), das ações (Broca) e das sentenças (área frontal esquerda). A língua de sinais deve ser para o surdo uma língua materna que possa funcionar de ferramenta para o aprendizado de uma segunda língua também visual: a escrita das línguas faladas. Assim a melhor maneira de englobar os surdos à sociedade majoritária é fornecer-lhes uma maneira fácil e natural de se comunicarem entre si e de aprenderem como se comunicarem com os ouvintes, através de um ensino precoce da Libras e do português em sua forma visual (leitura) e motora (escrita).

Os resultados obtidos nessa pesquisa ajudam a compreender o funcionamento cerebral da Libras, e a comprovar que se trata de uma linguagem tão complexa e sofisticada como qualquer outra. No Brasil seu uso ainda se encontra mal difundido, e sua compreensão mal estudada. Torna-se necessário uma maior atenção tanto por parte dos pesquisadores quanto por parte dos educadores, para tornar a língua de sinais uma língua fluente entre aqueles que a necessitam e aqueles que convivem com surdos. Mesmo em países com uma maior estrutura para ensino da língua de sinais, seu conhecimento neurológico se encontra pouco estudado, porém seu uso já é muito mais difundido criando com isso toda uma cultura para a língua e seus sinalizadores. No Brasil podemos caminhar simultaneamente para o progresso do ensino e do conhecimento da Libras e do desenvolvimento de sua cultura.
Fonte:
http://www.enscer.com.br/pesquisas/artigos/libras/libras.html


quinta-feira, 12 de abril de 2012

Mitos sobre LIBRAS



Mitos sobre LIBRAS

Apresento os 6 mitos sobre LIBRAS e as línguas de sinais, segundo Quadros e Karnopp (2004, p. 31-37). Quero abrir seus olhos e conhecer as verdades sobre isso.

1- MITO: "A língua de sinais seria uma mistura de pantomima e gesticulação concreta, incapaz de expressar conceitos abstratos."
VERDADE: Não é só entender sinais como gestos, os sinais são palavras, apenas não são sonoras. A produção de língua de sinais acontece igual a produção da língua falada. Os sinais das línguas de sinais podem expressar idéias abstratas, emoções, pensamentos e opiniões.
.
2- MITO: "Haveria uma única e universal língua de sinais usada por todas as pessoas surdas."
VERDADE: É mentira, pois as várias línguas de sinais são diferentes umas das outras, por exemplo, nos EUA é ASl; na Inglaterra é BSL; no Portugal é LGP; e aqui no Brasil é LIBRAS. É igual as línguas faladas, por exemplo, inglês - japonês - francês. Se pensa que dá todas as pessoas surdas comunicar em uma língua universal, por que os ouvintes não pensam que podem ter uma língua universal se falam com boca e voz?
.
3- MITO: "Haveria uma falha na organização gramatical da língua de sinais que seria derivada das línguas de sinais, sendo um pidgin sem estrutura própria, subordinado e inferior às línguas orais."
VERDADE: Primeiro lugar, as línguas de sinais são LÍNGUAS. Segundo lugar, as línguas de sinais independem das línguas faladas. Um exemplo bem claro: A língua de sinais portuguesa é de origem inglesa e a língua de sinais brasileira é de origem francesa, é mesmo a língua falada de português nos países Portugal e Brasil. Como nas línguas faladas, existem alguns empréstimos lingüísticos. As línguas de sinais apresentam o mesmo estatuo lingüístico identificado nas línguas faladas.
.
4- MITO: "A língua de sinais seria um sistema de comunicação superficial, com conteúdo restrito, sendo estética, expressiva e lingüisticamente inferior ao sistema de comunicação oral."
VERDADE: As línguas de sinais podem ser utilizadas para várias funções identificadas na produção das línguas humanas. Pode usar a língua de sinais para produzir um poema, uma estória, um conto, uma informação, um argumento. Pode opinar, criticar, aconselhar e outras possibilidades. A língua de sinais não é inferior a nenhuma outra língua e é reconhecida como qualquer outra língua.

5- MITO: "As línguas de sinais derivariam da comunicação gestual espontânea dos ouvintes."
VERDADE: As pessoas pensam que é fácil aprender as línguas de sinais por causa de gestos. Não é verdade, as línguas de sinais são difíceis de aprender como outras línguas. É preciso dedicação muito para aprender uma língua de sinais, mas com esse mito, as pessoas pensam que sabem a língua de sinais por causa de usar alguns gestos e sinais que aprenderam na aula de língua de sinais. A comunicação de língua de sinais tem a parte de assuntos mais abstratos. Vai precisar da língua de sinais para comunicar as idéias abstratas.
.
6- MITO: "As línguas de sinais, por serem organizaadas espacialmente, estariam representadas n hemisfério direito do cérebro, uma vez que esse hemisfério é responsável pelo processamento de informação espacial, enquanto que o esquerdo, pela linguagem."
VERDADE: As pesquisas com surdos apresentando lesões em um dos hemisférios apresentam que as línguas de sinais são processadas lingüisticamente no hemisfério esquerdo da mesma forma que as línguas faladas. Existe uma diferença que o hemisfério esquerdo é responsável pelas informações lingüísticas e o hemisfério direito é responsável pela informações espaciais e visuais. Conclui que a língua de sinais é um sistema, que faz parte da linguagem humana, processado no hemísferio esquerdo e no hemisfério direito.

Fonte:
http://germanodutrajr.blogspot.com.br/2009/06/mitos-sobre-libras.html