Olá,
Peço desculpa por confundir a idade de implantado da Alice, anda por aí artigos de implantados em crianças, daí a indicação confusa de 18 meses no rodapé. E para mais, a foto tem a cara de uma menininha de 15 anos.
Como devem ter notado ainda não sou implantado e espero um dia fazer parte da fraternidade cyborg. Tenho tentado compreender o mundo sonoro e reconheço que
“cada caso é um caso” mas - perdoem a minha astúcia - não sei se alguém reparou o uso frequente da palavra
“estridente” nos relatos da Rosa? Isto despertou-me atenção. Embora não possuir frequências altas nos meus ouvidos, sei que o som estridente das unhas a arranhar num quadro é bem desagradável, basta imaginar isto e já fico com a pele arrepiada. Reparei no audiograma da Alice que, após
2 meses de activação do IC, demonstra um maior balanceamento nos graves e um decréscimo nos agudos; e após
6 meses os graves foram subindo mas os agudos continuaram inalterados. Não devemos esquecer que uma diferença de 25dB na razão agudos/graves é significativamente desfasada pois de acordo com os relatos da Alice diz acertar todas letras do alfabeto (ou quase todas) até atingir maturidade na compreensão sonora e sentenças e os agudos passaram a serem aceites naturalmente pelo cérebro. E já com
50 meses, o gráfico inverteu-se: obteve um maior balanceamento nos agudos e menos nos graves, tenho a vaga sensação que a melhor perfomance de aprendizado foi na altura quando a linha esteve equilibrada em todas as frequências tal como se estivesse na idade de uma criança. Por isto imaginei a dificuldade de aprendizagem do recém-implantado face aos sons da fala com os agudos ou graves em maior balanceamento. Não seria má ideia se a Rosa (e a Alice também) experimentasse baixar apenas um pouquinho nos agudos quando for ao reajuste e colocar esta configuração num determinado programa (P4, por exemplo) e pôr-se em experiências com o leitor MP3 e com o volume ajustado à medida. Quem sabe se mais tarde com isto poderá notar diferença com o Nucleus 5 - o tão falado, abraçado e notório processador requerido pela maioria dos implantados. Sei bem a dificuldade de aguentar os sons estridentes especialmente para quem tem uma profissão que envolve diariamente um ambiente ruidoso como o quotidiano escolar; lembro-me dos tempos que costumava desligar o aparelho aos intervalos e hora de almoço apenas momentaneamente por causa dos sons estáticos praticamente indecifráveis como se tratasse de um rádio mal sintonizado.
Acho difícil um processador, seja qual for o seu tipo, nos dê a ideia de que um dia virá a ser significativamente melhor, mais natural ou mesmo eliminar a maioria dos problemas de cada paciente, a perspectiva que tenho quando me dizem
“cada caso é um caso” penso logo nos detalhes da própria cóclea e eléctrodo. Vejo o processador como um afinador de piano, se não houvesse cordas ou porcas semi-cónicas no interior do piano para responder ao ajuste, de que serviria o afinador? A cóclea mostrada na primeira figura alberga mais de 40.000 terminações nervosas (células ciliadas externas) e é dificílimo reaproximar o som do natural com o implante coclear porque os surdos de -->
--> categoria profunda têm uma perda em mais de dois terços de células reduzindo assim a capacidade de configuração do processador bem como o aprendizado dos surdos pós-lingual. É como se quiséssemos ampliar uma imagem de baixa resolução 150x150 pixels na escala de 1:3500 para depois imprimir num plotter gigante. Como resultado, veríamos os pixels quadráticos, uma imagem desfocada, distorções no rendering ou imperfeições nos contornos. É certo que o software de correcção já vem melhorado conforme a complexidade do algoritmo mas o resultado continua muito aquém do objectivo original a não ser que se tenha de obter uma imagem de alta resolução. Do som, o conceito não é muito diferente: o experiente João Romano diz distinguir o som das cigarras às sincopadas com o IC em relação ao registado da sua memória; convém lembrar que quando o IC era primitivo começou com 3/4 eletrodos com 32 tonalidades e atualmente temos 22 eletrodos com 169 tonalidades suportadas, a qualidade do som num só ouvido teria de passar pela evolução dos elétrodos à semelhança como se tem feito no olho biónico que inicialmente começou com 24 eletrodos e agora está na versão experimental de 1024 eletrodos. Felizmente, para o ouvido biónico os elétrodos de futura geração poderão ser facilmente substituídos sem necessidade de realizar uma mastoidectomia pois o tubinho onde está inserido o elétrodo já vem instalado na primeira cirurgia. É só abrir a pele com uma incisão, levantar o músculo, puxar o eletrodo e reintroduzir o novo e por fim fechar e coser os pontos (pelo que entendi da Advanced Bionics).
Soube recentemente que os novos modelos das próteses digitais como os da Phonak e Siemens Pure, para além das funções P1-P4 suportadas, trazem também uma função de sincronização nos dois aparelhos, o que dá a ideia que os próximos processadores bi-implantados poderão trabalhar em parceria no processamento de som por forma a melhorar a qualidade sonora ouvida. Sabemos que o som que se ouve num só implante é característico e robótico e que se apresenta como um sinusóide quadrático mas com um segundo processador (bilateral) não só vai melhorar o volume em modo estéreo como também vai processar o som sincronizadamente para acompanhar as notas musicais sem quebras. Por exemplo, o da direita estimularia eletricamente produzindo as notas de um compasso em sequência par (2, 4, 6, 8…) enquanto o da esquerda produziria no instante seguinte em sequência ímpar (1, 3, 5, 7…) resultando assim uma sequência final ouvida (1, 2, 3, 4, 5, 6, 7, 8 ) sem quebras e mais próxima de um sinusóide perfeito.
Saudações sonoras,
Luís.