Todos os artigos de filipamribeiro

O ‘arquitecto nuclear’ que morreu cedo demais

1_Enrico-Fermi
Crédito: Argonne National Laboratory.

Chamam-lhe o “arquitecto da era nuclear” e foi uma das 100 personalidades do século XX, segundo a revista Time.

Eram 8h15 da manhã de 6 de Agosto de 1945 e um dispositivo nuclear chamado Little Boy, carregado de urânio-235, destruía Hiroshima (Japão). Chegava assim ao limite o famoso Projecto Manhattan que culminou com o lançamento de duas bombas atómicas, em resultado de um projecto de investigação que durou mais de seis anos, liderado pelos Estados Unidos da América (EUA). Nesse projecto, participaram alguns dos cientistas mais famosos da época, entre os quais se destacou o italiano Enrico Fermi (1901-1954) que ficou famoso por ter desenvolvido o primeiro reactor nuclear, Chicago Pile-1.

Doutorado em Física na Escola Superior Normal de Pisa em 1922, com apenas 26 anos começou a trabalhar como profesor na Universidade Roma La Sapienza, onde ganhou a alcunha deo papa da Físicadevido à sua extraordinária e infalível capacidade para prever os resultados das experiências científicas, mas também por ser bastante produtivo quer no campo teórico quer no experimental. Hoje é reconhecido por ter sido o último físico que contribuíu significativamente para ambos os campos- no âmbito da física quântica, física de partículas, e mecânica estatística.

A partir de 1934, seguindo o exemplo de Irène Curie, dedicou-se ao estudo da radioactividade artificial bombardeando elementos com neutrões. Este trabalho fez com que ganhasse o Prémio Nobel em 1938 por ter demonstrado a existência de novos elementos radioactivos produzidos por processos de irradiação com neutrões e por ter descoberto a radiação induzida por neutrões lentos.

Fermi foi um dos primeiros cientistas a perceber o potencial da fissão nuclear quando, num dos gabinetes da Universidade de Columbia, ao fechar a sua mão, disse: “Uma bomba tão pequena quanto isto poderia fazer desaparecer tudo”.

2_Enrico-Fermi
Crédito: Arquivos Nacionais dos Estados Unidos.

Morreu a 28 de Novembro de 1954, com apenas 51 anos, devido a um cancro no estômago. O seu legado, no entanto, continua. Não só o elemento atómico número 100 se chama Fermio (Fm), como também o seu nome preside a três instalações nucleares: o laboratório de partículas FermiLab, o Telescópio Espacial de Raios Gama, um prémio de prestígio e até o seu nome em várias ruas de Itália.

Anúncios

Frederick Sanger: duas vezes Nobel e pai da biomedicina

GettyImages-515174458_master.jpg

Faz hoje 4 anos que morreu Frederick Sanger, último exemplar de uma rara espécie: pessoas que receberam vários prémios Nobel. Recebeu o prémio de Química em 1958 e em 1980 por duas grandes descobertas que impulsionaram a biomedicina.

Desde sempre foi um entusiasta da bioquímica e determinou a sequência de aminoácidos da insulina, a hormona determinante na regulação do metabolismo da glucose. Tal feito deu-lhe o Nobel da Química de 1958. A sua descrição detalhada da cadeia química da insulina permitiu que, mais tarde, em 1963, essa fosse a primeira proteína sintetizada quimicamente em laboratório, algo que os diabéticos muito agradecem.

Depois, em 1980, Sanger voltou a ganhar o Nobel na mesma categoria por desenvolver um método para ler o ADN, dando o primeiro passo para o estudo do genoma humano. De facto, foi Sanger quem determinou a sequência dos aminoácidos base da cadeia do ADN (adenina, citosina, guanina e uracilo).

bbva-openmind-doble-premio-nobel-sanger

Ainda somos responsáveis pelo futuro?

“Máquinas e biomáquinas: perspectivas filosóficas e cruzamentos científicos de um futuro incógnito e promissor” foi o tema abordado por João Relvas, neurocientista no Instituto de Investigação e Inovação em Saúde (i3S) e docente, num evento promovido pelo grupo Ciência, Religião e Conhecimento, liderado por João Paiva, químico e docente na Faculdade de Ciências da Universidade do Porto, onde o evento teve lugar, no passado dia 20 de Outubro.

Untitled
João Bettencourt Relvas, neurocientista. 

Se hoje as vinte mil léguas submarinas de Júlio Verne já não nos espantam perante as tecnologias que temos, o futuro reserva ainda muitos desafios, na opinião de João Relvas, nomeadamente: quanto às possibilidades relacionadas com a descoberta do cérebro eléctrico e dos novos implantes neurais e com as possibilidades de melhoramento cognitivo do cérebro.  Tecnologias recentes como a estimulação cerebral profunda que, apesar de ser uma cirurgia invasiva, permite estimular zonas específicas do cérebro através de eléctrodos ajudando, por exemplo, doentes com parkinson avançado, ou as interfaces cérebro-máquina (que possibilitam a comunicação entre o cérebro e uma máquina externa a ele) elevam ao mais alto nível a tendência humana em moldar a natureza de acordo com os desejos humanos.

“Num tempo em que necessitamos de utopias, será que estamos a criar uma distopia?”, questiona o cientista. E a questão desdobra-se em vários aspectos cuja reflexão se faz premente, tais como a histórica relação entre o «eu», o livre-arbítrio e a responsabilidade, a ideia de que a vida será uma dádiva, os perigos da eugenia, a justiça e equidade, a dignidade humana.

A intervenção do neurocientista foi comentada por Maria Manuel Jorge, especialista em Filosofia da Ciência, e ex-docente na Faculdade de Letras da Universidade do Porto, para quem a “aposta [em todas estas tecnologias e ‘tecnociência] correu bem, mas tem um preço. Como é que isto afecta como nos vemos e como vemos à vida?”, alertou. Com a tecnociência, e com a suposição de que a ciência pode fazer melhor do que a própria vida, “a sacralização da vida desaparece”.

Já numa perspectiva epistemológica, e olhando, por exemplo, para a Biologia, as quantidades massivas de dados com que se trabalha actualmente estão a mudar como a Ciência se faz. “Passam as ser as máquinas que constituem os dados e identificam os padrões”, sublinhou a oradora. E questiona ainda: “será uma arrogância nossa? Como é que os nossos poderes podem ter ultrapassado os nossos saberes?”. Maria Manuel Jorge finalizou o seu comentário chamando a atenção para uma situação que considerou “dramática” e que “obriga a investigação a mudar”. “Vivemos num panorama em que a ciência reflexiva foi substituída pela tecnociência e em que algum catastrofismo é substituído pelo optimismo tecnológico exarcerbado. Ao mesmo tempo, estamos a forçar quem abandonou as preocupações com a ética a ter de encaixar essa preocupação nos textos dos seus projectos de investigação sem saber como o fazer. Então, como trazer a reflexão aos indivíduos [na ciência] que estão na crista da onda?”, questionou.

Na troca de ideias que se seguiu, João Relvas realçou a importância da capacidade de escolha e de não sermos escolhidos perante as situações em que somos colocados, sabendo que “a realidade já ultrapassou a ficção”. Por outro lado, alerta o investigador, “há problemas que são, na sua incepção, interdisciplinares, pelo que aplicar sempre uma lógica cartesiana pode ser insuficiente”. Já quanto a este aspecto, Maria Manuel Jorge alerta para o facto de que o resultado, na prática, de se tentar esbater as fronteiras entre as disciplinas está a resultar numa grande improdutividade. Estamos ainda muito mal preparados”, conclu

Açores, um laboratório de Ciências da Terra

2810085195_3c53a17336

A Aldeia de São Lourenço, no Município de Vila do Porto, na Ilha de Santa Maria, Açores, é uma das candidatas a 7 Maravilhas na categoria “Aldeias Protegidas”. Se este concurso contemplasse o potencial para a investigação científica, os Açores naturalmente seriam vencedores. Todo este arquipélago é um laboratório para as Ciências da Terra.

Dado o seu enquadramento geotectónico, a região dos Açores apresenta importante actividade vulcânica e sísmica, bem documentada desde o povoamento destas ilhas, a partir de meados do século XV.

Assim, existem registos de 26 importantes erupções vulcânicas que ocorreram nas ilhas de S. Miguel, Terceira, S. Jorge, Pico, Faial e no mar entre elas. Destas 26 erupções, 12 foram subaéreas (S. Miguel, Terceira, S. Jorge, Pico e Faial), de natureza predominantemente efusiva. Contudo, há registo de erupções de natureza explosiva, nomeadamente as subaéreas ocorridas na ilha de São Miguel, em 1439, nas Sete Cidades, em 1563, e as erupções de 1444 e de 1630, localizadas na Caldeira das Furnas.

As últimas erupções importantes ocorridas nos Açores foram submarinas, nomeadamente, a erupção dos Capelinhos, em 1957/58, na extremidade ocidental da ilha do Faial e a erupção do “Vulcão Oceânico da Serreta”, entre 1998 e 2000.

A análise da idade geológica calculada para cada uma das ilhas parece mostrar que, em termos gerais, as ilhas mais afastadas da Dorsal Médio- Atlântica são as mais antigas. Neste contexto, a ilha de Santa Maria é a mais antiga do arquipélago (com cerca de 8,12 milhões de anos) e, pelo contrário, a ilha do Pico é a mais jovem (com cerca de 250 000 anos).

Por sua vez, a actividade sísmica associada às principais falhas activas existentes na região dos Açores manifesta-se geralmente sob a forma de um elevado número de microssismos (sismos de magnitude inferior a 3). Contudo, periodicamente, as ilhas açorianas são afectadas por sismos moderados a fortes, mas energéticos, que têm causado destruição e impactos económicos significativos. Após 1947, as principais crises sísmicas que afectam os Açores ocorreram nos anos de 1958, 1964, 1973/74, 1980, 1988/89 e 1998.

Tendo em conta a sismicidade que evidenciam, as ilhas do Açores podem ser agrupadas em 4 grupos principais:

– as ilhas de São Miguel, Terceira e Faial, de maior sismicidade;

– as ilhas Pico e São Jorge em que há, comparativamente, menor número de sismos sentidos e de menor intensidade;

– as ilhas Graciosa e Santa Maria, que evidenciam baixa sismicidade no contexto regional, com poucos sismos sentidos;

– as ilhas das Flores e Corvo, de reduzida sismicidade, fruto do seu enquadramento geotectónico, no seio da placa Norte-americana.

Em síntese, as ilhas dos Açores, de origem vulcânica, situam-se num quadro tectónico original, o que confere a este arquipélago uma geodinâmica muito activa, accionada pela energia interna da geosfera, nomeadamente ni que se refere a fenómenos vulcânicos e sísmicos.

 

Não se falou de Yoga no Ciência 2017

the-political-implications-of-ignoring-our-own-ignorance

 

Acreditando no relato que consta no artigo do Público intitulado “O Ciência 2017 voltou depois à Ciência” fica claro que o trabalho apresentado no evento Ciência 2017 intitulado “Ioga Ancestral de Bhárata/Índia, Desenvolvimento Pessoal, e Cidadania” não é sobre Yoga e não referiu qualquer fonte fiável na literatura védica (na qual assenta o Yoga). Baseou-se, antes, numa das muitas correntes personalistas sem qualquer base verídica e muito menos ancestral. O facto de ter havido um trabalho sobre uma balelice que usa a palavra ‘yoga’ só se explica, a meu ver, por esta moda recente das bolhas do ‘empreendendorismo’, do ‘mindfullness’, das ‘empresas cool’ que entram numa de evangelização com algo a que se chama yoga para vender. Schrödinger que teve a humildade intelectual suficiente para estudar os Vedas a sério e verificar a validade de muito do que lá vem, deve ter “dado voltas no túmulo” como se costuma dizer.

Por outro lado, também é verdade que qualquer técnica de yoga, que esteja referida na literatura original (vedas, hatha yoga pradipika, yoga sutras – com atenção às traduções – etc) já foi mais testada do que qualquer fármaco ou teoria científica. Segundo o último estudo, desde há aproximadamente 8000 anos. Ainda assim a Ciência, ou melhor, alguma ciência (já que esta é múltipla) continua a não atribuir validade aos vedas ou a essa mesma literatura. O que é normal porque existem diferentes tipos de validade, mas não vamos entrar em preciosismos epistemológicos neste texto.

Pessoalmente, não aceito tudo o que vem nos Vedas, mas sei que, no que respeita ao Yoga e suas técnicas, estas são válidas, com ou sem tubos de ensaio a prová-lo. Agora, quando a Ciência de massas ou a que tem o tubo de ensaio como deus único, decide pôr algo num dos seus fóruns, ao menos deveria ter o rigor que exige a outros sistemas de conhecimento quando decide falar desses mesmos sistemas. No caso, convém saber realmente o que é Yoga, para não dar banhos da cobra em Conferências nacionais com a dita “nata” da Ciência do burgo. Até porque se a intenção era inovar e mostrar um pouco de abertura epistemológica, podiam simplesmente ter explorado vários estudos científicos, por exemplo, dentro do tópico da relação da prática de yoga com a saúde física e mental. O Yoga não pretende ser Ciência, ainda que seja baseado num método e inclua técnicas. Mas mesmo o aspecto terapêutico do Yoga não promete curas. Propõe e pode proporcionar alívio de sintomas e uma maior capacidade de lidar com condições de saúde.

E só para que fique claro: em nenhuma literatura original, isto é, védica, do Yoga se diz que o Yoga cura cancros ou que não se devem tomar químicos. O Veda enquanto corpo de conhecimento tem um ensinamento central: eliminar o sofrimento humano. Não visa, portanto, eliminar ou promover mutações genéticas. Em nenhum sítio da literatura original do Yoga se diz o que foi dito nesta conferência do Ciência 2017.

Tristemente, isto aconteceu num dia com um dos simbolismos mais bonitos da tradição do Yoga: o dia de homenagem e de respeito e gratidão dos estudantes, aprendizes ou alunos, aos seus professores de yoga ou académicos.

Nota: A autora deste texto não assistiu à palestra apresentada no Ciência 2017, sendo este artigo baseado nos relatos presentes no artigo acima referido: https://www.publico.pt/2017/07/08/ciencia/noticia/o-ciencia-2017-voltou-depois-a-ciencia-1778184.

 

 

Ciência e translação: clausuras ou descobertas

“Truth and utility are the very same things”
Francis Bacon, New Organon, I, Aphorism 124

Ainda esperei uns dias, mas nada. Nenhuma reflexão um pouco mais a sério foi feita nos media portugueses sobre um dos eventos mais interessantes em termos de discursos e políticas sobre Ciência em Portugal nos últimos tempos: o lançamento oficial do centro europeu de investigação de excelência em medicina regenerativa e de precisão, com o nome oficial de The Discoveries Centre for Regenearative and Precision Medicine.

Untitled

O Discoveries visa criar em Portugal um novo centro de investigação de excelência e pretende focar-se em investigação nas áreas das doenças músculo-esqueléticas, neuro-degenerativas e cardiovasculares. Resulta de uma parceria entre cinco universidades portuguesas (Minho, Porto, Aveiro, Lisboa e Nova de Lisboa) e uma universidade líder mundial em Ciências e Tecnologias da Saúde, a University College London (UCL), do Reino Unido. Todas reúnem uma forte e reconhecida atividade nesta área de investigação. O projeto conta com o apoio da Fundação para a Ciência e Tecnologia (FCT), coordenadora da proposta, e das Comissão de Coordenação e Desenvolvimento Regionais (CCDRs) do Norte, Centro e Lisboa e Vale do Tejo.

Claro que ainda se trata apenas de um lançamento, de um projecto com objectivos arrojados, mas também se trata de um dos maiores investimentos de dinheiros públicos em Ciência nos últimos anos. Para mim, foi um evento particularmente interessante do ponto de vista da sociologia da ciência. Nesta perspectiva, este texto analisa, muito sumariamente, o pontapé de saída oficial deste empreendimento no panorama científico português.

– Do panoptismo com nome de inovação

Tenho defendido que a vasta literatura sobre o modo-1 e modo- 2 de produção de conhecimento gerou mais prosa do que a fidelidade ao trabalho do autor dessa dicotomia queria significar. “Assim como no modo 1, o conhecimento foi acumulado através da profissionalização da especialização institucionalizada em grande parte nas universidades, no modo 2 o conhecimento é acumulado através da configuração repetida de recursos humanos em formas de organização flexíveis e essencialmente transitórias” (Gibbons et. Al, 1994, p. 9). Por mais tentador que fosse associar o Mode-1 com ‘ciência real’ e ‘ciência fiável’ e  o modo-2  com ciência pós académica, isso não pode ser assumido do que foi defendido por Gibbons. O que pode ser defendido é uma associação crescente entre o modelo de controlo burocrático weberiano e o panóptico de controlo foucaultiano.

Ora, o Panóptico era um edifício em forma de anel e, no meio desse anel, estava um pátio com uma torre no centro. O anel era formado por pequenas celas que davam tanto para o interior quanto para o exterior. Em cada uma dessas pequenas celas, havia uma criança a aprender a escrever, um operário a trabalhar, um prisioneiro a ser corrigido, um louco a tentar fugir da sua loucura, etc. Na torre havia um vigilante. Cada cela dava ao mesmo tempo para o interior e para o exterior, pelo que o olhar do vigilante podia atravessar toda a cela. O panoptismo corresponde à observação total, é a tomada integral por parte do poder disciplinador da vida de um indivíduo.

No modus operandi actual da Ciência, nas últimas décadas, este panoptismo tem assumido um nome e uma função cada vez mais central:  a da investigação que aplica resultados de investigação básica à investigação clínica. No entanto, a definição de investigação translaccional também engloba o reverso da medalha: o reforço da investigação básica. O problema é que este reverso tem sido esquecido. Ficamos, então, com um lobby cada vez mais forte, o dos translational research offices ainda a tentarem saber o que são, ainda a debitar manuais de inovação e empreendedorismo, mas ainda com muito pouco interesse pela Ciência e pela investigação com as quais estabelecem uma relação do tipo sinfilia (relação ecológica em que se mantém em cativeiro indivíduos de outra espécie para obter vantagens.)

No exemplo que aqui hoje tratamos, o lançamento do Discoveries Centre, o grande vencedor na panóplia de discursos sobre este investimento de 25 milhões de euros (dos quais 15M provêm da Comissão Europeia e dez milhões das comissões coordenadoras do Norte, Centro e Lisboa e Sul do Tejo) é precisamente, não a investigação, mas a componente translacional do projecto. De tal forma, que antes de haver uma estratégia científica, uma discussão sobre a Ciência a fazer, sobre o perfil dos investigadores, das grandes questões tecnológicas e científicas, das dificuldades, já foram apresentadas as directrizes sobre a componente translaccional do projecto e já está criado um Discoveries Translational Office. Nada contra, mas não deixa de ser sintomático da tal sinfilia.

The Discoveries Centre

O caso do Discoveries ainda é mais interessante dado que inclui dois países com discursos sobre a Ciência que incluem diferenças significativas. Só para dar um exemplo: Portugal e Inglaterra são dois países muito diferentes no que respeita ao ‘lugar’ da investigação na vida académica e na vida em geral. Se na Inglaterra podemos encontrar, principalmente através de exercícios como o RAE e o REF, uma cristalização do discurso de centralização da investigação valiosa e útil, em Portugal tal discurso está muito longe de ser o dominante, embora possamos encontrar alguns sinais dessa valoração. No entanto, em ambos os países podemos encontrar a centralidade da avaliação na vida académica, sendo essa avaliação relacionada, principalmente, com a investigação.

É já indiscutível entre investigadores, industriais, gestores, etc, que as organizções devem tornar-se mais flexíveis. O elevado progresso tecnológico e científico é visto como o principal motivo para essa necessidade de uma maior adaptabilidade. Mas também sabemos que uma maior vontade para aceitar a mudança e conseguir essa maior flexibilidade organizacional são difíceis de alcançar devido os princípios ainda dominantes da maioria das organizações científicas e académicas: os princípios do controlo e da burocracia e não os da inovação e da mudança. E o que tem acontecido, tanto em empresas de grande dimensão como em grandes institutos de investigação é que se criam departamentos dedicados à inovação, transferência de tecnologia e translacção que se tornam essencialmente unidades burocráticas cujas competências são também exclusivamente burocráticas. Em instituições mais recentes e ainda em processo de afirmação de identidade, esta moralidade burocrática é agravada por uma maior dependência da direcção dessas instituições. Enquanto que numa instituição pública, como as universidades, as unidades de inovação ainda trabalham, até certa medida, em prol da instituição e de uma ideia de inovação muito mais directamente ligada à comunidade, nos outros casos, a actuação das unidades de inovação segue maioritariamente interesses individuais e personalistas.

IMG_20170530_122345[1]

Em grandes organizações verificam-se ainda obstáculos persistentes à inovação e criatividade:

  1. A inércia de uma grande instituição;
  2. O poder restritivo de rotinas usadas e abusadas;
  3. A moralidade administrativa;
  4. A small talk que sustenta a tal organização panóptica encurta a capacidade de fazer algo com as novas ideias que surjam na organização. A própria dimensão de uma organização requer padronização e um sistema de controlo com pouco espaço a pensamentos divergentes e não-convencionais. E isso é visível frequentemente nas essenciais unidades de inovação e translacção, mas não só.
  5. Se a padronização e essa moralidade administrativa são levadas longe demais são sempre a criatividade científica e a inovação que perdem.
  6. Um conjunto de valores desactualizdo que favorece o controlo, a estabilidade inerte contra a mudança e flexibilidade.

O contexto

Ao olharmos para os sistemas de fusão na economia global do conhecimento, é clara a existência de uma diversidade de formas que emergiu de infraestruturas já existentes, mas que passaram a confundir tendências auxiliares com pilares fundamentais. Ou seja, assiste-se hoje, no panorama português e não só, a um revivalismos de relações colonialistas em formatos que desenvolvem o ‘neo-imperealismo’ na ciência baseados em sistemas de trocas de natureza essencialmente burocrática.

As universidades encorajam formas de colaboração internacional competitivas e não-competitivas que convivem com um recuo histórico no financiamento das instituições de ensino superior  e com a construção de parques de ciência baseados em spin-offs e em patentes. Uma questão fundamental é saber se os fundos angariados nessas formas de colaboração ditas competitivas serão usados para apoiar e subsidiar formas menos competitivas de colaboração e, por conseguinte, se as universidades vão ser capazes de acomodar dois discursos legitimizadores paralelos: o da justiça social e bem comum e as iniciativas com fins lucrativos.

Talvez os ‘sharable goods’ dependentes da tecnologia vistos como uma forma de troca e produção social, juntamente com o Estado e o mercado, façam emergir um terceiro modo de organização da produção científica que inclua um novo despertar da investigação básica e das formas não materiais da produção académica. Talvez depois dos três grandes momentos da história da Ciência – ciência clássica, ciência colonial e ciência global (Peters,2013), possa (re)surgir a ciência de ideias, materializando o que já tinha sido argumentado no UN Creative Economy Report 2008:

“In the contemporary world, a new development paradigm is emerging that links the economy and culture, embracing economic, cultural, technological and social aspects of development at both the macro and micro levels. Central to the new paradigm is the fact that creativity, knowledge and access to information are increasingly recognized as powerful engines driving economic growth and promoting development in a globalizing world. “Creativity” in this context refers to the formulation of new ideas and to the application of these ideas to produce original works of art and cultural products, functional creations, scientific inventions and technological innovations” (p.3).

Por tudo o que aqui ficou condensado neste texto, e muitas outras coisas, julgo que o The Discoveries Centre for Regenerative and Precision Medicine será um excelente estudo de caso na história e sociologia da Ciência em Portugal. Mas desejo, acima de tudo, que a ‘excelência’ que consta na definição e propósito deste projecto aconteça sobretudo na investigação científica e que seja esta a liderar as translações necessárias e pertinentes, ao invés de se subordinar a lobbies de ‘let me introduce myself’ e da ‘small talk’ da meldicência e da burocracia. Porque as descobertas só podem ser grandes.

Plasticidade do cérebro descrita em linguagem matemática

Estudo publicado na revista Neural Networks utilizou o modelo de Hodgkin e Huxley para simular a neuroplasticidade numa rede neuronal e verificou que uma configuração inicialmente simples pode evoluir para uma topologia bastante complexa na medida em que os neurónios mudam as suas conexões.

neurop1
Neurónios pré e pós-sinápticos, monstrando a região de acoplamento onde ocorre a sinapse. É possível verificar o sentido de propagação do sinal eléctrico entre os neurónios pré e pós-sinápticos. Figura produzida pelos investigadores, previamente publicada no artigo Sincronização de Disparos em Redes Neuronais com Plasticidade Sináptica”, na Revista Brasileira de Ensino de Física, v. 37, n. 2, 2310 (2015): http://dx.doi.org/10.1590/S1806-11173721787.

Provavelmente já ouviu falar em neuroplasticidade. De facto, esta tornou-se uma das mais populares hipóteses, proposta no início do século XX por Rámon y Cajal, e actualizada em 1948 pelo psicólogo polaco Jerzy Konorski, quando se referiu às propriedades da excitabilidade e da plasticidade das células nervosas.

A  plasticidade é a capacidade que o cérebro tem em se reorganizar como resposta a novos estímulos sensoriais, aportes de informações, mudanças nos parâmetros ambientais ou danos na estrutura previamente estabelecida.

Actualmente, já existem muitas evidências relativas à plasticidade em sinapses químicas. Estas têm uma enorme capacidade para pequenas mudanças fisiológicas que aumentam ou reduzem a eficácia da sinapse. A plasticidade sináptica pode,pois, ser reforçada ou inibida – o que é particularmente relevante para eventuais aplicações médicas e para a compreensão de processos complexos como a aprendizagem ou a mudança de comportamentos.

O estudo agora publicado, conduzido por uma equipa de investigadores a trabalhar no Brasil e na Escócia, fez uma simulação computacional a partir do modelo de Hodgkin e Huxley, o mais famoso modelo matemático que simula a dinâmica dos neurónios. O trabalho considerou um conjunto de 200 neurónios, integrados numa rede com acoplamento global, isto é, cada neurónio estava conectado a todos os outros, por meio de sinapses excitatórias (80%) e inibitórias (20%). Sem considerar a plasticidade sináptica, não houve modificações significativas na rede após a evolução temporal. Porém, quando se introduziu um termo matemático característico nas equações, que representa a plasticidade sináptica, foram verificadas modificações substanciais.

O termo matemático mencionado representa o que é chamado de STDP, sigla composta pelas iniciais da expressão inglesa “spike timing-dependent plasticity”, que designa a plasticidade dependente do tempo de disparos entre os neurónios. Quando a STPD é inserida e se observa a evolução da rede, percebem-se modificações na matriz de acoplamento bem como efeitos consideráveis na sincronização ou dessincronização dos neurónios. A inserção do termo de plasticidade no modelo induziu uma nova topologia não trivial na rede. Todo este processo segue um padrão, conhecido como regra de Heeb [referência ao psicólogo canadense Donald Olding Hebb (1904 – 1985)], que determina quando as sinapses são intensificadas e quando são inibidas. A evolução topológica da rede depende, assim, da plasticidade: a topologia simples, de cada neurónio conectado com todos os outros, transforma-se em topologias bem mais complexas, com conexões esparsas, moderadas e densas.

Assim, o que este trabalho evidencia é a dependência da rede em relação à plasticidade sináptica. Partiu-se de uma condição de acoplamento global, com cada neurónio acoplado a todos os outros, com sinapses excitatórias ou inibitórias, e verificou-se que a inserção da plasticidade levou a diferentes diagnósticos do estado de sincronização da rede. Diz-se que dois neurónios estão sincronizados quando disparam os sinais eléctricos ao mesmo tempo. O estado de sincronização da rede é caracterizado por uma variável matemática denominada “parâmetro de ordem”, cujo valor varia de zero (quando não há nenhuma sincronização) a 1 (quando a sincronização é total). A plasticidade influi nesta sincronização ou ausência dela, pois induz modificações na rede neural, podendo reforçar as conexões entre determinados neurónios (sincronia) ou inibir as conexões entre outros (dessincronia).

neurop3
Ilustração de 11 vértices, com topologias: (a) global (com todos os vértices conectados) e (b) aleatória (com poucas arestas). Figura produzida pelos investigadores. 

A grande contribuição do trabalho foi descrever, em linguagem matemática, o processo biológico caracterizado pelo rearranjo das conexões neurais em função de uma grande variedade de factores: lesão, doença degenerativa, novas experiências, aprendizagens etc. Essa maleabilidade, essa dinâmica do sistema nervoso, é aquilo que se conhece como plasticidade – ou mais especificamente, a plasticidade sináptica.

O artigo “Spike timing-dependent plasticity induces non-trivial topology in the brain”, publicado na revista Neural Networks está disponível em http://dx.doi.org/10.1016/j.neunet.2017.01.010.

A arte do cérebro bonito

cajal-duo_custom-9e4f8c24fea617e47e60a6cdb1864bffbbf6f84e-s800-c85

Em 50 anos, Rámon y Cajal (1852-1934), considerado o pai da Neurociência moderna, fez 2900 desenhos neurológicos.  O livro The Beautiful Brain; the drawings of Santiago Ramón y Cajal, editado pela Abrams, apresenta 80 desses desenhos, alguns inéditos. Este é um livro que acompanha a exposição sobre a arte de Cajal organizada pelo Weisman Art Museum em colaboração com  Eric NewmanAlfonso Araque, e Janet Dubinsky, da University of Minnesota. A exposição, infelizmente, não vai passar por Portugal.

O El País dedica hoje um artigo a este livro e exposição, comparando Cajal com Leonardo Da Vinci, já que ambos eram amplamente dotados para a arte e Ciência. “Se considerarmos o cérebro como uma floresta e 100 mil milhões de árvores e nos dedicarmos vários anos a desenhar (ou fotografia) algumas centenas dessas árvores, nunca iremos entender a floresta. Ao desenhar, Cajal aconselha-nos a ‘construir um inventário mental de regras para a floresta’”, lê-se no artigo do El País.

Rámon y Cajal facultou muitas das primeiras evidências para a compreensão de que os neurónios são unidades sinalizadoras do sistema nervoso e de que cada neurónio é uma célula com processos distintos a emergir do seu corpo celular. Pode não parecer agora, mas esta não foi uma ideia fácil de passar à comunidade científica da época.  Ao contrário do que acontecia com outros tecidos, cujas células têm formas simples, as células nervosas assumem formas complexas; os padrões intricados das dendrites e o curso sem fim dos axónios tornam muito difícil estabelecer a relação entre estes elementos. Mesmo depois dos anatomistas Jacob Schleiden e Theodor Schwann avançarem com a teoria celular no início da década de 1930 – e que estabeleceu um dos maiores postulados da Biologia moderna, a de que as células são os tijolos básicos da matéria viva – muitos anatomistas  não aceitavam a aplicação da teoria celular ao cérebro, o qual era visto como um contínuo reticular.

Daí ter sido fundamental o contributo de Rámon y Cajal quando este começou a utilizar o  cromato de prata usado no Método de Golgi de coloração de neurónios para microscopia: o cromato de prata produzido precipita dentro dos neurónios e torna a sua morfologia visível.Rámon y Cajal aplicou este método a células nervosas embrionárias de muitos animais, incluindo humanos. Foi assim, que para além da doutrina do neurónio, Cajal defendeu dois outros princípios importantes para a organização neuronal que se tornaram fundamentais para o que se sabe sobre comunicação dentro do sistema nervoso: o princípio da polarização dinâmica, relacionado com o facto de que os neurónios partilham uma organização comum, a qual é ditada pela sua função — receber, processar e transmitir informação; e o segundo princípio é o da especificidade de ligação que afirma que as células nervosas não se ligam aleatoriamente.

Do medo à empatia: o longo processo da evolução humana

Psicologia e Neurociência mostram-nos como ainda estamos longe dessa capacidade que evita que nos tornemos psicopatas: a empatia.

união

Quem estuda Ciências Sociais, já ouviu falar nas experiências de Milgram. Na verdade, estas foram uma série de experiências começadas em 1961 e a grande conclusão foi que a maioria das pessoas iria magoar deliberadamente outras pessoas – nomedamente dando choques eléctricos –sob as ordens de uma terceira pessoa. As experiências de Milgram tornaram-se uma das experiências mais conhecidas, na área da Psicologia, de todos os tempos.

Agora, mais de 50 anos depois, uma equipa de investigadores na Polónia repetiu a experiência e chegou aos mesmos resultados. “Ao saberem  sobre as experiências de Milgram, uma grande maioria das pessoas afirma que ‘nunca se comportaria daquela forma’”, disse um dos psicólogos, Tomasz Grzyb da Universidade de Ciências Sociais e Humanidades na Polónia. “O nosso estudo ilustrou, mais uma vez,  o tremendo poder das situações e contextos com que os sujeitos são confrontados  e como estes facilmente podem concordar com coisas que eles acham desagradáveis.”

As experiências de Milgram foram conduzidas pelo psicólogo da Universidade de Yale, Stanley Milgram e começaram em Julho de 1961, três meses após ter começado o julgamento do criminoso de guerra nazista Adolf Eichmann. Milgram queria saber: “será que Eichmann e os seus milhões cúmplices no Holocausto se limitavam a seguir ordens?”

Para explorar isso, Milgram montou uma experiência onde voluntários, sob a autoridade de um experimentador, foram convidados a dar choques elétricos a uma pessoa numa sala ao lado, que podiam ouvir mas não ver, por cada vez que eles davam uma resposta errada. Haviam 30 botões que eles podiam pressionar cada um com uma voltagem diferente. Tanto quanto eles estavam cientes, os choques começaram com um valor inofensivo de 15 volts e iam aumentando até um valor perigoso de 450 volts. Os voluntários foram informados de que esse valor magoaria seriamente o destinatário. O que eles não sabiam era que a máquina não fazia nada além de produzir alguns efeitos assustadores de luz e som, e que a pessoa na outra sala  era um actor profissional que  tinha sido pago para gritar como se estivesse em sofrimento. Tudo isso era desconhecido para o voluntário, que acreditava estar realmente a magoar outra pessoa, mas foi-lhes dito pelo autor do estudo que eles precisavam continuar porque era crucial para a experiência. A variante mais famosa das experiências de Milgram mostrou que 65% dos 40 voluntários seguiu as ordens e foi até à voltagem de 450 volts, apesar dos gritos de dor e pedidos para párar da pessoa da outra sala. Algumas pessoas saíram e muitos protestaram contra a continuação da experiência, mas dois terços obedeceu às ordens e continuaram.

Nos anos seguintes, alguns investigadores argumentaram que a metodologia de Milgram era desleixada e que ele manipulou dados, mas têm sido repetidas variações dos testes por todo o mundo desde então, com resultados bastante consistentes e semelhantes à experiência original. Mas havia um único sítio onde essas experiências não tinham sido realizadas: a Europa central. “O nosso objectivo era examinar o quão alto seria o nível de obediência que encontramos entre moradores da Polónia,” escreveram Grzyb e a sua equipa na revista científica Social Psychological and Personality Science.

Nesta versão moderna da experiência, recrutaram-se 80 participantes (40 homens e 40 mulheres) com idades entre os 18 e os 69 anos. Tal como na experiência de Milgram, os voluntários foram incentivados por um examinador a dar choques a alguém que estava numa outra divisão, com mais intensidade por cada vez que obtivessem uma resposta errada. Disse-se aos voluntários que era importante continuarem a aumentar a intensidade dos choques eléctricos. Mas nesta versão actualizada, haviam apenas 10 botões com valores de voltagem mais baixos numa tentativa de tornar a experiência mais ética. No final, eles verificaram que 90 por cento dos voluntários seguiu ordens para infligir o maior nível de choques – muito semelhante à quantidade de pessoas que carregou no 10º botão aquando das experiências de Milgram.

“Meio século após a pesquisa original de Milgram sobre a obediência à autoridade, uma impressionante maioria dos sujeitos ainda estão dispostos a eletrocutar um indivíduo indefeso,” concluiu Grzyb.

Ora, claro que há uma série de factores a considerar quando se olha para estes resultados, como o pequeno tamanho da amostra, por exemplo. No entanto, se juntarmos estes dados com outra literatura científica, desde a ensaísta Hannah Arendt ao neurocientista Simon Baron-Cohen, vemos como a empatia tem sido e é um “recurso subaproveitado” apesar de ser “um dos recursos mais valiosos no nosso mundo”, como defende Baron-Cohen. Este investigador diz mais: a empatia é um solvente universal, pois qualquer problema imerso em empatia torna-se solúvel. É a forma efectiva de antecipar e resolver problemas interpessoais, conflitos internacionais, problemas no trabalho, dificuldades numa amizade, bloqueios políticos, disputas familiares ou desavenças entre vizinhos.

Do medo à empatia

Mas há uma outra dimensão a considerar: o medo. O medo é o maior dos males nesta época em que vivemos. Devido ao medo, sentimo-nos inseguros, desprotegidos e incapazes. E através dele, agimos de forma destrutiva, na tentativa de eliminar o que julgamos ameaçar-nos, resultando em sofrimento para os outros e para nós mesmos.

Ora, uma das coisas que Simon Baron-Cohen descobriu, e que explanou no seu livro A ciência do mal,  foi como funciona o reconhecimento das emoções, aquilo a que se chama de empatia.download

Empatia é a capacidade de reconhecer as emoções, pensamentos e sentimentos das pessoas, de espelhar essas emoções e de produzir uma resposta adequada ao que se está a ver. P.ex. conseguir ver se uma pessoa está triste ou alegre, se está a sofrer ou não. Mas a empatia não é só o reconhecimento das emoções.

O segundo factor da empatia é o espelhamento: pegamos numa emoção e trazemos essa emoção para nós mesmos. P.ex. vemos uma cena triste num filme e choramos.

Também um médico indiano, de Cambridge, descobriu quatro genes responsáveis pela empatia; há, então, também um terceiro factor, o genético.  Também sabemos que a primeira parte do cérebro a desenvolver-se é o reconhecimento facial das expressões humanas que ocupa quase 75% do hipocampo, na área da memória. O bebé começa a imitar as expressões que nós fazemos. O desenvolvimento normal desse processo conduz ao reconhecimento das emoções.

Todavia,  Simon Baron-Cohen descobriu que há uma relação directa entre empatia e crueldade. Quanto maior a empatia, menor a capacidade de cometer uma crueldade. Porque quando identifico o sofrimento de alguém, também sofro. Isto significa que somos geneticamente forjados para sermos empáticos. Tal como nos primatas, antes de sermos humanos, somos primatas. Simon começou, então, a medir os níveis de empatia.

Ora, para se ser considerado empático é necessário reconhecer, no minimo, 412 emoções em 2 sexos diferentes em pelo menos 3 “raças”. Então, vejamos o que Baron-Cohen nos diz: o psicopata tem ‘0’ empatia; num nível um pouco acima, estão as pessoas borderline, aquelas que são extremamente agressivas; num nível superior temos as pessoas que, quando alteradas emocionalmente, perdem o filtro e agridem. Um pouco mais acima ainda, estão as pessoas que não partem para a agressão física, mas fazem actos de crueldade verbal sem problema.

Susan Fisk, psicóloga, estudou as redes neurais e concluíu que temos uma rede neural para reconhecer objectos e outra para reconhecer seres humanos. Outro psiquiatra, Viktor Frankl, que perdeu toda a família em Auschwitz, citou um fenómeno recorrente na perda de sentido que ele encontrou em muitos dos estudantes que estudavam na Universidade de Yale, onde ele ensinou: a coisificação. A coisificação ocorre quando um ser humano se despe de todos os sentimentos, passando a considerar outro ser humano como um objecto. Philip Zimbardo corrobora que a coisificação é uma realidade neurológica quando, por algum motivo ideológico ou religioso, transformamos pessoas em objectos descartáveis. Uma forma de protecção é desligar. Coisas podem ser usadas, pessoas não. Por exemplo, imigrantes não são gente, ou terroristas árabes, ou refugiados, ou mendigos. Então, no momento em que intelectualmente afirmamos que eles não são gente, ma sim um objecto, nós mudamos a rede neural dos humanos para a rede neural que reconhece objectos. Então, quando ouço os gritos de dor de uma pessoa na sala ao lado, não sinto nada e posso continuar a aumentar a voltagem dos choques eléctricos só porque alguém me manda, como aconteceu nas experiências de Milgram e todas as versões das mesmas que já se fizeram.

Como era mesmo a propaganda nazista? “Não são pessoas….” Uma mentira repetida muitas vezes…

Link para o estudo com versão das experiências de Milgram na Polónia: http://journals.sagepub.com/doi/10.1177/1948550617693060

 

 

A inferioridade mental da mulher

“A mulher não contribuiu com coisa alguma para o desenvolvimento da ciência e é inútil esperar algo dela no futuro”. Paul Julius Moebius

mobius-768x407

A inferioridade mental das mulheres é o título do panfleto Über den physiologischen Schwachsinn des Weibes – sobre a imbecilidade fisiológica das mulheres – publicado em 1900 pelo psiquiatra e neurologista alemão Paul Julius Moebius (1853-1907).

Existe uma versão em espanhol publicada em 1982 pela editora Bruguera, traduzido por Adam Kovacsics Mészáros e com extensa introdução escrita por uma feminista italiana (escrita em 1977), Franca Ongaro Basaglia.

Há uma versão em Espanhol com tradução e prefácio de Carmen de Burgos (Ed. Sempere, 1904) que contém muitos comentários nos rodapés das página que refutam a tese de Moebius.

A doença neurológica chamada síndrome de Moebius deve o seu nome a Paul Julius Moebius, que trabalhou principalmente em neurofisiologia e endocrinologia. No entanto, em “A inferioridade mental das mulheres”, os seus argumentos científicos para demonstrar essa deficiência intelectual baseiam-se em outros autores da época e em estudos relacionados com o peso e as características do cérebro – certamente em comparação com os cérebros de “varões”.

Alguns dos argumentos usados por Moebius para provar a afirmação que intitula o panfleto provêm de estudos do médico e criminologista Cesare Lombroso (1835-1909) – e de sua filha, a médica e escritora, Gina Ferrero (1872-1944) – e das teorias do anatomista Nikolaus Rüdinger (1832-1896).

Eis algumas das considerações feitas por Moebius:

“Nos homens pouco desenvolvidos a nível mental  (um negro, por exemplo), encontran-se os mesmos dados anatómicos encontrados no lobo parietal da mulher”

“Em todos os sentidos está plenamente demonstrado que as mulheres têm  certas partes do cérebro de extrema importância para a vida mental menos desenvolvidas, tais como as circunvoluções do frontal e do lobo temporal; e que essa diferença existe desde o nascimento”.

“Uma das diferenças essenciais certamente é o facto de que o instinto desempenha um papel mais importante nas mulheres do que nos homens. […] Então o instinto faz com que a mulher seja semelhante a bestas, mas mais  dependentes, seguras e alegres”.

Todo o progresso parte do homem. Por isso, as mulheres são, para eles, um fardo pesado, pois impedem-nos de usar todos as suas capacidades intelectuais e de usar todas as suas energias em inovações temerárias. Elas também travam iniciativas nobres, porque não conseguem  distinguir o bem e o mal por si só e sujeitam tudo o que pensam e fazem ao que é habitual e ao “’que é dito pelas gentes’”.

1900, data da publicação deste panfleto, não foi assim há tanto tempo, pois não?