Arquivo da categoria: Ciência e Tecnologia

Fármacos

Entre as virtudes da natureza, existe uma que raramente temos em conta: a sua comprovada capacidade curativa. Os efeitos benéficos das substâncias naturais derivadas de plantas, animais e minerais que nos rodeiam colaboram na tenaz insistência do Homem em resistir às doenças. A medicina, em conjunto com a física, a química e a biologia, conseguiu isolar essas substâncias para elaborar os fármacos e dar solução à dor e, inclusivamente, curar definitivamente uma doença. Por isso, quando nos dói muito a cabeça, estamos muito engripados ou sentimos uma dor abdominal que nos incomoda durante vários dias, o melhor é ir ao médico, que, na maioria das vezes, nos receitará um medicamento.

Quando isso acontece, confiamos que ao adquiri-lo e administra-lo no nosso corpo corrigiremos o estado de doença pelo qual consultámos o profissional. As bases desta confiança recaem nos complexos e extensos estudos prévios que se realizaram com a substância em questão, que certificam a sua segurança e a sua ação.

O desenvolvimento de fármacos compreende múltiplos aspetos onde intervêm cientistas de diferentes especialidades, e implica também vários anos de ensaios até que um médico possa receitá-lo no seu consultório. Em primeiro lugar, é preciso compreender a natureza e as manifestações da doença, entendendo os seus componentes ambientais e genéticas, e verificando se se encontram envolvidas outras entidades tais como os micróbios. Conhecido o fenótipo anormal que se deseja corrigir, é vital estudar como é possível a sua correção, e se para isso é necessário administrar substâncias não produzidas pelo indivíduo. É aqui que surgem os fármacos, esses compostos naturais ou artificiais que colaboram na normalização dos processos metabólicos, que ajudam a reparar tecidos e órgãos, que nos aliviam a dor, aumentam as nossas defesas ou matam os micróbios que nos invadem.

Onde obtê-los ou como produzi-los; como administrá-los; que efeitos benéficos produzem; quais os efeitos negativos; quanto duram os benefícios; são perguntas a que é necessário responder e que guiam as etapas experimentais no desenvolvimento de fármacos.

O ponto de partida da investigação farmacológica é a procura de uma substância que, em princípio, surta o efeito desejado, apesar de algumas das suas propriedades poderem ou inclusivamente deverem ser melhoradas. Os produtos deste tipo descobrem-se por casualidade, por intuição ou mediante uma procura sistemática.

Muitos dos novos caminhos terapêuticos devem-se à casualidade. O desenvolvimento dos diuréticos, por exemplo, sofreu um impulso decisivo ao descobrir-se, por acaso, que um composto de mercúrio com o qual se estava a tratar um paciente afetado por uma doença venérea, quadruplicava e até quintuplicava a secreção de urina.

“Um caso fortuito, pôs nas nossas mãos um preparado no qual descobrimos um efeito antipirético extraordinário.” Por estas palavras, começou um artigo publicado em 1867 na prestigiosa revista Centralblatt fur Klinische Medizin que se intitula “A antifebrina, um novo antipirético.” Nele se descreve qua ao confundir-se, por equívoco, naftalina com acetanilida, se descobriu que esta substância possuía propriedades antipiréticas insuspeitadas. Como é fácil supor, depois desta descoberta, intensificou-se a investigação no campo das substâncias antipiréticas e analgésicas.

Não obstante, em muitas ocasiões, o acaso por si só não vale nada se não está unido à intuição do investigador. A descoberta da penicilina constitui um exemplo típico. Em 1928, o bacteriologista inglês Alexander Fleming observou que num dos recipientes em que cultivou bactérias, se tinham formado também fungos não desejados e que em redor destas colónias apareciam zonas isentas de bactérias. Provavelmente outros investigadores ter-se-iam limitado a deitar fora esse recipiente. Fleming, pelo contrário, intuiu a importância do processo e decidiu identificar essa substância misteriosa produzida pelos fungos que impedia a propagação das bactérias. Foram necessários dezasseis anos de trabalho árduo, até que se conseguisse isolar a forma natural desse composto a que se chamou “penicilina”. Esta descoberta não foi obra de uma só pessoa, mas de muitos investigadores que trabalhavam na Universidade e na indústria farmacêutica.

Ainda que se observe grandes êxitos no passado e no presente da farmacologia, não é possível esquecer que ainda existem muitas doenças para as quais não há uma terapia eficaz.

O corpo humano e o espaço

A exploração espacial sempre despertou no ser humano um interesse muito forte, seja por questões científicas, ideológicas ou políticas. Quando Jules Verne, nas suas ficções, olhou para o Lua como um local que poderia ser conquistado pelo Homem, estava longe de imaginar que umas décadas mais tarde a sua história se iria concretizar. Serve isto para refletir sobre a ideia científica mais arrojada da história da humanidade: colocar um ser humano em Marte.

Um projeto desta dimensão, com este grau de complexidade e com esta dificuldade pode , aos olhos de muitos, ser uma quase utopia, sendo apenas possível no grande ecrã. Acontece que, atualmente, já existe uma variedade de ideias, caminhos e protótipos tecnológicos a serem testados, para dar corpo a este empreendimento cientifico e tecnológico.

Marte é o segundo planeta rochoso mais pequeno e o quarto a contar do Sol. Tem cerca de metade do tamanho da Terra e apresenta uma atmosfera muito fina de dióxido de carbono, calotas polares de gelo e neve carbónica e um sistema meteorológico muito ativo.

Esta aventura de realizar uma viagem a Marte divide-se em dois semi-projetos: primeiro fazer orbitar seres humanos em torno de Marte e em segundo lugar colocar seres humanos na superfície de Marte e construir uma colónia no planeta. Deixando de lado o segundo, porque se trata de objectivo que, se tudo correr e sem sobressaltos, ocorrerá depois da década de 40 deste século, foquemos a atenção no primeiro.

A viagem a Marte tem problemas de um complexidade extrema, a nível tecnológico e para o organismo humano, devido à ausência de gravidade e à exposição prolongada à radiação solar. Ainda que em Hollywood os filmes retratem uma realidade muito distinta, o organismo humano sofre bastante com a permanência prolongada no espaço. Quando falamos de uma permanência prolongada no espaço devemos ter em conta que uma viagem a Marte nunca demoraria menos de 3 anos, dos quais cerca de 500 dias seriam no planeta vermelho, uma vez que as oportunidades de viajar até Marte surgem a cada dois anos, aproximadamente, devido à posição do planeta relativamente à Terra e ao Sol.

A exposição do corpo humano à gravidade zero reflete-se nos ossos, com a perda de 1% de massa óssea por mês. A visão também é afetada, aparentemente porque líquido retido no cérebro pressiona os seus globos oculares. Ora, num cenário como este, os astronautas que pousassem em Marte iriam ter um visão desfocada e ossos quebradiços. Também a radiação representa um perigo, uma vez que durante a viagem os astronautas estariam vulnerareis à radiação proveniente das erupções solares e dos raios cósmicos. Estes últimos podem danificar o ADN e as células cerebrais, o que pode significar que os astronautas podem chegar a Marte menos inteligentes. Por outro lado, a permanência num espaço confinado, como seria a nave, durante um período tão longo poderá trazer problemas comportamentais que não se encontram totalmente estudados.

Por mais complexo e difícil que seja este desafio, cabe a esta geração honrar gerações de navegadores, de exploradores e de astronautas que com o seu empenho, arte, dedicação e sacrifício deram a conhecer novos mundos.

Entre o manto e a crosta

 

No artigo anterior seguimos na pegada de Jules Verne no interior da Terra, hoje continuamos esse percurso fazendo um zoom in nas camadas imediatamente a seguir ao núcleo – o manto e a crosta. O manto é uma camada com 2900 km de espessura formada por rochas mais densas do que a crosta terrestre. A cerca de 670 km de profundidade produz-se a aceleração das ondas sísmicas (as que resultam de movimentos bruscos no foco           de um sismo), e isto permite definir um limite entre o manto superior e o inferior. Trata-se de um fenómeno que é produto de uma alteração da estrutura, que passa de um meio plástico para outro rígido, sendo possível que se mantenha a composição química em geral.

A crosta continental cresceu por uma diferenciação química do manto superior, que se iniciou há 3800 milhões de anos. Na zona superior do manto ocorrem correntes de convenção, semelhante à água quente que ferve numa panela, que se deslocam da porção mais quente (a inferior) para a mais fria (a superior). Estas correntes de convenção são o motor que move as placas da crosta terrestre.

A zona de transição entre a crosta e o manto terrestre tem o nome de descontinuidade de Mohorovcic, tendo sido situada entras as placas da litosfera rígida e a astenosfera plástica. No entanto, estudos recentes indicarão que essa fronteira se encontra, na realidade, mais abaixo, a cerca de 70 km abaixo da crosta oceânica e mais 150 km abaixo da crosta continental, ou seja, em pleno manto superior. Assim, o manto que se situa imediatamente por baixo da crosta é composto por materiais relativamente frios (rondariam os 100ºC) e isto demonstraria que a descontinuidade de Mohorovcic é mais química do que física.

Na zona do manto superior, as velocidades das ondas sísmicas oscilam entre os 8 e os 8,2 km/s. Isto indica que superam as registadas na crosta inferior, que vão dos 6,5 aos 7,8 km/s. Os dados geofísicos demonstram que entre os 50 e os 200 km de profundidade ocorre uma diminuição da velocidade das ondas sísmicas longitudinais (que vibram no sentido da propagação e que são chamadas ondas P) e uma forte atenuação das ondas sísmicas transversais (que vibram no sentido transversal à propagação e são chamadas ondas S). Por isso, esta região é conhecida pelo nome de “zona de baixa velocidade”.

Ali predominam as rochas denominadas peridotitos, que são rochas de textura granulosa formadas usualmente por minerais dos tipos olivina magnésica e piroxena. Embora sejam raras à superfície, afloram em algumas ilhas vulcânicas, em camadas levantadas por via de formação de montanhas.

O manto inferior inicia-se na descontinuidade de Mohorovicic e estende-se até à descontinuidade de Gutenberg, aproximadamente a 2900 km de profundidade, na transição para o núcleo. Está separado da astenosfera pela descontinuidade de Repetti, sendo assim, uma zona essencialmente sólida e de muito baixa plasticidade.

Nesta região, a densidade aumenta de forma linear de 4,6 para 5,5. Vários modelos propostos sugerem também que o manto inferior contém mais ferro do que o manto superior. Além disso, a temperatura varia: passa de 1000 para 3000 ºC e aumenta com a profundidade como consequência da desintegração radioativa. Aumenta também por condução a partir do núcleo externo, devido ao magnetismo terrestre.

Quanto à camada que está imediatamente a seguir ao manto – a crosta terrestre, podemos referir que não é homogénea. Trata-se da camada onde o Homem assenta toda a sua atividade, estando dividida na camada oceânica e na camada continental. A camada oceânica, que está por baixo dos oceanos, tem apenas cerca de 5 km de espessura e é formada por minerais mais pesados do que os da camada continental, que alcança até 65 km de espessura.

Por fim, é de salientar que a crosta continental caracteriza-se por ser composta por rochas ácidas, sedimentos de muito maior espessura e uma maior percentagem de rochas sedimentares e metamórficas. A crosta oceânica, pelo contrário, é formada essencialmente por rochas basálticas, os sedimentos são muito escassos e as rochas metamórficas menos frequentes. Desta forma, a crosta continental  é ligeiramente menos densa do que a oceânica e situa-se acima desta.

Façamos como o professor Lindenbrock e seus sobrinhos, e iniciemos 2015 embrenhados na descoberta do centro da Terra.

O pior dos cenários

O pior dos cenários confirmou-se. O Schiaparelli morreu ao embater em Marte. Os dados recolhidos pela ESA permitem concluir que este módulo desligou os porpulsores antes do previsto, o que provocou um violento impacto na superfície rochosa do planeta.

Agora é analisar os dados, estudar o que correu e preparar nova missão….

schiaparelli

O módulo espacial europeu nas últimas preparações antes da partida para o espaço ESA/B. BETHGE

Medição do Tempo

A divisão do tempo desempenhou uma função decisiva na vida do homem desde há muito milénios. As unidades de tempo naturais foram antes de mais o ano com as diferentes estações, bem como o dia. Também o mês, ou seja o período orbital da Lua à volta da Terra, ou mudanças da fases lunares, se pode considerar uma divisão natural do tempo. Surgiram outras possibilidades de articular lapsos de tempo, mais ou menos longos segundo os acontecimentos  meteorológicos periódicos, como chuvas ou inundações.

A divisão do dia em horas foi uma articulação adicional, mais artificial. Mais a este respeito, o número 12 remonta ao das 12 constelações do Zodíaco ou seja número 12 dos meses do ano. Antigamente, costumava dividir-se o dia “de luz” em 12 horas desde o nascer ao pôr do Sol, do mesmo modo que o dia “de escuridão”, do pôr ao nascer do Sol. O que trazia consigo que a duração das horas fosse muito diferente segundo as estações. No inverno, as horas diurnas eram mais curtas que asa horas noturnas, ocorrendo o contrário no verão. Apenas mais tarde se introduziram horas de igual duração numa sucessão de 0 horas a 24 horas. A divisão da hora em 60 minutos e do minuto em 60 segundos, bem como sucessivas parte decimal do segundo, foi sendo introduzido no decorrer dos tempo, com o aumento das possibilidades e necessidades científicas e técnicas, em especial nas comunicações.

Como se pode verificar pelo dito até ao momento, a contagem do tempo é uma invenção humana pelo que foi necessário inventar instrumentos que realizassem essa medição. O aparelho mais simples para medir o tempo foi o pau cravado verticalmente no solo; com a luz do Sol observava-se a sua sombra projectado no solo. A partir deste evoluiu a longo prazo o relógio de Sol.

Os primeiros relógios mecânicos (relógios de engrenagens) desenvolveram-se até ao ano 1300. Os primeiros relógios de bolso de volante, ou seja, com regulação do movimento resolvido por meio de pequenos volantes com uma mola em espiral, apareceram em 1509.

O astrónomo inglês Christian Huygens propôs, em 1657, usar um pêndulo para regular o movimento. De acordo com os seus dados, o primeiro relógio deste tipo foi construído na Holanda, por Salomão Coster. Estes relógios de pêndulo foram, quase durante trezentos anos, o melhor instrumento de verificação do tempo nos instituto astronómicos. No decorrer do tempo aperfeiçoou-se substancialmente a qualidade do pêndulo com o fim de compensar as variações de comprimento devidas a oscilações térmicas. A exatidão do movimento dos relógios pendulares astronómicos, na sua maioria instalados em quartos subterrâneos com temperaturas relativamente constantes e sob pressão atmosférica reduzida, variava entre 0,01 e 0,02 segundos por dia.

Em 1934, inventou-se, no Instituto Físico-Térmico Imperial de Berlim, o relógio de quartzo. Em condições ótimas de instalação de um relógio de quartzo (por exemplo, constância térmica, tendo em conta o envelhecimento dos cristais de quartzo), a exatidão em relação um relógio de pêndulo pode ser muito aumentada ao ponto de averiguar-se, por exemplo, oscilações de períodos curtos na velocidade de rotação da Terra, impossível de descobrir por meio de observações puramente astronómicas com um relógio de pêndulo.

Um novo progresso foram os relógios atómicos ou moleculares , introduzidos depois da Segunda Guerra Mundial, que utilizam as oscilações de átomos ou moléculas como amoníaco ou césio para regular a constância do movimento do relógio. Neles, a exatidão em relação aos relógios de quartzo melhora, uma vez mais, num fator de 100 até 10000, quando falamos em relógios atómicos de hidrogénio.

Olhando para a sociedade atual, talvez a próxima evolução nos relógios passe pela construção de um que dê para parar o tempo de quando em quando.

Espreitando os nosso vizinhos

Desde que os homens começaram a viver em grupo, as pessoas têm procurado entender os céus. Os nossos antepassados procuravam nos céus. mensagens dos deuses que os orientassem, sinais celestes que lhes indicassem as melhores alturas para semear e fazer as colheitas. Ainda hoje, milhares de anos mais tarde, mantemos o fascínio pelo céu, embora por diferentes razões.

Para observar os nosso vizinhos podemos utilizar uma vasta panóplia de instrumentos e técnicas. Neste texto, vamos abordar as técnicas que têm por base a utilização das diferentes gamas de  radiação eletromagnética que faz parte do espetro. A radiação eletromagnética inclui toda uma família de ondas que são formadas pelas oscilações de campos magnéticos. Dito de outro modo, é o intervalo completo da radiação eletromagnética, que contém, desde as ondas de rádio, as microondas, infravermelhos, a luz visível. os raios ultravioleta, os raios x e os raios gama.

Radioastronomia

A parte rádio do espetro eletromagnético é a maior, com comprimentos de onda muito grandes de 1 mm a 30 m. A radioastronomia teve origem em 1931/1932, quando o radioastrónomo Karl Jansky descobriu para sua surpresa que o próprio céu parecia emitir ondas de rádio – na verdade, a emissão vinha da galáxia Via Láctea. Hoje em dia, as radioastronomia é uma área de investigação imensa. Não só há muitos fenómenos que emitem ondas de rádio – radiogaláxias, pulsares, o fundo cosmológico, chamado cmb (cosmic microwave background) -, mas o espetro de rádio é acessível do solo na sua totalidade, uma vez que a nossa atmosfera é transparente às ondas de rádio.

Astronomia de infravermelhos

 Logo a seguir ao espetro visível para os seres humanos vem, no domínio do espetro eletromagnético, a gama do infravermelho. Embora, não possamos ver os infravermelhos, conseguimos detectá-los, sob a forma de calor. Entre os objetos astronómicos que emitem esta radiação quente, estão objetos muito frios, como regiões de formação de estrelas, discos protoplanetários e núcleos de algumas galáxias ativas. A astronomia de infravermelhos é importante, mas a investigação com base no solo – embora possível em alguns comprimentos de onda – é dificultada pela nossa atmosfera. Assim, para levarem o cabo o seu trabalho de investigação com mais eficácia, os astrónomos têm de recorrer aos satélites infravermelhos.

Astronomia de ultravioletas

 O ultravioleta, como o nome sugere, é radiação eletromagnética com comprimentos de onda para lá do extremo violeta do espetro, visível e não visível para o olho humano. Muitos objetos – incluindo galáxias ativas, supernovas e, como é evidente, o Sol – emitem radiações perigosas. Felizmente para os astrónomos, a astronomia de ultravioleta apenas pode ser levada a cabo com a ajuda de satélites. A astronomia de ultravioletas começou com uma série de satélites no final dos anos 60, mas só em 1978 o International Ultraviolet Explorer mostrou realmente aos astrónomos que havia de facto muitas fontes de ultravioletas no cosmos.

Astronomia de raios X e raios gama

Na direção do azul do espetro eletromagnético e do ultravioleta está a zona dos raios X, com comprimentos de onda muito pequenos, até aos 0,01 nanómetros. Iniciando-se nos curtos comprimentos de onda (os raios X) e estendendo-se para as ainda mais curtas ondas (os raios gama). Os raios X e os raios gama são as formas de energia mais energéticas, emitidas por processos físicos extremos e muito violentos.

Estes são alguns exemplos de como a observação astronómica não se limita aos telescópios tradicionais baseados na luz visível dos astros que chega até nós.

Image52

Fig. 1 – Espetro eletromagnético (imagem retirada de http://fisica.ufpr.br/grimm/aposmeteo/cap2/cap2-2.html)