quarta-feira, 19 de maio de 2010

Cometa Halley semeava pânico em 1910

No dia 19 de maio de 1910, o cometa Halley voltou a se aproximar da Terra, depois de 76 anos. O fato gerou pânico entre os que acreditavam ser o final do mundo.


Os charlatães enriqueceram com a venda de máscaras de gás, garrafas de oxigênio e até comprimidos milagrosos que protegeriam do cometa. A alemã Olga Hallenberg, então com 10 anos, contou que o medo dos adultos naquele maio de 1910 a marcou muito:

"Lá no céu estava aquele enorme cometa, com sua longa cauda, que varreria nosso planeta. Dizia-se que seus gases mortais desvastariam a Terra e a pele das pessoas seria simplesmente dissolvida. Meu pai nos tranquilizou, dizendo que, se isso seria a morte, ao menos morreríamos todos juntos!"

E o pai estava correto ao não se deixar levar pelo pânico e as crenças populares. A enorme cauda do cometa realmente não significou perigo algum. O astrônomo Klaus Lindner explica:

"A cauda é formada por gases inofensivos. Em grande parte, trata-se de vapor d'água, com pequenas partes de hélio e amoníaco."

Núcleo de 30 a 40 quilômetros
O nome do astro celeste vem de seu descobridor, o astrônomo britânico Edmond Halley. Ele calculou as órbitas de cometas já no século 18 e descobriu que este se movimentava em elipse, por isso retornaria a cada 75 anos. E quando o Halley realmente apareceu no céu em 1910, conforme o previsto, foi batizado com o nome do cientista.

Para se ter uma idéia do espetáculo, basta dizer que sua cauda media o dobro da distância entre a Terra e o Sol. Seu núcleo tinha um diâmetro entre 30 e 40 quilômetros. Os cientistas começaram a observá-lo em setembro de 1909, mas só em março do ano seguinte ele passou a ser visto a olho nu.

Por passar tão próximo do Sol, o fenômeno foi mais intenso, a cauda era mais visível, sua iluminação, mais forte, e ele permaneceu no céu por mais tempo. O Cometa Halley passou pela Terra em 1986 e retornará no ano de 2061.

Fonte: Gábor Halász (rw)/DW

1º Prêmio de Inovação Biotecnológica em Saúde Humana no Brasil

Prêmio de inovação biotecnológica
A Fundação Biominas e a Associação da Indústria Farmacêutica de Pesquisa lançaram o 1º Prêmio de Inovação Biotecnológica em Saúde Humana no Brasil.

O objetivo é estimular a pesquisa inovativa em saúde humana e a interação dos agentes de pesquisa que atuam em empresas ou mantêm projetos em parceria com a iniciativa privada.

O prêmio é organizado em três categorias: Interação Universidade-Empresa, Esforço Inovador e Personalidade do Ano.

A primeira é destinada a pesquisadores vinculados a universidades ou institutos de pesquisa que interajam com empresas no Brasil. Os interessados devem apresentar um trabalho cujo resultado seja um produto ou serviço tecnológico com aplicação na área da saúde humana.

Os critérios de avaliação utilizados envolvem o caráter inovador, impacto econômico, social e ambiental, eficiência do processo de interação universidade-empresa e estágio de desenvolvimento do produto ou serviço final.

A categoria Esforço Inovador é destinada a empresas e se divide nas subcategorias: empresas startups, empresas nacionais e empresas estrangeiras.

Personalidade do Ano selecionará um profissional de destaque no cenário de inovação biotecnológica nacional.

As inscrições poderão ser feitas até o dia 7 de julho pelo site www.biominas.org.br/premio.

Mais informações pelo e-mail ou (31) 3303-0005.

Fonte:Agência Fapesp

USP desenvolve instrumento que permitirá ao telescópio Soar adquirir imagens de outras galáxias com nitidez inédita

Nitidez sem precedentes

O telescópio Soar, localizado em Cerro Pachón, no Chile, receberá em julho o Filtro Imageador Sintonizável Brasileiro (BTFI, na sigla em inglês), equipamento cujo desenvolvimento foi coordenado no Instituto de Astronomia, Geofísica e Ciências Atmosféricas (IAG) da Universidade de São Paulo (USP).

Ao ser acoplado ao telescópio, o instrumento – que custou cerca de US$ 1 milhão e foi financiado pela FAPESP – permitirá imagear os movimentos relativos internos de galáxias distantes. O consórcio Soar (sigla para Southern Observatory for Astrophysical Research) também conta com apoio financeiro da FAPESP.

Versátil, o equipamento que combina três novas tecnologias de ponta poderá ser utilizado desde estudos de galáxias próximas e do meio interestelar, até estudos em cosmologia observacional.

O projeto, coordenado pela professora do IAG Claudia Mendes de Oliveira – que é também membro da coordenação da área de Astronomia e Ciência Espacial da FAPESP –, teve participação da Escola Politécnica da USP, do Instituto Nacional de Pesquisas Espaciais (Inpe), do Laboratório Nacional de Astrofísica, da Universidade Federal do Pampa (Unipampa-RS), do Laboratório de Astrofísica de Marselha (França) e da Universidade de Montreal (Canadá).

O diretor científico da FAPESP, Carlos Henrique de Brito Cruz, e o pró-reitor de Pesquisa da USP, Marco Antonio Zago, foram recebidos no IAG, nesta terça-feira (18/5), para conhecer detalhes do BTFI.

De acordo com um membro da equipe científica do projeto, João Steiner, professor do IAG e coordenador do INCT de Astrofísica – que é financiado pela FAPESP e pelo Conselho Nacional de Desenvolvimento Científico e Tecnológico (CNPq) –, o objetivo da reunião foi fazer uma apresentação do equipamento antes de enviá-lo ao Chile.

“A astronomia brasileira estabeleceu um programa de instrumentação de nível internacional e está finalizando a construção de mais um equipamento. Quisemos apresentar esses resultados ao diretor científico da FAPESP e ao pró-reitor de Pesquisa da USP a fim de destacar a capacidade do Brasil em produzir instrumentação de ponta”, disse Steiner.

O equipamento, segundo ele, foi produzido em tempo recorde: apenas três anos. Ainda assim, seu desenvolvimento resultou em nove teses na área de tecnologia. “Trata-se de um equipamento astronômico, mas sua produção envolveu pesquisa em softwares, detectores, mecânica e outras áreas relacionadas a tecnologias de ponta. Com isso, o projeto rendeu treinamento de pessoal em alto nível”, destacou.

Óptica adaptativa
O BTFI, segundo Steiner, será acoplado a um módulo que corrige os efeitos da turbulência na atmosfera. Essa correção, aliada à qualidade de imagem do novo equipamento, resultará em imagens com nitidez inédita. Com isso, o Soar obterá uma performance não atingível para telescópios de porte semelhante.

“Como sabemos, as galáxias estão continuamente se afastando de nós. Mas, no interior delas, existe muitas vezes uma rotação complexa, com cada braço espiral girando em velocidade ligeiramente diferente dos outros. Com o BTFI será possível fazer um mapa extremamente preciso dessas diferentes rotações, registrando a movimentação relativa do interior das galáxias. Esses estudos serão fundamentais para entender a cinemática e a dinâmica das galáxias”, explicou.

O equipamento terá nitidez de 0,2 segundo de arco, o que equivale a uma qualidade três vezes melhor do que qualquer outra atingida até hoje, segundo Steiner. A nitidez em cor, por outro lado, poderá variar desde mil ângstrons até um sétimo de ângstron. O instrumento permitirá a aquisição de “cubos de dados” tridimensionais – com duas dimensões espaciais e uma dimensão espectral.

“O diferencial do novo equipamento é que nenhum instrumento dessa natureza tem a nitidez espacial que ele é capaz de atingir. Essa nitidez incrível só será possível porque o BTFI será o primeiro equipamento operado com óptica adaptativa – isto é, com técnicas capazes de compensar os efeitos da turbulência atmosférica”, disse.

A nitidez em cores sem precedentes é outra característica especial do BTFI, segundo Steiner. “Podemos ajustar o equipamento em qualquer resolução em cor, desde a mais alta até a mais baixa, com qualquer intervalo que se considere desejável”, indicou.

Fonte: Fábio de Castro / Agência FAPESP

Unesp cria programa para quantificar e combater perdas na rede de distribuição de energia elétrica

Energia mantida
Nos caminhos entre a usina geradora de energia elétrica e as tomadas nas casas dos consumidores, o Brasil perde cerca de 18% da eletricidade que produz. Isso equivale à geração de uma usina de porte médio, como a de Ilha Solteira, no noroeste do Estado de São Paulo, com capacidade de 3.400 MW.

Estima-se que a maior parte dessas perdas, entre 10% e 12% da produção, esteja na parte final do sistema: a distribuição. Uma pesquisa coordenada pelo professor Antonio Padilha Feltrin, no Departamento de Engenharia Elétrica do campus de Ilha Solteira da Universidade Estadual Paulista (Unesp), resultou na criação de uma metodologia e de um software para auxiliar as companhias de distribuição a calcular e identificar os pontos mais vulneráveis às perdas.

Intitulado “Análise de tensão e de perdas elétricas em sistemas de distribuição de energia elétrica”, o projeto de pesquisa recebeu apoio da FAPESP por meio da modalidade Auxílio à Pesquisa – Regular e contou com a colaboração da Elektro, companhia de distribuição de energia do interior paulista que compartilhou dados técnicos com os pesquisadores.

O setor elétrico subdivide-se em três etapas: a geração, que ocorre nas usinas; a transmissão, referente ao trecho entre as geradoras e as subestações; e a distribuição, que compreende a rede que liga as subestações aos consumidores. Este último trecho é o mais complexo, além de responder pela maior parte das perdas, por isso foi o alvo da pesquisa.

“Trata-se de uma imensa quantidade de dados e que não estão facilmente disponíveis para as empresas”, disse Padilha à Agência FAPESP. Para identificar perdas na transmissão, por exemplo, é preciso verificar as diferenças entre a energia recebida nas subestações e a quantidade que saiu da usina.

No entanto, na distribuição o cálculo é muito mais complexo. De cada subestação sai uma malha que percorre os postes pelas ruas e avenidas da cidade. O simples cálculo de perdas exige a somatória dos medidores de todas as unidades consumidoras.

Nessa etapa, os maiores responsáveis por perdas são os transformadores de energia elétrica. Quando dimensionados acima da capacidade necessária, esses dispositivos provocam grandes perdas, de acordo com o professor da Unesp.

Além deles, há perdas inerentes aos outros equipamentos, como os medidores e os próprios cabos condutores. Isso sem contar as chamadas perdas “não técnicas” que dizem respeito à interferência ou à omissão humana como, por exemplo, erros de medição, medidores não calibrados e os furtos de energia conhecidos popularmente como “gatos”.

“Em alguns Estados, as perdas não técnicas respondem pela maior quantidade perdida”, afirmou Padilha. Do total entre 10% e 12% da energia produzida e perdida nas redes de distribuição, as perdas técnicas representam entre 4% e 8%. O restante são perdas não técnicas, cuja principal fonte são os furtos, praticados por pequenos e até por grandes consumidores.

O professor da Unesp explica que zerar perdas é impossível, mas o índice brasileiro pode ser bastante reduzido se forem tomadas medidas precisas. No entanto, qualquer plano de ação depende do levantamento de uma enorme quantidade de informações, o que é um trabalho bastante complicado.

“Os sistemas disponíveis mais completos envolvem tantas informações que são inviáveis para se aplicar com frequência. Por outro lado, os sistemas mais simples podem ser empregados periodicamente, mas são incompletos e subestimam perdas”, apontou Padilha.

Prático e completo
O dilema da equipe da Unesp foi reunir as vantagens dos dois tipos de aplicativos sem reproduzir as desvantagens. Para isso, uma nova metodologia teve de ser desenvolvida e, a partir dela, foi criada um programa computacional.

Ao ser aplicado em uma parte da empresa Elektro, o software foi comparado aos programas mais completos e também aos mais simplificados e se mostrou bastante preciso, apresentando resultados bem próximos aos dos programas tradicionais. E o melhor, segundo Padilha, foi que funcionou de maneira rápida.

“As empresas precisam fazer esses cálculos pelo menos uma vez por mês, por isso é importante que os resultados sejam apresentados rapidamente”, disse.

Para aplicar os programas mais complexos, as empresas costumam manter uma equipe dedicada a esse tipo de medição, o que resulta em mais custos. O software produzido na Unesp reduz o trabalho braçal de levantamento e inserção de dados e apresenta resultados após algumas horas.

O projeto de pesquisa também incluiu a tese de doutorado “Gestão integrada técnica e econômica das perdas elétricas de empresas de distribuição de energia elétrica”, defendida em setembro de 2009 por Marcelo Escobar de Oliveira com apoio de uma Bolsa de Doutorado Direto da FAPESP.

Agora, o grupo pretende aprimorar o programa, inserindo probabilidades de ocorrência. “Com isso, aumentaremos a qualidade dos resultados. Em vez de dar apenas um número, diremos qual é a faixa de precisão”, disse Padilha.

Fonte: Fábio Reynol / Agência FAPESP

XX Seminário Nacional de Parques e Incubadoras



Fonte:Anprotec