quarta-feira, 16 de junho de 2010

Inpe e Unicamp: Vulnerabilidades das Megacidades Brasileiras às Mudanças Climáticas: Região Metropolitana de São Paulo

Vulnerabilidades na mira
Caso siga o padrão de expansão apresentado na última década, a mancha urbana da Região Metropolitana de São Paulo terá o dobro do tamanho em 2030, com aumento dos riscos de enchentes e deslizamentos. A maior parte da expansão urbana deverá ocorrer exatamente nas áreas mais vulneráveis às consequências das mudanças climáticas e a maior parte dos impactos será sofrida pelos mais pobres.

Essas são algumas das conclusões do relatório Vulnerabilidade das Megacidades Brasileiras às Mudanças Climáticas: Região Metropolitana de São Paulo, apresentado nesta terça-feira (15/6) na capital paulista em um debate promovido pelo Instituto Nacional de Pesquisas Espaciais (Inpe), pela Universidade Estadual de Campinas (Unicamp) e pelo jornal Folha de S. Paulo.

O estudo, que faz projeções climáticas para os próximos 20 anos e cenários futuros entre 2070 e 2100, formou a primeira base para a produção de mapas qualitativos de riscos de deslizamentos, enchentes e riscos sobre a saúde na região, indicando espacialmente as vulnerabilidades frente aos efeitos do aquecimento global.

Os dados do relatório mostram que uma elevação média na temperatura da região metropolitana de 2 ºC a 3 ºC poderá dobrar o número de dias com chuvas intensas na capital paulista. Segundo a projeção, o número de dias e noites quentes deverá aumentar, com diminuição no número de dias e noites frios. Mais de 20% da área total da expansão urbana da região metropolitana estará vulnerável em 2030. Cerca de 11% das novas ocupações poderão ser feitas em áreas de risco de deslizamento.

Participaram do estudo pesquisadores do Centro de Ciência do Sistema Terrestre (CCST) do Inpe, do Núcleo de Estudos de População (Nepo) da Unicamp, da Faculdade de Medicina da Universidade de São Paulo (USP), do Instituto de Pesquisas Tecnológicas de São Paulo (IPT) e da Universidade Estadual Paulista (Unesp).

O relatório foi apresentado por Carlos Afonso Nobre, pesquisador do Centro de Previsão de Tempo e Estudos Climáticos (CPTEC), do Inpe, que participou, em seguida, de debate sobre o estudo com o vereador Gilberto Natalini, o secretário municipal do Verde e do Meio Ambiente de São Paulo, Eduardo Jorge, e o ex-secretário executivo do Fórum Paulista de Mudanças Climáticas e Biodiversidade, Fábio Feldmann.

De acordo com Nobre, o estudo é o primeiro resultado de uma linha de projetos interdisciplinares que tem apoio do Programa FAPESP de Pesquisa sobre Mudanças Climáticas Globais (PFPMCG), do qual é coordenador, do Instituto Nacional de Ciência e Tecnologia (INCT) para Mudanças Climáticas e da Rede Brasileira de Pesquisas sobre Mudanças Climáticas Globais (Rede-Clima).

O estudo seguiu um formato inovador. Depois de uma primeira consulta com especialistas e gestores sobre o conceito de vulnerabilidade, foram realizados em 2009 dois painéis que reuniram equipe técnica, gestores e especialistas do Brasil e do exterior para discutir as vulnerabilidade das duas principais megacidades brasileiras – São Paulo e Rio de Janeiro – às mudanças climáticas globais. O painel paulista foi realizado na FAPESP.

“A cidade de São Paulo já está apresentando mudanças climáticas gigantescas nos últimos 50 anos. Além dos impactos da mudança climática global, a cidade também tem uma modificação suplementar “, disse Nobre.

Medições no bairro da Saúde, por exemplo, mostraram aumento de 2,1 ºC desde a década de 1930. As chuvas aumentaram em mais de 20%, chegando a 295 milímetros, e a diminuição da umidade relativa do ar chegou a 7%. O fenômeno das ilhas de calor também foi marcante na capital paulista: foram registradas diferenças de até 7 ºC entre áreas do centro e da periferia.

“Se em 1930 as chuvas muito intensas, de 50 milímetros, eram eventos que ocorriam anualmente, agora elas acontecem quatro vezes por ano em média”, disse Nobre.

Para construir os cenários, os pesquisadores aplicaram um modelo de projeção de mancha urbana associado ao modelo conhecido como Hand, que permitiu identificar as possíveis áreas que teriam ocupação urbana no futuro e qual o risco potencial, caso o padrão de uso e ocupação do solo atual se perpetue sem nenhuma alteração e controle.

“A vulnerabilidade tem três componentes principais: chuva, declividade e uso do solo. Se uma região de média declividade for coberta por vegetação, o risco é pequeno. Mas se essa mesma região é ocupada por uma favela, ou um lixão, com drenagem muito precária, o risco pode ser altíssimo”, disse Nobre.

Segundo o relatório, hoje cerca de 30% da população da região metropolitana de São Paulo, ou aproximadamente 2,7 milhões de pessoas, vive em comunidades, cortiços e habitações precárias, muitas vezes ilegais.

Concentrações significativas de áreas de risco de escorregamentos estão presentes na Zona Sul da capital paulista (Jabaquara, Cidade Ademar, Pedreira, Cidade Dutra, Jardim Ângela, Capão Redondo e Campo Limpo). Nessa região, estão concentradas mais de 50% das favelas em São Paulo.

Nas demais regiões, as áreas de risco localizam-se na Zona Oeste (Butantã e Jaguaré), na Zona Norte (Perus, Pirituba, Jaraguá, Brasilândia, Freguesia do Ó e Tremembé) e na Zona Leste (Sapopemba, São Mateus, Aricanduva, Vila Formosa, Vila Prudente e Itaquera).

Não repetir erros
O estudo dividiu as vulnerabilidades em diversas categorias, definindo os principais cenários de risco, como enchentes e inundações, enxurradas com alto potencial de arraste, alagamentos em diferentes pontos, lixo lançado nos cursos d’água, escorregamentos de massa em encostas e eventos pluviométricos mais severos. O trabalho avaliou também os diversos impactos das mudanças climáticas sobre a saúde humana.

“Os impactos das enchentes e inundações, por exemplo, deverão atingir habitações, atividades industriais, comerciais e o sistema de transporte urbano e rodoviário, com contribuição da expansão das vias em áreas de várzea para atender ao crescimento da demanda de tráfego”, disse Nobre.

Os impactos sobre a saúde incluem aumento de incidência de alergias – como rinite e asma – e da intensidade e duração dos sintomas por causa da poluição atmosférica. “Utilizando modelos com dois parâmetros – poluição e temperatura –, observou-se que esses fatores explicam 80% dos casos dos picos de internações por doenças das vias respiratórias inferiores”, afirmou.

Segundo Nobre, embora não tenha sido seu objetivo principal, o relatório também aponta medidas de adaptação que as cidades da região metropolitana terão que buscar.

"Uma das recomendações mais importantes é não repetir os erros do passado quanto aos padrões de expansão urbana", disse Nobre. De acordo com o estudo, será preciso aumentar os investimentos em pesquisas voltadas para modelagem do clima, assim como na elaboração de modelos hidrológicos que permitam ações preventivas. Haverá ainda necessidade de investir em transportes coletivos e de criar áreas de proteção ambiental nas áreas de várzeas de rios.

Segundo Natalini, a votação da Lei de Mudanças Climáticas de São Paulo demonstra que a Câmara Municipal da cidade está empenhada em discutir o tema e em contribuir para as adaptações necessárias na cidade. “O problema é muito grave e o desafio de São Paulo é imenso, porque a cidade, em geral, não teve qualquer planejamento durante sua fase de maior expansão”, disse.

Jorge afirmou que, embora o tema das mudanças climáticas venha sendo mais comentado atualmente, é necessário agora encarar de frente o tema das adaptações. “A cidade de São Paulo está descobrindo que essa não é apenas uma questão ambiental, mas também econômica e social. Estamos começando a perceber agora que as mudanças climáticas precisam ser tratadas como um tema transversal, em todas as esferas de governo, e horizontal, em todas as secretarias”, disse.

Feldmann destacou a qualidade científica do trabalho e a capacidade de articulação institucional demonstrada na realização do estudo. “Um dos principais méritos do estudo é sinalizar para o cidadão com a noção de que ele é um protagonista do processo. A emissão de gases de efeito estufa, por exemplo, depende do seu comportamento”, afirmou.

* Leia o sumário executivo do estudo Vulnerabilidades das Megacidades Brasileiras às Mudanças Climáticas: Região Metropolitana de São Paulo.

Fonte: Fábio de Castro/ Agência FAPESP

UNICAMP aprimora tecnologia que reduz poluição de motores diesel

Pesquisa desenvolvida pelo engenheiro mecânico Lucas Lázaro Ferreira Squaiella obteve, por meio do aperfeiçoamento de uma técnica, a redução significativa da emissão de poluentes gerada por veículos equipados com motor a diesel. O poluente mais abundante produzido por este tipo de motor, o óxido de nitrogênio (NOx), teve seu índice diminuído de 5 g/kWh para 0,4 g/kWh – unidade específica de medição que leva em conta a potência do motor, independentemente do seu tamanho. O principal resultado obtido com esse desenvolvimento foi atingir o objetivo de atender os limites de emissão previstos para entrar em vigor na Europa somente em 2014, o chamado nível Euro 6. O engenheiro trabalhou em uma técnica chamada de Recirculação de Gás de Exaustão (EGR, em inglês) na qual uma pequena quantidade de gás que sai do escape retorna à admissão. “Essa é a principal estratégia”, revelou Squaiella.

Dessa maneira foi possível modificar a forma como o combustível é queimado e, consequentemente, provocar a redução na emissão de poluentes. Foi, segundo o autor, um grande desafio porque, a partir de um motor que ele chamou de básico – por questões de mercado e custo –, acabou por utilizar tecnologias que permitiram trocar poucos componentes. Dispositivos fundamentais como o pistão, o cabeçote e o bloco do motor, por exemplo, foram mantidos. Para Squaiella, esse desenvolvimento foi muito gratificante porque, utilizando recursos de engenharia como simulação computacional e testes em dinamômetro – que são a parte experimental –, foi possível atingir a meta em diferentes etapas. A escolha do tema teve como premissa eleger algo de importante abordagem para a empresa MWM International Motores, da qual Squaiella é funcionário. O incentivo e o financiamento da pesquisa por parte da empresa resultaram no mestrado profissional em engenharia de motores, realizado junto à Faculdade de Engenharia Mecânica (FEM) sob a orientação da professora Cristiane Aparecida Martins.

Atualmente, disse o pesquisador, a maior preocupação das indústrias é desenvolver motores que sejam cada vez menos poluentes, uma vez que a preocupação com a preservação do meio ambiente é muito grande. “Estamos sempre focando nosso estudo no sentido de atender as normas de emissões, que são impostas pelo governo federal, além de atender os requisitos dos clientes, que sempre buscam um novo motor mais potente e econômico”, ressaltou. O resultado mostra que, em relação aos níveis de emissão de poluentes existentes hoje, esse novo motor polui 10 vezes menos. Trata-se de uma tecnologia simples que, para o mercado brasileiro, é visto como uma tendência. “Para o nosso país, tudo o que é tecnológico requer muito investimento. E, para completar, o Brasil tem a maior frota de caminhões e ônibus do mundo. Portanto, quanto mais barato for o produto, mais vendável ele se torna”, assegurou.

De acordo com dados da Associação Nacional dos Fabricantes de Veículos Automotores (Anfavea), a frota brasileira de caminhões gira em torno de 1,6 milhão de veículos. A idade média dessa frota é de 15 anos, um nível bastante avançado se comparado com o dos mercados mais desenvolvidos. Além disso, considera-se que esses veículos já estejam bastante desgastados por conta das más condições de operação, o que acarreta uma poluição ainda maior. E para os ônibus o quadro não é muito diferente. Atualmente circulam pelas cidades brasileiras 304 mil ônibus, de acordo com o Sindicato Nacional da Indústria de Componentes para Veículos Automotores (Sindipeças).

Aperfeiçoamento
A EGR é uma técnica relativamente antiga e sua utilização veicular teve início na década de 1970. Squaiella explicou que ela foi abandonada para aplicações em motores a diesel durante muitos anos justamente porque os combustíveis antigos continham altos teores de enxofre. Estes, após a combustão, se associavam ao vapor de água contido no escape formando o ácido sulfúrico (H2SO4) que, juntamente com os outros poluentes, eram recirculados. Altamente corrosivos, acabavam por danificar os componentes do motor.

Porém, o desenvolvimento da engenharia possibilitou uma nova utilização dessa técnica. “Hoje temos sistemas eletrônicos integrados ao motor que controlam com muita precisão o funcionamento de válvulas que usam materiais mais nobres e que resistem mais aos ataques desses elementos. Além disso, existem também tratamentos superficiais realizados nos dutos internos dos motores, para que não sofram o processo de corrosão”, observou. O sistema tem por objetivo diminuir a temperatura máxima da combustão, pois esse é o fator que mais afeta as emissões de NOx formado principalmente pelas reações do nitrogênio e do oxigênio presentes no ar.

Fumaça preta
Principal característica do motor diesel, a fumaça preta, também conhecida como material particulado, é um produto da combustão mal realizada. A cadeia de carbono do diesel, de acordo com Squaiella, é muito grande. Como termo de comparação, o etanol (álcool combustível) possui apenas um carbono, enquanto que o diesel varia de nove a 28 átomos de carbono. Em razão disso, a maior tarefa é fazer com que o motor seja muito pouco poluente em todos os aspectos, incluindo o material particulado. O próximo passo, portanto, é trabalhar a forma como esse carbono será liberado. Na forma sólida ele provoca fumaça, mas no momento o objetivo é tentar fazer com ele saia na forma gasosa, que é o CO2. “A fumaça é prejudicial porque junto dela existem outros subprodutos como carbono, óleo lubrificante e combustível não-queimado”, explicou.

Diferentemente dos motores ciclo Otto, utilizados em veículos movidos a gasolina, álcool ou GNV, onde a combustão é iniciada por uma centelha, nos motores do ciclo diesel a queima do combustível acontece por um processo de auto-ignição quando, dentro do cilindro, se atingem temperaturas e pressões ideais. E isso acontece em quatro tempos distintos. No primeiro tempo, chamado admissão, o pistão do cilindro desce e a válvula de admissão é aberta, permitindo dessa maneira a entrada de ar na câmara de combustão. No entanto, o ar passa antes pelo filtro, compressor e cooler. Esse mesmo ar preenche a câmara de combustão com a quantidade necessária de oxigênio que será utilizado na queima do combustível. Após essa etapa, vem a chamada compressão, na qual o ar fica comprimido, elevando a temperatura até a casa dos 400oC.

A terceira etapa, chamada de combustão, se dá pela injeção de diesel pressionado pela bomba injetora, por meio dos bicos injetores. A combustão ocorre quando isso acontece de forma pulverizada na câmara, que já está aquecida com uma temperatura mais alta que o ponto de ignição do combustível. Na quarta e última etapa, durante a combustão, o pistão do motor desce fornecendo torque para o motor. Na exaustão, o pistão sobe, a válvula da exaustão se abre e o gás resultante da queima é expelido para a atmosfera.

Portanto, o cilindro onde ocorre a queima deve receber, em proporções corretas, o oxigênio e o diesel para uma perfeita queima, que eliminará o mínimo de resíduos. Se esta quantidade de oxigênio for inferior à necessária para a combustão, uma parte do diesel não será queimada. Estas partículas de diesel no interior da câmara que não queimam ficam pretas e são expelidas em forma de fumaça. O diesel que não queimou não realizou o trabalho, mas foi gasto. É como um vazamento constante na tubulação durante o funcionamento do motor.

Questionado se há espaço para se buscar outras alternativas para melhorar o consumo de diesel no país e também o nível de emissão de poluentes, o engenheiro disse que atualmente trabalha no desenvolvimento de novas tecnologias. A principal delas consiste de um sistema de pós-tratamento – o conhecido catalisador – no tubo de escape, que ficará responsável por praticamente acabar com as emissões de gases nos carros. “O grande gargalo que enfrentaremos ainda são os custos de desenvolvimento e aplicabilidade”, concluiu Squaiella.

Fonte: Jeverson Barbieri / Jornal da Unicamp

FEI e UFRGS: Brasil disputa campeonato de futebol de robôs na RoboCup 2010

Brasil disputa campeonato mundial de futebol de robôs - O futebol do Brasil também pretende alcançar este ano uma vitória na área de tecnologia.

Estudantes de Porto Alegre (RS) e de São Paulo se preparam para mais uma edição do RoboCup 2010. O evento é uma espécie de Copa do Mundo dos robôs e se realiza de 19 a 25 deste mês, em Cingapura.

A competição é considerada a maior e mais importante plataforma de pesquisa em robótica do mundo e vai reunir mais de 400 equipes de 40 países.

Realizado há mais de 10 anos, o evento envolve a participação de robôs inteligentes de uma forma geral. Entre as modalidades estão as categorias: resgate, colaboração e ambiente de simulação.

Jogadores robóticos
Entre os brasileiros participantes, estão alunos da Universidade Federal do Rio Grande do Sul (UFRGS) e do Centro Universitário da Fundação Educacional Inaciana (FEI), de São Paulo.

As equipes brasileiras estão inscritas na categoria Small Size (que utiliza pequenos robôs de 15 cm de altura), também conhecida como F-180.

O grupo da FEI é formado por nove alunos dos cursos de graduação em Ciência da Computação, Engenharia Elétrica, Engenharia Mecânica, além de mestrandos.

Os universitários levam para a disputa sete robôs (cinco jogadores, sendo um goleiro, mais dois reservas). Cada jogador robô tem cinco motores e quatro rodas, além de quatro baterias de 7,4 volts.

Em 2009, a equipe da FEI ficou entre as 12 melhores colocadas no torneio realizado na Áustria. A expectativa é de ter desempenho superior nesta edição.

Futebol de robôs
Na partida, atletas e treinadores são substituídos pelas máquinas. O jogo acontece em um campo com 17,5 metros quadrados, onde os robôs são comandados por um programa executado em tempo real no computador.

Duas câmeras, instaladas a uma altura de quase quatro metros, captam as imagens da partida e as enviam ao computador, que controla os robôs por radiofrequência.

"São robôs automáticos que jogam sem a interferência humana, nós somos meros espectadores. É praticamente igual ao futebol que conhecemos, tendo a partida duração de dois tempos de cinco minutos. O juiz também é automático, neste caso uma pessoa apenas aperta os botões para indicar o que ocorreu", conta o coordenador do projeto Futebol de Robôs da FEI, Flávio Tonidandel.

Algumas regras são mais rígidas. "O atacante não pode entrar na área do adversário porque senão é falta ou pênalti. Isso é só para evitar que um robô fique obstruindo o outro", acrescenta o professor, que já acumula experiência em competições com robôs há quase sete anos.

Potência e inteligência
A parte eletrônica dos robôs jogadores utiliza a tecnologia FPGA, um microcontrolador que garante mais flexibilidade aos robôs.

Outra novidade está na parte mecânica, que ganhou motores mais potentes, de 50 watts. Os estudantes da FEI também fizeram modificações no software de inteligência artificial para garantir melhor defesa e tomada de decisões mais rápidas.

"Então, para esse ano temos um sistema de eletrônica mais apurado, mais detalhado, que dá uma capacidade de programação maior. A parte mecânica está mais estruturada, robusta e forte. Os nossos robôs antes eram mais lentos e quebravam peças facilmente ao serem atingidos com chutes muito fortes. Agora eles aguentam mais partidas de futebol", garante Tonidandel.

A equipe da FEI já se prepara para competir na categoria bípedes (robôs humanoides) da RoboCup. A expectativa é aprender nessa edição para competir em 2011. "A dificuldade é maior. Deixar o robô em pé como um ser humano. Cada um enxerga a bola de um ângulo diferente e eles precisam conversar em campo e tomar decisões", esclarece o professor.

A primeira demonstração de futebol robótico humanoide deve ocorrer no Brasil, ainda neste ano, de 23 a 28 de outubro, dentro das programações da Competição Brasileira e da Latino-Americana de Robótica, na sede da FEI.

Desenvolvimento da robótica no Brasil
De acordo com o instrutor da FEI, a participação no mundial trouxe como resultado o grande aprendizado. As competições serviram de motivação para os alunos e para estimular o desenvolvimento da robótica móvel no País, mediante avanços obtidos nas áreas de mecânica, eletrônica e inteligência artificial.

"É preciso trabalhar a parte de cooperação, movimentação e visão dos robôs. As equipes ainda trocam ideias, ciência e tecnologia. Lá fora, em nível de tecnologia, houve grande avanço e investimentos (em especial nos Estados Unidos e na Ásia) e nós também chegamos num nível que começamos a competir bem", avalia Tonidandel.

Fonte: Cimm

Metodologia para avaliação do desempenho de receptor de GPS de uso agrícola em condição cinemática

Agricultura de precisão com GPS
Um dos principais desafios da agricultura moderna é promover ganho de produtividade e economia de recursos. Com o desenvolvimento da agricultura de precisão, novas técnicas permitem que cada área receba quantidades apropriadas de adubos e corretivos e tenha tratamento localizado de plantas invasoras, pragas e doenças que contemple, além da aplicação minimizada de insumos, a redução de impacto ambiental.

Uma das técnicas utilizadas é o gerenciamento da adubação com base na amostragem sistematizada de solo. Outra – que exige a geração de mapas de produtividade – leva em consideração a produtividade da cultura ou do ciclo anterior para se fazer a reposição dos nutrientes extraídos.

Nesse cenário tem ganhado força o uso de sistemas de orientação e de direção automática de veículos (tratores, colheitadeiras, pulverizadores, entre outros) com o uso do GPS (Global Positioning System). Mas um dos desafios da agricultura com o sistema norte-americano de navegação por satélites consiste em não se saber com exatidão o desempenho desses receptores para aplicações em movimento.

Pesquisadores da Escola Superior de Agricultura Luiz de Queiroz (Esalq) da Universidade de São Paulo (USP) desenvolveram um veículo instrumentado para testar uma metodologia para ensaio cinemático com o GPS.

De acordo com José Paulo Molin, professor do Departamento de Engenharia de Biossistemas da Esalq da USP (LEB), o objetivo do experimento foi avaliar o desempenho de receptores de GNSS (Global Navigation Satellite Systems), buscando simular aplicações agrícolas cinemáticas, como mapeamento de colheitas, aplicação de insumos em taxa variável e navegações em campo.

GNSS é o termo genérico para sistema de navegação por satélites. Atualmente o único disponível é o GPS norte-americano, com o Glonass russo em processo de restauração e o Galileo europeu previsto para 2014.

“O objetivo foi qualificar melhor esses equipamentos. A literatura e a indústria oferecem informações sobre dados estáticos do GNSS, mas nas aplicações agrícolas temos necessidade de aplicação em movimento”, disse Molin.

O estudo, que foi publicado na revista Engenharia Agrícola, é um braço do Projeto Temático “GNSS: investigações e aplicações no posicionamento geodésico, em estudos relacionados com a atmosfera e na agricultura de precisão”, coordenado por João Francisco Galera Monico, da Faculdade de Ciências e Tecnologias da Universidade Estadual Paulista (Unesp), campus de Presidente Prudente, e apoiado pela FAPESP.

De acordo com Molin, responsável pelas aplicações agrícolas do Temático, a pesquisa envolve especialistas de diversas áreas com o objetivo de desenvolver algoritmos e metodologias para aplicações como agricultura de precisão, cartografia, meteorologia e monitoramento do nível médio dos mares.

“Como se trata de uma tecnologia multidisciplinar, o domínio pleno dessa tecnologia pode ser facilitado pelo desenvolvimento de um projeto que integre especialistas envolvidos nessas várias disciplinas”, disse.

Segundo Molin, os usuários brasileiros conhecem muito pouco as diferentes aplicabilidades dos receptores e diferentes categorias. “Na agricultura, existem demandas que vão dos GPS de navegação menos acurados aos mais sofisticados, que são os RTK (Real Time Kinematic), usados em tratores com piloto automático”, disse.

Segundo ele, os fabricantes de receptores utilizados em agricultura de precisão geralmente disponibilizam apenas relatórios da performance de seus aparelhos no modo estático, que nem sempre são indicativos de desempenho em movimento.

“Uma das razões da falta de informação dos fabricantes sobre a acurácia cinemática dos receptores é a ausência de padrão estabelecido para ensaios em movimento”, disse.

Para os testes com receptor GPS, os pesquisadores utilizaram um veículo que varia a velocidade e se mantém estável em uma mesma trajetória: um minitrator equipado com motor de 2,57 kW de potência, movido a gasolina, com rotação máxima de 3.500 rpm e transmissão mecânica de seis marchas.

A partir do ensaio experimental, os resultados mostraram que a metodologia possibilitou o cálculo da acurácia, necessitando apenas de melhorias nos equipamentos de aquisição de dados em ensaios de longa duração.

Seleção de receptores
De acordo com Molin, na primeira fase o objetivo foi qualificar as operações agrícolas em movimento. “Para isso, desenvolvemos o método de coleta e o procedimento de análise com o receptor em velocidades variáveis para quantificar os erros”, explicou.

A metodologia permitiu o cálculo de erros de trajeto e a caracterização do desempenho desse receptor. Mas, segundo o pesquisador, são necessárias melhorias, principalmente na robustez do coletor de dados.

Na segunda fase, o grupo busca melhorar os sistemas desenvolvidos de modo que permitam a realização de ensaios com coletas de dados em períodos mais longos e vários receptores ao mesmo tempo, para permitir comparações entre receptores, configurações e sinais de correção.

“Testamos a metodologia e vimos que funciona. Na próxima etapa, com os ajustes necessários, a metodologia poderá estabelecer uma padronização de ensaios com comparabilidade e que serviria aos usuários para a correta seleção de receptores de sistemas de navegação para diferentes demandas usuais da agricultura moderna”, indicou.

Segundo Molin, ao criar uma padronização dos ensaios de caracterização de desempenho, tanto a indústria como os pesquisadores e os usuários finais serão beneficiados com a metodologia.

“Se o produtor fez a amostragem do solo e quer colocar um receptor GPS para auxiliar o trator na aplicação de calcário, qual o nível de erro do aparelho? Quanto mais longe do alvo, mais desperdício de recursos”, disse.

Para ler o artigo Metodologia para avaliação do desempenho de receptor de GPS de uso agrícola em condição cinemática, disponível na biblioteca on-line SciELO (Bireme/FAPESP), clique aqui.

Fonte: Alex Sander Alcântara / Agência FAPESP

Prêmio México de Ciência e Tecnologia 2010

Estão abertas as inscrições para o Prêmio México de Ciência e Tecnologia 2010, voltado a pesquisadores do Caribe, América Latina, Espanha e Portugal.

Os candidatos devem ser indicados por uma instituição de pesquisa também sediada nessas regiões. A premiação anual procura estreitar as atividades internacionais de pesquisa com o México ao distinguir pesquisadores que tenham contribuído de forma significativa para o avanço tecnológico ou o conhecimento científico.

O vencedor de 2010 receberá o prêmio de 600 mil pesos mexicanos (cerca de R$ 86 mil) e deverá fazer uma série de palestras em instituições mexicanas durante uma semana.

Miguel Ángel Alario y Franco, professor da Faculdade de Ciências Químicas, da Universidad Complutense de Madrid, na Espanha, foi o ganhador da edição de 2009 do prêmio pelo desenvolvimento de novos materiais supercondutores.

As inscrições vão até o dia 1º de outubro. Mais informações sobre a premiação no Consulado do México em São Paulo e www.ccc.gob.mx ou pelo e-mail.

1º Encontro Nacional dos ALI acontece em Curitiba

O 1º Encontro Nacional dos Agentes Locais de Inovação (ALI) será realizado em Curitiba (PR), nesta quarta-feira (16) e quinta-feira (17), no Estação Convention Center. O evento, promovido pelo Serviço de Apoio às Micro e Pequenas Empresas (Sebrae), permitirá a troca de conhecimento entre as empresas inovadoras de pequeno porte. Cerca de 400 pessoas estarão no local, entre ALIs, consultores e gestores do programa.

De acordo com informações do Sebrae, o encontro encerra o ciclo de dois anos previsto no projeto. Além do Paraná e Distrito Federal, 22 unidades da Federação também aderiram ao ALI, totalizando mais de seis mil empresas atendidas. Na programação, estão incluídas palestras e oficinas onde serão apresentadas as experiências de destaque.

Participam do encontro o presidente do Sebrae, Paulo Okamotto, o diretor-técnico, Carlos Alberto dos Santos, o gerente de Atendimento Individual, Enio Pinto, e o gerente da Unidade de Tecnologia e Inovação, Edson Ferman. Ferman destacou que no encontro serão detectadas, principalmente, oportunidades de aperfeiçoamento e desenvolvimento de empresas de diferentes setores e regiões.

ALI
Os ALI são responsáveis por implementar a inovação nas micro e pequenas empresas a partir das necessidades e características de cada estabelecimento. Eles fazem um diagnóstico e apontam soluções para inovação dos empreendimentos. Também realizam a tarefa de desmistificar o processo de implementação de práticas inovadoras, que nem sempre estão ligadas à compra de equipamentos de última geração.

Profissionais recém-formados, os ALI moram na mesma região das empresas atendidas. Após serem capacitados, eles recebem bolsas, que são ligadas a fundações de pesquisa dos Estados. O trabalho dos agentes é dividido em cinco etapas: sensibilização, adesão, diagnóstico, plano de trabalho e grau de mensuração. A empresa que adere ao serviço é acompanhada durante dois anos.

Fonte: Gestão CT