A Câmara avalia proposta que proíbe a utilização e o estoque de uma série de agrotóxicos com suspeita de causarem danos à saúde e ao meio ambiente. A medida está prevista no Projeto de Lei 4412/12, do deputado Paulo Teixeira (PT-SP).
Pela proposta, ficam banidos do País os produtos com os seguintes ingredientes ativos: abamectina, acefato, benomil, carbofurano, cihexatina, endossulfam, forato, fosmete, heptacloro, lactofem, lindano, metamidofós, monocrotofós, paraquate, parationa metílica, pentaclorofenol, tiram, triclorfom e qualquer substância do grupo químico dos organoclorados.
Alguns desses agrotóxicos já foram proibidos pela Anvisa (Agência Nacional de Vigilância Sanitária). Outros ainda estão no mercado, mas contam com restrições de uso, ou estão em fase de avaliação. Segundo Teixeira, no entanto, “há evidências de que os produtos em fase de análise são altamente danosos à saúde humana”.
Pela proposta, os produtos com glifosato como ingrediente ativo deverão ser reavaliados em até 180 dias após a publicação da nova lei. Até a análise dos possíveis danos causados pelo princípio, esses produtos serão classificados como extremamente tóxicos ou altamente perigosos, com consequentes restrições de uso.
Campanha da CNTU
Em 5 de dezembro passado, na 3ª Jornada da Campanha Brasil Inteligente, as categorias representadas pela CNTU (Confederação Nacional dos Trabalhadores Liberais Universitários Regulamentados) apresentaram ações nacionais que irão desenvolver neste ano em várias áreas. Uma delas é contra o uso do agrotóxico a ser será desenvolvida pelo Sinesp (Sindicato dos Nutricionistas do Estado de São Paulo).
Desde 2008, o Brasil é o maior consumidor de agrotóxico do mundo, já perdendo para os Estados Unidos, conforme advertência do presidente do sindicato, Ernane Silveira Rosas. E apresenta, ainda, que, em 2010, 1 bilhão de litros de agrotóxicos foram jogados na agricultura nacional, equivalente a cerca de 5,2 litros desse produto por habitante ao ano.
Rosas critica o que classifica como monopólio do setor, dominado apenas por seis empresas multinacionais - Basf, Bayer, Monsanto, Syngenta, Dow e Du Pont. “É um absurdo que bilhões de pessoas estejam nas mãos dessas empresas, que faturaram, em 2010, 7,3 bilhões de dólares e, no ano passado, 8 bilhões.”
A proposta central da ação do Sinesp é exigir que o Brasil proíba a utilização dos agrotóxicos que foram banidos em seus países de origem.
* Veja aqui a apresentação de Ernane Silveira Rosas
Imprensa – SEESP
Informação da Agência Câmara de Notícias
O prefeito Fernando Haddad, após reunir-se, nesta terça-feira (2/01), com integrantes do Comitê de Ordenação Territorial e Urbana, definiu 16 ações para a prevenção de enchentes:
1. Coordenar ações de limpeza de ramais, galerias e bocas de lobo. Diminuir a periodicidade das limpezas de bimestral para quinzenal nos 132 pontos de reincidência de alagamento e nas sub-bacias de maior risco.
2. Estabelecer convênio entre a Prefeitura e a Sabesp para o uso de caminhões de hidrojatos no período de chuvas para reforçar a estrutura existente nas Subprefeituras.
3. Solicitar às concessionárias a instalação de contêineres em pontos estratégicos nas regiões do Brás, Bom Retiro, Santa Efigênia, 25 de Março e Pari para o despejo de lixo comercial em larga escala.
4. Dotar as Subprefeituras com estrutura de cavaletes, cones e faixas de sinalização, bem como planos de desvio de rota para atuarem emergencialmente em situações de alagamento até a efetiva operação da CET.
5. As concessionárias deverão providenciar caçambas de até 26 metros cúbicos, em número suficiente, nos Ecopontos, para evitar o depósito de resíduos em locais onde há risco dos detritos escorregarem para a via pública ou encostas de córregos.
6. Intensificar o monitoramento dos pontos de descarte de entulho irregular (pontos viciados). Promover, quando necessário, o recolhimento de entulho.
7. Por decreto, atribuir aos agrônomos das Subprefeituras o poder de emitir o laudo de autorização de poda de árvore.
8. Permitir, no período de enchentes, o deslocamento das equipes entre as regiões das subprefeituras para atender situações de emergência e/ou demanda acumulada.
9. Redimensionar e equilibrar a estrutura disponível para a Defesa Civil nas Subprefeituras e criar um corpo permanente de atendimento às emergências.
10. Reunir prontamente os subprefeitos e secretários envolvidos para repasse das novas orientações sobre a Defesa Civil.
11. Fazer o monitoramento e a limpeza manual e/ou mecânica dos córregos de maior incidência de chuva, evitando os pontos de estrangulamento.
12. Estudar a possibilidade de contratar imediatamente o IPT, por 120 dias, para que geólogos realizem o monitoramento dos locais mais críticos dentro dos setores avaliados como Risco Muito Alto (R4) das 407 áreas de risco mapeadas, reforçando as equipes da Defesa Civil.
13. O Centro de Gerenciamento de Emergências sairá da Secretaria de Infraestrutura Urbana e será subordinada à Defesa Civil, Secretaria de Segurança Urbana.
14. Ampliar o número de núcleos de Defesa Civil (líderes comunitários treinados para o mapeamento e alertas de área de risco).
15. Atualizar decreto que cria o Programa de Defesa Civil e a portaria que regulamenta o referido decreto. Ações preventivas serão institucionalizadas por decreto.
16. Acionar a cláusula contratual das concessionárias do lixo para a elaboração e execução de plano de comunicação para prevenção de enchentes.
Seminário
Em novembro último, o SEESP realizou o seminário "Evitar e proteger a população", onde foram discutidas medidas emergenciais a serem adotadas na cidade de São Paulo para impedir os problemas provocados pelas chuvas que ocorrem até o mês de março, principalmente. O sindicato encaminhou ao prefeito de São Paulo documento com todas as propostas apresentadas no evento. Confira o que foi apresentado no seminário no vídeo a seguir.
Imprensa - SEESP
Com informações e foto da Prefeitura Municipal de São Paulo
A frente fria que chegou com força na madrugada desta quinta-feira (3/01) ao Rio de Janeiro provocou chuvas intensas na região serrana, no sul do estado e na Baixada Fluminense. Uma pessoa morreu em Xerém, distrito de Duque de Caxias, onde o Rio Capivari subiu ao nível das pontes e alagou diversos bairros. As informações foram divulgadas pela Defesa Civil Estadual.
Em Teresópolis, as sirenes foram acionadas em cinco comunidades com a subida do Rio Paquequer. Cinquenta pessoas ficaram desalojadas nas localidades do Vale da Revolta, de Perpétuo, Rosário, Caxangá e Pimentel. Em Petrópolis, os rios Bingen e Piabanha transbordaram. Houve escorregamento de terra e pedras nos bairros Independência, Siméria e São Sebastião.
Em Angra dos Reis, no sul do estado, oito casas desabaram e há 32 pessoas desalojadas. Na mesma região, em Mangaratiba, houve rolamento de pedras e um muro desabou, causando destruição em uma casa, na localidade de Conceição de Jacareí. Em Mambucaba, há 100 desalojados.
Seminário
Em novembro último, o SEESP realizou o seminário "Evitar e proteger a população", onde foram discutidas medidas emergenciais a serem adotadas na cidade de São Paulo para impedir os problemas provocados pelas chuvas que ocorrem até o mês de março, principalmente. No entanto, várias das questões levantadas pelos especialistas presentes ao evento valem também para outras regiões brasileiras. Por isso, vale à pena conferir o que foi apresentado no seminário, registrado pelo vídeo a seguir.
Imprensa – SEESP
Com informações da Agência Brasil
Foto UOL Notícias
Aproximadamente 60% dos paulistanos que se alimentam fora de casa sofrem com problemas relacionados ao sobrepeso, é o que aponta o estudo Alimentação fora do lar e sua relação com a qualidade da dieta dos moradores do município de São Paulo: estudo ISA-Capital. A pesquisa, desenvolvida na Faculdade de Saúde Pública (FSP) da USP, foi objeto da dissertação de mestrado da nutricionista Bartira Mendes Gorgulho e faz parte de uma parceria de professores da FSP com a Secretaria Municipal de Saúde para a produção do Inquérito de Saúde da Capital paulista.
Bartira procurou mapear a situação da alimentação fora do lar, e gerar estatísticas sobre a quantidade de pessoas que fazem ao menos uma das três principais refeições (café da manhã, almoço e jantar) fora de casa, quais as diferenças qualitativas entre comer dentro e fora do lar e que tipo de alimento é consumido em ambientes externos as residências. A coleta de dados durou um ano, e se deu por meio de 834 entrevistas realizadas em domicílios por toda a cidade, a fim de garantir a representatividade de todas as regiões. Além de colher informações sobre hábitos de vida em geral e condições sociais, as perguntas procuravam saber o quê e onde as pessoas realizaram suas refeições nas ultimas 24 horas.
Do total de entrevistados, mais da metade, 482 pessoas, afirmaram ter se alimentado fora de suas casas. Entretanto, quase metade deste número corresponde ao consumo de lanches, ou seja, o que se come entre as refeições. Apenas 55% havia realizado de fato uma das principais refeições fora do lar. Destes, 15% correspondem ao café da manhã, 30% ao almoço, e 10% ao jantar.
No café da manhã, 80% dos alimentos consumidos foram pães, torradas, manteiga, margarina, café e leite integral. Já no almoço, 70% do consumo correspondeu a arroz, feijão, carne bovina, verduras, legumes, refrigerantes e aves. Enquanto isso, no jantar, os dados apontam também na casa dos 70% para o consumo de salgados, sanduíches, arroz, verduras, legumes, carne bovina, aves, refrigerante e suco de frutas.
Equivalência
A pesquisa apontou que 59% das pessoas que afirmaram ter se alimentado fora de casa têm sobrepeso, número acima da média geral brasileira, a qual ultrapassa os 50%. Como fora constatado na coleta de dados, em comparação ao que se come dentro do lar, não há grandes diferenças entre os alimentos consumidos fora. “Não encontramos muitas diferenças entre o que se come dentro e fora de casa”, afirma Bartira. Os maus hábitos alimentares independem do local em que se realizam as refeições: “o refrigerante, por exemplo, é consumido com maior frequência fora de casa, mas quando o consumo ocorre dentro de casa corresponde a uma quantidade muito maior, o que torna o impacto equivalente”, garante a nutricionista.
A única diferença sensível constatada na pesquisa, e que pode explicar o maior número de pessoas com sobrepeso que comem fora de casa é o maior consumo de gorduras totais e saturadas nas refeições realizadas fora, o que pode ser atribuído a frituras e carnes em geral. “Em um restaurante ‘self-service’, proporcionalmente, consumir carnes é mais barato do que dentro de casa”, afirma.
Apesar disto, para Bartira, a conscientização sobre a necessidade da mudança de hábitos alimentares têm de ser geral, uma vez que o problema está em todos os lugares: “as pessoas comem mal independente do local em que se realizam as refeições, como o consumo de frutas, por exemplo, que é baixo tanto dentro, quanto fora de casa”.
Metrópole
Maior cidade do Brasil, não apenas em extensão geográfica, mas também em número de habitantes, São Paulo é o grande polo da economia nacional. Trânsito, trabalho, escola, e outras tantas responsabilidades, fazem da vida do paulistano uma eterna corrida contra o tempo. E nesta corrida, é cada vez menor a quantidade de horas que sua população passa dentro de casa. Aos poucos, as residências tornam-se simples dormitórios, e os espaços de convivência cada vez mais são as ruas da metrópole, e tudo o que ela pode oferecer. Neste cenário, realizar todas as refeições em casa, mais do que um luxo, é quase uma missão impossível.
Entretanto, a alimentação é fator de extrema relevância para a saúde. A OMS (Organização Mundial da Saúde) a considera como um dos principais fatores de risco modificáveis para doenças crônicas não-transmissíveis, ou seja, um elemento gerador de doenças que pode ser alterado a partir de uma mudança de hábitos.
Imprensa – SEESP
Informação da Agência USP de Notícias
O valor do DPVAT (Seguro Obrigatório de Danos Pessoais Causados por Veículos Automotores de Via Terrestre) fica um pouco mais caro a partir de janeiro de 2013. O reajuste segue uma resolução da Superintendência de Seguros Privados (Susep), publicada nesta semana no Diário Oficial da União.
Para os carros de passeio, táxis e carros de aluguel, o seguro passou de R$ 101,16 para R$ 105,65, já considerando o IOF e o custo da apólice. Para ônibus, micro-ônibus e lotação com cobrança de frete (urbanos, interurbanos, rurais e interestaduais), o valor foi mantido em R$ 396,49.
Os proprietários de micro-ônibus com cobrança de frete, mas com lotação não superior a dez passageiros e ônibus, micro-ônibus e lotações sem cobrança de frete (urbanos, interurbanos, rurais e interestaduais) pagarão R$ 247,42 pelo seguro, o mesmo valor de 2012.
Para motocicletas, motonetas, ciclomotores e similares, o seguro passará de R$ 279,27 para R$ 292,01 e, por sua vez, as máquinas de terraplanagem e equipamentos móveis em geral, quando licenciados, camionetas tipo "pickup" de até 1.500 kg de carga, caminhões e outros veículos, o seguro subiu de R$ 105,68 para R$ 110,38.
O DPVAT é pago na guia do Imposto sobre Propriedade de Veículos Automotores (IPVA) e serve como um fundo para o pagamento de indenizações a vítimas de acidentes de trânsito.
Quem deixa de pagar o seguro obrigatório não pode licenciar o veículo. Sem o licenciamento, o veículo pode ser apreendido em bloqueios de trânsito e em caso de acidente.
Imprensa – SEESP
Informação da Agência CNT de Notícias
{youtube}iwy0MwGwofs{/youtube}
A ênfase na hipótese de que o aquecimento global é causado pelo homem desvia as atenções do principal problema ambiental do planeta – a falta de saneamento básico para mais da metade da humanidade –, defendem cientistas da USP no artigo a seguir
No artigo “Aquecimento global: menos mito e mais ciência” (Jornal da USP, número 972, de 10 a 16 de de setembro de 2012, página 2), Tércio Ambrizzi e Paulo Artaxo recorrem ao arsenal rotineiro dos adeptos da hipótese do aquecimento global antropogênico (AGA) para tentar ocultar a principal deficiência da mesma: a falta de evidências físicas que a sustentem. Como têm enfatizado os seus críticos, não há qualquer evidência observada no mundo real que permita qualificar como anômalas as variações dos parâmetros climáticos (por exemplo, temperaturas atmosféricas e oceânicas) ou influenciados pelo clima (por exemplo, nível do mar), verificadas desde a Revolução Industrial do século 18, quando a humanidade começou a usar combustíveis fósseis em grande escala.
Ao contrário, desde o auge da última glaciação, há cerca de 22 mil anos, a partir do qual teve início o aquecimento que resultou no presente período interglacial, o Holoceno (iniciado há cerca de 11.500 anos), numerosas evidências apontam a ocorrência de temperaturas e níveis do mar mais altos que os atuais, bem como, principalmente, gradientes (taxas de variação) numa ordem de grandeza superior aos verificados para os mesmos parâmetros, nos últimos dois séculos.
Se as emissões de carbono das atividades humanas estivessem, realmente, afetando a dinâmica climática global, tal influência teria, forçosamente, que se refletir nos gradientes das temperaturas e níveis do mar, nos últimos dois séculos. Como estes não demonstram qualquer anomalia em relação aos precedentes, não é possível discernir qualquer “impressão digital” antropogênica, contra o background das oscilações naturais do clima – portanto, derrubando o argumento de ser “inequívoca” a mudança do clima pela ação humana, na escala global. Se não, vejamos.
Temperatura
O relatório de 2007 do Painel Intergovernamental de Mudanças Climáticas (IPCC) registra que, no período 1850-2000, a temperatura média global aumentou 0,74ºC e que, entre 1870 e 2000, os níveis do mar subiram 0,2 m.
No Holoceno Médio, há 6.000–8.000 anos, as temperaturas atmosféricas médias chegaram a ser 2ºC a 3ºC superiores às atuais, enquanto os níveis do mar atingiram até três metros acima do atual. Igualmente, nos períodos quentes conhecidos como minoano (séculos 16–13 a.C.), romano (séculos 3 a.C.–5 d.C.) e medieval (séculos 10-13 d.C.), as temperaturas foram mais de 1ºC superiores às atuais.
Entre 12.900 e 11.600 anos atrás, no período frio denominado Dryas Recente, as temperaturas caíram cerca de 8ºC em menos de 50 anos e, ao término dele, voltaram a subir na mesma proporção, em pouco mais de meio século – um gradiente mais de 25 vezes superior ao observado desde o século 19.
Quanto ao nível do mar, ele subiu cerca de 120 metros, entre 18 mil e 6 mil anos atrás, o que equivale a uma taxa média de um metro por século – sete vezes maior que a registrada desde 1870. No período entre 14.650 e 14.300 anos atrás, a elevação foi ainda mais acelerada, atingindo cerca de 14 metros em apenas 350 anos – média de quatro metros por século.
Tais dados representam apenas uma ínfima fração das evidências proporcionadas por, literalmente, milhares de estudos realizados em todos os continentes, por cientistas de dezenas de países, devidamente publicados na literatura científica internacional revisada por pares.
A influência humana no clima restringe-se às cidades e seus entornos, em situações específicas de calmarias, sendo esses efeitos bastante conhecidos, mas sem influência em escala planetária.
Modelos matemáticos
No entanto, em lugar de evidências físicas, os proponentes do AGA se limitam a oferecer projeções de modelos matemáticos da dinâmica climática e uma exagerada importância atribuída às concentrações atmosféricas de dióxido de carbono (CO2), que, no passado geológico, já atingiram níveis até uma ordem de grandeza superior aos atuais e cujas variações, segundo numerosas evidências, são consequências, em vez de causas, das oscilações de temperatura.
Os modelos numéricos são importantes ferramentas para a atividade científica, desde que as suas limitações sejam observadas. Não cabe, por exemplo, comparar as suas aplicações tecnológicas com a sua utilização nas ciências atmosféricas, como fazem os autores, pelo simples fato de que, nas primeiras, todos os princípios e propriedades físicos e químicos envolvidos no seu desenvolvimento são conhecidos, o que está longe de ocorrer com a dinâmica climática.
Por esse motivo, a Nasa pode realizar a maior façanha tecnológica do século 20, o Projeto Apolo, com uma capacidade total de processamento de dados inferior à de um único celular de hoje. Em contraste, uma melhor simulação da dinâmica climática não seria proporcionada se todos os computadores hoje existentes fossem interligados, pois a ciência ainda está longe de uma concepção abrangente e não reducionista da mesma, de modo a poder simulá-la por sistemas de equações (o que depende de observações e neurônios, e não de múltiplos de bytes).
Ademais, é um grave equívoco comparar os modelos climáticos com os meteorológicos, usados nos prognósticos do tempo. Estes últimos trabalham com equações que tentam sair de um estado diagnóstico primitivo da atmosfera e projetam a situação desse estado (onde estão os sistemas frontais, altas pressões atmosféricas, confluências de ventos etc.) em um futuro bem próximo, que pode ser de 12 horas a um máximo de sete dias.
Como existem muitos erros na admissão dos dados e, durante os processos de integração, há uma substancial ampliação desses erros, em dado momento, tais modelos passam a processar apenas valores numéricos que não têm mais representação física da realidade. Antes desse ponto, eles são interrompidos, para que a saída possa ser validada em um nível de confiabilidade acima de 70%, preferencialmente, por um meteorologista sinóptico bem treinado.
Por sua vez, os modelos climáticos não usam os mesmos procedimentos. Tais modelos podem levar em conta séries anteriores de temperaturas, para “dirigir” os processos de simulação, ou usar diversos tipos de forçantes climáticas que se julgarem necessários. Contudo, essa é a grande dificuldade, pois a ciência ainda desconhece os papéis exercidos por uma imensa gama de fatores envolvidos na dinâmica do clima. E os resultados são ainda piores quando esses mesmos modelos trabalham sob a forçante de um elemento determinador, como é o caso do questionável efeito físico da estufa, causada por gases como o CO2.
Incertezas
Os próprios autores admitem as incertezas dos modelos climáticos e, em sua defesa, invocam o “princípio da precaução”, como justificativa para as medidas sugeridas pelos adeptos do AGA, para o enfrentamento do suposto problema. Embora os autores não o mencionem, elas se baseiam na equivocada proposta de “descarbonização” da economia, com drásticas reduções do uso dos combustíveis fósseis (carvão mineral, petróleo e gás natural). Como tal proposta padece do pecado original de se basear em uma hipótese não comprovada por evidências, não se justifica a sua consolidação em uma agenda política de tão grande alcance para as políticas públicas nacionais e internacionais, com graves consequências potenciais para as perspectivas de desenvolvimento socioeconômico das nações que representam três quartos da população mundial, haja vista que os combustíveis fósseis respondem por mais de 80% da energia primária e dois terços da eletricidade geradas no planeta. Desafortunadamente, tal agenda tem sido implementada por motivos alheios à ciência.
Igualmente, na falta de evidências, os autores (curiosamente, apesar de serem dois, há duas frases na primeira pessoa do singular) recorrem aos usuais ataques aos críticos do AGA, rotulando-os de “negacionistas”, termo geralmente aplicado aos negadores do Holocausto dos judeus, ciganos, homossexuais e outras minorias, na Alemanha nazista. Aqui, vale registrar que, pelo menos um deles (Artaxo) denota um avanço, deixando de lado a mais comum qualificação de “céticos”, usada por ele, com o tom depreciativo habitual, ainda em recente entrevista à revista Ciência Hoje de junho de 2012. Afinal, como admitem, todo cientista que se preza deve ser um cético permanente em relação ao estado da arte do conhecimento.
Da mesma forma, os autores lamentam a atenção que a mídia tem conferido, recentemente, aos “cientistas que negam a existência do aquecimento global devido à influência do homem”. De fato, esse espaço tem aumentado, mas ainda é incomparavelmente inferior ao oferecido aos proponentes do AGA, como pode constatar qualquer acompanhante habitual da cobertura científica da mídia nacional. Mas, de qualquer maneira, trata-se de um avanço significativo, o qual reflete uma crescente percepção dos exageros e simplificações que envolvem a hipótese do AGA, tanto pelos formadores de opinião como pelo público em geral.
Dogma
Não obstante, causa espécie esse tipo de reação, dentro do âmbito acadêmico, que pressupõe uma atitude anticientífica e dogmática de evitar um livre debate de ideias, quase como uma censura, que não raro resvala para ataques pessoais aos que não concordam com a posição dita “consensual” – outro conceito que, diga-se de passagem, é desprovido de significado científico.
As mudanças constituem o estado permanente do sistema climático – pelo que a expressão “mudanças climáticas” chega a ser redundante. Por isso, o alarmismo e a obsessão com o CO2, que têm caracterizado as discussões sobre o tema, são extremamente prejudiciais à atitude correta necessária diante dos fenômenos climáticos – que deve ser orientada pela boa prática científica baseada em evidências, pelo bom senso e pelo conceito de resiliência, em lugar de se submeterem as sociedades a restrições tecnológicas e econômicas absolutamente desnecessárias.
Além disso, o “aquecimentismo” desvia as atenções das emergências e prioridades reais, como a indisponibilidade de sistemas de saneamento básico para mais da metade da população mundial (de longe, o principal problema ambiental do planeta) e a falta de acesso à eletricidade para mais de 1,5 bilhão de pessoas, principalmente na Ásia, África e América Latina.
No Brasil, grande parte dos recursos que tem sido alocada a programas vinculados às mudanças climáticas, segundo o enfoque da redução das emissões de carbono, teria uma destinação mais útil à sociedade se tivesse sido empregada na correção de outras deficiências reais como: a falta de um satélite meteorológico próprio (de que já dispõem países como a China e a Índia); a ampliação e melhor distribuição territorial da rede de estações meteorológicas, inferior aos padrões recomendados pela Organização Meteorológica Mundial, para um território com as dimensões do brasileiro; o aumento do número de radares meteorológicos e a sua interligação aos sistemas de defesa civil; a consolidação de uma base nacional de dados climatológicos, agrupando os dados de todas as estações meteorológicas do País, boa parte dos quais sequer foi digitalizada; e numerosas outras.
A história registra numerosos exemplos dos efeitos nefastos do abandono da prática científica baseada em evidências, em troca de obsessões motivadas por razões ideológicas, políticas, econômicas, modismos e outras causas. Nos países da antiga União Soviética, as ciências agrícolas e biológicas ainda se ressentem das consequências do atraso de décadas, provocado pela sua subordinação aos ditames e à truculência de Trofim D. Lysenko, apoiado pelo ditador Josef Stálin e seus sucessores imediatos, entre as décadas de 1930 e 1960. Lysenko e seus seguidores rejeitavam a genética mendeliana, mesmo diante dos avanços obtidos por cientistas de todo o mundo, inclusive na própria União Soviética, por considerá-la uma “ciência burguesa e antirrevolucionária”, tendo-a, simplesmente, banido da pauta científica soviética, enquanto perseguiam ferozmente os seus defensores (os “negacionistas” da época). O empenho na imposição do AGA, sem as devidas evidências, equivale a uma versão atual do “lysenkoísmo”, que tem custado caro à humanidade, em recursos humanos, técnicos e econômicos desperdiçados com um problema inexistente.
Kenitiro Suguio é doutor em Geologia, Professor Emérito do Instituto de Geociências da USP e membro titular da Academia Brasileira de Ciências
José Bueno Conti é geógrafo, doutor em Climatologia e professor titular do Departamento de Geografia da Faculdade de Filosofia, Letras e Ciências Humanas (FFLCH) da USP
Ricardo Augusto Felício é meteorologista, doutor em Climatologia e professor do Departamento de Geografia da Faculdade de Filosofia, Letras e Ciências Humanas (FFLCH) da USP
Imprensa - SEESP
Reprodução de artigo publicado no Jornal da USP
O projeto de lei do Senado (PLS 504/2011), que limita em 25 o número de alunos em sala de aula, foi aprovado pela Comissão de Educação, Cultura e Esporte, do Senado, em decisão terminativa. Agora a matéria, de autoria do senador Humberto Costa (PT/PE), segue para exame na Câmara dos Deputados.
De acordo com a proposta, que altera a Lei de Diretrizes e Bases da Educação, as turmas de pré-escola e dos dois primeiros anos do ensino fundamental não poderão exceder a 25 alunos. Já as classes das demais séries do ensino fundamental e as do ensino médio, segundo determina o projeto, devem ter, no máximo, 35 alunos.
Ao justificar o projeto, Costa ressaltou que a relação entre o número de alunos e professores é uma das causas da falta de qualidade da maioria das escolas. O autor observou que, mesmo em escolas privadas, que investem em insumos modernos de ensino, os resultados estão aquém dos de outros países. “O objetivo do projeto é buscar melhores condições de aprendizagem para as crianças brasileiras. E a relação entre professor e número de alunos incide diretamente sobre a capacidade de aprendizagem.”
Imprensa – SEESP
Informação da Agência Senado
A disponibilidade de terra arável e para pecuária deverá diminuir globalmente nas próximas décadas, ao mesmo tempo em que será preciso aumentar a produção de alimentos para atender ao crescimento da demanda mundial e melhorar a conservação e a sustentabilidade dos recursos não renováveis, que são essenciais para atingir esse objetivo.
Um grupo de pesquisadores de diferentes países, incluindo do Brasil, iniciará uma série de estudos colaborativos com o objetivo de aumentar a compreensão e gerar conhecimento científico para enfrentar esses três desafios concomitantes e inter-relacionados em escala mundial. Nos dias 17 a 19 de dezembro passado, eles se reuniram em São Paulo, na Fapesp (Fundação de Amparo à Pesquisa do Estado de São Paulo), para participar do “Belmont Forum International: Call Scoping Workshop on Food security and land use change”.
Organizado pela Fundação em parceria com o Cena )Centro de Energia Nuclear na Agricultura) da USP (Universidade de São Paulo) e o Belmont Forum, o objetivo do evento foi definir áreas prioritárias de pesquisa, relacionadas à segurança alimentar e mudanças no uso da terra, que poderão integrar a segunda chamada de propostas do Belmont Forum.
O objetivo do fórum, coordenado pelo International Group of Funding Agencies for Global Change Research (IGFA), é tentar influenciar os rumos da colaboração internacional em estudos sobre mudanças globais por meio de chamadas conjuntas de pesquisas.
Como membro do Belmont Forum, a FAPESP foi convidada a formatar uma proposta de chamada de projetos de pesquisa sobre segurança alimentar e mudanças no uso da terra que irá submeter para aprovação da entidade em uma reunião em fevereiro de 2013, na Índia.
Para balizar a proposta, a Fapesp convidou para participar do encontro em São Paulo pesquisadores que integram alguns dos principais projetos internacionais sobre segurança alimentar e mudanças no uso da terra para relatar as ações realizadas nos últimos anos. “O objetivo foi conhecer as ações realizadas por essas iniciativas internacionais para que a proposta que submeteremos ao Belmont Forum não seja repetitiva ou represente uma duplicação de esforços de pesquisa já existentes no mundo”, disse Reynaldo Luiz Victoria, coordenador do Programa Fapesp de Pesquisa sobre Mudanças Climáticas Globais (PFPMCG) e representante da Fundação no Belmont Forum.
Durante o encontro, cientistas de países signatários do Belmont Forum apresentaram iniciativas e prioridades de pesquisa relacionadas à segurança alimentar e mudanças no uso da terra implementadas em seus respectivos países. Do lado do Brasil, André Nassar, do Instituto de Estudos do Comércio e Negociações Internacionais (Icone), Carlos Joly, da Unicamp (Universidade Estadual de Campinas), e Gilberto Câmara, do Inpe (Instituto Nacional de Pesquisas Espaciais), apresentaram resultados de pesquisas sobre, respectivamente, biocombustíveis, biodiversidade e monitoramento de mudanças no uso da terra.
Câmara falou sobre os desafios para as políticas de uso da terra no Brasil que, segundo ele, representam o maior experimento de mudanças no uso da terra e seus efeitos realizado no mundo nas últimas décadas.
“Desde 1980, foram desmatados 720 mil km² da Amazônia e 400 mil km² do Cerrado. Isso representa uma transição de uso da terra que não aconteceu nessa magnitude, nesse intervalo de tempo e nessa época em nenhum outro país do mundo e é um marco significativo do que acontece hoje no planeta”, avaliou.
Segundo Câmara, parte da transição do uso da terra na Amazônia e no Cerrado para cultivo de soja e pastagem de gado está relacionada ao aumento da demanda interna por alimento. Mas outra parte significativa – principalmente no Cerrado – foi devida ao aumento das exportações de carne e grãos para atender ao crescimento da demanda mundial por alimentos.
Lições do Brasil
Nos anos de 1980, de acordo com Câmara, a mudança de uso da terra no Brasil ocorreu de forma desordenada e sem nenhuma espécie de controle. Mais recentemente, com o amplo acesso às informações sobre desmatamento disponibilizadas na internet por instituições de pesquisa como o Inpe e pressões internacionais e da sociedade brasileira, foi possível implementar uma política de desmatamento da Amazônia que obteve muito êxito ao ser baseada na tríade composta por transparência, governança e instituições de pesquisa com boa reputação.
“Alguns aprendizados que o Brasil teve com a criação de instituições de pesquisa capazes de produzir informações sobre desmatamento – disponibilizadas de forma transparente e acessível na internet, que resultaram em mecanismo de governança que tem funcionado muito bem – podem servir de lição para outros países que também pretendem conseguir implementar uma política de uso da terra ampla. O Brasil precisa liderar o mundo nessa capacidade de ter um sistema de informação de uso da terra”, afirmou.
De acordo com o pesquisador, um dos gargalos no sistema de monitoramento do desmatamento na Amazônia é produzir informação com maior nível de detalhe.
Atualmente, os sensores dos satélites utilizados no Sistema de Detecção de Desmatamentos em Tempo Real (Deter) no Inpe têm resolução espacial moderada, de 250 metros, o que impossibilita detectar desmatamentos e mudanças no uso da terra em áreas menores do que 25 hectares. “Precisamos de informação com maior detalhe”, afirmou Câmara.
Mas, segundo ele, as maiores lacunas no sistema de monitoramento de mudanças de uso da terra no Brasil se referem a biomas como o Cerrado, a Caatinga, a Mata Atlântica, o Pampa e o Pantanal, os quais ainda não dispõem de um sistema de informação sobre desmatamento similar ao existente para a Amazônia.
“O Brasil precisa ter em todo o seu território o mesmo nível de informação diária sobre mudanças no uso da terra que possui hoje para a Amazônia. Isso é essencial para um país que tem esse tamanho de área, que quer balancear a produção agrícola e de biocombustíveis com o equilíbrio ambiental”, destacou Câmara.
Imprensa – SEESP
Informação da Agência Fapesp
Durante a cerimônia de transmissão do cargo, no dia 1º de janeiro último, o novo prefeito de São Paulo, Fernando Haddad, disse que o combate à miséria e a renegociação da dívida da cidade com a União serão os principais focos de seu governo. “Não é possível conviver por mais tempo com tanta desigualdade, com tanto descaso, com tantas mazelas. Crianças brincando no esgoto a céu aberto”, ressaltou, no evento que aconteceu na sede da prefeitura, no Viaduto do Chá, centro paulistano. “Existe ainda muita miséria na cidade de São Paulo. E nós temos que lutar todos os dias deste mandato contra a miséria da cidade”, acrescentou.
Para Haddad, a capital paulista pode se tornar um exemplo de sucesso na erradicação da pobreza. “Vamos identificar as pessoas, vamos fazer uma busca ativa, vamos reconhecê-las. Vamos interagir com o governo do estado, com o governo federal. Vamos equacionar esse problema. Vamos dar o exemplo de como o programa federal de erradicação da miséria pode apresentar o seu primeiro resultado pleno na cidade mais rica do país”, pontuou o prefeito, que enfatizou a importância de se ter uma visão baseada na solidariedade para enfrentar os problemas da cidade.
Haddad reconheceu que para poder colocar em prática seus planos para São Paulo precisará renegociar a dívida do município com a União. O tema também foi enfatizado pelo prefeito que deixou o cargo, Gilberto Kassab, no discurso de despedida. “São Paulo, apesar do seu orçamento bilionário, um dos maiores do país, hoje perdeu a sua capacidade de investimento, em função de um acordo de dívida literalmente insustentável, hoje e no futuro”, destacou Haddad. “Nós não podemos conviver com uma dívida que é 200% da nossa arrecadação”.
A solução deve vir, segundo Haddad, de um acordo com o governo federal e com o Congresso Nacional. “Nós temos que levar ao Congresso Nacional, com todas as tratativas com o governo federal, com o ministro [da Fazenda] Guido Mantega, uma proposta de repactuação da dívida federativa de estados e municípios”, disse.
Após o discurso, foram anunciados os nomes dos novos secretários municipais e a criação da Secretaria de Políticas para Mulheres. Depois da cerimônia, transmitida por um telão para o público do lado de fora do prédio, Haddad subiu em um palco externo, onde saudou os apoiadores. “Nós não teríamos tomado posse hoje, se não fosse a militância de vocês, se não fosse a cumplicidade de vocês. E o que eu peço a Deus é nunca perder o contato com vocês”, disse o prefeito que convocou a população a participar do governo, inclusive com críticas. “Nós não vamos acertar sempre, mas podemos corrigir um eventual erro que cometermos”.
Imprensa – SEESP
Informação e foto da Agência Brasil
Na foto: Fernando Haddad e sua vice Nádia Campeão