Archive for agosto \30\UTC 2007

Uma Simples Questão de Princípios

agosto 30, 2007

A TEORIA INDISPENSÁVEL

Coquetel, do inglês cocktail, literalmente rabo-de-galo, é uma bebida alcoólica que se toma antes de ir à mesa, como estimulante do apetite e auxiliar da digestão.

É bem verdade que a má prática do coquetel fez com que ele fosse consumido a qualquer hora e até longe da mesa, abrindo o apetite paenas para utuosas azeiotonas, salgados amendoins, torradinhas enfeitadas de patê, novos coquetéis e sabe Deus o quê.

O coquetel civilizado é uma bebida alcoólica, um aperitivo, mistura ou combinação  com objetivos bem determinados. A saber: estimular o apétite, aguçar o espírito, apurar o paladar, alegrar a vista, abrir o olfato.

A primeira exigência eleimina, automaticamente, o superadocicado, o supercremoso, o que nós podemos chamar (pejorativamente) de bombom de licor, todos inconsumíveis e impróprios para antes de comer com dignidade. Servir, por exemplo, o popular leite-de-onça antes da comida é um crime de lesa-culinária. As bebidas doces têm sua hora e vez e a hora não é essa.

Para alcançar o segundo objetivo o coquetel deve aclmar os nervos, relaxar os músculos, fazer correr o sangue. Isso não se consegue, em princípio, com bebidas muito amargas, aguadas, quentes: aconselha-se o uso de coquetéis secos, fortes, gelados.

As bebidas secas são as mais indicadass para “limpar a língua”, para preparar o paladar e torná-lo capaz de apreciar devidamente o sabor dos moçlhos e temperos.

 Alegrar a vista é alegrar também o espírito, é alegrar a vida.. O melhor coquetel, num copo rude, rústico, perde grande parte da sua qualidade, sabe mal. Devemos tratar o coquetel como a uma moça:quanto melhor apresentadae cuidada, mais prazer para nosso olhos.

 Abrir o olfato às delícias da cozinha não édifícil se as bebidas são todas de boa qualidade, condição fundamental para obtermos bons resultados. Não imagine que o bom gim seja capaz de esconder a má qualidade do vermute,ou vic-versa. Qualquer coquetel tem, no mínimo, a qualidade do seu pior ingrediente.

Acrescentemos que todo coquetel deve ter álcool suficiente para diferençá-lo do suco de laranja, mas não deve sewr tão forte que permita confundí-lo com álccol gelado. E afirmemos que os coquetéis devem ser servidos bem gelados, antes de entrar no importante capítulo dos ingredientes.

OS ELEMENTOS FUNDAMENTAIS

Todo coquetel é constituído por pelo menos dois elementos, fundamentais: a base e o agente modificador. Normalmente acrescenta-se um agente especial, ou mais de um, para aromatizar, colorir ou contribuir sutilmente para o paladar.

BASE

 A base é o ingrediente fundamental, aquele que identifica o coquetel. A regra é que a base constitua, sempre, mais de 50% do volume total. Ou, na exceção, que continue sendo, pelo menos, o elemento largamente majoritário.

A base é sempre alcoólica e normalmente, é gim (ou um destilado branco como cachaça ou vodka)), uísque, rum, scotch (ou bourbon, ou raye) e champanha (ou vinho espumante).

Em geral os melhores coquetéis são os mais simples, em que a base representa 75% do total e os ingrediente não passam de três.

O AGENTE MODIFICADOR

 O agente modificador da base também é chamado de qualificante. Ele caracteriza o coquetel. Sua função é modificar a base, suavizando-a, acentuando, ao mesmo tempo, seu próprio caráter e sabor.

O coquetel de gim será sempre reconhecido como um coqutel de gim, mas o agente modificador é que deve acrescentar aquele algo mais, sem prevalecer, mas dando claro sinal da sua presença e importância.

De um modo geral há três tipos de agentes modificadores: os aromáticos, constituídos pelos vinhos aromáticos como os vermutes, Dubonnet, Byrrh,  pelos amargos de vários tipos, como o Bitter, Angostura, Campari, extratos de limão, laranja, lima, e pelas miscelâneas aromáticas como o Amer Picon e a Fernet-Branca; pelos sucos de frutas, limão, laranja, lima, tomate e caju, os mais usados; suavizantes. como açúcar, creme e ovos.

Todos devem ser usados discretamente, em benefício da expansão da base.

Os agentes especiais,  como no serviço secreto, geralmente constituem o segredo dos melhores resultados, embora sempre particpem medidos em gotas, colherinhas ou um simples esguicho.

Às vezes eles servem de agente modificador em um coquetel e de agente especial em outro. (No Orange Bloom, por exemplo o suco de laranja é agente modificador. Mas no Bronx o modificador é o vermute e o suco de laranja entra para dar a cor incidental e lembrar, de longe, sua presença.)

Entre os agentes de cor, sabor e aroma, estão os licores, cordiais e xaropes não alcoólicos, os sucos e os temperos.

É aqui, normalmente, que os amadores cometem seus maiores pecados que os levarão ao inferno. Assim como é aqui que os profissionais caem no vício. Não é fácil empregar apropriadamente os agentes especiais e, principalemnte, não se pode abusar deles.

Anúncios

As Revoluções do Ser Humano

agosto 30, 2007

 As que foram feitas: 

A Revolução da Informática

A Revolução da Biociência

A Revolução Quântica

 E as que deveriam ter sido feitas: 

A Revolução Energética

A Revolução Ambiental

A Revolução da Educação

A Revolução Ética

A Revolução da Informática

agosto 30, 2007

A revolução da informática  foi a maior  do século 20

e os computadores do século 21 serão onipresentes e inteligentes, comunicando-se uns com os outros, dominando nossas vidas e talvez sejam distribuídos de graça. Estamos no rumo do planeta inteligente e um simples cartão comemorativo tem no chip que permite tocar uma música, mais poder computacional do que os computadores de antes dos anos 50.

  
 O computador, tal como o conhecemos hoje, vai desaparecer e a computação vai-se tornar onipresente: estará em toda parte: na nossa roupa, nas paredes da nossa casa, no nosso pulso, nas jóias, no chão das estradas e em incontáveis computadores descartáveis, mais fáceis de encontrar do que papel de rascunho (porque o papel, mesmo reciclado, vai-se tornar cada vez mais caro e difícil de encontrar). O Xerox PARC (Palo Alto Research Center), no famoso Vale do Silício, está fazendo pesquisas e procurando avanços que vão remodelar a vida no século 21. Ali foi inventado o PC, o computador pessoal. Ali foram lançadas as bases para a impressora a laser. Ali foi criado o programa que permitiu a criação dos sistemas operacionais Macintosh e Windows.Foi Mark Weiser, quando era chefe do Laboratório de Ciência Computacional do Xerox PARC, quem criou a expressão “computação onipresente”. Nas horas vagas ele era baterista numa banda de rock, mas seu verdadeiro prazer sempre foi a arquitetura informática. Em um artigo na revista Cable ele afirmou que os  microchips estão cada vez mais poderosos e mais baratos, e vão penetrar cada vez mais na nossa vida diária. Ele dá um exemplo: no futuro, não haverá roupa de verão e roupa de inverno: o tecido será um só e a temperatura vai ser controlado por microships que farão parte das fibras.Para ele, o computador vai ser uma força libertadora e as máquinas vão-se ajustar ao ser humano e ao seu ambiente, passando a fazer parte dele. Aos poucos, tornar-se-ão inteligentes e proporcionarão um conforto difícil de imaginar hoje em dia. Os microships vão-se comunicar uns com os outros pela Internet e as plenas implicações ficam restritas aos especialistas porque “pareceriam ridículas proposições da ficção científica”.Hoje, nós não “percebemos” a eletricidade, a não ser quando ela falta. Diz Weiser que o impulso rumo à invisibilidade deve ser uma lei universal: o homem deixa de ver os avanços tecnológicos, assim que se acostuma a eles. A televisão que assombrou nossos avós é olhada pela criança como alguma coisa absolutamente familiar, corriqueira, simples. A regra é: sempre que aprendemos algo suficientemente bem ou que nos acostumamos com ela, as pessoas deixam de percebê-la conscientemente.Os motores elétricos já são tão pequenos que há muitos deles na carroceria de um carro, para levantar e abaixar vidros, por exemplo, elevar e abaixar antenas, ligar o rádio e mudar de estação. No entanto, ao assumirmos o volante, estamos inconscientes de que vivemos cercados por até 22 pequenos motores e 25 solenóides embutidos na carroceria.Weiser faz outra analogia, com a escrita: há milhares de anos era uma arte secreta, cuidadosamente controlada por uma reduzida casta de escribas treinados para gravar símbolos em pequenas placas de argila. Essas placas, caras e raras, eram trabalhosamente cozidas e guardadas por soldados, tal a sua preciosidade. Quando o papel foi inventado, ele também era precioso, caro, e só os monarcas e a Igreja tinham acesso a ele. A maior parte das pessoas nascia e morria sem jamais ver uma folha de papel. Hoje, nem temos consciência de estarmos cercados por um mundo de papel e de escrita. E ao lermos, nada vemos de especial na escrita, que só maravilha o analfabeto.Na indústria de computadores, o intervalo entre a concepção de uma idéia e sua introdução no mercado é de cerca de 15 anos, em média. A computação onipresente foi imaginada em 1988 e em 2003 essas idéias já começaram a fazer parte da nossa vida de maneira apreciável. Mas para atingir massa crítica que barateie a produção e entusiasme o mercado, talvez seja necessário esperar até 2010. Como tudo, no mercado da informática, o preço inicial será inatingível para a grande maioria, mas, ano a ano, o preço cairá, com o aumento da desejabilidade, da produção e da compra.Em 2020 a computação não só será onipresente como dominará nossas vidas. Os que escrevem a história da informática dizem que ela tem três fases:·        a época do mainframe, ·        a do computador pessoal, ·        e a da computação onipresente. A primeira fase foi dominada pelo “gigante desajeitado”, o poderoso computador mainframe com que a IBM, a Burroughs e a Honeywell ganharam muito dinheiro. Os computadores eram enormes e tão caros que deviam ser compartilhados por centenas de pesquisadores, cientistas e engenheiros. A relação computador / usuário era, freqüentemente, de um para cem. John Kemeny, ex-reitor da Universidade de Dartmouth, escreveu em sua autobiografia que “havia certo misticismo nessa relação, a ponto de apenas acólitos especialmente selecionados terem permissão de estabelecer comunicação direta com o computador”. E mais: “As máquinas eram tão escassas e tão caras que o homem se aproximava do computador como um grego antigo de um oráculo.” Programadores, então, eram tidos na conta de sacerdotes desse culto, e sabiam manter o segredo de rituais inescrutáveis.A segunda fase começa com os anos 70, quando os engenheiros do Xerox PARC entenderam que a diminuição do tamanho dos chips e o aumento do poder do computador levariam, inevitavelmente, à relação um por um. Em 1972, para testar suas idéias, criaram o ALTO, o primeiro computador pessoal. E descobriam mais: que os sacerdotes faziam com que os computadores não fossem amistosos com os usuários; ao contrário, para manter o poder, criavam comandos confusos e rotinas que eram um forte obstáculo ao uso do computador por meros mortais. Por isso mesmo trataram de simplificar ao máximo o computador pessoal, criando uma tela de computador com figuras (ou “ícones“) que bastavam ser apontados com o mouse para abrir os programas e permitir sua manipulação.Mais descomplicados e acessíveis, os computadores deixaram de exigir do usuário penosos ritos de passagem e iniciação, passando a ser operados até por crianças. Usar um computador deixou de ser um problema difícil e além de útil chegou até a ser divertido e prazeroso, permitindo navegar e fazer inacreditáveis descobertas.Há, certamente, muito lixo cultural e bobagem na rede, mas também há nela, hoje, mais informação do que a que estava armazenada na famosa Biblioteca de Alexandria.Como santo de casa não faz milagre, não foi a Xerox que melhor usou as idéias dos seus engenheiros. Primeiro foi a Apple, que criou o Macintosh. Depois a Microsoft, que criou o Windows, logo adotado como sistema operacional universal para computadores baseados nos IBM vendidos no mundo inteiro.A transição entre as duas fases não foi fácil e esmagou até empresas multibilionárias que não acreditavam no futuro da informática. e imaginaram que o computador pessoal fosse moda passageira. Continuaram com seus mainframes e faliram (como a Wang) ou foram pesadamente deixadas para trás (como a IBM).A terceira fase dos computadores, a da computação onipresente, vai mudar novamente a relação com o usuário, que passará ao extremo oposto e virá a ser de cem computadores para cada pessoa.Bill Gates, o todo-poderoso da gigante de hoje, a Microsoft, já está preocupado porque a terceira fase começou e ele admite que “é um pouco assustador pensar que, à medida que a tecnologia da computação avança, o líder de uma nunca é o líder da era seguinte”.Compreendendo que a Microsoft poderia pagar um alto preço pelo sucesso da Internet, Gates forçou sua empresa a acomodar-se aos novos avanços em redes de computadores, um passo que ele não havia previsto na primeira edição do seu livro A Estrada do Futuro, de 1995.Não será surpresa se, um dia, o computador pessoal passar a ser dado, de graça, ao usuário, desde que ele se comprometa a só usar os programas da empresa do senhor Gates. temos o PC de bolso que cabe na palma da mão. E muitos analistas imaginam, para o futuro, uma quarta fase, com a introdução de inteligência artificial nos sistemas de computação. De 2020 a 2050 o mundo da informática poderá ser dominado pelas redes invisíveis de computadores inteligentes, capazes de raciocinar, de falar, de reconhecer e até de usar bom senso.Alguns analistas imaginam mesmo uma quinta fase, após 2050, quando as máquinas “terão autoconfiança e serão conscientes”.  Qual é o poder computacional que leva de uma fase à outra? De 1950 até 2000 a capacidade de processamento foi acrescida de um fator de cerca de dez bilhões (dobrando a cada 18 meses). Um aumento como esse é quase inédito na história da tecnologia. Basta dizer que é maior do que a transição da dinamite para a bomba de hidrogênio.Se retrocedermos mais 30 anos (para o começo da era do computador) o fator passa a ser de um trilhão.São esses números que permitem prever o futuro da tecnologia da computação. Como o preço dos miniprocessadores é cada vez menor, o puro poder da economia vai impelir a indústria para a nova fase. O preço dos microships está caindo. Já custou 50 centavos de dólar; em fins de 2005 custará sete e em 2010 apenas um centavo. Microprocessadores serão tão baratos que poderão até ser distribuídos gratuitamente para formar freguesia.Indústrias inteiramente novas surgirão no mercado acompanhando a explosão e as que não incluírem alguns chips de computador em seus produtos estarão em séria desvantagem competitiva. O processo já começou, com esses cartões de Natal, de aniversário, comemorativos, que quando a gente abre tocam uma musiquinha. O que faz isso acontecer é um chip, com mais poder computacional que os computadores existentes antes de 1950.Weiser acredita que, do mesmo modo como todo produto tem alguma coisa escrita, na terceira fase dos computadores todo produto deverá conter um microprocessador que dirá ao consumidor o que ele quer saber.Para um futuro não muito distante já se pode imaginar que o poder computacional será praticamente gratuito e praticamente infinito.  O transistor é, basicamente, uma válvula que controla o fluxo da eletricidade. A dinâmica dos transistores semicondutores é regida pela teoria quântica (segundo a qual, dentro de um semicondutor, a ausência de um elétron, isto é, um buraco, atua como se fosse um elétron de carga oposta. A teoria quântica é que dita como esses elétrons e buracos se movem no transistor.)Os transistores originais eram componentes elétricos toscos, mais ou menos do tamanho de uma moeda de dez centavos e conectados por fios. Eram feitos à mão, um a um. Hoje, são fabricados usando-se feixes de luz para fazer sulcos microscópicos e linhas em plaquetas de silício (fotolitografia). A luta para miniaturizar os transistores é que está empurrando a computação para a fase seguinte.Na Idade Média os filósofos e teólogos discutiam quantos anjos poderiam ocupar a cabeça de um alfinete. Hoje, os especialistas em computador querem saber quantos transistores podem ser reunidos em um microprocessador. Em chips de silício do tamanho de um selo do correio, já foram agrupados 7 milhões de transistores.O processo de miniaturização não pode durar para sempre, o limite é físico, é o comprimento da onda do feixe de luz.Ao longo das últimas décadas tem-se usado comprimentos de onda cada vez menores. Lâmpadas de mercúrio emitem luz com um comprimento de onda de 0,436 micrometro (na região visível) e 0,365 micrometro (na região ultravioleta), distâncias que são cerca de 300 vezes mais finas do que um fio de cabelo.O máximo a que a tecnologia atual pode chegar, talvez ainda no ano de 2007, é reduzir o comprimento da onda a 0,193 micrometro (na região do ultravioleta profundo), usando laser pulsado. Então, serão necessárias tecnologias inteiramente novas para ir à frente. Um dos principais futuristas do mundo é Paul Saffo, diretor do Institute for the Future. Ele acredita que a computação onipresente é inevitável, e é o autor da tese que chama de “ecologia eletrônica”, segundo a qual a cada dez anos há um avanço tecnológico que muda a relação entre as criaturas que vivem nesse meio ambiente.A força propulsora da revolução do PC, na década de 80, foi o microship. Na década de 90 o crescimento explosivo da Internet foi movido pela combinação do poder dos microprocessadores com lasers baratos e com a capacidade de transportar trilhões de bits de dados na velocidade da luz ao longo de fibras de vidro. No século 21, imagina ele, a próxima revolução será movida por censores baratos acoplados a microprocessadores e lasers.Segundo Saffo, na terceira fase estaremos cercados por microprocessadores minúsculos, invisíveis, que sentirão nossa presença, perceberão nossos desejos e até serão capazes de ler nossas emoções. Conectados à Internet, vamos interagir com nossos computadores através dos nossos gestos, da nossa voz, do calor do corpo, do nosso campo elétrico, dos movimentos do corpo, dos nossos sentimentos e emoções. Dirigir um automóvel não vai apresentar risco e as tarefas domésticas poderão ser quase todas realizadas por máquinas inteligentes.As casas e os escritórios dos ricos serão inteligentes e cheios de placas, pranchetas e quadros que tornarão a computação onipresente. Esses dispositivos computacionais terão 2,5 centímetros, 30 centímetros ou 1 metro. Cada casa terá cerca de 100 placas, de 10 a 20 pranchetas e um ou dois quadros por sala.As placas são crachás de identificação, com um transmissor infravermelho, a capacidade de um computador, permitindo a localização da pessoa. Quando você se move, a placa fornece a localização precisa, quando chega perto de uma porta ela se abre, se estiver escuro as luzes da sala se acendem quando você entra, e ainda pode-se usar a placa para comunicação com outras pessoas ou para resolver problemas. Programadas, elas podem transmitir noticiário a horas certas, alertar o usuário para a queda da bolsa e terminarão tão pequenas que poderão ser colocadas em abotoaduras ou alfinetes de lapela.As pranchetas serão finas como folhas de papel, descartáveis, estarão por toda parte e serão usadas para anotarmos coisas de que devemos nos lembrar, idéias e compromissos. Cada prancheta é um PC plenamente operacional, conectado ao computador central. É o começo do “papel inteligente”.Rabiscando na prancheta, o programa gráfico converterá nossos rabiscos em gráficos coloridos e texto gramaticalmente correto. Depois de salvarmos para o computador central, jogaremos a prancheta fora ou, provavelmente, vamos colocá-la em um depósito apropriado para ser reciclada.Os quadros são grandes telas computadorizadas, penduradas na parede. Podem funcionar como tela de vídeo, para a televisão interativa ou para a Web. Nos escritórios serão quadros de avisos, e quadros para anotações e exposição, funcionando também como um computador completo, ligado à Internet. Poderão ser usados para teleconferências ou para, por exemplo, supervisionar cirurgias à distância.Lembra quando a máquina de escrever ganhou um chip e foi transformada em processador de texto? No futuro os chips estarão conectados entre si e a casa inteligente fará tudo pelo seu conforto, recebendo a previsão de tempo, aumentando ou diminuindo a temperatura do ambiente, preparando a comida na hora certa. O banheiro inteligente já começou a ser testado e um protótipo revelou-se capaz de monitorar a saúde da pessoa que se senta na privada. Ele mede temperatura, pulso, pressão, faz uma rápida análise da urina e das fezes e, mais tarde, será capaz de fazer um eletrocardiograma e um ecocardiograma, além de detectar a proteína emitida por  tecidos pré-cancerosos. E, certamente vai contribuir para a diminuirão dos problemas de hemorróidas no futuro, porque a privada sanitária lavará e secará o usuário, além de dar a descarga automaticamente.Para o futuro estão imaginadas maravilhas possíveis, do ponto de vista tecnológico, como o uso do corpo humano como fonte de energia, que seria acumulada nos sapatos. Cada um de nós é capaz de gerar 80 watts de energia utilizável com nossos movimentos, o que dá cerca de um watt.Outra dessas maravilhas acaba com os tradicionais cartões de visita. Instalando eletrodos nos sapatos, podemos conectá-los a outros sapatos. Colocando nosso cartão de visitas entre os dados biográficos disponíveis, bastará um aperto de mão (porque a pele é salgada e boa condutora) para passar a informação para a mão, da mão para a mão do outro e de sua mão para o sapato onde será armazenada para uso futuro.No projeto Computadores Usáveis, do Massachussets Institute of Technology (MIT), já estão sendo produzidos óculos-computadores conectados com a Internet: o que uma pessoa vê através das suas lentes é transmitido para a Web, como nos filmes,Um quarto de todos os PC do mundo já é de laptops, o que quer dizer que os portáteis deixaram de ser um nicho de mercado para entrar na paisagem. À medida que os custos continuarem a baixar, muitos usuários vão substituir seus telefones celulares por portáteis cada vez menores (o problema é o teclado), com muito mais possibilidades de uso.Hoje, um paciente cardíaco já pode ser monitorado o dia todo, por uma parafernália que transmite informação para uma equipe de plantão. No MIT estão produzindo aparelhos cada vez menores e mais fáceis de portar, menos sujeitos a interferência, emitindo sinais melhores. E, algum dia, a maior parte das pessoas estará permanentemente monitorizada por seus serviços de saúde e companhias de seguro, acabando com as mortes inúteis por falta de socorro. O dinheiro está-se tornando digital há algum tempo. Já é possível pagar à vista sem usar dinheiro, cheque ou assumir dívida, usando um cartão de plástico para mandar fazer o débito direto na sua conta-corrente no banco onde você tem depósitos. No futuro, praticamente toda a moeda circulante estará depositada e as pessoas usarão cartões inteligentes, dinheiro digital e ciberdinheiro, porque o poder de compra estará expresso apenas em informação. Não só porque é mais prático e menos arriscado, mas porque manter uma sociedade com base em moeda sonante é muito caro: contar, deslocar, recontar, armazenar e proteger moeda sonante custa cerca de 4% de todas as transações. O que se perde guardando-se dinheiro em espécie em vez de mantê-lo rendendo, é uma quantia substancial, porque dinheiro parado não ganha juros, não tem seu valor aumentado, pode até estar sendo perdido, além do custo de precisar ser constantemente guardado. estão no mercado cartões com poder de compra, como os cartões telefônicos. E mesmo cartões que valem dinheiro para que sejam usados em compras em determinado lugar (que fornece o cartão). Muita gente já recebe parte do salário em um cartão que permite fazer compras, todos os meses, até um valor determinado. Na Europa há mais de 250 milhões de cartões inteligentes circulando e sendo usados para comprar bens ou serviços, como os cartões de abastecimento de gasolina.Na Alemanha, as empresas de saúde fornecem a seus clientes cartões inteligentes que contêm todo o seu histórico médico e os resultados dos seus últimos exames de laboratório. Com isto, poupam muito tempo e dinheiro, permitindo também uma medicina melhor com atendimento mais rápido.Não vai demorar muito para que os cartões inteligentes substituam os cartões de banco, de crédito, de telefone, de transporte, de pedágio, de estacionamento. E, no futuro, cada cidadão terá o seu cartão médico, com registros de seguro. Assim como todos nós teremos o cartão-cidadão, valendo como passaporte, carteira de identidade, cartão do Importo de Renda, INSS, FGTS e tudo o mais que o governo precisa para saber quem é quem. A indústria automobilística está cuidando de se atualizar com a revolução da informática e muitos carros já têm mais de um computador. Há, hoje, cerca de 600 milhões de carros na Terra, quase um para cada dez terráqueos. É a maior indústria manufatureira do mundo.Mas carros e estradas passarão por mudanças enormes. Os sensores são o principal acessório dos carros inteligentes e logo veremos veículos capazes de ver, ouvir, sentir, cheirar, falar, tomar decisões. E as estradas inteligentes acabarão com os congestionamentos, impedirão acidentes, manterão os carros a distâncias e velocidades convenientes, evitarão a distração, desatenção e negligência. Haverá até sensores-censores, que não permitirão que um motorista que passou da conta na bebida ligue o motor para sair dirigindo. há sensores que localizam por satélite o carro furtado ou roubado e que, devidamente acionados, podem até impedir que o ladrão saia do carro, chamando a polícia.Nas estradas do futuro, uma vez programados, os carros andarão com piloto automático, poupando o motorista nas viagens longas. É a telemática.No Japão existem mais de um milhão de carros com algum tipo de capacidade navegacional e já foi testado um protótipo capaz de seguir uma programação marcada em um mapa. Pessoas cegas poderão sair de casa em seus carros pré-programados para andar na cidade. E haverá programas suficientes das cidades e até para viagens mais longas.A lista de usos potenciais para a computação como sistema de posicionamento global é quase ilimitada. Durante séculos a ciência avançou fazendo teoria ou experimentando. Mas cada vez mais uma nova forma de ciência está crescendo, baseada em simulações da realidade: é a realidade virtual abrindo novos caminhos, novas áreas, novas perspectivas.Os computadores ajustam-se idealmente a modelar equações diferenciais que fornecem descrições surpreendentemente realistas de fenômenos físicos. As simulações por computador estão-se tornando tão exatas e precisas que já são usadas por milhares de pesquisadores e cientistas em muitas áreas. É certo que elas estão influindo e vão influir cada vez mais no desenvolvimento de novas tecnologias. Em muitas áreas, a propósito, o computador é mesmo a única forma de resolver um problema, solucionando equações diferenciais.Os futuristas afirmam que alguns assuntos podem ser mais bem estudados pela ciberciência. Por exemplo:·        Para observar e analisar supernovas, estrelas de nêutrons, buracos negros, a simulação por computador parece ser nossa única esperança de transformar a astronomia em uma ciência experimental.·        Quando uma proteína não pode ser cristalizada não é possível usar cristalografia por raios X para determinar sua estrutura. É preciso usar a teoria quântica e a eletrostática para encontrar a estrutura da proteína e as complexas equações que determinam essa estrutura só podem ser resolvidas pelos computadores, que ficam sendo o único meio de calcular também as propriedades de uma grande classe de proteínas. ·        A aerodinâmica e o fluxo de ar em torno de qualquer coisa que viaje muitas vezes além da velocidade do som também podem ser simulados em computador e é mais barato do que túneis de vento que, às vezes, teriam que ser gigantescos e usar muitíssima energia. As equações diferenciadas podem dar a chave para os vôos hipersônicos do futuro. ·        Atualmente, só os computadores podem determinar o acúmulo de dióxido de carbono na atmosfera (produzido pela queima de combustíveis fósseis), e do gás CFC, que provocam o efeito estufa e o buraco na camada de ozônio. As equações dirão até quando ainda será possível suportar a agressão continuada ao meio ambiente.·        E, importantíssimo para as construções que o homem pretende fazer em ambientes desconhecidos, o teste de esforço e tensão em materiais industriais pode ser mais bem calculado por computador, com economia de muito dinheiro em testes desnecessários e caros.  A revolução informática está nos levando no rumo do planeta inteligente. Um dia, em janeiro de 1977, o Conselheiro para Segurança Nacional do presidente Jimmy Carter, Zbigniew Brzezinski ouvia, na Casa Branca os planos recém implantados pelo Pentágono para “proteger a liderança da Nação em caso de um conflito nuclear generalizado”.  Era um plano detalhadíssimo e que previa inúmeras possibilidades, começando pela evacuação imediata do Presidente, do Vice, do Presidente do Congresso e do Presidente do Supremo, que se dirigiriam a locais diversos, todos em segurança.Quando o jovem oficial, orgulhoso, deu por encerrada a sua exposição, ZB ordenou uma evacuação total e imediata.             _ Imediata? Agora mesmo?            _ É uma emergência nacional, alerta máximo. Já.O assessor não conseguia falar, surpreso e parecendo assustado. Foi para o telefone vermelho e deu a ordem:            _ Alerta vermelho, evacuação imediata, comecem já.Do outro lado perguntaram por ordem de quem.  Consultado, ZB disse que era uma ordem direta do Presidente da República, e que ele mesmo se responsabilizava.  Ainda houve alguma dúvida, até que ZB gritou:            _ Já; estamos perdendo tempo precioso.Passaram-se horas, com marchas, contra-marchas, pedidos de verificação, senhas, explicação e confirmação, de erros, desentendimentos e berros, até que o primeiro helicóptero chegasse aos jardins da Casa Branca.  A segurança da Casa Branca quase o derrubou, declarando-o hostil e não-autorizado.  O piloto manteve distância até receber ordem para pousar.Zbigniew Brzezinski consultou o relógio: haviam-se passado não os dez minutos anunciados pelo jovem oficial, mas três horas e meia.  Ele disse:_ Fim do alerta vermelho.  O Presidente está morto e a guerra perdida.O episódio é absolutamente verdadeiro e foi contado pelo próprio assessor da Presidência. No dia seguinte começou a desmontagem dos planos estratégicos do Pentágono e foi criada a Advanced Research Projects Agency, uma agência governamental de projetos de pesquisa avançada, para criar uma tecnologia de computação que fosse suficientemente bem programada para começar a funcionar, automática e rapidamente, ao primeiro sinal de alarme disparado da Casa Branca.O primeiro documento da ARPA começava com uma citação do próprio ZB: “O planejamento perfeito é aquele que só admite erros contornáveis e que não prejudiquem o objetivo principal”.Daí resultou, principalmente, a Internet e a comunicação instantânea..           Muitas das maravilhas eletrônicas de hoje, como as videoconferências, a realidade virtual, os satélites de posicionamento global, a Internet, foram desenvolvidos a partir desse fiasco.  Como a Agência funcionava no Pentágono, seus cientistas trabalhavam em regime de sigilo total e as conquistas e avanços ficaram ocultos para o público, inclusive para outros cientistas.A obsessão militar pelo segredo, próprio da guerra fria, atrasou a revolução da informática por muitos anos e é responsável pelo desenvolvimento algo peculiar dessas tecnologias.Pior: alguns cientistas civis que trabalhavam na mesma direção foram submetidos ao silêncio e obngados a abandonarem suas pesquisas, pelas chamadas “razões de segurança nacional”. depois que acabou a guerra fria é que foram sendo preenchidas as lacunas deixadas pelos apressados autores de software e as tecnologias começaram lentamente a vir a público.  Livres do sigilo militar, as tecnologias desenvolveram-se rapidamente e conquistaram público, gerando novas indústrias e uma nova economia que movimentou bilhões de dólares, preparando o caminho para o século 21.Ficou a lição e a certeza de que a ciência e a tecnologia precisam de uma atmosfera aberta, de liberdade, para que os cientistas possam interagir, trocar idéias e fazer prosperá-las com rapidez e qualidade.Esta velocidade vai levar à terceira fase da informática, com os computadores conversando uns com os outros e criando uma espécie de membrana eletrônica vibrante em torno da superfície da Terra, com acesso fácil para todos.Como anunciou Bill Gates, “a Internet é uma estrada de terra esperando para ser pavimentada e tornar-se uma auto-estrada da informação, a infovia que conectará todos os computadores do mundo”.  A infovia está prevista para 2010 e até 2020 os cientistas especializados em computação esperam ver todo o mundo florescendo na Internet: informação, educação, economia, todas as atividades do homem.

A Revolução da Informática

agosto 30, 2007

A revolução da informática  foi a maior  do século 20 e os computadores do século 21 serão onipresentes e inteligentes, comunicando-se uns com os outros, dominando nossas vidas e talvez sejam distribuídos de graça. Estamos no rumo do planeta inteligente e um simples cartão comemorativo tem no chip que permite tocar uma música, mais poder computacional do que os computadores de antes dos anos 50. 

 

O computador, tal como o conhecemos hoje, vai desaparecer e a computação vai-se tornar onipresente: estará em toda parte: na nossa roupa, nas paredes da nossa casa, no nosso pulso, nas jóias, no chão das estradas e em incontáveis computadores descartáveis, mais fáceis de encontrar do que papel de rascunho (porque o papel, mesmo reciclado, vai-se

tornar cada vez mais caro e difícil de encontrar).

O Xerox PARC (Palo Alto Research Center), no famoso Vale do Silício, está fazendo pesquisas e procurando avanços que vão remodelar a vida no século 21. Ali foi inventado o PC, o computador pessoal. Ali foram lançadas as bases para a impressora a laser. Ali foi criado o programa que permitiu a criação dos sistemas operacionais Macintosh e Windows.

Foi Mark Weiser, quando era chefe do Laboratório de Ciência Computacional do Xerox PARC, quem criou a expressão “computação onipresente”. Nas horas vagas ele era baterista numa banda de rock, mas seu verdadeiro prazer sempre foi a arquitetura informática. Em um artigo na revista Cable ele afirmou que os  microchips estão cada vez mais poderosos e mais baratos, e vão penetrar cada vez mais na nossa vida diária. Ele dá um exemplo: no futuro, não haverá roupa de verão e roupa de inverno: o tecido será um só e a temperatura vai ser controlado por microships que farão parte das fibras.

Para ele, o computador vai ser uma força libertadora e as máquinas vão-se ajustar ao ser humano e ao seu ambiente, passando a fazer parte dele. Aos poucos, tornar-se-ão inteligentes e proporcionarão um conforto difícil de imaginar hoje em dia. Os microships vão-se comunicar uns com os outros pela Internet e as plenas implicações ficam restritas aos especialistas porque “pareceriam ridículas proposições da ficção científica”.

Hoje, nós não “percebemos” a eletricidade, a não ser quando ela falta. Diz Weiser que o impulso rumo à invisibilidade deve ser uma lei universal: o homem deixa de ver os avanços tecnológicos, assim que se acostuma a eles. A televisão que assombrou nossos avós é olhada pela criança como alguma coisa absolutamente familiar, corriqueira, simples. A regra é: sempre que aprendemos algo suficientemente bem ou que nos acostumamos com ela, as pessoas deixam de percebê-la conscientemente.

Os motores elétricos já são tão pequenos que há muitos deles na carroceria de um carro, para levantar e abaixar vidros, por exemplo, elevar e abaixar antenas, ligar o rádio e mudar de estação. No entanto, ao assumirmos o volante, estamos inconscientes de que vivemos cercados por até 22 pequenos motores e 25 solenóides embutidos na carroceria.

Weiser faz outra analogia, com a escrita: há milhares de anos era uma arte secreta, cuidadosamente controlada por uma reduzida casta de escribas treinados para gravar símbolos em pequenas placas de argila. Essas placas, caras e raras, eram trabalhosamente cozidas e guardadas por soldados, tal a sua preciosidade. Quando o papel foi inventado, ele também era precioso, caro, e só os monarcas e a Igreja tinham acesso a ele. A maior parte das pessoas nascia e morria sem jamais ver uma folha de papel. Hoje, nem temos consciência de estarmos cercados por um mundo de papel e de escrita. E ao lermos, nada vemos de especial na escrita, que só maravilha o analfabeto.

Na indústria de computadores, o intervalo entre a concepção de uma idéia e sua introdução no mercado é de cerca de 15 anos, em média. A computação onipresente foi imaginada em 1988 e em 2003 essas idéias já começaram a fazer parte da nossa vida de maneira apreciável. Mas para atingir massa crítica que barateie a produção e entusiasme o mercado, talvez seja necessário esperar até 2010. Como tudo, no mercado da informática, o preço inicial será inatingível para a grande maioria, mas, ano a ano, o preço cairá, com o aumento da desejabilidade, da produção e da compra.

Em 2020 a computação não só será onipresente como dominará nossas vidas.

 

Os que escrevem a história da informática dizem que ela tem três fases:

·        a época do mainframe,

·        a do computador pessoal,

·        e a da computação onipresente.

A primeira fase foi dominada pelo “gigante desajeitado”, o poderoso computador mainframe com que a IBM, a Burroughs e a Honeywell ganharam muito dinheiro. Os computadores eram enormes e tão caros que deviam ser compartilhados por centenas de pesquisadores, cientistas e engenheiros. A relação computador / usuário era, freqüentemente, de um para cem.

John Kemeny, ex-reitor da Universidade de Dartmouth, escreveu em sua autobiografia que “havia certo misticismo nessa relação, a ponto de apenas acólitos especialmente selecionados terem permissão de estabelecer comunicação direta com o computador”. E mais: “As máquinas eram tão escassas e tão caras que o homem se aproximava do computador como um grego antigo de um oráculo.” Programadores, então, eram tidos na conta de sacerdotes desse culto, e sabiam manter o segredo de rituais inescrutáveis.

A segunda fase começa com os anos 70, quando os engenheiros do Xerox PARC entenderam que a diminuição do tamanho dos chips e o aumento do poder do computador levariam, inevitavelmente, à relação um por um. Em 1972, para testar suas idéias, criaram o ALTO, o primeiro computador pessoal. E descobriam mais: que os sacerdotes faziam com que os computadores não fossem amistosos com os usuários; ao contrário, para manter o poder, criavam comandos confusos e rotinas que eram um forte obstáculo ao uso do computador por meros mortais. Por isso mesmo trataram de simplificar ao máximo o computador pessoal, criando uma tela de computador com figuras (ou “ícones“) que bastavam ser apontados com o mouse para abrir os programas e permitir sua manipulação.

Mais descomplicados e acessíveis, os computadores deixaram de exigir do usuário penosos ritos de passagem e iniciação, passando a ser operados até por crianças. Usar um computador deixou de ser um problema difícil e além de útil chegou até a ser divertido e prazeroso, permitindo navegar e fazer inacreditáveis descobertas.

Há, certamente, muito lixo cultural e bobagem na rede, mas também há nela, hoje, mais informação do que a que estava armazenada na famosa Biblioteca de Alexandria.

Como santo de casa não faz milagre, não foi a Xerox que melhor usou as idéias dos seus engenheiros. Primeiro foi a Apple, que criou o Macintosh. Depois a Microsoft, que criou o Windows, logo adotado como sistema operacional universal para computadores baseados nos IBM vendidos no mundo inteiro.

A transição entre as duas fases não foi fácil e esmagou até empresas multibilionárias que não acreditavam no futuro da informática. e imaginaram que o computador pessoal fosse moda passageira. Continuaram com seus mainframes e faliram (como a Wang) ou foram pesadamente deixadas para trás (como a IBM).

A terceira fase dos computadores, a da computação onipresente, vai mudar novamente a relação com o usuário, que passará ao extremo oposto e virá a ser de cem computadores para cada pessoa.

Bill Gates, o todo-poderoso da gigante de hoje, a Microsoft, já está preocupado porque a terceira fase começou e ele admite que “é um pouco assustador pensar que, à medida que a tecnologia da computação avança, o líder de uma nunca é o líder da era seguinte”.

Compreendendo que a Microsoft poderia pagar um alto preço pelo sucesso da Internet, Gates forçou sua empresa a acomodar-se aos novos avanços em redes de computadores, um passo que ele não havia previsto na primeira edição do seu livro A Estrada do Futuro, de 1995.

Não será surpresa se, um dia, o computador pessoal passar a ser dado, de graça, ao usuário, desde que ele se comprometa a só usar os programas da empresa do senhor Gates.

temos o PC de bolso que cabe na palma da mão. E muitos analistas imaginam, para o futuro, uma quarta fase, com a introdução de inteligência artificial nos sistemas de computação. De 2020 a 2050 o mundo da informática poderá ser dominado pelas redes invisíveis de computadores inteligentes, capazes de raciocinar, de falar, de reconhecer e até de usar bom senso.

Alguns analistas imaginam mesmo uma quinta fase, após 2050, quando as máquinas “terão autoconfiança e serão conscientes”.

 

 

Qual é o poder computacional que leva de uma fase à outra? De 1950 até 2000 a capacidade de processamento foi acrescida de um fator de cerca de dez bilhões (dobrando a cada 18 meses). Um aumento como esse é quase inédito na história da tecnologia. Basta dizer que é maior do que a transição da dinamite para a bomba de hidrogênio.

Se retrocedermos mais 30 anos (para o começo da era do computador) o fator passa a ser de um trilhão.

São esses números que permitem prever o futuro da tecnologia da computação. Como o preço dos miniprocessadores é cada vez menor, o puro poder da economia vai impelir a indústria para a nova fase. O preço dos microships está caindo. Já custou 50 centavos de dólar; em fins de 2005 custará sete e em 2010 apenas um centavo. Microprocessadores serão tão baratos que poderão até ser distribuídos gratuitamente para formar freguesia.

Indústrias inteiramente novas surgirão no mercado acompanhando a explosão e as que não incluírem alguns chips de computador em seus produtos estarão em séria desvantagem competitiva. O processo já começou, com esses cartões de Natal, de aniversário, comemorativos, que quando a gente abre tocam uma musiquinha. O que faz isso acontecer é um chip, com mais poder computacional que os computadores existentes antes de 1950.

Weiser acredita que, do mesmo modo como todo produto tem alguma coisa escrita, na terceira fase dos computadores todo produto deverá conter um microprocessador que dirá ao consumidor o que ele quer saber.

Para um futuro não muito distante já se pode imaginar que o poder computacional será praticamente gratuito e praticamente infinito.

 

 

O transistor é, basicamente, uma válvula que controla o fluxo da eletricidade. A dinâmica dos transistores semicondutores é regida pela teoria quântica (segundo a qual, dentro de um semicondutor, a ausência de um elétron, isto é, um buraco, atua como se fosse um elétron de carga oposta. A teoria quântica é que dita como esses elétrons e buracos se movem no transistor.)

Os transistores originais eram componentes elétricos toscos, mais ou menos do tamanho de uma moeda de dez centavos e conectados por fios. Eram feitos à mão, um a um. Hoje, são fabricados usando-se feixes de luz para fazer sulcos microscópicos e linhas em plaquetas de silício (fotolitografia). A luta para miniaturizar os transistores é que está empurrando a computação para a fase seguinte.

Na Idade Média os filósofos e teólogos discutiam quantos anjos poderiam ocupar a cabeça de um alfinete. Hoje, os especialistas em computador querem saber quantos transistores podem ser reunidos em um microprocessador. Em chips de silício do tamanho de um selo do correio, já foram agrupados 7 milhões de transistores.

O processo de miniaturização não pode durar para sempre, o limite é físico, é o comprimento da onda do feixe de luz.

Ao longo das últimas décadas tem-se usado comprimentos de onda cada vez menores. Lâmpadas de mercúrio emitem luz com um comprimento de onda de 0,436 micrometro (na região visível) e 0,365 micrometro (na região ultravioleta), distâncias que são cerca de 300 vezes mais finas do que um fio de cabelo.

O máximo a que a tecnologia atual pode chegar, talvez ainda no ano de 2007, é reduzir o comprimento da onda a 0,193 micrometro (na região do ultravioleta profundo), usando laser pulsado. Então, serão necessárias tecnologias inteiramente novas para ir à frente.

 

Um dos principais futuristas do mundo é Paul Saffo, diretor do Institute for the Future. Ele acredita que a computação onipresente é inevitável, e é o autor da tese que chama de “ecologia eletrônica”, segundo a qual a cada dez anos há um avanço tecnológico que muda a relação entre as criaturas que vivem nesse meio ambiente.

A força propulsora da revolução do PC, na década de 80, foi o microship. Na década de 90 o crescimento explosivo da Internet foi movido pela combinação do poder dos microprocessadores com lasers baratos e com a capacidade de transportar trilhões de bits de dados na velocidade da luz ao longo de fibras de vidro. No século 21, imagina ele, a próxima revolução será movida por censores baratos acoplados a microprocessadores e lasers.

Segundo Saffo, na terceira fase estaremos cercados por microprocessadores minúsculos, invisíveis, que sentirão nossa presença, perceberão nossos desejos e até serão capazes de ler nossas emoções. Conectados à Internet, vamos interagir com nossos computadores através dos nossos gestos, da nossa voz, do calor do corpo, do nosso campo elétrico, dos movimentos do corpo, dos nossos sentimentos e emoções. Dirigir um automóvel não vai apresentar risco e as tarefas domésticas poderão ser quase todas realizadas por máquinas inteligentes.

As casas e os escritórios dos ricos serão inteligentes e cheios de placas, pranchetas e quadros que tornarão a computação onipresente. Esses dispositivos computacionais terão 2,5 centímetros, 30 centímetros ou 1 metro. Cada casa terá cerca de 100 placas, de 10 a 20 pranchetas e um ou dois quadros por sala.

As placas são crachás de identificação, com um transmissor infravermelho, a capacidade de um computador, permitindo a localização da pessoa. Quando você se move, a placa fornece a localização precisa, quando chega perto de uma porta ela se abre, se estiver escuro as luzes da sala se acendem quando você entra, e ainda pode-se usar a placa para comunicação com outras pessoas ou para resolver problemas. Programadas, elas podem transmitir noticiário a horas certas, alertar o usuário para a queda da bolsa e terminarão tão pequenas que poderão ser colocadas em abotoaduras ou alfinetes de lapela.

As pranchetas serão finas como folhas de papel, descartáveis, estarão por toda parte e serão usadas para anotarmos coisas de que devemos nos lembrar, idéias e compromissos. Cada prancheta é um PC plenamente operacional, conectado ao computador central. É o começo do “papel inteligente”.

Rabiscando na prancheta, o programa gráfico converterá nossos rabiscos em gráficos coloridos e texto gramaticalmente correto. Depois de salvarmos para o computador central, jogaremos a prancheta fora ou, provavelmente, vamos colocá-la em um depósito apropriado para ser reciclada.

Os quadros são grandes telas computadorizadas, penduradas na parede. Podem funcionar como tela de vídeo, para a televisão interativa ou para a Web. Nos escritórios serão quadros de avisos, e quadros para anotações e exposição, funcionando também como um computador completo, ligado à Internet. Poderão ser usados para teleconferências ou para, por exemplo, supervisionar cirurgias à distância.

Lembra quando a máquina de escrever ganhou um chip e foi transformada em processador de texto? No futuro os chips estarão conectados entre si e a casa inteligente fará tudo pelo seu conforto, recebendo a previsão de tempo, aumentando ou diminuindo a temperatura do ambiente, preparando a comida na hora certa. O banheiro inteligente já começou a ser testado e um protótipo revelou-se capaz de monitorar a saúde da pessoa que se senta na privada. Ele mede temperatura, pulso, pressão, faz uma rápida análise da urina e das fezes e, mais tarde, será capaz de fazer um eletrocardiograma e um ecocardiograma, além de detectar a proteína emitida por  tecidos pré-cancerosos. E, certamente vai contribuir para a diminuirão dos problemas de hemorróidas no futuro, porque a privada sanitária lavará e secará o usuário, além de dar a descarga automaticamente.

Para o futuro estão imaginadas maravilhas possíveis, do ponto de vista tecnológico, como o uso do corpo humano como fonte de energia, que seria acumulada nos sapatos. Cada um de nós é capaz de gerar 80 watts de energia utilizável com nossos movimentos, o que dá cerca de um watt.

Outra dessas maravilhas acaba com os tradicionais cartões de visita. Instalando eletrodos nos sapatos, podemos conectá-los a outros sapatos. Colocando nosso cartão de visitas entre os dados biográficos disponíveis, bastará um aperto de mão (porque a pele é salgada e boa condutora) para passar a informação para a mão, da mão para a mão do outro e de sua mão para o sapato onde será armazenada para uso futuro.

No projeto Computadores Usáveis, do Massachussets Institute of Technology (MIT), já estão sendo produzidos óculos-computadores conectados com a Internet: o que uma pessoa vê através das suas lentes é transmitido para a Web, como nos filmes,

Um quarto de todos os PC do mundo já é de laptops, o que quer dizer que os portáteis deixaram de ser um nicho de mercado para entrar na paisagem. À medida que os custos continuarem a baixar, muitos usuários vão substituir seus telefones celulares por portáteis cada vez menores (o problema é o teclado), com muito mais possibilidades de uso.

Hoje, um paciente cardíaco já pode ser monitorado o dia todo, por uma parafernália que transmite informação para uma equipe de plantão. No MIT estão produzindo aparelhos cada vez menores e mais fáceis de portar, menos sujeitos a interferência, emitindo sinais melhores. E, algum dia, a maior parte das pessoas estará permanentemente monitorizada por seus serviços de saúde e companhias de seguro, acabando com as mortes inúteis por falta de socorro.

 

O dinheiro está-se tornando digital há algum tempo. Já é possível pagar à vista sem usar dinheiro, cheque ou assumir dívida, usando um cartão de plástico para mandar fazer o débito direto na sua conta-corrente no banco onde você tem depósitos. No futuro, praticamente toda a moeda circulante estará depositada e as pessoas usarão cartões inteligentes, dinheiro digital e ciberdinheiro, porque o poder de compra estará expresso apenas em informação. Não só porque é mais prático e menos arriscado, mas porque manter uma sociedade com base em moeda sonante é muito caro: contar, deslocar, recontar, armazenar e proteger moeda sonante custa cerca de 4% de todas as transações. O que se perde guardando-se dinheiro em espécie em vez de mantê-lo rendendo, é uma quantia substancial, porque dinheiro parado não ganha juros, não tem seu valor aumentado, pode até estar sendo perdido, além do custo de precisar ser constantemente guardado.

estão no mercado cartões com poder de compra, como os cartões telefônicos. E mesmo cartões que valem dinheiro para que sejam usados em compras em determinado lugar (que fornece o cartão). Muita gente já recebe parte do salário em um cartão que permite fazer compras, todos os meses, até um valor determinado. Na Europa há mais de 250 milhões de cartões inteligentes circulando e sendo usados para comprar bens ou serviços, como os cartões de abastecimento de gasolina.

Na Alemanha, as empresas de saúde fornecem a seus clientes cartões inteligentes que contêm todo o seu histórico médico e os resultados dos seus últimos exames de laboratório. Com isto, poupam muito tempo e dinheiro, permitindo também uma medicina melhor com atendimento mais rápido.

Não vai demorar muito para que os cartões inteligentes substituam os cartões de banco, de crédito, de telefone, de transporte, de pedágio, de estacionamento. E, no futuro, cada cidadão terá o seu cartão médico, com registros de seguro. Assim como todos nós teremos o cartão-cidadão, valendo como passaporte, carteira de identidade, cartão do Importo de Renda, INSS, FGTS e tudo o mais que o governo precisa para saber quem é quem.

 

A indústria automobilística está cuidando de se atualizar com a revolução da informática e muitos carros já têm mais de um computador. Há, hoje, cerca de 600 milhões de carros na Terra, quase um para cada dez terráqueos. É a maior indústria manufatureira do mundo.

Mas carros e estradas passarão por mudanças enormes. Os sensores são o principal acessório dos carros inteligentes e logo veremos veículos capazes de ver, ouvir, sentir, cheirar, falar, tomar decisões. E as estradas inteligentes acabarão com os congestionamentos, impedirão acidentes, manterão os carros a distâncias e velocidades convenientes, evitarão a distração, desatenção e negligência. Haverá até sensores-censores, que não permitirão que um motorista que passou da conta na bebida ligue o motor para sair dirigindo.

há sensores que localizam por satélite o carro furtado ou roubado e que, devidamente acionados, podem até impedir que o ladrão saia do carro, chamando a polícia.

Nas estradas do futuro, uma vez programados, os carros andarão com piloto automático, poupando o motorista nas viagens longas. É a telemática.

No Japão existem mais de um milhão de carros com algum tipo de capacidade navegacional e já foi testado um protótipo capaz de seguir uma programação marcada em um mapa. Pessoas cegas poderão sair de casa em seus carros pré-programados para andar na cidade. E haverá programas suficientes das cidades e até para viagens mais longas.

A lista de usos potenciais para a computação como sistema de posicionamento global é quase ilimitada.

 

Durante séculos a ciência avançou fazendo teoria ou experimentando. Mas cada vez mais uma nova forma de ciência está crescendo, baseada em simulações da realidade: é a realidade virtual abrindo novos caminhos, novas áreas, novas perspectivas.

Os computadores ajustam-se idealmente a modelar equações diferenciais que fornecem descrições surpreendentemente realistas de fenômenos físicos. As simulações por computador estão-se tornando tão exatas e precisas que já são usadas por milhares de pesquisadores e cientistas em muitas áreas. É certo que elas estão influindo e vão influir cada vez mais no desenvolvimento de novas tecnologias. Em muitas áreas, a propósito, o computador é mesmo a única forma de resolver um problema, solucionando equações diferenciais.

Os futuristas afirmam que alguns assuntos podem ser mais bem estudados pela ciberciência. Por exemplo:

·        Para observar e analisar supernovas, estrelas de nêutrons, buracos negros, a simulação por computador parece ser nossa única esperança de transformar a astronomia em uma ciência experimental.

·        Quando uma proteína não pode ser cristalizada não é possível usar cristalografia por raios X para determinar sua estrutura. É preciso usar a teoria quântica e a eletrostática para encontrar a estrutura da proteína e as complexas equações que determinam essa estrutura só podem ser resolvidas pelos computadores, que ficam sendo o único meio de calcular também as propriedades de uma grande classe de proteínas.

·        A aerodinâmica e o fluxo de ar em torno de qualquer coisa que viaje muitas vezes além da velocidade do som também podem ser simulados em computador e é mais barato do que túneis de vento que, às vezes, teriam que ser gigantescos e usar muitíssima energia. As equações diferenciadas podem dar a chave para os vôos hipersônicos do futuro.

·        Atualmente, só os computadores podem determinar o acúmulo de dióxido de carbono na atmosfera (produzido pela queima de combustíveis fósseis), e do gás CFC, que provocam o efeito estufa e o buraco na camada de ozônio. As equações dirão até quando ainda será possível suportar a agressão continuada ao meio ambiente.

·        E, importantíssimo para as construções que o homem pretende fazer em ambientes desconhecidos, o teste de esforço e tensão em materiais industriais pode ser mais bem calculado por computador, com economia de muito dinheiro em testes desnecessários e caros.

 

A revolução informática está nos levando no rumo do planeta inteligente.

 

Um dia, em janeiro de 1977, o Conselheiro para Segurança Nacional do presidente Jimmy Carter, Zbigniew Brzezinski ouvia, na Casa Branca os planos recém implantados pelo Pentágono para “proteger a liderança da Nação em caso de um conflito nuclear generalizado”.  Era um plano detalhadíssimo e que previa inúmeras possibilidades, começando pela evacuação imediata do Presidente, do Vice, do Presidente do Congresso e do Presidente do Supremo, que se dirigiriam a locais diversos, todos em segurança.

Quando o jovem oficial, orgulhoso, deu por encerrada a sua exposição, ZB ordenou uma evacuação total e imediata.

            _ Imediata? Agora mesmo?

            _ É uma emergência nacional, alerta máximo. Já.

O assessor não conseguia falar, surpreso e parecendo assustado. Foi para o telefone vermelho e deu a ordem:

            _ Alerta vermelho, evacuação imediata, comecem já.

Do outro lado perguntaram por ordem de quem.  Consultado, ZB disse que era uma ordem direta do Presidente da República, e que ele mesmo se responsabilizava.  Ainda houve alguma dúvida, até que ZB gritou:

            _ Já; estamos perdendo tempo precioso.

Passaram-se horas, com marchas, contra-marchas, pedidos de verificação, senhas, explicação e confirmação, de erros, desentendimentos e berros, até que o primeiro helicóptero chegasse aos jardins da Casa Branca.  A segurança da Casa Branca quase o derrubou, declarando-o hostil e não-autorizado.  O piloto manteve distância até receber ordem para pousar.

Zbigniew Brzezinski consultou o relógio: haviam-se passado não os dez minutos anunciados pelo jovem oficial, mas três horas e meia.  Ele disse:

_ Fim do alerta vermelho.  O Presidente está morto e a guerra perdida.

O episódio é absolutamente verdadeiro e foi contado pelo próprio assessor da Presidência. No dia seguinte começou a desmontagem dos planos estratégicos do Pentágono e foi criada a Advanced Research Projects Agency, uma agência governamental de projetos de pesquisa avançada, para criar uma tecnologia de computação que fosse suficientemente bem programada para começar a funcionar, automática e rapidamente, ao primeiro sinal de alarme disparado da Casa Branca.

O primeiro documento da ARPA começava com uma citação do próprio ZB: “O planejamento perfeito é aquele que só admite erros contornáveis e que não prejudiquem o objetivo principal”.

Daí resultou, principalmente, a Internet e a comunicação instantânea..         

 

Muitas das maravilhas eletrônicas de hoje, como as videoconferências, a realidade virtual, os satélites de posicionamento global, a Internet, foram desenvolvidos a partir desse fiasco.  Como a Agência funcionava no Pentágono, seus cientistas trabalhavam em regime de sigilo total e as conquistas e avanços ficaram ocultos para o público, inclusive para outros cientistas.

A obsessão militar pelo segredo, próprio da guerra fria, atrasou a revolução da informática por muitos anos e é responsável pelo desenvolvimento algo peculiar dessas tecnologias.

Pior: alguns cientistas civis que trabalhavam na mesma direção foram submetidos ao silêncio e obngados a abandonarem suas pesquisas, pelas chamadas “razões de segurança nacional”.

depois que acabou a guerra fria é que foram sendo preenchidas as lacunas deixadas pelos apressados autores de software e as tecnologias começaram lentamente a vir a público.  Livres do sigilo militar, as tecnologias desenvolveram-se rapidamente e conquistaram público, gerando novas indústrias e uma nova economia que movimentou bilhões de dólares, preparando o caminho para o século 21.

Ficou a lição e a certeza de que a ciência e a tecnologia precisam de uma atmosfera aberta, de liberdade, para que os cientistas possam interagir, trocar idéias e fazer prosperá-las com rapidez e qualidade.

Esta velocidade vai levar à terceira fase da informática, com os computadores conversando uns com os outros e criando uma espécie de membrana eletrônica vibrante em torno da superfície da Terra, com acesso fácil para todos.

Como anunciou Bill Gates, “a Internet é uma estrada de terra esperando para ser pavimentada e tornar-se uma auto-estrada da informação, a infovia que conectará todos os computadores do mundo”.  A infovia está prevista para 2010 e até 2020 os cientistas especializados em computação esperam ver todo o mundo florescendo na Internet: informação, educação, economia, todas as atividades do homem.

A Revoluçao da Informática

agosto 30, 2007

A Revolução da Informática

agosto 30, 2007

A Revolução da Biociência

agosto 30, 2007

O Projeto Genoma Humano é o mais ambicioso da história da ciência. Ele vai transformar nossas vidas no século21. Todos os genes do ser humano já foram localizados e quando aprendermos a ler o código da vida, vamos decifrar seus segredos e fazer avançar muito a medicina, inclusive com a possibilidade de cura da maioria dos mais de 200 tipos de cânceres. Mas há problemas éticos a resolver, inclusive sobre os limites para a criação denovas formas de vida.

A Revolução da Biociência ou Revolução Biomolecular começou em um humilde Laboratório de Higiene, instalado em uma única sala em 1887, com o modesto orçamento de 300 dólares.  Hoje, os Institutos Nacionais de Saúde (NIH) são o mais importante complexo médico do mundo, espalhado por 70 prédios no arborizado subúrbio de Bethesda, Maryland, perto da cidade de Washington, nos Estados Unidos da América.  Lá começou uma pesquisa nova e revolucionária que transformará radicalmente nossas vidas no século 21:o Projeto Genoma Humano, um dos mais ambiciosos na história da medicina, um programa intensivo que já gastou mais de 15 bilhões de dólares com um objetivo: localizar todos os genes do corpo humano, mapeá-los e aprender o suficiente sobre eles para decifrar os segredos da vida.

            O enorme sucesso do projeto deu razão a Winston Churchill, para quem “sucesso nada mais é que ir de fracasso em fracasso com inquebrantável entusiasmo”.  O mais importante projeto científico que a humanidade já inventou, essa investigação sobre nós mesmos, sofreu muita oposição e poucas propostas foram tão combatidas e ridicularizadas, inclusive por nomes importantes da Ciência.

            Imaginava-se que o ser humano tivesse 100 mil genes e a conclusão do Projeto Genoma Humano irritou muita gente, inclusive alguns laboratórios que tinham até a patente requerida sobre 53 mil dos genes humanos para explora-los comercialmente…

            Além disso, os meios de comunicação trataram muito mal o assunto, com a colaboração de cientistas pouco escrupulosos e venderam ao grande público que os genes eram tudo e determinavam a cor dos olhos, o tipo de cabelo, a forma do nariz, a química das células, até o comportamento.  A publicidade chegou a sugerir que só pessoas especiais tinham o gene que fazia com que ganhassem dinheiro.  E a revista Time leu errado a conclusão de uma pesquisa e informou que a infidelidade era genética (e até hereditária)!

            Padrões de comportamento, embora possam ser geneticamente influenciados de maneira modesta, jamais estarão inscritos no seqüenciamento do genoma humano. Segundo Francis Collins, o principal responsável pelo Projeto, “não vamos compreender coisas importantes como o amor conhecendo a seqüência do DNA do Homo sapiens”. E mais: “Se a humanidade começar a ver a si mesma como uma máquina programada por essa seqüência de DNA, teremos perdido alguma coisa realmente importante.”

            O Projeto Genoma Humano foi bem sucedido porque em dez anos a caça ao gene acelerou-se por um fator de vários milhares com a introdução de computadores, laboratórios robotizados, redes neurais. Ele é um dos mais espetaculares exemplos do que pode acontecer com o cruzamento da Revolução da Informática, com a Revolução Quântica e a Revolução Biomolecular.

            Quando concluído, os cientistas imaginam que o Projeto Genoma Humano poderá ter uma importância maior para a humanidade que a descoberta da Tabela Periódica dos Elementos (Mendeleiev, no século 19), que introduziu ordem no caos da matéria e deu origem à química contemporânea. Sem o mapa genético a biologia e a medicina do século 21 são impensáveis.

 

            Uma nova ciência está nascendo: a biologia computacional. Os cientistas de computador envolvidos no sequenciamento do DNA estão transformando a biologia em uma ciência informatizada.

            A ciência da computação começou a invadir o mundo da biologia em 1983, quando Russell Doolittle sacudiu o mundo fechado da biologia molecular com uma notável descoberta.  Sem realizar uma única experiência em laboratório e baseado apenas na leitura de dados impressos pelo computador, ele encontrou uma semelhança entre duas proteínas diferentes: o gene do câncer sis e um fator de crescimento celular.  Ele e seus colegas de computação perceberam que a seqüência de DNA encontrada nesse tipo específico de câncer era a mesma seqüência de DNA envolvida no crescimento celular.  Era a prova de que genes de câncer produzem crescimento anormal das células.

            Os biólogos de laboratório protestaram e disseram que biologia não é feita dessa forma.  Afirmaram até que “isso não é biologia” e até a Academia Nacional de Ciências demorou a reconhecer a descoberta (que depois classificou como “sensacional”), porque não estava confirmada pelos biólogos.

            Agora, o uso de computador para detectar padrões em seqüências de DNA mostra que os pesquisadores não precisam mais sujar as mãos com proteínas em tubos de ensaio e uma nova raça de cientistas começa a se destacar: os especialistas em biologia molecular com aptidões matemáticas e experiência em computação.

            No passado, os biólogos aprendiam analisando o interior de espécimes vivos (isto é, in vivo); no século passado estudavam a vida nas plaquetas do microscópio (ou seja, in vitro); e agora anuncia o futuro estudando a vida nos computadores (quer dizer, in silico).

 

            Assim como o futuro da tecnologia computacional está na miniaturização, através do microchip, muitos cientistas acreditam que o futuro do seqüenciamento do DNA será o chip de DNA (bio chip), numa grande fusão da revolução dos computadores e da revolução biomolecular.

            O bio chip é um microchip projetado especificamente para executar a busca de identidade entre genes humanos e animais (homologia).  É um chip imensamente útil para os biólogos porque quando já se sabe que uma certa seqüência genética controla uma proteína em um animal, a busca de sua correspondente (ou homóloga) no ser humano envolve menos adivinhação, menos pesquisa, menos trabalho, menos gastos.

            O chip de DNA torna possível o sonho do DNA personalizado, contendo todos os nossos genes.  Várias empresas de biotecnologia já apostam corrida para se prepararem para a leitura do DNA das pessoas, permitindo uma triagem genética rápida e barata.

            A olho nu, o chip de DNA é do tamanho de uma unha e lembra muito o microchip usado na maioria dos computadores.  Ao microscópio, no entanto, o que se vê é um padrão diferente.  Com as mesmas técnicas da fotolitografia utilizadas para entalhar ranhuras microscópicas em transistores minúsculos, os cientistas usam um molde para entalhar o esboço de fios de DNA correspondentes a determinado conjunto de pares de bases.  Banhando esses moldes com uma solução de DNA, as seqüências que permanecem são as que se encaixam precisamente em cada sonda.

            Os únicos fios de DNA que aderem ao microchip são os que correspondem precisamente ao molde entalhado no chip.  Todos os outros fios são removidos. Depois, um laser torna as seqüências fluorescentes e um computador faz a identificação final.

            O potencial do chip de DNA, que comprime um laboratório inteiro de DNA num único chip, é imenso e promete muito para o futuro do ser humano e para a pesquisa biomolecular.

            Decifrado o genoma humano e lidas as seqüências da vida, é provável que depois de 2020 o progresso se torne mais lento, à medida que os difíceis problemas da função de cada gene, das doenças poligênicas e da dobradura de proteínas passem a dominar a pesquisa.  É um processo que requer muita mão-de-obra.  Mas o dividendo será enorme, decifrando o enigma de grande parte das doenças genéticas e fornecendo as ferramentas moleculares necessárias para deter o câncer.

 

            A vitória sobre o câncer é uma das previsões para o século 21.  Se não a definitiva (porque há um tipo de câncer para cada um dos 200 tipos de tecido do corpo humano) pelo menos para os mais assassinos.  O modo como o câncer se desenvolve não é mais um mistério.

            Rebecca Lilly entrou para a história da medicina com um câncer no cérebro, não só incurável como impossível de tratar, a não ser por cirurgia.  Desde os 10 anos de idade ela sofria com um glioma extremamente maligno que ao crescer espremia seu cérebro.  Ela passou por várias cirurgias de cérebro aberto, para remoção do tumor, e a cada vez ele voltou a crescer. Até que, em novembro de 1995 ela foi a primeira pessoa a se submeter a uma terapia gênica para um câncer cerebral.

            Depois de nove horas para extrair o tumor os médicos injetaram um vírus no seu cérebro,  com o código genético alterado de modo a torná-lo inócuo, e inseriram nele um gene destinado a infectar as células cancerosas, induzindo-as ao suicídio.

            O novo tratamento funcionou por seis meses, ela recuperou a memória e o humor, mas em maio de 96 voltou a crescer. Lilly está morta, mas no mesmo ano abriu-se uma nova esperança para a terapia gênica: substituindo o gene p 53 (encontrado em mais da metade dos cânceres) os médicos conseguiram resultados notáveis com cânceres dos chamados “órgãos ocos”, fazendo desaparecer tumores cancerosos de pulmão, impedindo que outros continuassem a crescer e, na pior das hipóteses, reduzindo muito a velocidade do crescimento.

            A terapia gênica é uma aposta no tratamento de muitos tipos de câncer, para ajudar no combate ao HIV e até para doenças crônicas como Alzheimer, doenças mentais, artrite e até envelhecimento.

            É possível e provável que em 2020 os médicos encarem a quimioterapia, a radiação e as cirurgias de extirpação com a mesma atitude que hoje nós temos para os tratamentos com arsênico, sanguessugas e sangrias.

            O chamado “pai da terapia gênica”, W. French Anderson afirma que “estamos no início do que promete ser a era mais empolgante da história da medicina”. Ele prevê que em 2020 não só teremos o seqüenciamento personalizado do DNA como quase todas as doenças serão tratadas por terapia gênica. Diz ele que “nos próximos 20 a 40 anos, no máximo, teremos o potencial necessário para erradicar as principais doenças que afligem o ser humano”.É que quanto mais estudamos as doenças, mais compreendemos e melhor avaliamos sua origem genética e até molecular.  Segundo Paul Berg, ganhador de um Nobel, todas as doenças, em última análise, são de natureza genética.

            Em 1990 a equipe de Anderson foi a primeira do mundo a realizar uma experiência capaz de revolucionar a medicina do século 21: consertar os genes defeituosos de um ser humano.  Hoje, um exército de médicos já faz o mesmo, tentando a terapia gênica para uma grande variedade de doenças.

 

            Como resultado da revolução da biologia molecular a medicina está no seu terceiro estágio.

            Primeiro foi a medicina dos xamãs, dos pajés, dos místicos, que procuraram usar a força dos espíritos e dos deuses e vasculharam o reino vegetal preparando chás e poções, algumas delas usados até hoje.  E muitas drogas modernas tiveram origem nesse estágio primitivo da medicina que também se baseava no instinto animal.  O cachorro com desinteria come capim para curar-se e não é vegetariano: seu instinto leva-o a comer celulose.  Nós mesmos, enquanto animais, tínhamos nossa medicina baseada no instinto e os russos levaram anos investigando: a cada vez que seus computadores indicavam uma mesma prática de medicina popular em cantos diferentes da terra, uma equipe multidisciplinar procurava a explicação científica para a prática. Foi o que sobrou dessa medicina e a farmacologia russa desenvolveu 50 anos em 5 com esse tipo de pesquisa. Infelizmente, perdemos a capacidade de usar os sentidos e o instinto para fazer medicina.

            A Segunda Grande Guerra deu início ao segundo estágio da medicina, com a distribuição em massa de vacinas e a descoberta dos antibióticos. A penicilina, por exemplo, teve uma contribuição histórica para a elevação do status dos médicos porque permitiu que eles curassem doenças para as quais no passado só davam tratamento paliativo e, em grande parte, ineficaz.

            Agora estamos no terceiro estágio, o da medicina molecular, o mais empolgante, abrangente e promissor porque, pela primeira vez na história, cada nível de patogênese, proteína por proteína, molécula por molécula, átomo por átomo, gene por gene, está sendo pesquisado, estudado, revelado.  Os cientistas de hoje já têm a possibilidade de ler o genoma completo de um germe e identificar os pontos fracos moleculares de sua armadura.

 

A doença que frustrou o mais intenso, concentrado e custoso programa de pesquisa e investigação, o câncer, já teve seus segredos revelados à medicina molecular. Não é a doença que mais mata no mundo, mas é a mais temida e a segunda maior causa de morte.

Na verdade muitos especialistas debatem se as 200 formas de câncer, que atacam todos os tipos de célula do corpo humano, são uma única doença. Em teoria, sim, porque o que caracteriza o câncer é que as células atacadas, diferentemente das sadias, perdem a capacidade de parar de se dividir, são imortais e proliferam sem limite até que sufocam e impedem as funções orgânicas.

Isto não significa que a célula cancerosa seja imortal: ela pode morrer, mas como prolifera intensa e rapidamente, sua linhagem é imortal e mortal.

Nos seus aspectos básicos o mistério do câncer foi resolvido.  Sabe-se agora que é uma doença genética e quais são as quatro ou seis mutações necessárias na célula sadia para a geração de uma célula cancerosa (pelo menos da maior parte dos tipos de câncer).

Não só os principais genes envolvidos foram identificados como os cientistas conhecem também os passos moleculares básicos que provocam o câncer.  Milhares de cientistas estão trabalhando para os detalhes finos do modo como os cânceres se formam e crescem.

Mas, com todo o avanço da medicina molecular, ainda é desnorteante a variedade de causas simples ou combinadas que provocam o câncer, inclusive vírus, toxinas, dietas, radiação, tabaco, gordura animal, hormônios sexuais (como o estrogênio).

Cerca de 30% de todos os casos de câncer têm sua origem atribuída exclusivamente ao vício de fumar tabaco.  Se incluirmos a alimentação desbalanceada e gordurosa, chegamos a 60%.  Somando o meio ambiente e o estilo de vida. Chegamos a 90.

 

Há dois tipos principais de genes envolvidos no câncer: os oncogenes e os supressores. Os oncogenes aceleram as mutações na célula e os supressores freiam essas mutações.  O organismo fica descontrolado de duas maneiras: pela aceleração desmedida ou porque os freios falham.  De um ou de outro modo as células passam a se dividir incontrolavelmente ou perdem a capacidade de parar de se dividirem, o que dá na mesma.

Os cientistas já encontraram mais de 50 tipos de oncogenes para vários tipos de câncer: pulmão, mama, cólon e bexiga, por exemplo.  E a busca continua.  Entre esses oncogenes está o famoso gene que codifica a proteína p 21 (e que pesa tanto quanto 21 mil átomos de hidrogênio).            A segunda classe de genes que podem causar câncer, os supressores são os encarregados de suprimir tumores e o mais famoso e presente deles nos cânceres comuns é o p 51.

            Os cancerologistas esperam ter, em 2020, uma enciclopédia quase completa de centenas de oncogenes e genes supressores, fornecendo uma compreensão da base molecular do câncer e abrindo um grande número de novas maneiras de atacá-lo.

            Uma razão para a confiança com que os cientistas prevêem que classes inteiras de câncer serão curáveis em 2020 é que a maior parte dos cânceres é causada por mutações em apenas um grupo de genes, sendo o p 53  o mais significativo deles.  Ele parece ser a chave para a cura da maioria de casos de câncer através da terapia gênica ou moléculas inteligentes.

            O p 53 foi encontrado na raiz de 52 tipos de câncer e o percentual de casos de câncer a partir do p 53 defeituoso é assombrosa: 90% dos cânceres cervicais, 80% dos cânceres de cólon, 60% dos cânceres ovarianos, 50% dos cânceres de bexiga e até 50% dos cânceres no cérebro.  É, sem dúvida o gene alvo de mutações mais encontrado até agora nos seres humanos.  (Não é sem razão que, em 1994, a revista Science tenha declarado o p 53 como Molécula do Ano.)

            Normalmente o p 53 evita a reprodução numa célula danificada ou alvo de mutação, promovendo o suicídio da célula. Por isso mesmo já foi chamada de “guardiã do genoma”. Quando ela falha, ocorre o câncer e ela falha por conta da sua estrutura molecular, extremamente longa e delicada (2.362 pares de bases).  Mutações em p 53, que está localizado no braço curto do cromossomo 17,  podem ocorrer e ocorrem em mais de cem locais ao longo do gene quando a maioria dos genes sujeitos a mutação têm apenas seis locais, em média, onde elas acontecem.

            Por ser uma molécula tão desajeitada é que ela é tão freqüente em casos de câncer.  Mas sua descoberta solucionou um dos enigmas centrais do câncer, explicando porque um câncer pode levar 20 e até 40 anos para se desenvolver e outro se desenvolve muito rapidamente, em três, quatro meses. É que uma série de mutações precisa ocorrer na célula antes que o mecanismo  da célula seja finalmente perturbado; e o sucessivo desmantelamento do mecanismo reprodutivo de uma célula depende do número de pontos fracos dessa célula.

            Isso tem imensas aplicações práticas.  A começar pelos exames de sangue para detectar se a pessoa tem uma versão de p 53 sujeita a mutação, alvo de mudança. Embora sejam necessárias várias mutações para desencadear um câncer, se detectarmos uma será o suficiente para tomarmos cuidados com aquele paciente e para prevenir a doença,. Até 2020 esses exames podem ser rotina.

            Poderemos até mesmo, no futuro, ver se é possível substituir o p 53 defeituoso, com uma intervenção genética.

            Observando as mutações e suas causas poderemos ainda compreender como é que o meio ambiente, produtos químicos e outros fatores externos atuam para mudar o p 53 e provocar um câncer. 

            No futuro, um dia, é possível que ninguém mais vá fumar, porque será muito caro para a indústria tabaqueira pagar as indenizações a que serão condenadas por fumantes cancerosos.  Desde 1996 os cientistas provaram que a substância química epóxido de benzopireno diol, comumente encontrada na fumaça do cigarro, causa um conjunto característico de mutações em p 53, em três locais específicos.  São as três mutações envolvidas com o câncer de pulmão e, em tese,  basta provar que elas ocorreram para conseguir a condenação.

            Milhares de causas já estão sendo ganhas em vários países e logo esse tipo de processo será tão comum, em todo o mundo, que as tabaqueiras terão que procurar um negócio que não dê prejuízo, assim que uma jurisprudência ficar firmada.

            Do mesmo modo, em 2020, os cientistas terão descoberto as impressões digitais de centenas de diferentes tipos de poluentes químicos no nosso ambiente.  Ao identificar o câncer de uma pessoa com a impressão digital genética deixada por um carcinógeno, os cientistas ou legistas vão poder dizer com precisão o que causou aquele câncer.  Isso terá grandes efeitos sobre a regulamentação de licenciamento de fabricação e a comercialização de milhares de produtos. E certamente renderá processos judiciais e indenizações que acabarão por afastar do mercado os produtos indesejáveis.

            No entanto, a última grande descoberta do século 20 talvez renda os melhores frutos no nosso século: o relógio biológico, os telômeros, conhecidos como o estopim do câncer.

            Desde a década de 60 que os cientistas sabem que células de recém-nascidos em um campo de cultura se dividem de 80 a 90 vezes, porque são células ligadas ao crescimento; e que células de pessoas de 70 anos se dividem somente de 20 a 30 vezes.

            Na década de 70 aprenderam que as pontas de nossos cromossomos têm um arremate, o telômero, que pode ser comparado à ponta do cadarço de amarrar sapato para impedir que fiquem puídos.  Quando esse telômeros acabam ou se perdem, os cromossomos grudam e a célula acaba morrendo. É um processo natural, isto é, da natureza.

            Na célula normal, o telômero vai ficando cada vez mais curto até que chega ao fim e determina o suicídio da célula. Mas agora sabemos também que certas células, anormais, têm a notável capacidade de manter o telômero perpetuamente longo, de tal modo que elas se tornam praticamente imortais. Essas são as células cancerosas.

            Então, o telômero é o relógio biológico que regula a duração das células e um exame atento mostrou que ele consiste na seqüência genética TTAGGG repetida duas mil vezes e que quanto mais curto o telômero, mais curta a vida da célula, sem dúvida.

            A célula perde de 10 a 20 segmentos a cada vez que se divide, diminuindo o tamanho do telômero e reduzindo a sobrevida da célula, até que ela se mata, na inexistência da sua proteção e quando o relógio marca o seu fim.

            Em 1984 foi descoberta a enzima telomerase, capaz de fazer parar e até de inverter o processo, alongando os telômeros e evitando o suicídio da célula. Só que a telomerase está ausente da maioria das células do corpo.

            Em 1994 cientistas da McMaster University, com Christofer M.Counter à frente, demonstraram a presença da telomerase nas células de muitos tipos de câncer.  Uma mutação genética na célula doente permite que ela produza essa enzima que impede o desaparecimento dos telômeros dessas células, tornando-as imortais e favorecendo o desenvolvimento do câncer, porque elas esquecem como se morre.

            Essas descobertas abriram novos caminhos de investigação que estão sendo trabalhados.  Detectar a telomerase pode indicar a presença de células anormais em desenvolvimento.  Neutralizar a telomerose pode levar as células cancerosas ao envelhecimento e ao suicídio.

 

            Jamais haverá um tratamento único para o câncer e pode ser até que o câncer em todos os seus 200 tipos diferentes não seja inteiramente curável em 2020.  Mas os cientistas já terão, muito provavelmente, o catálogo quase completo das mutações envolvidas em todos esses tipos e assistiremos a um desenvolvimento explosivo de terapias, formas de detecção radicalmente novas, tratamento com novas estratégias de ataque aos pontos fracos e às vulnerabilidades moleculares do câncer.

            E, melhor notícia para os pacientes, estarão definitivamente ultrapassadas a atual quimioterapia e a terapia de radiação, que atacam tanto as células doentes quanto as sadias.

            O que se espera para 2020:

            1. A conclusão do desenvolvimento de testes simples, de urina e de sangue que podem ser feitos em casa, rapidamente, e que permitem detectar a maioria dos casos de formação de minúsculas colônias de células cancerosas, dez anos antes que um tumor visível se forme.

            2. A ciência já está começando a compreender, no nível molecular, como e por que certos produtos e vitaminas naturais ajudam a proteger contra o câncer.  Muitas pesquisas estão em andamento para desenvolver o combate natural ao câncer e já deverão estar concluídas.  Exemplos: a genisteína da soja e do repolho (presente em alta concentração na dieta japonesa) é capaz de impedir a formação de capilares sangüíneos que alimentam os tumores cancerosos.  Outro exemplo: os antioxidantes presentes nos alimentos, nas vitaminas C e E, o licopeno dos tomates, o pirocatenol das bagas e os carotenóides das cenouras reduzem a taxa de mutação das células ao inibir os radicais livres. Assim como outros vegetais contêm produtos químicos que criam enzimas protetoras contra o câncer, como os indóis do repolho, os limonóides das frutas cítricas e o isotiocinato da mostarda.  Muitas dessas pesquisas devem ter chegado a um resultado.

            3. Normalmente, os anticorpos criados pelo sistema imune do organismo humano não são poderosos o bastante para atacar uma célula cancerosa.  Mas os cientistas estão estudando para melhorar o sistema imune e o alvo é criar  anticorpos monoclonais, produtos químicos que atacam especificamente as proteínas presentes na superfície da célula cancerosa.  O progresso nesse sentido tem sido lento, mas constante e a terapia por anticorpos pode ser uma nova arma contra o câncer antes do quarto do século ter transcorrido.

            4. A quarta abordagem consiste em atacar os genes do câncer: a terapia gênica injeta o gene correto para substituir o defeituoso que causou o câncer.  Cientistas já injetaram com sucesso o gene p 53 correto em uma cultura de células cancerosas, detendo a sua reprodução e começam a aplicar a terapia em seres humanos vivos.  Outro grupo de especialistas tenta desenvolver uma alternativa: inibidores para bloquear a proteína defeituosa criada pelo gene do câncer, como a que o oncogene ras produz, estão experimentando com sucesso a farnesil transferase

5. Outra possibilidade está nas vacinas. Foi o primeiro método tentado e depois abandonado, mas a revolução biomolecular fez com que muitos cientistas voltassem a pensar na possibilidade.  Não em uma só vacina, mas em vacinas para tipos específicos de câncer.  As técnicas modernas permitem monitorar precisamente a eficácia da vacina, o que antes era impossível.

6. Há muita esperança no desenvolvimento de processos para sustar o fornecimento de sangue para o câncer.  Para crescer, o câncer estimula o crescimento de vasos e capilares que vão alimentar o tumor diretamente.  É a chamada angiogênese. A estratégia imaginada para deter o crescimento desses vasos é o desenvolvimento de bloqueadores como o TNP-470. Alguns já estão sendo clinicamente testados.

7. Os cientistas também esperam muito dos seus colegas que se dedicam a estudar a telomerase para neutralizá-la, o que tornará as células cancerosas novamente mortais, como as demais.

Não é possível prever, hoje, que terapia será mais eficaz, mas o importante é que a revolução biomolecular desvendou o mistério do câncer e abriu várias perspectivas novas e extremamente promissoras para evitar e combater o câncer em várias frentes.

 

Até 2020 é possível que a revolução biomolecular tenha controle sobre as doenças hereditárias, mas é provável que a cura continue distante, principalmente para as chamadas doenças poligênicas, as que envolvem mais de um gene com mutações.

Só nos últimos dez anos, com a biotecnologia, as doenças hereditárias conseguiram a ser compreendidas no nível molecular. Stephen Hawking, um dos maiores cosmólogos do mundo, sofre de esclerose lateral amiotrófica. Seu raciocínio permanece brilhante e preciso, mas ele perdeu o controle dos músculos, não consegue ficar de pé, não domina as pernas, os braços, as mãos, a língua, as cordas vocais.  Comunica-se através de um sintetizador de voz que opera com movimentos da cabeça.  Incapaz de outros movimentos, vive atado a uma cadeira de rodas.

É longa a lista de doentes célebres de defeitos genéticos, de Nero a Chopin, de Toulouse-Lautrec a Van Gogh, do rei Jorge III a Paganini. E há cerca de 5 mil doenças genéticas humanas conhecidas, entre elas a distrofia muscular, a hemofilia, a fibrose cística, a anemia falciforme, a doença de Tay Sachs.  Todas castigam pesadamente os jovens: um quinto de toda a mortalidade infantil é devida a doenças hereditárias, assim como a metade dos abortos espontâneos e 80% de todos os casos de retardo mental.

As doenças genéticas, segundo a Organização Mundial de Saúde, atacam cerca de 15% da população mundial, e se considerarmos as poligênicas ou com forte componente genético elas responderão por 75% dos óbitos.

A medicina foi impotente contra essas doenças por milhares de anos. Agora, a medicina molecular traz uma esperança, prometendo novas terapias e novas estratégias para enfrentá-las e até para obter algumas curas.

Mas vai ser uma luta interminável entre a evolução (que elimina, gradualmente, os genes danosos, por seleção natural) e as mutações nas células.  Em cada geração, algumas centenas de mutações ocorrem no DNA de cada um de nós.  Supondo que uma percentagem delas é danosa é provável que de dois a três genes danosos se introduzam em nossos corpos, por mutação. Assim, talvez 10 milhões de novos genes danosos penetrem no fundo comum de genes do ser humano, a cada geração.  Se não ocorrer algum milagre ou intervenção extraordinária para mudar os números, a luta será mesmo interminável.

 

Algumas dessas doenças são conhecidas há milênios, como a hemofilia, uma doença do sangue que impede a coagulação normal e que já é mencionada no Velho Testamento.  O Talmude isenta o bebê do sexo masculino da circuncisão se ele tem irmãos que sangram de maneira incontrolável.  E já se sabia que a doença era hereditária, transmitida pela mãe ao filho.

Essas doenças chegaram a alterar o destino das nações.  No século 18, medidas administrativas tomadas durante um acesso de loucura do rei Jorge III da Inglaterra (provocado por porfiria intermitente aguda), provocou a reação das colônias americanas e o nascimento dos Estados Unidos da América. Assim como a intensa endogamia praticada pelos reis e rainhas da Europa deve ter sido causa do gene da hemofilia da rainha Vitória, da Inglaterra, que o transmitiu para três filhas e um filho.  Seu gene também foi transmitido à neta Alexandra, que se casou com czar Nicolau II da Rússia.  O filho deles, Aléxis, sofria de hemofilia e o monge Rasputin, carismático e inescrupuloso, ganhou prestígio e poder na corte controlando o sangramento através da hipnose.  A corte russa ficou de tal modo paralisada pela ação de Rasputin que nenhuma das reformas urgentes caminhou, o que preparou o palco para a Revolução Bolchevista de 1917.

Muitas dessas doenças têm sintomas dolorosos, que levam à morte lenta e penosa. E algumas são bizarras, como a Síndrome de Lesch-Nyhan, que faz os jovens mastigarem os próprios dedos durante os surtos incontroláveis de automutilação.  Outras são terrivelmente desfiguradoras, como a neurofibromatose, que faz a pele do doente ficar coberta por uma infinidade de tumores castanhos, como no caso do famoso Homem Montanha, John Merrick.

Historicamente, a mais temida é a coréia de Huntington, que por muito tempo esteve associada à bruxaria e ao culto do demônio.  As famílias dos doentes eram molestadas, confinadas, e os pacientes, à medida que perdiam o controle sobre os músculos e a mente, ficando sujeitos a contorções do corpo que sugeriam dança, respirando com dificuldade e barulho, eram mortos, na fogueira, por estarem possuídos pelo demônio.

Por volta de 2015 deveremos ter uma listagem de quase todas as 5 mil doenças genéticas e seus respectivos genes defeituosos. O que não é tarefa das mais fáceis, como explica Francis Collins: localizar um gene específico, a partir do zero, sem marcos sinalizadores, é como encontrar um lâmpada queimada numa casa, em algum lugar do país, sem saber qual é a cidade ou a rua.  Estamos procurando uma letra errada em meio a 3 bilhões de letras. E ter todas as letras não vai ajudar muito.

Até agora, a decodificação do mistério das doenças hereditárias pela revolução molecular revelou algumas surpresas. Os genes defeituosos encontrados geralmente são extraordinariamente longos, o que aumenta muito a possibilidade de erro.  Em muitos casos, a doença é causada por um único erro, uma única letra trocada dentro do genoma humano.  Em outras vezes, por estranhas repetições de certos fragmentos genéticos.

Por isso mesmo a defasagem entre a capacidade de diagnosticar e a de tratar doenças genéticas pode ser de 20 anos ou mais.

Tudo indica que a estratégia mais promissora para combater as doenças genéticas é a intervenção direta pela terapia genética e os engenheiros genéticos já estão estudando o problema e como resolvê-lo.

A terapia genética é a solução proposta por W. French Anderson, o mais destacado pioneiro do campo e o irônico é que ele mesmo sofra de uma doença hereditária rara, a imunodeficiência combinada grave. Lembram, há alguns anos, de um menino que vivia permanentemente dentro de uma bolha plástica esterilizada e que só podia ser abraçado pela mãe se ela usasse luvas especiais?  Seu nome era David e ele passou seus poucos anos de vida confinado àquela bola, até morrer em 1984, porque não tinha glóbulos brancos saudáveis para evitar doenças, qualquer doença.

Curar genes defeituosos não é uma tarefa das mais fáceis, porque temos 100 trilhões de células no corpo.  No entanto, milhões de anos de evolução criaram o mais eficiente vetor, até agora, para a alteração dessas células: o vírus. Neutralizando-o antes, de modo a não fazer o paciente adoecer, os cientistas tratam de inserir no vírus um gene perfeito. Depois, é só colocar o vírus para circular no organismo do paciente.

Foi assim que Anderson fez: colheu sangue de seus jovens pacientes, depois infectou esse sangue com o vírus modificado e transfundiu-o novamente  nos pacientes.  A primeira paciente foi uma menina de quatro anos, Ashanti DeSilva.  Em 1995 pelo menos a metade dos leucócitos da criança tinham seus mecanismos genéticos corrigidos.

Mas depois de anos de experiências com a terapia genética, os resultados são desapontadores, porque o sistema imune do corpo às vezes ataca o vírus e as células modificadas, impedindo que os genes corrigidos proliferem no corpo.  Mas os cientistas continuam trabalhando e ninguém pode querer que um bebê ponha-se de pé e recite Shakespeare de cor.

Pior é que, de qualquer modo, ainda faltaria enfrentar as doenças ditas poligenênicas, provocadas por mais de um gene defeituoso, mutante. Nesse caso é difícil criar um programa de computador, até porque muitas mutações são provocadas pelo meio ambiente.

Uma doença símbolo desse tipo é a esquizofrenia, que destrói lentamente o espírito de um ser humano, deixando-o à mercê de vozes.  Para muitos cientistas (e não cientistas) é, indiscutivelmente, a pior doença que afeta um ser humano.  E ela atinge cerca de 1% da humanidade, mas ocupa perto de 30% dos leitos permanentes dos hospitais, sem esperança para o paciente.

Há uma clara relação entre a genética e a esquizofrenia Mas a relação é fraca, como prova o caso de gêmeos. Há 50% de probabilidades que um vá ser esquizofrênico se o outro o for, o que quer dizer que a genética não é determinante.  No entanto, há indícios esmagadores de que um dos genes da esquizofrenia reside no cromossomo 5.  E em 1998 cientistas canadenses descobriram que numa família de 104 pessoas, 39 eram esquizofrênicos, 15 tinham outros distúrbios mentais e todos os doentes tinham problema no cromossomo 5. (As probabilidades de que isto seja uma coincidência são de uma em 50 milhões.)

Outros estudos, no entanto, chegaram a esquizofrênicos que não tinham problema no cromossomo 5 e sim no 6, na área entre 6p 21 e 6p 24.

No momento não há esperança para as doenças hereditárias poligênicas, embora a terapia gênica seja uma possibilidade.

 

Há muito entusiasmo com o concerto de nossos genes de células somáticas, principalmente com a terapia gênica.  São células não relacionadas com a reprodução. Quando o indivíduo que for tratado e curado, morrer, morrem com ele os genes corrigidos.

E as células germinais, que envolvem a manipulação do DNA de nossas células sexuais?  As células corridas não vão morrer quando o paciente morre porque ele, ao deixar descendência, não deixará como herança aquela doença. Assim, em princípio, a terapia das células germinais pode, depois de algumas gerações, eliminar doenças genéticas para os descendentes da pessoa tratada.

No entanto, preparem-se para os grandes debates de graves questões morais e éticas,  como já está ocorrendo  com o uso ou não  das células-tronco

 de embriões, principalmente por motivos religiosos.

Os cientistas já conseguem realizar manipulações simples das células germinais em animais e não há barreiras previsíveis, do ponto de vista tecnológico, para fazer o mesmo com células germinais humanas.  Esta é uma tecnologia que se vencer preconceitos, restrições religiosas e éticas, tem potencial para ser usada de maneira benéfica, mas também de modo perturbador.

O admirável mundo novo da genética cria também o maior desafio moral que a humanidade deve enfrentar: temos que decidir em que medida queremos projetar nossos descendentes.  Devemos afirmar que há algumas coisas que nós simplesmente não faremos, por motivos éticos, mas quem pode segurar o avanço tecnológico da ciência?

A revolução do DNA abre duas visões diferentes do futuro.  Uma, promovida pela indústria biotecnológica, promete riqueza, prosperidade, mais saúde, o fim das doenças hereditárias através da engenharia genética, até a cura do câncer, assim como a bioengenharia promete novas drogas para as doenças infecciosas e a clonagem de genes promete dar muito mais alimentos para o mundo, vegetais e animais.

Mas quem ficou inquieto com o profético romance Admirável Mundo Novo, de Aldous Huxley (escrito em 1932) sabe que embora tenha projetado a ação do seu livro para 600 anos adiante, no futuro, muitas de suas previsões tecnológicas já estão ao nosso alcance. Assim como sabe que o horror, afinal, está dentro de nós mesmos.

Em 1980 assistimos ao nascimento de Louise Brown, o primeiro bebê de proveta e os pais já tinham uma ampla seleção de opções disponíveis para a procriação: embriões que podiam ser congelados e degelados anos mais tarde, barrigas de aluguel (houve até uma avó que pariu o próprio neto), congelamento de esperma que podia gerar filhos após a morte do doador…

E estamos às vésperas da realização de outras previsões de Huxley, como a clonagem humana e a procriação seletiva.

Que futuro vamos escolher?

A maioria dos cientistas biomoleculares parece decidida a evitar os erros dos cientistas envolvidos no século 20 com a pesquisa da energia atômica.  O problema é que a pesquisa com o átomo foi conduzida originalmente em segredo de Estado, sob o manto da “segurança nacional”.  Houve pouco debate democrático sobre as implicações da revolução atômica e um dos resultados é que os Estados Unidos da América enfrentam agora um problema com 17 depósitos de armas nucleares com vazamento, cuja limpeza pode custar mais de 500 bilhões de dólares.  E o preço humano é incalculável, porque muitos documentos ainda estão protegidos pelo segredo inviolável, embora aí também haja vazamentos. O que se sabe é que os experimentos antiéticos com radiação foram realizados com 20 mil indivíduos, americanos, que não só não estavam informados sobre o que acontecia na década de 40, como morreram sem saber direito.  Inclusive os que receberam injeções de plutônio nas veias, os que sofreram com a liberação de materiais radioativos sobre áreas habitadas e as mulheres grávidas expostas à radiação propositadamente, para ver como seriam seus filhos.

Os criadores do Projeto Genoma Humano tiveram o cuidado de reservar 3% do orçamento para montar um laboratório de pesquisa e debate das questões éticas, legais e sociais, uma preocupação inédita na história das pesquisas científicas.

O problema é que há uma diferença importante entre a revolução atômica e a biomolecular: até certo ponto é possível controlar a proliferação de armas nucleares, porque são necessários dezenas de bilhões de dólares para o desenvolvimento de uma grande infra-estrutura nuclear e ninguém pode iniciar um programa nuclear no porão de casa; ao contrário, a natureza da bioengenharia é totalmente diferente.  Com um modesto investimento de 10 mil dólares qualquer pessoa bem informada pode realizar experimentos de biotecnologia no porão e manipular o genoma de plantas e animais.  Com alguns milhões pode criar uma indústria de biotecnologia, de alto retorno, o que significa que não se pode conter a biotecnologia ou restringir o fluxo do DNA. A não ser que todos concordem em estabelecer valores éticos e morais, com proibições que inibissem os abusos.

Mesmo assim, não há garantia suficiente de que não ocorressem muitos experimentos e um mercado paralelo biotecnológico.

 

Os riscos são muitos e Jane Rissler, da União dos Cientistas Preocupados, teme que a falta de vigilância apropriada possa introduzir em um alimento, por exemplo, um gene aparentemente inofensivo mas que seja mortalmente perigoso para um consumidor incauto.  Por exemplo: inseriram genes de banana nos tomates de salada, para aumentar a rigidez e a durabilidade.  De repente, comendo tomate, uma pessoa pode ter um ataque alérgico e até morrer, porque ela tem alergia grave a banana.  Ela assegura que só em seu país há 5 milhões de pessoas alérgicas, com alergias alimentares que vão de moderadas a fatais.

Já houve pelo menos um caso público, com o feijão soja geneticamente modificado para conter um gene de castanha-do-pará e aumentar sua resistência às pragas.  Os testes provaram que a soja tornava-se altamente alergênica e podia causar choques fatais.

O problema é que não tem havido tempo e dinheiro para fazer todos os testes necessários e as autoridades sanitárias americanas há tempos permitem testes conduzidos pelas próprias empresas produtoras de alimentos geneticamente modificados.  Como a fiscalização americana é tida como ótima (o que não é, absolutamente verdade), outros países acompanham a decisão de liberar aquele alimento.  É preciso notar a capacidade de pressão e o dinheiro que cerca os poderosos interesses da agroindústria americana.  Em menos de dez anos, no final do século 20, foram aprovadas 40 novas espécies, produto de manipulação genética, com vigilância mínima.  E apenas 5 anos depois verificou-se que pelo menos 12 eram potencialmente perigosas ao ser humano.

Está havendo uma verdadeira corrida armamentista entre insetos e produtos manipulados geneticamente para evitarem a ação desses insetos.  E o resultado é o aparecimento de superinsetos, super-resistentes, que exigem mais pesticidas que acabam nos nossos alimentos.  Ou encarecendo de modo absurdo os produtos ditos orgânicos.

A colheita da bioengenharia não pode ser anulada e muitos cientistas temem, sinceramente, pelas conseqüências imprevisíveis da introdução, deliberada ou acidental, de espécies estranhas no meio ambiente.  Porque já há exemplos dramáticos, como o dos mexilhões zebrados, da doença do olmo holandês, do antílope africano kadzu, da praga do castanheiro.

Aqui mesmo no Brasil nós temos um exemplo: o da abelha africana (Apis mellifera adansonii scrutellata), deliberadamente importada em 1957 para substituir a abelha européia, que não se ajustava bem ao ciclo de luz natural do nosso clima.  A fuga de abelhas rainhas africanas fez com que a espécie, extremamente agressiva, se espalhasse de modo incontrolável, ocupando todo o continente americano, menos o Alasca.  Apelidada pela imprensa de abelha-assassina, ela enxameia aos milhares, ataca o gado e já matou milhares de pessoas, causando prejuízos incalculáveis.  Hoje, é a espécie dominante do hemisfério Sul.  Em nome de mais mel, perturbamos o ecossistema e estamos pagando o preço pela introdução sem cuidado dessas assassinas em nosso meio.

 

A quem pertence o genoma?  As tentativas de pesquisar e os requerimentos de patente de genes sem indicação de para que se pedia seu patenteamento mostrou que o biobussiness sofria de desregramento moral grave.  Além disso, as pesquisas com o DNA abriram nova controvérsia legal: é admissível a divulgação do resultado de um exame feito nos fios de cabelo de um candidato à Presidência da República para revelar que ele tem um gene defeituoso que pode resultar numa mutação cancerosa?

E é possível submeter um preso ou um acusado a fazer exame de DNA para comprovar sua culpa?

Embriões podem ser submetidos a testes genéticos e, conforme o resultado, serem abortados?  Será uma irresponsabilidade dos pais, no futuro, ter filhos sem testes genéticos?  As seguradoras poderão exigir testes genéticos e recusar seguro por conta de um gene problemático que talvez nunca sofra mutações que provoquem uma doença?  Indivíduos podem deixar de ser empregados por conta de genes problemáticos?  Haverá a chamada discriminação genética como já existe nos planos de saúde para a chamada “doença pré-existente”?

Ultimamente surgiram teorias sobre a violência genética e sobre a inteligência genética que permitem conclusões racistas e embora não sejam cientificamente comprovadas têm base em pesquisa genética.  É uma ameaça, principalmente nas mãos de pessoas com tendências preconceituosas.

A comunidade científica é majoritariamente contra a manipulação das células germinativas.  Mas há discordância e pode ser que no futuro os pais que quiserem tenham como determinar a altura, a cor dos olhos e do cabelo, o peso dos futuros filhos.  Os pais já tentam moldar os filhos com aulas de línguas e de piano, talvez queiram ir mais longe e moldar seus genes.

Basta ver o que aconteceu com um simples teste que pode determinar o sexo do feto: um terremoto demográfico.  Em grande parte do mundo na periferia do capitalismo, atribui-se exagerada importância a filhos do sexo masculino.  Segundo Monica Das Gupta, de Harvard, entre 1981 e 1991, um milhão de meninas foram abortadas na Índia.  E outros quatro milhões de meninas com menos de 5 anos desapareceram sem deixar vestígio, embora fossem 3,6% da população feminina naquela faixa etária.

A política de um filho por família, na China controlou a explosão demográfica à custa da morte de 10 milhões de meninas.

Se a introdução da ultra-sonografia desencadeou essa catástrofe demográfica, o que será que vai resultar da nossa capacidade de controlar geneticamente nossos filhos?

È certo que serão necessárias leis para proibir a interferência indevida, desenfreada no genoma humano e, certamente, nas células germinais.  Em primeiro lugar proibindo a manipulação por razões estéticas, uma aplicação frívola.  Mas talvez seja difícil estabelecer os limites definitivos, já que a percepção do público e os avanços científicos mudem com o tempo.

 

A clonagem de seres humanos está claramente possível para um futuro próximo e haverá novas questões éticas e legais, quando a clonagem for mais segura. (Hoje, os clones nascem com a idade biológica do animal clonado.)

Huxley previu a clonagem de pessoas para executarem as tarefas subalternas necessárias em qualquer sociedade.  Uma sociedade que importa mão-de-obra imigrante barata para fazer isso e paga salários miseráveis seria ética bastante para recusar os clones?

Os teólogos já discutem se os clones têm alma.  Os juristas se perguntam quais os direitos legais dos clones. Os cientistas querem saber se é possível clonar para fazer a colheita de órgãos para transplante. Vamos ver o dia em que surgirá a genetocracia, entregando o poder a uma nova aristocracia genética?  Ou assistiremos a guerras biológicas?

No ano 600 antes de Cristo, Sólon, de Atenas, contaminou a água que abastecia a cidade de Kirrah, com uma planta venenosa, o heléboro. Ganhou a guerra, a primeira guerra biológica de que se tem notícia.  Daí para cá os exemplos são muitos: os tártaros catapultando cadáveres para espalhar a peste sobre os inimigos; os britânicos dando cobertores infectados com varíola aos índios americanos para exterminá-los; o gás de mostarda que matou 100 mil soldados na Primeira Grande Guerra e incapacitou 1,3 milhão de pessoas; o gás que os nazistas usaram na Segunda Grande Guerra para eliminar judeus, ciganos, homossexuais e outros indesejáveis;o gás sarin usado por budistas fanáticos no metrô de Tóquio: a febre de San Joaquin, uma doença fúngica desenvolvida nos Estados Unidos como arma biológica para atacar um grupo étnico específico.

O conhecimento não é bom nem mau, mas é poder, e poder é uma questão política e social.  Não há maneira viável de deter o progresso da ciência, mas devemos encontrar um meio de controlar cuidadosamente os exercícios da tecnologia biológica, principalmente da pesquisa genética. Por exemplo, proibindo, em nome da humanidade, todas as armas e guerras biológicas.

 

A busca da eterna juventude é uma constante na história da humanidade e, hoje em dia, a indústria das dietas, dos exercícios físicos e da estética para parecer jovem consome mais de 100 bilhões de dólares.

Enfrentar o envelhecimento é enfrentar a realidade da própria mortalidade, mas viver para sempre não viola qualquer lei conhecida da biologia celular. No entanto, não podemos permanecer eternamente jovens.

Os cientistas mais cautelosos com as previsões para o futuro foram os biogerontólogos.  Eles apostam em tratamentos hormonais cuidadosamente monitorados combinados com antioxidantes para evitar alguns estragos provocados pelo envelhecimento, mas não asseguram o prolongamento indefinido da vida humana.

A propósito, é curioso que os velhos digam que estão enferrujando, com a velhice.  E que a ciência constate que estão mesmo, por conta da oxidação das células.  A mesma oxidação que provoca a ferrugem.

Mas depois de 2020, se tivermos o seqüenciamento personalizado do DNA, uma perspectiva inteiramente nova vai ser aberta: a identificação dos legendários genes da idade, se é que de fato existem, o que nem todos cientistas acreditam.  Pesquisar milhares de genes para localizar os da idade será um enorme trabalho, mas alguns biogerontólogos afirmam que a pesquisa já começou e que eles identificaram genes de idade em animais. E têm esperança de que existam homólogos no ser humano. Isto é, que os mesmos genes, com as mesmas funções, possam ser identificados no genoma humano, uma perspectiva promissora.

Supondo que tais genes existam e sejam encontrados e isolados, por meio da terapia genética talvez seja possível interromper o processo de envelhecimento e estender a duração máxima da vida humana.

Várias experiências de laboratório alteraram geneticamente a vida de um organismo vivo. Moscas drosófilas tornaram-se supermoscas, mais robustas, mais longevas e que produziam maior quantidade do antioxidante superóxido dismutase, que ajuda a combater os radicais livres superóxido. O que se imagina é que resistindo aos efeitos degradantes da oxidação tiveram a vida prolongada.  Abriu-se aí uma linha de pesquisa.

Num nematódeo, um verme minúsculo, localizaram um novo gene (age-I) que, devidamente manipulado, prolongou a vida dele em 110%, um feito sensacional para quem crê na possibilidade de manipular o gene humano da idade.

Manipulando o gene daf-2 de vermes, eles passaram a viver duas vezes mais e ficavam mais saudáveis e ágeis.

Siegfried Hekimi, da Universidade McGill, em Montreal, parece ter descoberto os genes-relógio (como ele chama), quatro genes que isolou e manipulou, desacelerando o envelhecimento de vermes mutantes que viveram cinco vezes mais que o normal.  Diz ele que o que conseguiu foi reduzir a taxa metabólica.  Viver mais devagar é viver mais, como sabem as tartarugas.

A maneira mais simples de determinar se a longevidade dos humanos é genética é descobrir se é hereditária.  Há muitos e exaustivos estudos sobre a hereditariedade da longevidade e os cientistas já constataram que 87% das pessoas entre 90 e 100 anos tinham pai ou mãe que viveram bem além dos 70.

Outra linha de pesquisa é trabalhar sobre a progéria, uma doença hereditária que acelera furiosamente o processo de envelhecimento, transformando lindas crianças em velhos decrépitos que morrem aos 9 ou 10 anos.  As pesquisas indicam nessas crianças-velhas quantidades anormais da enzima helicase, vital para o reparo do DNA.  O que, mais uma vez, parece indicar que o envelhecimento se dá pela falência dos mecanismos de reparo do DNA.  É mais uma linha de investigação.

Outra é procurar os genes do envelhecimento. Michael West, biólogo molecular da Universidade do Texas afirma já estar a caminho de encontrá-los. Prelo menos isolou os genes do envelhecimento das células da pele, do pulmão e dos vasos sangüíneos (M-1 e M-2).  Ele prevê que até 2010 seja possível controlar as doenças relacionadas com a velhice, como aterosclerose, doenças coronárias, envelhecimento do cérebro, osteoartrite e flacidez da pele.

Mas o entusiasmo maior do biogerontólogos é com a possibilidade de cultivar novos órgãos.  Alguns animais, como a lagartixa, são capazes de regenerar uma cauda perdida ou uma pata amputada.  Os mamíferos, infelizmente, não têm essa propriedade, mas as células do nosso corpo contêm, em seu DNA, a informação genética necessária para a regeneração de órgãos inteiros.

No passado, os transplantes em seres humanos enfrentaram uma longa lista de problemas, sendo o mais grave a rejeição do órgão pelo sistema imune.  Usando a bioengenharia, os cientistas agora podem cultivar linhagens de um tipo raro de célula, as chamadas células doadoras universais, que não provocam ataques do nosso sistema imune, o que torna possível uma nova e promissora tecnologia capaz de produzir partes do corpo.  O que já está acontecendo.

Para produzir órgãos os cientistas primeiro constroem uma complexa estrutura plástica que forma os contornos do órgão no tamanho que se deseja. Depois, essas células especialmente transformadas por bioengenharia são introduzidas na armação.  À medida que se transformam em tecido, a estrutura se dissolve, deixando um novo órgão saudável.  O notável é que, sem um capataz para dirigi-las, as células têm a capacidade de assumirem a posição e a função corretas: o programa que lhes permite montar órgãos completos está contido em seus genes.

Essa tecnologia já foi comprovada no cultivo, por exemplo, de válvulas cardíacas artificiais, usando um polímero biodegradável como estrutura.

Prolongar a duração da vida é um velho sonho do ser humano. Outro, ainda mais ambicioso, é criar novos organismos, novos seres vivos que nunca caminharam sobre a Terra e os cientistas parecem acreditar que estão se aproximando rapidamente da capacidade de criar novas formas de vida.

 

Quais os limites de criação de novas formas de vida?

A manipulação do fundo genético de plantas e animais para criar novas formas de vida é coisa antiga.  Os seres humanos manipulam com os genes de outras espécies há mais de 10 mil anos, criando muitas das plantas, frutas e animais que estão à nossa volta.

Cortez chamou o fruto que não conhecia de “maçã dourada” e os italianos ainda chamam o tomate de pomo d’ori porque quando ele foi levado para a Europa era amarelo. Depois é que se tornou vermelho, por manipulação genética.

O lobo cinza, Canis lupus, foi domesticado há cerca de 12 mil anos. Cruzamentos intensivos produziram as três centenas de raças conhecidas de cães para fins específicos: caça, pastoreio, segurança, resgate na neve, companhia. Vivendo com os seres humanos os cães prosperaram.  Para cada lobo há pelo menos um milhão de cães.  Mas os lobos eram saudáveis e os cães, por conta dos cruzamentos endogâmicos, têm muitos genes defeituosos que fazem com que tenham problemas de coagulação, deformidade dos quadris, artrose, reumatismo e outras doenças.

Quer dizer: há um preço a pagar por essas mutações transgênicas. Séculos de cruzamento seletivo do milho o tornou dependente do ser humano, a tal ponto que a planta não sobrevive mais sozinha.  As sementes ficaram tão firmemente incrustadas na espiga que já não se dispersam mais quando estão maduras; e suas sementes precisam ser plantadas pelo ser humano ou o milho se extinguirá.

 

Há muito tempo os cientistas suspeitam que certos tipos de comportamento tenham um componente genético e que nós estaríamos envolvidos numa intrincada rede de genes e de complexos fatores ambientais.  Pela primeira vez na história alguns genes que codificam certos tipos de comportamento estão sendo identificados e isolados.

Há muitas pesquisas nesse campo e há provas de que há mesmo genes que controlam funções cerebrais complexas, inclusive o ritual da corte dos machos e fêmeas e a tendência para a infidelidade.

Foram localizados genes da memória, gene da ansiedade, gene do bem-estar, gene do homossexualismo, nenhum deles suficientemente confirmado ainda.  O tempo dirá, mas pela primeira vez estamos pesquisando genes individuais que concorrem para a complicada mescla que cria a trama de traços poligênicos.  A descoberta desses genes será acelerada no futuro, melhorando nossa compreensão da saúde e do comportamento humano.

   

A Revolução Quântica

agosto 30, 2007


F
oi a física quântica que primeiro insuflou as revoluções do DNA e biomolecular na década de 50.  E na década de 90, com a introdução da tomografia por emissão de pósitrons, da visualização por ressonância magnética e da tomografia computadorizada axial, ela ajudou a alterar o modo como a pesquisa médica e a medicina curativa eram conduzidas.  A quântica também forneceu-nos o laser e o transistor, que estão transformando fundamentalmente a natureza do comércio, dos negócios, do entretenimento e da ciência.  O poder do computador vem da quântica e os extraordinários progressos no seqüênciamento do DNA têm a mesma origem. 
 

            A teoria e a prática quântica determinarão, majoritariamente, o curso do século 21.

            Comecemos pela nanotecnologia: até que ponto podemos reduzir as máquinas?

            A nanotecnologia promete para um futuro relativamente próximo as menores máquinas possíveis, máquinas moleculares.  Muita pesquisa e conquista ainda serão necessárias, mas a nanotecnologia é perfeitamente compatível com as leis da física e deve inaugurar uma nova era em nossa relação com a biologia e a tecnologia.

            Os cientistas já manipulam átomos isolados e podemos acreditar que um dia irão fabricar rodas e engrenagens com apenas alguns átomos de diâmetro. E os mais sonhadores já imaginam a possibilidade de que essas máquinas sejam capazes de auto-reprodução, criando um número ilimitado de robôs moleculares para realizar proezas que desafiam nossa imaginação.

            Com cerca de um décimo de micrômetro de tamanho (e o micrômetro é o milímetro dividido por mil), essas micromáquinas poderão manipular átomos individuais.  Com trilhões desses robôs moleculares convergindo num local, problemas biológicos e de engenharia genética hoje intratáveis poderiam ser resolvidos.

            Entre outras coisas, essas máquinas poderão: destruir micróbios infecciosos; matar células tumorais; patrulhar a circulação do sangue e remover placas das artérias; limpar o meio ambiente devorando resíduos perigosos; permitir o cultivo de alimentos baratos e abundantes para acabar com a fome no mundo; construir outras máquinas (de micro chips a foguetes propulsores); construir supercomputadores do tamanho de átomos; e até reparar células danificadas e reverter o processo de envelhecimento.

            Os críticos da nanotecnologia dizem que essas esperanças são tão sensacionais quanto são poucos os resultados das pesquisas.  Ainda não se produziu uma única máquina em laboratório e não há expectativa à vista para os dez primeiros anos do século.  Mas a verdade é que ela é possível e físicos e químicos estão tratando de construir protótipos.

            Até 2020 espera-se que a primeira geração de micromáquinas, os chamados sistemas microeletrônicos (smem) já tenham ampla aplicação comercial.  São sensores e motores em miniatura com o tamanho aproximado de uma partícula de poeira.  Longe de serem verdadeiras máquinas moleculares, já estão entrando no mercado, criando uma indústria de alguns bilhões de dólares.

            Em vez de gravar milhões de transistores¸os cientistas agora gravam minúsculos sensores e motores em plaquetas de silício. E minúsculos feixes de raios X estão sendo usados para gravar polímeros, que podem ser galvanizados para se criar moldes metálicos.  Um fiapo de silício da espessura de um fio de cabelo, pode detectar desacelerações súbitas de um carro e substituir os antigos e desajeitados detectores de movimento dos air bags.

            Entre outras façanhas o smem pode criar num só chip um laboratório inteiro capaz de diagnósticops médicos e análises químicas sofisticadas. Ou criar um microaparelho capaz de passar por nossos vasos sangüíneos, movimentado por um miniveículo.

            De 2020 a 2050 os smem já poderão ser substituídos por máquinas  moleculares verdadeiras. Resultados entusiasmantes já estão sendo obtidos há tempos em laboratório, com os pesquisadores manipulando estruturas que não têm mais do que alguns átomos de largura.

            Para conduzir a eletricidade e conectar as várias partes da máquina molecular os cientistas introduziram o nanotubo de carbono.  São cilindros ocos, feitos de moléculas de carbono, que têm cem vezes a resistência do aço, mas apenas 1/60 do seu peso. Com a vantagem de serem tão finos que só juntando 50 mil deles é possível  chegar à espessura de um fio de cabelo.

            São inúmeros os usos para essas fibras e pode-se fazer, por exemplo, um transistor molecular com nanotubos.

            Diante do rápido progresso na manipulação de átomos individuais a primeira geração de máquinas moleculares poderá ser apresentada ainda nesta década.

 

            O grande objetivo dos pesquisadores é produzir supercondutores à temperatura ambiente. A supercondutividade é uma estranha propriedade do mundo quântico e supermagnetos supercondutivos podem gerar campos magnéticos colossais com pouca energia e fazer um trem levitar alguns centímetros acima dos trilhos de metal, deslizando sem atrito e evitando o desgaste dos sistemas mecânicos que impedem as grandes velocidades.

            Uma razão da ineficiência dos grandes ímãs é que todos os dispositivos elétricos emitem calor e o calor excessivo drena energia no circuito¸ provoca panes e altos custos.  A supercondutividade pode mudar isso. Heike Kamerlingh Onnes descobriu que o mercúrio perdia toda a resistência elétrica quando resfriado a cerca de 4,2 graus acima do zero absoluto e ganhou um Nobel.  Hoje, descobriu-se uma quantidade surpreendente de substâncias supercondutoras, milhares. Só que o custo de resfriá-las com hélio liquido é proibitivo para uso comercial.  Daí a importância de chegar ao supercondutor à temperatura ambiente, que não exija resfriamento.

            Durante décadas os físicos não tinham esperança de encontrá-lo e aqueles que continuavam pesquisando eram ridicularizados pela procura da “pedra filosofal” dos alquimistas.  Mas só ele será capaz de transformar a indústria de tal modo que teremos uma segunda Revolução Industrial.

            Em 1986, dois desses sonhadores ganharam um Nobel: K. Alexander Muller e J. Georg Hednorz anunciaram a criação de um supercondutor cerâmico a 35 graus acima do zero absoluto, a primeira grande descoberta na área em 70 anos.

            Logo, Maw-Kuen Wu e Paul Chu mostraram que o óxido de ítrio-bário-cobre podia se tornar supercondutor à amena temperatura de 93 graus acima do zero absoluto (aproximadamente 180º Celsius negativos).

            Começou a corrida em laboratórios de todo o mundo. E já houve resultados com materiais que se tornaram supercondutores a 23 graus Celsius negativos.

            Os cientistas ainda estão longe da temperatura ambiente, mas essa nova classe de supercondutores já está provocando uma revolução na ciência. A cerâmica de cobre, por exemplo, pode ser resfriada com nitrogênio líquido, que custa apenas dez centavos de dólar por quarto de galão, tornando viável uma grande quantidade de produtos comerciais.

            É impossível prever quando supercondutores à temperatura ambiente serão descobertos: amanhã ou nunca, mas talvez para os anos 20.

            No entanto, vários países, mesmo sem eles, já estão fabricando trens maglev para conectar suas principais cidades.  Como o Japão, onde os trens maglev já rodam a grandes velocidades sobre colchão de ar. Só que suas bobinas magnéticas consomem grande quantidade de energia.  E as pesquisas prosseguem porque o congestionamento aéreo e das estradas de rodagem tornam o trem bala (capaz de fazer até 500 quilômetros por hora)  o meio ideal para ligar cidades separadas por 400 quilômetros como Rio e São Paulo.

 

            As duas fontes alternativas de energia renovável mais citadas pelos cientistas como parte do futuro do homem são a fusão e a energia solar. Qualquer fonte de energias para o século 21 deve ser barata, inexaurível e ilimitada.  Até 2030 os combustíveis fósseis estarão extremamente escassos e com preços proibitivos.  E o aquecimento global produzido por sua queima será insuportável.

            A demanda de energia está crescendo e prevê-se que o consumo mundial vá triplicar até 2040.

            O que substituirá o combustível fóssil?  Ele já deveria ter sido substituído mas os grandes produtores de petróleo impediram que isso acontecesse. Os maiores poluidores do mundo (responsáveis por 40% de toda a poluição) os Estados Unidos da América, não aderiram ao protocolo de Kioto, que estabeleceu a necessidade de reduzir as emissões poluentes para não sacrificar as gerações futuras.  Nem mesmo a ameaça à sobrevivência da humanidade abala George W. Bush, um mentiroso freqüente que garantiu aos americanos que o objetivo real do protocolo é “quebrar a espinha dorsal da economia americana”.  Como mentiu ao procurar os responsáveis pelo 11 de setembro no Iraque, que sempre quis invadir para controlar exatamente o seu petróleo.  Como mentiu para diminuir os impostos dos ricos e para cortar verbas federais essenciais para diminuir a pobreza, e continuou de férias e mentindo diante das falhas estruturais de Nova Orleans (o governo federal era responsável pelos diques de proteção da cidade, mas faltaram verbas para a manutenção.)

            A revolução que não foi feita no século passado foi a Revolução da Energia e, do ponto de vista humano, talvez ela fosse a mais urgente e necessária.  Mas o assunto fica para outra palestra.

 

            No fim do século 19 circulavam três tipos de carros, em número aproximadamente igual: a vapor, elétrico e a gasolina.  O carro a vapor, muito pesado, perdeu terreno enquanto Henry Ford e Thomas Edison cultivavam uma rivalidade que, em 20 anos, mostrou-se francamente favorável a Ford porque os carros da sua linha de montagem eram mais baratos.  Com isso, prevaleceu a gasolina, infelizmente.  Até porque a gasolina acumulava cem vezes a concentração de energia das baterias elétricas. Resultado: a autonomia da maioria dos carros elétricos não passava de 160 quilômetros, um terço da alcançada pelos carros a gasolina sem necessidade de reabastecimento. Além disso, as baterias levavam de três a quatro horas para recarregar.

            Mesmo assim, o motor de combustão interna pode ter a morte decretada no século 21. Principalmente porque cada um consome cerca de 11.300 litros em sua vida útil, emitindo 32 toneladas de carbono no ar, poluindo, provocando chuva ácida e o aquecimento global.  Veículos motorizados produzem mais da metade da poluição nas áreas urbanas e um quarto de todos os gases responsáveis pelo efeito estufa, além de serem responsáveis por metade do petróleo consumido no mundo.

            A alternativa mais atraente ao motor de combustão interna, nesse início de século, é o carro elétrico híbrido, computadorizado. E o computador determinaria quando usar o carro elétrico, na cidade, e o de célula solar nas estradas.  Até que os problemas do motor elétrico estejam resolvidos.

            A indústria automobilística já está trabalhando com materiais extremamente leves e resistentes, os mesmos que a NASA usa para a nova geração de naves espaciais. Com menos peso, ultracondensadores e células combustíveis, esses carros ganharão mais autonomia e serão interessantes: os ultracondensadores armazenando mais carga elétrica e as células oferecendo um grau de eficiência maior porque não produz qualquer poluição (ao contrário das baterias de ácido e chumbo). As células de combustível têm uma taxa de eficiência de 40%, duas vezes maior que a do motor de combustão interna. Elas ainda são caras e o hidrogênio é potencialmente explosivo e precisa ser manejado com cuidado.  Mas com a produção em massa, a combinação solar /hidrogênio /elétrico será muito atraente por volta de 2020, no máximo.

 

            Uma das grandes invenções que movimentou a Revolução da Informação foi o laser, que já tem a capacidade de enviar bilhões de chamadas telefônicas através de feixes de luz, usando fibras óticas.  A atual geração já nem se impressiona com a impressão a laser, os CD a laser, a cirurgia a laser e os cortadores a laser para a indústria…

            A nova geração de lasers, no entanto, vai abrir caminhos tiotalmente novos, à medida que se tornarem microscópicos ou, ao contrário, gigantescos. Por exemplo, permitindo que nas nossas salas haja televisores em 3D, isto é, emitindo imagens em três dimensões. Embora a televisão holográfica ainda esteja a décadas de distância, as barreiras a ela são estritamente técnicas e não conceituais. O desenvolvimento tecnológico deve mudar nosso modo de encarar o entretenimento, quando substituirmos nossos aparelhos de televisão bidimensionais, o que ocorrerá assim que for resolvido o problema da imensa quantidade de memória necessária para armazenar figuras holográficas.

Os transistores ópticos já estão no nível dos transistores de silício na década de 50.

Em 1989 a Bell já conseguia fabricar um milhão de lasers numa plaqueta minúscula, menor que uma unha.  Com o tamanho aproximado de bactérias, esses microlasers podem chegar a ter um terço de um micrômetro, uma limitação decorrente do fato de que ele precisa ser maior do que o comprimento de onda de uma luz laser.

 

Todo fã da Jornada nas Estrelas sabe que a nave Enterprise obtém sua energia da antimatéria.  Lá para o final do século é possível que o ser humano já esteja usando um motor assim.

P.A,M. Dirac, um dos fundadores da Teoria Quântica, concebeu uma equação que descrevia os elétrons obedecendo a teoria da relatividade de Einstein. Mas compreendeu que a famosa equação E=mc2 não era completamente correta.  Na verdade deveria ser E= + mc2.  Com isso, ele postulou um novo estado da matéria, a antimatéria, que tem propriedades notáveis.

A antimatéria é quase indistinguível da matéria comum e é possível formar antiátomos a partir de antielétrons e antiprótons.  Até antipessoas e antiplanetas são teoricamente possíveis, com a mesma aparência de pessoas e planetas comuns. Mas as semelhanças terminam aí. A carga da antimatéria é o oposto da carga da matéria comum; ela vai se destruir numa explosão de energia ao contato com matéria comum.  Se uma pessoa segurasse um pedaço de antimatéria, explodiria imediatamente com a força de milhares de bombas de hidrogênio.

Em resumo: não é sensato segurar antimatéria, mas este talvez seja o combustível ideal para as viagens espaciais, como sugere há tempos a ficção científica, porque não deixaria poluição (produtos residuais) e geraria enorme impulso.

Há décadas os cientistas vêm brincando nos laboratórios com quantidades ínfimas de antimatéria.  Obter grande quantidade de antiátomos e de antimoléculas é economicamente (e na prática) improdutivo.  A criação de antimoléculas vai demorar décadas e a criação de antimatéria suficiente para uso num motor concebido com a tecnologia atual levaria o país mais rico do mundo à falência.

Outro problema é onde colocar a antimatéria: qualquer caixa contendo antimatéria explodiria instantaneamente. Nem é possível colocar antiátomos num campo magnético ou numa garrafa magnética, já que eles terão carga neutra. (Por exemplo, o antiplástico atravessará sem esforço o mais forte campo magnético.)

Mas, não havendo razão científica para se excluir o uso de antimatéria como combustível, em um futuro distante, resolvidos os problemas econômicos que impedem sua obtenção e outros probleminhas secundários como o do seu armazenamento, podemos imaginar que no futuro remoto, um dia, o sonho da ficção científica será realidade.

 

Uma coisa, certamente, aprendemos com o avanço tecnológico: não dizer que certas coisas são impossíveis.  Mas há tecnologias futuristas que são incompatíveis com as leis conhecidas da eletrodinâmica, da teoria quântica, da relatividade, das leis conhecidas da física e, quase certamente, não se realizarão.  Entre elas as pistolas de raio (por conta do tamanho, impróprio para armazenar a energia necessária); os campos de força (aquelas paredes transparentes e impenetráveis feitas de pura energia, porque as forças eletromagnética, gravitacional e nuclear não podem prover um campo de força); os teletransportadores (porque os átomos arremessados ao espaço deveriam ser recompostos um a um na mesma ordem, o que é impossível); a invisibilidade (porque o que torna um objeto visível ou invisível é a estrutura das camadas de elétrons do átomo e não se sabe como manipular a estrutura atômica para alterar suas propriedades ópticas à nossa vontade).

O que não quer dizer que, no futuro, um dia, uma nova teoria da física venha a permitir que o que hoje parece totalmente impossível à luz dos nossos conhecimentos, se torne possível.

 

Há duas possibilidades: ou estamos sozinhos no Universo ou não estamos. Ambas são igualmente aterradoras.” A frase é do cientista e escritor Arthur C. Clarke.

Outra frase é do nosso cientista Marcelo Gleiser: “A vocação do ser humano é descobrir novas terras e agora o que nos resta é o caminho das estrelas”.

O caminho já está sendo trilhado com sondas, robôs autônomos, veículos controlados à distância.  Uma estação espacial está construída e sendo ampliada.  Há várias pesquisas de escuta, à procura de sinais de vida inteligente no espaço.

A colonização do espaço não é uma especulação, mas uma questão ligada à própria sobrevivência da espécie, a longo prazo.  Numa escala de tempo de milênios a milhões de anos é inevitável um choque da Terra com um grande meteoro ou um cometa, ou ainda um desastre natural que comprometa a maior parte da vida no planeta.  Isto quer dizer que um dia, inevitavelmente, nossa espécie terá de encontrar um novo lar no espaço cósmico.

É difícil planejar em detalhe o futuro das viagens ao espaço porque a força motora por trás dos principais (e mais ricos) programas espaciais tem sido mais política do que científica. Com a chegada do homem à Lua, uma vez fincada a bandeira estava declarada a vitória e mudou-se o esquema para menor, mais rápido, mais barato e melhor.  Uma missão que leva 20 anos para apresentar seu resultado e é extremamente dispendiosa não interessa aos políticos.  É mais sensato distribuir o risco enviando dez sondas menores, mas mais sofisticadas.  E assim tem sido.

A própria Estação Espacial é vista como um elefante branco para a qual ainda não se encontrou uma missão científica que valha a pena e os custos. E mesmo o porto espacial original não existirá. A Alpha tem o tamanho aproximado de um campo de futebol de 110 por 88 metros, transportando apenas uma tripulação de seis astronautas trabalhando em sete laboratórios em órbita a 320 quilômetros acima da Terra.

Quase 100 bilhões de dólares, para quê? Os cientistas já disseram, com clareza, que o programa não se justifica do ponto de vista científico e ela está praticamente obsoleta.

Por sua vez, os ônibus espaciais parecem condenados e a congressista Dana Rohrabacher disse que eles são “uma relíquia da Guerra Fria” e “o mais eficiente invento conhecido para permitir ao homem destruir cédulas de dólar”. Basta dizer que custa cerca de 15 mil dólares mandar uma libra de carga para o espaço no ônibus.  E ainda é preciso cruzar os dedos e desejar boa sorte aos tripulantes na hora da reentrada na atmosfera.

 

Depois de 2020 tipos radicalmente diferentes de foguetes serão necessários para cumprir uma nova função: realizar longas missões interplanetárias, prestar assistência a uma base de robôs na Lua, investigar o cinturão de asteróides, pegar carona num cometa.  Um meio de transporte barato e confiável, provavelmente com propulsão solar / elétrica (iônica),  porque possibilitará avançar no sentido da velocidade, da eficiência e da economia tanto quanto as leis da física nos permitem.

O motor iônico é quase o exato oposto do foguete Saturno, que gerava nove milhões de libras de impulso em apenas alguns minutos em sua viagem à Lua.  O problema é que foguetes químicos produzem uma enorme energia apenas por um breve período.  Já o motor iônico emite apenas um fino feixe de íons, gerando uma quantidade moderada de impulso, mas conseguindo manter esse impulso quase indefinidamente.  O motor iônico é a tartaruga na corrida com a lebre: sua aceleração é pequena, mas constante e pode ser mantida durante muitos anos. E a física nos diz que o importante não é o impulso, mas o produto do impulso pelo tempo de sua duração, o chamado “impulso específico”.

É provável que as missões interplanetárias de longa duração usem foguetes químicos para escapar da atração gravitacional da Terra, e motores iônicos no espaço para acelerar de maneira constante até velocidades elevadas que nos levem a outros planetas.

Segundo o físico Freeman Dyson, “um sistema diversificado de espaçonaves solar-elétricas tornará todo o sistema solar quase tão acessível para comércio ou exploração quanto a superfície da Terra na época da navegação a vapor”.Depois de 2020 nossos instrumentos serão tão sensíveis que poderão detectar planetas minúsculos, semelhantes à Terra, girando em torno de sistemas estelares próximos, o que nos encorajará a chegar às estrelas. E a grande meta será encontrar um planeta extra-solar capaz de comportar a vida humana, o que abriria uma nova era para a astronomia e nos permitiria criar colônias no espaço.  Como disse o visionário cientista russo Konstantin Tsiolkovisky, “a Terra é o berço da Humanidade, mas não se pode ficar no berço para sempre”. 

O impulso específico de um foguete necessário para missões interplanetárias de longa duração é de apenas alguns milhares de segundos, o que está perfeitamente ao alcance dos motores iônicos.

O problema das espaçonaves tripuladas, no entanto, viola as fronteiras da física conhecida e os recursos do planeta.  Melhor dizer que são dois: primeiro as distâncias que nos separam das estrelas e que são verdadeiramente assombrosas.  Embora um feixe de luz, viajando a cerca de 300 mil quilômetros por segundo, a partir da Terra, possa levar cerca de um dia para chegar a planetas extremos do nosso sistema solar, precisaria de quatro anos para atingir a estrela mais próxima, Alpha Centauri e cem para atingir a maioria das que vemos à noite. Uma espaçonave, deslocando-se a uma pequena fração da velocidade da luz levaria séculos para chegar às estrelas próximas.  E nada pode se deslocar mais depressa que a luz.

O impulso necessário para uma aproximação à velocidade da luz é de 30 milhões de segundos, o que excede, por imensa margem, a capacidade de todos os foguetes conhecidos até agora.

Mas há um foguete imaginado, movido por um motor de reação de fusão que suga hidrogênio interestelar para servir de combustível à medida que corre no espaço numa velocidade quase igual à da luz. E é possível torná-lo notavelmente leve, já que ele se vale da extração de recursos do ambiente e não de um combustível que deva carregar.

O motor se assemelha a um grande funil que suga moléculas de hidrogênio enquanto avança e o autor desse projeto, Robert Bussard, estimava que uma espaçonave tripulada pesando 900 toneladas poderia acelerar indefinidamente a 980 centímetros por segundo quadrado.  O que é conveniente porque as pessoas dentro da nave seriam atraídas para o chão e sentiriam uma gravidade artificial comparável à da Terra, 1g.  Ele calculou que a nave poderia aproximar-se, gradualmente, da velocidade da luz, em um ano. o que levaria a tripulação à Alfa do Centauro em cinco anos.  Mas, como tempo é desacelerado a bordo da espaçonave (segundo a Teoria da Relatividade Especial de Einstein), a tripulação chegaria às Plêiades em 11 anos pelo relógio de bordo e à Andrômeda em 25 anos (quando mais de dois milhões de anos teriam passado na Terra)…

De qualquer forma, os projetos de viagens longas, que exigem uma década (medido no relógio do foguete), trazem problemas. Se forem tripuladas, a tripulação não encontrará, na volta, seus contemporâneos.  E a duração das viagens seria insuportável para o ser humano.  A solução da ficção científica talvez seja a mais recomendável: fazer hibernar os astronautas.

Infelizmente, ao contrário do que parece nos filmes, a hibernação envolve graves problemas técnicos, como os cristais que se formam dentro das células. Cristais de gelo que crescem e podem acabar por romper as paredes das células.  O processo de descongelamento também é danoso para o tecido: quando a temperatura é elevada ao grau de derretimento, começa a haver uma fusão de cristais de gelo que comprimem, deformam  e até rompem as células.

Hoje, é difícil manter rins ou fígados vivos por congelamento durante mais de três dias e corações e pulmões por mais de meio dia. É notoriamente difícil, com o atual conhecimento, congelar o corpo humano ou partes dele, a não ser células sangüíneas e espermatozóides.

Alguns especialistas tentaram o congelamento rápido, para minimizar a formação de cristais de gelo letais, num processo chamado de vitrificação. Funciona, mas gera outros problemas: os lipídios da membrana celular que estão, geralmente, na forma líquida, se transformam em um gel (de modo parecido ao que ocorre com a gordura animal resfriada).  Em conseqüência a membrana passa a vazar e as células morrem rapidamente à medida que seu delicado equilíbrio químico é perturbado.

A solução está na natureza, que concebeu alguns mecanismos engenhosos que permitem a animais de sangue frio sobreviver a um inverno gelado.  As pesquisas já esclareceram os mecanismos biolõgicos que tornam isso possível e agora tratam de adaptá-los.  Já conseguiram prolongar muito a vida de alguns órgãos de mamíferos, mas não na escala necessária para um vôo de longa duração. Mas continuam tentando.

“A vida humana é preciosa demais para ficar restrita a um planeta”, escreveu Carl Sagan.  E um dia a Terra vai morrer, segundo a física, e isso é inevitável, o que significa que o programa espacial é a esperança da espécie.

O limite máximo para a existência da Terra é de cerca de cinco bilhões de anos, quando o Sol esgotará seu combustível de hidrogênio e se converterá em uma estrela vermelha gigante.  Antes disso os oceanos ferverão, as montanhas derreterão, o céu ficará em chamas e o planeta arderá até ficar reduzido a cinzas.  A Terra morrerá pelo fogo.

Muito antes a Terra passará por desastres ambientais que ameaçarão a existência da espécie e o quanto antes estivermos preparados para imigrar, tanto melhor.

 

É pura arrogância imaginar que somos a única forma de vida inteligente no espaço cósmico, em meio a bilhões de planetas semelhantes à Terra no universo.  Mas a verdade é que ainda não se detectou sinal dessa vida comprovado cientificamente.

A ficção científica trabalha sempre com variações da aparência do corpo humano. Mas a maioria dos exobiólogos acredita que há apenas alguns critérios básicos para a vida inteligente:

·        Alguma forma de olhos ou de um órgão sensorial para recolher             informações do ambiente.

·        Alguma forma de mão ou tentáculo capaz de manipular o ambiente.

·        Alguma forma de linguagem que permita fazer cultura.

·        Alguma forma de escrita ou de registro da cultura para que ela possa ser transmitida às gerações futuras.

As descobertas, invenções e revoluções científicas do passado (a introdução da pólvora, da imprensa de tipos móveis, de máquinas, de energia a vapor, da eletricidade, da energia atômica) modificaram a civilização de modo radical.  Como é que as revoluções do século 20 vão deixar o século 21?

As pesquisas com as células-tronco e a tentativa de produzir células embrionárias provocando outras células eletricamente e sem fecundação (para afastar as objeções religiosas) já dá uma boa medida da aceleração da pesquisa científica depois da Revolução Biomolecular.   Na feliz imagem de um jornalista francês, a conquista genética permitirá que os engenheiros genéticos passem a funcionar como coreógrafos da vida. A Revolução da Informática promete poder de computação ilimitado, novos caminhos na comunicação, até a inteligência artificial trazendo conforto e modernidade para dentro de casa. E a Revolução Quântica promete novos materiais, novas fontes de energia, talvez a possibilidade de criar novas formas da matéria e a indicação do rumo a uma civilização planetária.

 

Os astrofísicos exploram ativamente os tipos de civilização que podem existir no futuro de séculos e de milênios e propõem as linhas mestras especulativas para a evolução da nossa civilização nos vários milhares de anos que se seguirão.

A partir de considerações puramente físicas, conclui-se que qualquer civilização no espaço cósmico depende, sucessivamente, de três principais fontes de energia: o seu planeta, a sua estrela e a sua galáxia.  O astrônomo russo Nikolai Kardashev classifica as civilizações de acordo com a sua fonte de recursos: Tipos I, II ou III, com base na progressão natural do consumo de energia.

A produção de energia de cada tipo de civilização é, aproximadamente, 10 bilhões de vez maior do que a anterior.

Nós, aqui na Terra, modestamente, ainda não somos uma civilização do Tipo I, mas chegaremos lá, mesmo que a expansão seja moderada.  Se a economia do mundo crescer à pequeníssima taxa de 1% ao ano (o que é uma previsão muito conservadora), como o crescimento econômico é impulsionado, basicamente, pelo consumo maior de energia, dentro de mais alguns séculos nosso mundo estaria próximo de ser uma civilização planetária, do Tipo I.

Mais energia permitiria mais crescimento e se passássemos a crescer a 3%, em 800 anos chegaríamos a ser uma civilização estelar, do Tipo II.

Aí, será necessário dominar as viagens interestelares e a transição do Tipo II para o III será mais lenta.  As necessidades de energia levarão o ser humano a buscá-la fora do Sistema Solar, mas, se andarmos ligeiro, em 100 mil anos estaremos transformados em uma civilização galáctica, do Tipo III.

Dessas três transições, a mais perigosa, segundo os cientistas, talvez seja a transição de uma civilização do Tipo 0 para uma civilização do Tipo !. O perigo é que uma civilização do Tipo 0 é como uma criança que aprende a andar, incapaz de controlar seus desejos e suas emoções, suas explosões de raiva autodestrutiva.  Sua história é manchada por erros primários, ódios sectários, ações fundamentalistas, guerras nacionalistas, terrorismo, provocações guerrilheiras e preconceitos raciais ou sociais ultrapassados. É uma civilização que caminha, no século 21, ao longo das muitas linhas de fratura criadas há milênios e aprofundadas nos séculos 19 e 20.

Se a civilização conseguir sobreviver ao desastre global, sua ciência, inevitavelmente, conseguirá desvendar os segredos da vida, do átomo e da inteligência artificial. Se conseguir recuperar os melhores valores humanos, o conteúdo das revoluções do século 20 renderá material suficiente para abrir os caminhos que levarão a sociedade atual ao nível de uma civilização planetária, com a colaboração entre os povos que caracteriza esse tipo de civilização.

  

A Revolução Energética

agosto 29, 2007

O ser humano consume as reservas naturais da Terra a uma velocidade que coloca em risco a própria espécie

E nem assim os políticos fazem a revolução ambiental que leve a um desenvolvimento estável. Os sinais de mudança do clima são evidentes. Mas os maiores poluidores ainda não resolveram reduzir as emissões, porque dizem que isto é uma campanha para enfraquecer a economia americana. Reverter o atual processo de degradação ambiental é o maior desafio da humanidade no século 21.

 

Sustentabilidade é a qualidade ideal do desenvolvimento.  Desenvolvimento sustentável quer dizer que uma sociedade alcançou um grau de tecnologia que lhe permite continuar crescendo sem correr qualquer risco de desaparecimento dos recursos naturais.  O desenvolvimento do ser humano na Terra está muito longe de ser sustentável e a grande tarefa para o século 21 é transformar um mundo baseado no uso de combustíveis fósseis em outro, altamente eficiente, baseado em energias renováveis.

O século 20 foi do carvão e do petróleo.  E o século 21?

Com todo o progresso tecnológico do homem e com o desenvolvimento na oferta de energias renováveis e eficientes, as mudanças têm sido lentas e limitadas. São políticas as principais razões que sustentam modelos ultrapassados de produção e distribuição.  Adotar um novo modelo energético sustentado por fontes renováveis é mais do que um desafio tecnológico: ele é essencialmente político e deve vencer resistências econômicas de multinacionais fortíssimas e muito poderozas.

Será necessário fazer uma revolução energética para acelerar a transição, criando políticas para um futuro sustentável, envolvendo o público leigo interessado e despertando a consciência para os perigos de ser lento demais na empreitada, o que pode comprometer até o futuro da humanidade.

Quais são as barreiras? Como fazer para vencê-las? Quais são as tendências atuais? Quais são os exemplos de eficiência energética que já foram implementados com sucesso?  Que políticas são necessárias para colocar o Brasil entre os países civilizados, do ponto de vista energético?

As respostas estão no livro Revolução Energética, de H.S. Geller, já traduzido para o português (por Maria Vidal Barbosa) e lançado pela Relume Dumará. O autor morou e trabalhou no Brasil como professor visitante da Universidade de São Paulo, foi consultor da Companhia Energética de São Paulo e da Eletrobrás. E é autor de três outros livros sobre política energética. PhD em Política Energética pela USP e mestre em Engenharia Mecânica por Princeton seu livro Revolução Energética é uma leitura obrigatória para quem se preocupa com o futuro da Terra.

A energia tem uma importância vital e precisamos dela para aquecer ou refrescar, para iluminar, para cozinhar, para ouvir música e saber das notícias, para fazer andar carros, caminhões, trens e aviões, para fazer funcionar as indústrias, para nos comunicarmos, para ter conforto e para produzir. Quase toda essa energia vem de combustíveis fósseis (petróleo, carvão e gás natural) ou eletricidade.

Ambos parecem ser abundantes, baratos e disponíveis.  Um litro da gasolina custa menos que um litro de água mineral engarrafada.  E ligamos a luz ou aparelhos elétricos com um simples toque do dedo, raramente imaginando como é que aquela energia foi produzida, transportada, chegou até nós e quanto custou esse processo. Só tomamos conhecimento da importância da energia quando ela nos falta.

Pouca gente também se importa em saber os efeitos do consumo de uma e de outra e como isso está afetando a vida no planeta.

 

As geradoras de energia, assim como as petrolíferas, figuram entre as maiores e mais lucrativas empresas do mundo.  E pouca gente está preocupada e dedicada a substituir derivados de petróleo ou a eletricidade que estamos usando.  No entanto, a continuidade desse consumo causa muitos danos ao meio ambiente, um risco sem precedente de notáveis mudanças climáticas, além de um curto e rápido fim dos recursos naturais. 

Se forem mantidas as tendências energéticas atuais, haverá também um aprofundamento das desigualdades entre as nações ricas e as pobres, um agravamento das tensões que inflamam conflitos regionais, guerras e terror.

Resumindo: se for mantido o cenário de busines-as-usual para a energia, o bem-estar das futuras gerações estará em risco.

 

Uma revolução energética é desejável e possível.  Ao se enfatizar uma energia mais limpa e mais eficiente, com fontes renováveis e sustentáveis, seja ela a solar, a eólica, a energia das marés, a bioenergia ou todas elas somadas, os problemas causados pelos padrões atuais de consumo podem ser até revertidos.

O problema é um conjunto colossal de barreiras que limitam o raio de avanço em eficiência energética e a transição para as fontes de energia renovável em quase todo o mundo.

É possível superar essas barreiras, por meio de políticas públicas esclarecidas.  Mas isso exige despertar a consciência do público e criar áreas de pressão que criem vontade política capaz de resultar em decisões.

A experiência com políticas para aumentar a eficiência energética e o uso de energias renováveis está se expandindo, produzindo muitos modelos e lições bem sucedidas que podem guiar os próximos passos.  A expansão da adoção das políticas que se mostraram eficazes, bem como o aumento e a concentração de esforços internacionais, poderiam acelerar a revolução energética e resultar em um futuro energético mais sustentável.

 

De 1850 para 2000 o uso mundial de energia aumentou 20 vezes em todo o mundo.  E de 1900 para o final do século 20 aumentou 10 vezes. Em 50 amos, a partir de 1950, o uso aumentou dramaticamente: mais de quatro vezes.  Evidentemente, isto proporcionou um padrão de vida bem melhor a uma considerável parcela da população mundial, mas não a toda ela.

O aumento no uso de energia nos últimos 100 anos ocorreu, principalmente, nos países industrializados, no centro do capitalismo, que abriga apenas 20% dos habitantes da Terra.  Na periferia do capitalismo o que aumentou foi a defasagem entre os que mais consomem energia e os que têm menos capacidade de consumo, os ricos e os pobres.

Nossas fontes de energia passaram por grandes mudanças, nos últimos 150 anos.  A maior parte da energia consumida no século 19 era em forma de biomassa: lenha, carvão e resíduos agrícolas, as chamadas fontes tradicionais de energia.  A produção e o uso do carvão expandiram-se rapidamente no final do século 19, fazendo do carvão a principal fonte de energia mundial durante cerca de 70 anos (a partir de 1890).

Em meados do século 20 acelerou-se a produção e o uso do petróleo, até tornar-se a fonte de energia dominante durante os últimos 50 anos. 

Nos últimos 25 anos o uso do gás natural e da energia nuclear cresceram bastante. Assim, o conjunto de fontes de energia tornou-se dinâmico.

Quer dizer que o mundo já passou por outras revoluções energéticas.

Hoje, os combustíveis fósseis respondem por cerca de 80% do fornecimento global de energia.  E entre eles, o petróleo é o responsável pela maior fatia: cerca de 35% do fornecimento.  O carvão responde por 23% e o gás natural por 21% (em crescimento acelerado).

As fontes de energia sustentável fornecem apenas cerca de 14% do total global, mas a maior parte delas está em forma de fontes tradicionais.  As modernas fontes de energia renovável, incluindo a hidroelétrica e a eólica, assim como a mais moderna, a bioenergia, só contribuem com 4,5% do fornecimento total.

Os 6% restantes ficam por conta da energia nuclear. (Esses são dados oficiais, das Nações Unidas UNDP, 2000).

Cerca de um terço da população mundial, 2 milhões e 100 mil pessoas, ainda dependem, quase que inteiramente, da lenha e de outras fontes tradicionais de energia, para suprir suas necessidades básicas de energia.  Essas pessoas não têm acesso à eletricidade nem ao gás natural e esse é um dos fatores principais da sua pobreza e exclusão social.

Enquanto isso, as cidades mais ricas do mundo consomem quantidades cada vez maiores de combustíveis fósseis, energia hidrelétrica e nuclear, para abastecer um número crescente de veículos, fábricas e equipamentos.

Da mesma forma, gastos com energia pesam cada vez mais nos orçamentos familiares, a ponto de se tornarem insuportáveis para as famílias mais pobres, mesmo nos países industrializados, gente que já mora com dificuldade e em casas ineficientes, que exigem muita energia.

Em países ricos, como nos Estados Unidos, a energia pode significar de 12 a 26% da rendas familiar dos mais pobres, quando significam  um a dois por cento das famílias de classe média alta.

Enquanto uma boa parcela da população rica desperdiça, a maioria paga cada vez mais caro pela ineficiência na geração, transmissão e distribuição de energia, por conta do chamado futuro energético business-as-usual.

A maior parte dos especialistas crê que o uso global de energia crescerá pelo menos 2% ao ano, nas próximas décadas.  Os combustíveis fósseis responderiam por quase 84% do fornecimento primário total de energia em 2020 (acima dos 80% de 1997).

            Mantidas as atuais políticas e tendências energéticas, (o que não seria de surpreender) o uso global de energia pode dobrar os níveis de 1990 ainda em 2025, triplicar até 2050 e crescer inacreditavelmente na segunda metade do século 21.  Estima-se que a maior parcela desse crescimento se dê nos chamados países em desenvolvimento, onde o nível de consumo de energia ainda é baixo.  Em 2025 esses países podem até ultrapassar os países desenvolvidos em termos de uso total de energia, embora não o uso per capita.

            Um futuro de grande crescimento, uso intensivo de energia gerada por combustíveis fósseis, tem implicações graves para o futuro do ser humano na Terra, criando problemas e desafios como altos custos, poluição do ar, aquecimento global, riscos de segurança, falta de recursos, desigualdade.

            A indispensável construção de usinas elétricas, oleodutos, gasodutos e outros equipamentos para o fornecimento de energia exigem capital intensivo.  Segundo os analistas mais bem informados, se o uso mundial de energia continuar a crescer 2% ao ano, os investimentos em dólar até 2020 devem chegar a 23 trilhões.  E até 2050 de 26 a 35 trilhões (a valores de 1998).  É um investimento de US$ 500 bilhões a US$ 1 trilhão por ano, duas a quatro vezes o nível mundial de investimento em produção e conversão de energia nos anos 90.  É um alto custo que não parece ser viável para a grande maioria., principalmente para os países em desenvolvimento como o Brasil, o que anuncia problemas para o desenvolvimento econômico e social.

            Os gastos de uma família com energia estão crescendo e a tendência é que cresçam cada vez mais, proporcionalmente, para os mais pobres, principalmente por conta do enorme desperdício de energia.

 

Todos os países industrializados são altamente dependentes das importações de petróleo, inclusive os Estados Unidos da América.  E essa dependência está aumentando, o que deixa as economias ocidentais vulneráveis aos preços fixados pelo cartel da Organização dos Estados Produtores de Petróleo (OPEP).  A prova disto são os efeitos evidentes de cada “choque do petróleo” na economia mundial e a necessidade que os americanos sentiram de fazer guerra ao Iraque para assegurarem o controle do petróleo iraquiano.

Para além da economia, há o problema da segurança nacional e o risco mais evidente de uma potencial interrupção do fornecimento de petróleo é a paralisia da produção e dos transportes.

Por isso mesmo as grandes potências usam do seu poderio militar para intervir ao menor sinal de problema e para manter os suprimentos vitais.  Esta é a razão principal do forte contingente militar no Oriente Médio, principalmente na região do Golfo Pérsico.

Nos últimos 50 anos do século 20 ocorreram 14 interrupções significativas no fornecimento de petróleo, praticamente todas relacionadas com a política ou com conflitos militares.

Os economistas americanos calculam que os choques no preço do petróleo custaram à economia do país trilhões de dólares, principalmente por conta da subseqüente inflação, recessão e transferência de riqueza para países que mantinham controle oligopólico sobre os preços da energia.  As nações ocidentais gastam dezenas de bilhões de dólares a cada ano na proteção de suprimento de petróleo do Oriente Médio, desde a guerra Irã-Iraque em 1990.

A guerra contra o Iraque já estava decidida muito antes de 11 de setembro e não dependeu de atentados terroristas ou alegadas armas de destruição em massa ou armas químicas (que os Estados Unidos haviam fornecido ao Iraque na guerra contra o Irã).  Estava decidida já na campanha eleitoral, como promessa do senhor Bush para garantir o petróleo iraquiano.

Assim como o primeiro senhor Bush fez guerra contra o Iraque para não perder o petróleo do Kuwait.

 

O cenário de referência montado pelo World Energy Outlook prevê um aumento de consumo de petróleo em todo o mundo de “pelo menos 47%” até 2020 e afirma que a existência do cartel da OPEP e da instabilidade política na região do Golfo Pérsico, as nações importadores sofrerão riscos crescentes, econômicos e de segurança, no futuro.

Os americanos insistem em dizer que os ganhos com a venda de petróleo estão diretamente ligados ao terrorismo, financiando-o. Mas a presença militar americana na área é muito anterior a 11 de setembro e a qualquer ataque terrorista: ela é parte da chamada “política exterior do petróleo”.  Na verdade, Osama bin Laden é uma das conseqüências dessa política, porque ele indignou-se e protestou contra a presença de tropas americanas na Arábia Saudita, solo sagrado para os seguidores do islamismo.

Não se fale em democracia no Oriente Médio, porque esse não é um valor para eles. E as nações ocidentais apóiam governos não-democráticos e repressores, desde que mantenham os poços jorrando e o fluxo das exportações.  Mesmo que isso signifique uma derrota para a democracia, contribua para aumentar a pobreza e a defasagem social e até para alimentar o terrorismo.

A própria infra-estrutura mundial de fornecimento de petróleo está vulnerável a ataques e interrupções: os poços do Kuwait levaram meses queimando e a resistência no Iraque tem especial preferência por sabotar os grandes oleodutos e os terminais de armazenamento.  Um simples bêbado, armado, fez furos de bala no oleoduto Trans-Alasca, causando o derramamento de 7 mil barris de petróleo antes que o vazamento fosse detectado, o que causou seu fechamento por três dias.

Não é só no petróleo que reside o problema de segurança: as grandes linhas de transmissão de energia elétrica são incrivelmente vulneráveis até mesmo a problemas causados pela natureza.  E as usinas nucleares são um perigo constante, de acidente e como alvo que, acertado, pode liberar grandes quantidades de isótopos radioativos. É preciso não esquecer o acidente de Chernobyl e os milhares de mortos que provocou e continua provocando.

           

            A queima dos combustíveis fósseis causa poluição do ar, em prejuízo da saúde pública, provocando o desequilíbrio dos ecossistemas.  As atividades energéticas respondem por 85% das emissões de dióxido de enxofre, 45% das emissões de partículas, 41% da emissão de chumbo, 40% da emissão de hidrocarboneto, 20% da emissão de óxido nitroso na atmosfera.  Esses poluentes resultam em chuva ácida, neblina com fumaça nas cidades como São Paulo, fuligem.  E é a maior fonte de geração de produtos químicos tóxicos causadores de vários tipos de câncer.

            Mas os grande poluidores do mundo não estão dispostos a reduzir o nível da poluição, mesmo que o futuro da humanidade esteja ameaçado.  Estima-se que pelo menos 1,5 bilhão de pessoas estejam diretamente expostas a níveis perigosos de poluição do ar, especialmente nas áreas urbanas.  A Organização Mundial de Saúde calcula em 500 mil, por ano, o número de mortos pela baixa eficiência da combustão e falta de controle da poluição.  Os níveis de material particulado na atmosfera estão, atualmente, de duas a cinco vezes mais altos do que os limites propostos pela OMS.

            A contaminação do meio ambiente pode ser especialmente nociva em regiões com grande produção de energia, poluindo o ar, contaminando o solo, a água de superfície e as águas subterrâneas.

            A expansão do uso intensivo de energia produzida com a queima de combustíveis fósseis durante este século, vai exacerbar os problemas de qualidade do ar, afetando a qualidade de vida, a saúde pública, a produção de alimentos e os ecossistemas, de tal modo que a poluição atmosférica chegará a ser insuportável em menos de 25 anos, provocando cada vez mais doenças respiratórias, alergias e mortes prematuras.

 

            O índice de dióxido de carbono e outros gases que provocam o efeito estufa está crescendo rapidamente na atmosfera, causando o aquecimento global.  Foi registrado um aumento de 31% nos níveis de dióxido de carbono e um aumento de 151% nos níveis de metano, desde a era pré-industrial.  Um índice de aumento que não teve precedente nos últimos 20 mil anos, pelo menos.

            A temperatura média da superfície do planeta aumentou cerca de 0,6º C durante o século 20.  O ano de 1998 foi o mais quente dos últimos mil anos, e a década de 90 foi a mais quente já registrada.  As atividades relacionadas à energia são as principais produtoras de dióxido de carbono e gás metano e responsáveis por cerca de 80% do aquecimento ocorrido desde a era pré-industrial porque emite gases considerados de longa residência atmosférica.  Essas atividades também emitem sulfatos e particulados e prejudicam a camada de ozônio.

            O aquecimento global começa a apresentar uma série de impactos, entre eles uma ocorrência mais freqüente de problemas climáticos extremos, secas, ondas de calor e de frio, enchentes.  O nível médio do mar elevou-se em 10 centímetros no século passado, as geleiras estão diminuindo, e as chuvas estão aumentando em algumas regiões, enquanto em outras a seca vem-se agravando, assim como a desertificação.

            Mantidas as atuais tendências, sofreremos um aquecimento global dramático no século 21, que seria de 1,4 a 5,8º C na temperatura média da superfície terrestre.  Isto significará uma redução da produção agrícola na maior parte das regiões habitadas, prejuízo irreversível aos ecossistemas, doenças, mortes, um aumento do nível do mar de até 90 centímetros, exigindo o deslocamento de grandes massas populacionais. Vários atóis e ilhas já desapareceram.

            O custo econômico, segundo o Banco Mundial, pode chegar a US$ 300 bilhões anuais até 2050, equivalente a 1,5% do Produto Interno Bruto global.  Os países mais pobres seriam os mais severamente afetados porque são altamente vulneráveis e não têm recursos para se adaptarem às mudanças.

            O aquecimento pode causar conseqüências ecológicas catastróficas e irreversíveis, inclusive uma considerável redução ou até interrupção da corrente marítima que leva água quente para o Atlântico Norte.

            Mesmo que as piores previsões não aconteçam, o aquecimento global vai resultar, inevitavelmente, no descongelamento do pólo, na expansão térmica do oceano, no aumento do nível do mar, o que pode demorar, mas é um desafio à sobrevivência da humanidade.

 

            O petróleo economicamente recuperável dos Estados Unidos da América já está acabando: a produção chegou ao apogeu em 1970 e caiu cerca de 30% até o fim do século passado.  A produção mundial seguirá caminho semelhante. Segundo alguns autores, chegará ao ponto máximo em 2010. Segundo outros, só em  2030, ou um pouco antes, para depois começar a cair.

            A queda paulatina da descoberta de petróleo nos últimos 30 anos e a necessidade de encontrá-lo a profundidades cada vez maiores no oceano, sugere que em 2020, mais provavelmente, a produção mundial comece a declinar 3% ao ano.   Os preços do petróleo, que já estão altos, subirão meteoricamente, até porque há países cuja economia restringe-se a ele.

            Há vastas reservas de recursos não-convencionais de petróleo, como o óleo de xisto e alcatrão e algumas empresas petrolíferas já estão atrás deles, mas desenvolver essa exploração custa caro e resultaria em danos ambientais maciços, contribuindo pesadamente para o aquecimento global mais rápido.  Esses recursos não chegam a ser uma consideração séria, uma opção atraente de combustível alternativo.

            As reservas de carvão ainda são suficientes para centenas de anos nos níveis de produção atuais, mas a grande restrição é de ordem ambiental: o aquecimento global.

            As reservas de gás natural, convencional, junto com a possibilidade de recuperação do gás metano permitiriam também centenas de anos de consumo aos níveis atuais.  Além disso, há enormes quantidades de gás não-convencional em aqüíferos.no subsolo polar congelado e abaixo do solo oceânico.  Mas ainda não há técnicas economicamente viáveis para utilizar esses recursos, embora elas possam ser desenvolvidas para o futuro.

            Outro fator a ser considerado é que o consumo de energia (como a renda) está distribuído muito desigualmente e as nações ricas consomem cerca de sete vezes mais energia comercial per capita do que os países em desenvolvimento.

            Nos Estados Unidos da América, casas da população abastada consomem cerca de 75% a mais de energia do que as casas dos mais pobres.  Isto ocorre também entre países e o consumo de eletricidade está ainda menos eqüitativamente distribuído do que a energia comercial como um todo.

            Essa distribuição desigual de consumo de energia faz com que as emissões de gás do efeito estufa e a contribuição para o aumento do aquecimento global também sejam distorcidas. Na virada do século, os 20% da população mundial que viviam em países com o mais alto uso de energia per capita, causavam 63% das emissões totais de dióxido de carbono pela queima de combustíveis fósseis, enquanto os 20% da população mundial em países de menor consumo causavam apenas 2%.

 

            É indispensável e urgente que a sociedade humana transforme o mundo atual, baseado no consumo de combustíveis fósseis, eu outro, que consuma energia renovável..  Ou o próprio futuro da sobrevivência do ser humano na Terra pode estar comprometido.

            Até o início do século 21 a velocidade dessa mudança tem estado próxima do zero e há poucos indicativos de que vá aumentar consideravelmente de ritmo nos próximos anos.  Mesmo com importantes avanços tecnológicos na área da energia renovável e eficiente, as mudanças têm sido limitadas e inibidas pelo interesse dos países produtores de petróleo.  Questões meramente políticas e a ganância do capitalismo impedem a adoção de um novo modelo energético sustentado por fontes renováveis.

            É cada vez mais urgente o debate da revolução energética e do futuro que queremos viver, com mais eficácia, menos poluição e menos aquecimento global.

            É hora de, pelo menos, começar a discussão das políticas para um futuro sustentável.

A Revolução Ambiental

agosto 29, 2007

Uma das revoluções  que faltaram no século 20 foi a da educação     Nossa realidade  social está mudando  mais rápido  do  que   as  imagens educacionais dessa realidade e toda educação  emana  das  imagens que o estudante tem do  futuro.  O sistema de ensino está ultrapassado, porque é baseado na memorização de dados e o que precisamos é aprender a aprender. A educação para o futuro é indispensável porque é lá que vamos passar o resto das nossas vidas. 

Não se fez, no século 20, a Revolução da Educação. Nossos filhos continuam estudando do mesmo modo que nós e nossos pais, usando mais a memória do que o raciocínio, mais a razão do que a emoção. E, cada vez mais, os estudantes estão saindo das universidades completamente ultrapassados, defasados em conhecimentos disponíveis e sem aprender o fundamental: a estudar. A escola deve mudar não só o como, onde e quando se aprende, mas principalmente o por que, e para que se aprende.

            Toda educação emana de imagens do futuro, assim como toda educação cria imagens do futuro. Reunir informações os computadores podem fazer melhor e mais rápido. Guardar datas e fatos os bancos de dados fazem à perfeição. O que os estudantes precisam é aprender a aprender, entender os porquês, saber a razão das coisas e ter elementos para projetar as conseqüências e o futuro.

            A velocidade da comunicação e das mudanças tecnológicas está transformando a realidade social mais rapidamente do que as nossas imagens educacionais dessa realidade. O resultado é uma educação defasada, ultrapassada e o futuro pode ser um poderoso conceito para organizar essa mudança.

            A forma como as crianças e os jovens vêem o futuro relaciona-se diretamente com o seu desempenho acadêmico e, mais importante, com o seu chamado desempenho existencial, sua capacidade de viver, competir, crescer, numa sociedade em alta mutação. Uma educação consciente do futuro é a chave capaz de permitir a pessoa sua melhor adaptação às mudanças, ou ela ficará privada de futuro.

            O enfoque do futuro é importante para todos os que aprendem, independente de idade, e é uma questão que deve preocupar a todas as escolas, em qualquer nível.

           

            Toda educação emana de alguma imagem do futuro. Se a imagem é falsa, inexata, o sistema educacional está traindo os jovens.

            Alvin Toffler (em Aprendendo para o Futuro) dá o exemplo da tribo indígena que durante séculos viveu à beira do rio e caça peixes como principal forma de sobrevivência alimentar. O arco e a flecha fazem parte da sua cultura e ensinar a usá-los para pegar o peixe é uma das bases da educação das crianças.  Quer dizer que a economia e a cultura da tribo são dependentes do rio. Enquanto a taxa de mudança tecnológica nessa comunidade permanecer lenta, se nada perturbar o ritmo regular da vida, será simples formular uma imagem do futuro porque o amanhã repetira o hoje, que repetiu o ontem. Dessa imagem flui a educação: desenvolver conhecimentos, habilidades, valores e rituais que permitam continuar vivendo à beira do rio e caçando peixes.

Suponhamos, no entanto, que o presente ameace modificar o futuro e que, rio acima, esteja sendo construída uma barragem que deterá os peixes na barragem e influirá no volume de água corrente. A imagem do futuro aceita pela tribo e o conjunto de pressupostos sobre as quais se baseia a educação de suas crianças é ilusório e um perigo para a sobrevivência de todos. O amanhã não será como o hoje e essa ameaça é real, imediata.

 

Essa é a nossa situação hoje. Nossa cultura está submetida, há tempos, a intensas e prolongadas mudanças tecnológicas, sociais, psicológicas, de estrutura e de informação. E essa mudança é acelerada e está se acelerando ainda mais. No entanto, há um mito de que as velhas estruturas são suficientemente boas para resistir ao tempo. E a maioria dos educadores (inclusive alguns que se imaginam como agentes de mudança) não percebe o perigo a que estamos expostos. Eles não reconhecem que as mudanças na tecnologia, na estrutura da família, nos valores, na moral e na ética, na urbanização, na ocupação do solo, nas relações internacionais, no ambiente, significam que o futuro já chegou e é radicalmente diferente do presente.

Nada é mais profundamente enganador e comprometedor do futuro. Se uma escola não tem um objetivo educacional e não é capaz de submeter sua idéia do amanhã a uma análise crítica, como pode tomar decisões e estabelecer o que fazer, como fazer, qual é o tipo de educação a oferecer?

A imagem do futuro não precisa ser exata, final, não precisam ser proféticas. Mas para projetar sistemas educacionais é preciso ter alguma. E ter a noção de que o futuro não é singular, mas plural, sujeito também às escolhas que fazemos. O que importa é estar preparado para a mudança, para conviver com elas e entendê-las, até para influir na direção que queremos nosso futuro.

O futuro não é algo que aconteça a outras pessoas e todos precisamos estar preparados para as mudanças porque toda mudança é estressante para o bicho homem. Psicólogos pesquisadores afirmam isso e dão até uma lista das mudanças mais estressantes, pela ordem de grandeza:

 

·        Mudança de cidade.

·        Na família (por morte ou por separação).

·        De emprego (principalmente não sendo por vontade própria).

·        De casa, de vizinhança e de vizinhos.

·        De situação financeira.

·        De ritmo de vida.

As escolas, colégios e universidades, com sua ênfase no passado e na memorização, não só transmitem uma imagem falsa do futuro (a idéia de que será parecido com o presente), como criam milhares de candidatos ao choque do futuro por não resistirem às mudanças em um período curto de tempo.

Na verdade, a educação atual estimula o estudante a imaginar-se como não sujeito a mudança, necessidade de crescimento e de adaptação, como algo estático.

O ensino, de um modo geral, está retirando das pessoas a capacidade de visualizar o futuro, de criar e descartar milhares de suposições a respeito de acontecimentos que ainda não se tornaram realidade (e que talvez não se tornem)). E é exatamente essa qualidade que fez do homem o mais adaptável dos animais (e, por isso mesmo, o mais bem sucedido).

A principal tarefa da educação é promover essa capacidade, tornar o indivíduo mais sensível e capaz de responder a qualquer mudança. Para isto é preciso redefinir o próprio aprendizado para que a educação seja um processo pelo qual ampliamos, enriquecemos e melhoramos a imagem que o indivíduo faz do futuro, preparando-o para ele.

Para funcionar bem num ambiente que muda rapidamente, quem aprende deve ter a oportunidade de fazer mais do que receber e armazenar dados. Deve ter a oportunidade de prever mudanças, de entendê-las, de fazer mudanças ou falhar na tentativa. O que, evidentemente, envolve a modificação fundamental da relação entre a teoria e a prática educacionais de hoje.

 

A mudança em alta velocidade significa que a realidade está mudando, se transformando no momento em que estudamos e o não reconhecimento disso é que está fazendo entrar em colapso a autoridade do professor.

No passado, os mais velhos sabiam. Mas como a realidade está se transformando, pode ser que não saibam com exatidão e eles também precisam de atualização, precisam aprender. (Paulo Freire já dizia que o professor aprende tanto com o aluno quanto o aluno com o professor.)

Outra mudança necessária é a que permite ao estudante participar do estudo, do trabalho de pesquisar e estudar e formular as decisões sobre a aprendizagem.

No discurso, o futuro pertence aos moços, mas na prática os adultos impedem que eles assumam responsabilidades, mesmo para errar. Nós temos necessidade da energia, da imaginação, do talento, da capacidade de improvisar, da coragem de tentar que os jovens podem trazer, mas não estamos fazendo isso e tentamos, desesperadamente, resolver problemas ignorando a participação dos mais moços.

Mantendo a falsa distinção entre trabalho e estudo, entre a escola e a comunidade, não só distanciamos a teoria da prática como nos privados da enorme energia que pode ser canalizada para uma ação socialmente proveitosa. Continuamos infantilizando os moços e roubando-lhes a melhor motivação para aprender.

É hora de entender que o motivo para aprender não é mais o medo do poder do mestre de não dar nota para passar de ano, mas o desejo de fazer algo útil, produtivo, respeitado, capaz de aumentar sua possibilidade de sucesso, sua auto-estima, sua probabilidade de sobreviver com dignidade.

Ligando o estudo à ação, estamos mudando a fonte da motivação. Todo jovem tem o desejo de deixar a sua marca, de causar impacto, e devemos dar a ele essa oportunidade.

A relação entre o tempo (de um lado) e a motivação e o aprendizado (de outro) tem sido mal explorada, não só por educadores, mas pelos psicólogos. O sociólogo Benjamin Singier propõe que o desenvolvimento educacional e social de uma pessoa seja apoiada “em sua imagem-papel focalizada no futuro”. Turve-se essa imagem, diz ele, e a criança ou o adolescente fica privado de motivação e de estrutura da personalidade.

Uma das coisas mais importantes a respeito de qualquer grupo ou sociedade é a sua atitude para com o tempo. Culturas inteiras podem ser caracterizadas por sua orientação para com o tempo. Sabendo onde uma sociedade faz recair essa ênfase (diz a antropóloga social Florence Kluckhohn) pode-se dizer muito sobre ela e a respeito do rumo da mudança em seu meio.

Com demasiada freqüência entupimos a cabeça dos jovens com os produtos de inovações passadas, ao invés de ensinar-lhes a inovar. Tratamos suas inteligências como depósitos a serem preenchidos e não como instrumentos a serem usados.

Pouco depois dos dois anos a criança começa a entender o sentido de tempo e a usar palavras indicativas de futuro. Antes que o processo de assumir o papel comece com intensidade, as palavras que tratam do futuro ligam-se a atividades e acontecimentos concretos. No final do terceiro ano é que a criança começa a entender os papéís futuros, porque está madura para isso. Há fortes indícios de que as imagens futuras que os pais fazem dos filhos podem ser o fator mais importante em seu desenvolvimento intelectual do que o tempo que passam ensinando alguma coisa.

Pelo menos foi essa a conclusão das pesquisadoras Norma Radin e Hanne Sonquist quando investigavam os melhores fatores para aumentar o desempenho de crianças. O mecanismo não ficou claro e ainda é incerto, mas existe e foi comprovado em outras pesquisas.

A criança de periferia, em um ambiente pobre e homogêneo, desenvolverá menos imagens, menos diversificadas sobre as possibilidades de papéis futuros, o que limitará suas aspirações e desempenho. Daí a importância de programas sociais que provocam essas crianças a praticar esportes, a jogar capoeira, a dançar, a pintar, costurar, dançar, a fazer qualquer atividade que ofereça a possibilidade dela criar mais imagens de possibilidades de papéis futuros.

A criança que vive horas e horas diante da televisão criará imagens estreitas e estereotipadas dos potenciais papéis ocupacionais e a estreiteza dessas imagens reduz a capacidade infantil de imaginar-se assumindo esses papéis, A televisão proporciona, de fato, muita informação, mas ela é superficial e enganosa a respeito da força de trabalho na sociedade.

 

É durante os primeiros seis anos de vida e no começo da escola que as imagens futuras e os meios para alcançá-la se formam na criança e ficam interligados com a sua perspectiva de tempo. A criança orientada para o tempo presente e não para o futuro, não aprende a agir em termos de recompensa futura e até pode aprender em sentido contrário, já que o futuro é uma região imprevisível que não faz sentido para ela.

O desenvolvimento (quanto mais cedo melhor) de uma perspectiva de futuro proporciona o motivo e o meio de realização do futuro. É, por assim dizer, uma profecia auto-realizável. Quanto mais remoto o foco do tempo e a perspectiva de alguém, mais o seu comportamento final usará o presente apenas como um meio para o futuro; e quanto mais imediato esse foco, mais ele reagirá ingenuamente, desprezando as conseqüências.

O psicólogo Kurt Levin verificou em pesquisa que os estudantes cujos testes indicaram que sentiam o tempo passar mais depressa foram aqueles cujo comportamento melhorava quando eram retirados os incentivos que visavam a manter o bom comportamento. Os não-delinquentes, comprovadamente, têm uma perspectiva de tempo mais dilatada que os delinqüentes. Diz ele que “uma pessoa provavelmente se voltará para o futuro se sentir que lhe é acessível alguma meta a que dê elevado valor. Por outro lado, a crença de que essa meta está além do seu alcance faz com que sua orientação se restrinja ao presente”..

Em outras palavras, quem é incapaz de projetar-se no futuro vive para hoje, por ser incapaz de visualizar as recompensas futuras. Crianças e adolescentes envolvidas com o crime, por exemplo, vivem só o presente porque não vêem futuro e se sentem já com  o destino traçado, submetendo-se a esse destino previsível.

Os sociólogos chamam essa capacidade de sonhar e de esperar pelo melhor de padrão de gratificação adiada, atribuindo-lhe um papel importante no desenvolvimento da personalidade e das possibilidades da pessoa.

A regra é: quanto maior a expectativa de sucesso em um empreendimento, melhor o desempenho. E isso foi comprovado em laboratório e no campo. Assim como os jovens orientados para o futuro tendem a ser mais otimistas.

Maria Inês Belizário pesquisou na periferia de Porto Alegre e descobriu que mais da metade dos jovens não tinham qualquer imagem cristalizada de si com papel futuro. E não eram capazes de imaginá-lo, contra somente 3% de jovens da classe sócio-econômica mais elevada com o mesmo problema. Identificado o fenômeno do obscurecimento da imagem-papel focalizada no futuro à medida que se desce na escala de classe social, ela criou intervenções psico-pedagógicas e verificou que quando os indivíduos passam a ser capazes de criar um quadro de papéis futuros para si, as atitudes, os valores e o comportamento que compõem essa imagem retroalimentam o presente, tornando seus personagens mais capazes para enfrentar o futuro.

 

Alice Rossi, professora de sociologia, escreveu o livro Desenvolvimento da Família num Mundo em Mutação e não acredita em grandes mudanças na família porque diz que elas já ocorreram. E calcula: para uma mulher que se case aos 22 anos, que trabalhe fora de casa durante 3 anos depois de casada e então tenha dois filhos com um intervalo de dois anos e morra aos 74 anos, ela terá passado 23% de sua vida adulta sem marido; 41% com marido mas sem filhos menores de 18 anos; 36% de sua maturidade terá passado com o companheiro e pelo menos um filho com menos de 18 anos. Portanto, somente 12% de sua vida serão passados cuidando plenamente de crianças em idade pré-escolar (de 0 a 6 anos).

Se ela não se dispõe a dedicar 12% da sua vida a educar um filho, a criar capital social e um futuro para ele, que tipo de mãe é esse? No entanto, a maioria absoluta das crianças não está recebendo educação familiar, transmissão de valores, limites, informação correta sobre sexo e sexualidade, visão de futuro. Com isso, têm baixa auto-estima e auto-imagem.

Por isso mesmo crescem as atitudes mais permissivas para com a sexualidade, tanto em sua forma heterossexuais como homossexual ou bissexual.

Uma parada do orgulho gay, em Chicago, tinha um lema: “O problema não é que algumas pessoas façam amor de modo diferente; é que a maioria das pessoas não faz amor de jeito algum”.

Pode ser que haja mudanças na família nuclear (diante da queixa de que ela é muito restritiva para muita gente).  E que ocorram mudanças nos papéis da família, diante da série de casamentos monogâmicos na vida de grande parte da população.

De qualquer modo, a educação deve mudar em relação ao sexo. Crianças pequenas têm o direito de saber sobre reprodução humana, querem saber de onde vieram (uma das primeiras indagações do gênero humano). Depois, na adolescência, merecem estar informadas sobre sexo.

O problema é que a educação restringe o comportamento com base em velhas noções, Assim como restringe o comportamento com base nas noções tradicionais de propriedade. Não pode haver mais essa divisão entre meninas e meninos e “menina não faz isso” ou “menino não pode fazer aquilo”. Ambos devem ser educados para serem mais autônomos e mais capazes de fazer de tudo, seja o que for necessário.

Todo bom educador sabe que quanto mais baixo é o nível de amor próprio, mais baixo é o nível do desempenho escolar.

 

Seria interessante que o futuro fosse matéria curricular perpassando todas as matérias e que os estudantes fossem chamados a debater os futuros possíveis, os futuros prováveis e os futuros preferíveis.

Futuros possíveis são os que podem acontecer mas não são necessariamente prováveis. Há mais futuros possíveis do que os que imaginamos e essa é uma boa matéria para ensinar o estudante a imaginar e a criar raciocínios e projeções. Como imaginar é um pré-requisito à exploração dos futuros possíveis, os estudantes devem-se dedicar a extrair respostas imaginosas no contexto do futuro. É preciso não esquecer a famosa Lei de Clarke (Arthur Clarke, autor de ficção científica e cientista) enunciada em Perfis do Futuro: “Quando um cientista notável mas idoso declara que alguma coisa é possível, é quase certo que ele esteja com a razão;mas quando ele declara que alguma coisa é impossível, é muito provável que esteja errado.”

Futuros prováveis são aqueles que, no momento, são tidos por autores sérios como tendo razoável probabilidade de ocorrer. A probabilidade é estabelecida por futuristas, pesquisadores, cientistas sociais, demógrafos e apoiada pelo exame atento dos conflitos em curso na sociedade. É a extrapolação das tendências mais marcantes e significativas a respeito de tecnologia, ecologia, política, vida familiar, educação, desenvolvimento urbano. O que as pessoas que importam estão falando sobre o futuro? De que modo chegaram a essas conclusões?  Suas previsões têm bases sólidas?

A idéia dessa matéria é permitir ao estudante fazer prognósticos e perceber que tipo de informação de qualidade precisa ter para fazer sua previsão.

Futuros preferíveis são aqueles que temos como desejáveis porque atribuímos a eles valores positivos. Aqui são enfatizados valores de várias naturezas, sejam éticos, morais, relativos aos direitos humanos, ao bem-estar, ao desenvolvimento de áreas específicas, à ecologia, à conservação do planeta, etc.

Nessa matéria é preciso haver consciência da diferença entre o pessoal e o público, e a noção de como o sistema democrático pode chegar a esses valores e futuros.

A cidadania será, certamente, o objetivo final do estudo social; e o estudo dos processos decisórios, de forma sistemática, é muito importante.

É importante observar, como escreveu Michael A. McDaniel, um professor há muitos anos trabalhando com livros educativos, que “os indivíduos maturos devem ajudar os indivíduos em maturação a mudar as instituições imaturas”.

           

             Em Angicos, no Rio Grande do Norte, na formatura da primeira turma de adultos alfabetizados pelo método Paulo Freire, um dos formandos, seu José, agradeceu ao presidente Jango Goulart a visita. Ele disse que só o presidente Getúlio Vargas havia estado lá, durante a fome da Grande Seca. E concluiu: “Ele veio por conta da nossa fome da barriga, mas a sua visita é mais importante porque nós estamos matando é a fome da cabeça”.

            Não é por acidente que falamos em fome do conhecimento, em cultivar o gosto pela música, e que os especialistas se refiram a dietas ambientais empobrecidas ou em condições sociais subnutridas, para descrever a praga dos prejudicados educacional e culturalmente. Educar é nutrir para facilitar o desenvolvimento da pessoa e sua importância é cada vez maior.

            É que antes a suposição era de que os exemplos do passado fossem os melhores guias para o futuro. E durante a maior parte da história humana esta suposição foi válida, já que o futuro de um homem, em geral, não era muito diferente do seu passado imediato.

            Hoje não é mais assim e a nova realidade nos força a questionar sua aplicabilidade e desafia o seu poder de educar. Some-se a isto o fato de que muitas das novas descobertas tecnológicas e científicas contêm implicações catastróficas para a vida futura, o que nos deixa diante de decisões que não podemos deixar de tomar se não quisermos perder a oportunidade de afetar o nosso futuro como raça humana. Quer dizer que não basta aprender, é preciso entender e saber o que aquilo significa não só no presente, mas para o futuro.

            É óbvio que a velocidade com que o futuro está chegando não nos oferecerá um meio-ambiente similar ao presente ou com apenas ligeiras modificações. Ele há de ser radicalmente diferente de tudo o que conhecemos. Por isso o papel dos educadores, como zeladores do passado, deve mudar, porque sua orientação passadista é inaplicável a propósitos futuros e exige um reajuste fundamental.

            Os professores de ciências e de ciências sociais estão respondendo melhor, mais rápida e mais efetivamente às mudanças do que os de humanidades. Porque os cientistas não só criaram muitas das mudanças como deram rapidez ao processo e têm a felicidade de participar do desenvolvimento histórico.  A ciência varre, automaticamente, o passado a cada nova descoberta e está sempre aberta a novidades e mudanças. O passo seguinte pode substituir o anterior e ainda construir sobre ele. Por isso também os leigos estão mais interessados no progresso da ciência.

            Os cientistas sociais, por sua vez, também carregam um volume menos onerosos de conhecimentos passados. A sociologia, a psicologia, a antropologia e a economia mal chegam a ter um passado, exceto quando o registram a partir da evidência histórica. A abordagem, em geral, é analítica, a preocupação é com o homem e a sociedade, com temas imediatos e estudos concentrados em problemas. Professores e estudantes precisam, inevitavelmente, ajustar-se às novas realidades e provocações, dirigindo a atenção para a  frente conforme a mudança.

            As humanidades, em lamentável contraste, são os guardas da herança intelectual e cultural da raça e tornam-se vítimas do seu próprio compromisso com o passado. Muitos humanistas são orientados para o ontem, raramente voltando a atenção para o presente e muito menos para o futuro. Como resultado, não refletem suficientemente o esforço do homem moderno e suas conquistas.

            Daí porque as humanidades não desempenham mais o seu papel (que antes era central) na determinação da qualidade das nossas vidas.

            Se não assistirmos uma renascença das humanidades não há como recuperar a antiga posição. E essa renascença dependerá das mudanças no modo como as humanidades são assinadas, assim como uma dramática mudança em sua orientação em relação ao futuro.

            Na verdade, os humanistas deveriam examinar o próprio futuro. Fred Polak (The Image of the Future) fez isso, examinando sistematicamente as visões do futuro alimentadas pelos antigos gregos, romanos, persas, hebreus, pela Igreja da Idade Média e por um grande número de filósofos, escritores, artistas e intelectuais do passado. Ele concluiu que “o que uma cultura pensa que será o seu futuro tem um tremendo impacto sobre o futuro real”.

            Os humanistas costumam alegar que as obras verdadeiramente grandes e importantes falam às gentes por meio de profundas preocupações humanas que pouco mudaram, se é que mudaram. O que ignoram é a maneira como o tratamento desses temas duradouros (a atitude para com esses temas) mudou e mudará. As preocupações continuam: amor, ódio, guerra, ganância, horror, traição, e podem continuar como grandes preocupações da humanidade, mas as atitudes são diferentes de acordo com a sociedade e com as diferentes épocas da história.

            Comparar o conceito de amor dos gregos com o amor do período vitoriano e com os padrões do amor de hoje são uma forma inteligente de abordar o assunto, principalmente se tentarmos imaginar o amor de amanhã.

 

            Os cientistas nos ensinaram que os avanços são feitos, em geral, com a não aceitação passiva de determinadas verdades que parecem sólidas para sempre. Há casos famosos, como o da moderna química dos polímeros, que só nasceu quando Hermann Staudinger desafiou o ridículo. Quase todos os seus contemporâneos riam dele por abandonar o conceito clássico de molécula por ser inadequado à sua experiência.

            A descoberta dos antibióticos foi retardada por quase 20 anos pela incontestada suposição de que as substâncias tóxicas às bactérias deveriam ser necessariamente tóxicas ao ser humano.

            A física da relatividade exigiu repensar, desde baixo, o que realmente se quer dizer com medir o espaço e o tempo.

            A física quântica só avançou quando os cientistas reexaminaram o que as idéias de causalidade (há tanto aceitas) significavam em termos de experiência concreta.

            O mesmo vale para incontáveis pequenos progressos, tanto na ciência como na tecnologia. Como dizia Einstein, “não acredite que é impossível, até provar que não se pode fazer, por enquanto”.

            Quem tem visão estreita só pode ver as soluções mais prosaicas para os problemas em que trabalham: as soluções de abertura exigem saltos criativos, ousadia, mentes capazes de recuar das rotinas de sua disciplina e tentar novas soluções sem medo de errar. “O sucesso pode ser o resultado da soma de pequenos erros e fracassos”, dizia Winston Churchill respondendo aos críticos na Segunda Grande Guerra.

            Já sabemos que a criatividade pode ser ensinada e que ela é indispensável seja qual for a atividade do ser humano. Como dizia com muito humor o escritor Nelson Rodrigues, sem criatividade é difícil até amarrar o laço do sapato”.

            O dogmatismo escolástico é limitador do espírito humano por inibir a indagação científica, a curiosidade, e por impedir as mudanças. A menos que as pessoas sejam educadas para manter a mente aberta às possibilidades de se afastarem do padrão em seus campos de atividade, elas não poderão acompanhar o ritmo da vida contemporânea e, pior, estarão em choque com ela.

 

            O homem inventa futuros como nenhuma outra espécie pode fazer, precisamente porque é um animal criativo, capaz de assumir a responsabilidade de fazer mudanças ou de resistir a elas. A necessidade de um pensamento radical e de uma bem educada visão do futuro é ainda maior nos países em desenvolvimento, porque os países menos desenvolvidos estão diante de um dilema: o meio-ambiente parece incapaz de suportar muito mais crescimento nas mesmas linhas que foram seguidas pelas nações desenvolvidas. É irrealista supor que as nações recém-emergentes se sujeitarão passível e docilmente à limitação do seu crescimento, logo quando começam a sentir o sabor dos níveis mais elevados de qualidade de vida. Essas populações querem padrões de vida que vêem nos países ricos e se imaginam na mesma situação.

            A única esperança de evitar um desastre mundial (principalmente ecológico) nesta situação, é encontrar meios e modos para dar o chamado salto de rã por cima de muitos estágios de desenvolvimento industrial e chegar diretamente ao tipo de sociedade pós-industrial sofisticada que nos causa admiração.

            No Brasil, temos algumas possibilidades, principalmente se nos dedicarmos ao campo da energia alternativa. Mas devemos ter a ousadia de procurar novas tecnologias e a coragem de adotá-las, inclusive no campo da farmacopéia, com base na nossa grande biodiversidade.

            A educação ideal deve combinar a ciência de mapear o provável com a arte de imaginar o possível, com profunda preocupação ética pelo preferível. Aí estaremos criando um amanhã melhor,

 

            O futuro é importante principalmente porque é onde vamos passar o resto de nossas vidas.

            Uma educação voltada para o futuro implica em que o aprendiz comece a sentir e a aceitar tanto os constrangimento e os deveres quanto as vantagens e direitos da liberdade.

            A maior parte do ensino ainda é voltada para o conhecimento do passado e tende a manter o status quo. A educação para o futuro exige uma inversão e mudanças que nos levariam

 

DE

PARA

Ensino em massa

Ensino personalizado

Aprendizado simples

Aprendizados múltiplos

Absorção passiva de respostas

Busca ativa de respostas

Programas rígidos

Programas flexíveis

Treinamento em habilidades

e conhecimentos formais

Formação de atitudes e opiniões desejáveis que estimulem a procura do saber

Conteúdo isolado

Conteúdo correlacionado

Respostas decoradas

Compreensão do problema

Ênfase nos livros

Uso de multimeios

Domínio passivo da informação

Estimulação ativa do intelecto

            Mas, defender ou aceitar a mera reversão das práticas atuais da educação é simplista e pode criar uma falsa noção de sucesso no ensino do e para o futuro. O que se precisa é de uma nova concepção e não de um novo currículo, de um novo clima psicoemocional e social que seja conveniente para o aprendizado. E a primeira grande mudança é valorizar a pessoa, o respeito pelo aprendiz, e estimular a individualidade, encorajar a indagação e a curiosidade, oferecer uma atmosfera de liberdade, dar conteúdo estimulante, trabalhar os sentidos e os sentimentos, favorecer a inteligência cognitiva, isto é a inteligência emocional.

            Também seria necessário acabar com o mito do canudo e com a imposição social para que os jovens façam universidade. Essa é uma das mais indefensáveis e perigosas suposições tácitas de professores, pais e filhos. A academia é apenas um dos caminhos, não é o único nem o melhor (embora possa ser o desejado e o desejável para muitos). Precisamos de mais e melhores escolas técnicas de terceiro grau

            Há muitas possibilidades curriculares, mas um bom curso sobre o futuro deveria incluir:

·        Introdução ao Futuro.

·        Predição do Futuro.

·        Genética e genoma.

·        Duração da Vida.

·        O que é o Ser Humano?

·        A Inteligência e a Inteligência Artificial.

·        Educação cognitiva.

·        A Filogênese, a Ontogênese e a Neuropsicologia da cognição.

·        O Homem e a Máquina.

·        Controle dos Sentimentos e Emoções.

·        Capital Social e Educação Familiar.

·        A Política, Amanhã.

·        População.

·        Urbanização e Ocupação do solo.

·        Recursos Naturais e Meio-ambiente.

·        Urbanização.

·        Agressividade e Violência.

·        Criatividade.

·        Empatia.

·        Aprendendo a Aprender.

 A adaptação à mudança começa na consciência”, escreveu Michael Rossman, Para ele, a ficção científica (que é uma extensão especulativa do ser humano tecnológico) “tem sido crucial na presente ascensão das visões com uma nova força entre os jovens.”

Para ele, os clássicos da ficção científica devem ser recomendados aos jovens, estudados e debatidos, porque os que vivem numa época de mudança social e tecnológica rápida são obrigados a olhar para o futuro. E devem estar preparados para considerar as opções e escolher os caminhos.

A preparação para essa busca do futuro deve ser uma função básica e contínua da educação em todos os níveis. Por isso mesmo ela deve incluir a literatura de ficção científica porque ela foi a primeira a adotar como tema o impacto da mudança sobre a vida do ser humano e sua sociedade, em particular por conta do progresso da ciência e da tecnologia.

No dizer do nosso melhor autor de ficção científica, Fausto Cunha, “a ficção científica é um arquivo de imagens futuristas, um repositório literário das esperanças, temores e conjecturas de homens e mulheres sobre a evolução do ser humano e, portanto, um importante campo de treinamento para quem quer viver no futuro”.

A leitura de ficção científica pode servir como preparação psíquica para um mundo de mudanças aceleradas, uma espécie de aculturação ao choque do futuro. Tanto assim que os russos cuidam de oferecê-la a seus candidatos a astronauta.

 

Todo ser humano tem direito à organização do seu potencial de aprender e a sociedade, como um todo, tem o dever de promovê-la. A inteligência não é uma medida estática, mas a enorme capacidade de adaptação do ser humano.

Precisamos fazer, com urgência, a revolução na educação de modo a que, o mais cedo possível, nossos jovens possam fazer na escola as aquisições críticas indispensáveis para sobreviver no futuro:

·        Comunicação. Compreensão e expressão da língua, capacidade de comunicar e de interar.

·        Cognição; Desenvolvimento do pensamento lógico e crítico para avaliar situações, resolver problemas e tomar decisões. Desenvolvimento da compreensão e resolução de problemas, da aplicação de tecnologias, dos instrumentos e sistemas de informação. Desenvolvimento da capacidade de pesquisar.

·        Aprendizagem. Dos processos e estruturas, princípios e estratégias cognitivas, para aprender de forma contínua e permanente.

·        Atitude. E comportamento positivo, de auto-estima e confiança, ética, moral, iniciativa, energia, motivação, persistência.

·        Responsabilidade. Para estabelecer prioridades e objetivos, planejar e gerir tempo e outros recursos rumo ao objetivo. Saber avaliar, decidir e mudar de rumo, se necessário.

·        Adaptabilidade. Ter atitude positiva face às mudanças, respeito pela diversidade, saber reconhecer as diferenças individuais.

·        Criatividade. Aprender a inovar e a buscar novos caminhos e soluções diferenciadas.

·        Espírito de Equipe. Aprender a trabalhar em grupo, ter compreensão e noção da sua participação e importância. Ter cultura de grupo, solidariedade, aprender a respeitar pensamentos e opiniões.

 

É certo que o primeiro país emergente que fizer sua revolução da educação para o futuro, expandindo o conteúdo para abranger os serviços comunitários, as experiências dos veículos de comunicação de massa, orientando conscienciosamente a aprendizagem em torno do conceito da imagem-papel focalizada no futuro, levará imensa vantagem sobre os outros e poderá dar o tão necessário salto de rã para chegar a ser competitivo. Mas isso exige um sério reexame da maior parte do saber convencional relativamente às crianças e adolescentes que estudam para aprender.