terça-feira, 17 de dezembro de 2013

Por que as embalagens vedadas inflam em grandes altitudes?

Porque dentro delas há ar, que se expande de acordo com a altitude. “À medida que se sobe, a pressão atmosférica diminui e as moléculas do ar passam a ficar mais afastadas uma das outras”, explica o físico André Henriques, da Universidade de São Paulo. Com a expansão, as moléculas passam a empurrar para fora as paredes do invólucro e a fazer com que infle. Se a embalagem não fosse vedada, ao se expandir o gás escaparia e ela se manteria com a mesma aparência.

Super, Outubro de 1999


Qual a definição do zero grau nas escalas Fahrenheit, Kelvin e Celsius?

A escala de temperatura fahrenheit foi criada pelo físico polonês Daniel Gabriel Fahrenheit, no século XVIII. Para ele, o zero grau era a temperatura em que uma mistura de 50% de água e 50% de sal se congelava. O ponto em que a água pura se congela foi escolhido como o zero pelo astrônomo sueco Anders Celsius, também no século XVIII. O zero grau da escala Celsius corresponde a 32 graus na de Fahrenheit, porque a água pura se congela a uma temperatura mais alta do que quando misturada com outra substância.
A escala Kelvin foi preparada pelo engenheiro e físico inglês William Thomson kelvin, no século XIX. Ele considerou como zero a temperatura em que todo o movimento de moléculas de um gás para. Elas não se chocariam mais entre si nem contra a parede do recipiente onde estiverem. Essa é uma situação teórica e os cientistas nunca conseguiram atingir o zero absoluto. Mas chegaram bem perto: apenas 170 bilionésimos de grau acima do zero.

Super, Dezembro de 1996.

Por que o avião consegue voar?

Como o avião, mesmo pesando, às vezes, milhares de quilos e carregado de pessoas, cargas e todo tipo de coisa, consegue voar com tanta facilidade? Essa dúvida já deve ter deixado você intrigado alguma vezes, não é? Pois saiba que a explicação é muito mais simples do que você imagina.
O principal responsável pelo voo do avião é o ar. Quando esse aparelho está voando, o ar que passa por suas asas gera uma força para cima, que se equilibra com a força que seu peso faz para baixo, e o sustenta. Mas não é só. O ar produz, ainda, uma força, o arrasto, que se opõe ao movimento para frente do avião. E, para manter uma velocidade constante, os motores fazem uma força no sentido contrário ao arrasto.
O arrasto é uma força que todos nós conhecemos. Ou será que você, ao correr depressa, nunca teve a sensação de que o ar o empurrava para trás? Essa resistência que o ar faz ao nosso movimento é justamente a força de arrasto. Mas como é produzida a outra força, a que joga o avião para cima, impedindo que ele caia?
Dois fatores são responsáveis por isso e ambos estão relacionados ao movimento do ar na asa. Em primeiro lugar, o ar dá um impulso na asa, que é levemente inclinada para cima. Se você, em um dia com muito vento, esticar sua mão, meio inclinada, poderá verificar isso ao vivo: uma força a empurrará um pouco para trás, mas, também, um pouco para cima. Quem a joga para trás é o arrasto, mas quem a empurra para cima é a força que proporciona sustentação ao avião.
Outro fator que ajuda a manter o avião no ar é a pressão. Quando o avião está em movimento, o ar passa tanto pela parte superior das suas asas – que é arredondada e, portanto, mais comprida – quando pela parte de baixo, que é praticamente reta e mais curta. Na parte de cima da asa, o ar alcança uma velocidade maior do que na parte de baixo. Talvez você não saiba, mas quanto maior a velocidade do ar, menos pressão ele gera. Assim, na parte de cima da asa, o ar produz uma pressão menor do que na parte de baixo. Resultado? É gerada uma força de baixo para cima, que empurra o avião para o alto: a força de sustentação!
Os dois fatores que dão sustentação ao avião, porém, apenas surgem quando ele atinge uma certa velocidade. Por isso, as pistas de decolagem são longas e retas: para a aeronave se tornar cada vez mais veloz.
Viu só como o principal responsável por sustentar os aviões lá no céu não é nenhuma força mágica, mas, sim, o próprio ar?

A redação

Com base em entrevista concedida por Maurício Pazini Brandão, Professor do Instituto Tecnológico de Aeronáutica (ITA).

Ciência Hoje das Crianças, Setembro de 2006.

terça-feira, 10 de dezembro de 2013

De que são feitos os combustíveis dos foguetes? Como eles movimentam os foguetes no espaço?


A substância que faz os foguetes se moverem no espaço é o propelente, uma mistura de combustível (aquilo que vai ser queimado) com comburente (que fornece oxigênio para a reação, já que ele não está disponível no espaço). Os propelentes podem ser sólidos ou líquidos. Os líquidos se dividem em monopropelentes (combustível e comburente misturados) e biopropelentes (as duas substâncias são mantidas separadas e só se misturam no momento da utilização). “Estamos desenvolvendo foguetes movidos por bipropelentes à base de querosene e oxigênio”, explica o major Sérgio Giocondo, do Centro Técnico Aeroespacial, em São José dos Campos, São Paulo.
Os propelentes sólidos são produzidos por um processo que faz com que uma mistura de substâncias líquidas e sólidas endureça. Também são divididos em dois tipos: os de base dupla (combustível e comburente unidos, como no caso da nitroglicerina e nitrocelulose) e os compósitos formados por um polímero (combustível) impregnado com um sal inorgânico (comburente). Qualquer um desses tipos de propelente funciona da mesma forma: a reação de combustão gera uma grande quantidade de gases. Quando eles são expelidos pelo foguete, criam uma força propulsiva no sentido oposto.



Super, Março de 1996

terça-feira, 3 de dezembro de 2013

Como funcionam e para que servem os acelerados de partículas?

O tubo da televisão é o exemplo mais simples de um acelerador de partículas. Um feixe de elétrons é gerado por emissão termiônica (emissão de elétrons por um filamento aquecido, a alta voltagem) na parte mais fina do tubo e os elétrons são acelerados e focalizados por campos elétricos até atingirem a tela. Mas esse não é o único exemplo de acelerador de partículas com aplicações práticas. Em muitos hospitais, há aceleradores para esterilizar roupas e equipamentos. Esse tipo de esterilização é usado também para aumentar a durabilidade de frutas.
O uso mais visível de aceleradores ocorre na pesquisa científica, em particular, para estudar a estrutura da matéria. Para isso, são construídos aceleradores enormes, que acumulam grande quantidade de energia em uma região diminuta de espaço. Quanto maior a energia, maior o acelerador. Essas máquinas aceleram cargas elétricas do repouso até velocidades muito próximas à da luz. O único mecanismo disponível para acelerá-las são os campos elétricos. 
O elemento acelerador, que gera os campos elétricos, são caixas de radiofrequência, onde se propagam campos eletromagnéticos com frequências características de rádio. Nessas caixas, as partículas entram em fase com as ondas eletromagnéticas e ganham um pouco de energia ao sair das ondas. É como um surfista, que tem que estar em fase com a crista de uma onda. As partículas também ‘surfam’ as ondas eletromagnéticas. 
Há duas possibilidades de fazer com que as partículas ganhem muita energia: a) alinhar uma grande quantidade dessas caixas de radiofrequência em um acelerador linear, com comprimento medido em quilômetros; b) guiar as partículas em um percurso circular (também medindo quilômetros), com campos magnéticos, e fazê-las passar muitas vezes pelas mesmas caixas de radiofrequência. O primeiro método é usado para partículas muito leves, como o elétron, enquanto o segundo é usado para prótons e suas antipartículas (próton carregado negativamente).
O LHC (Large Hadron Collider), que será inaugurado no próximo ano em Genebra, na Suíça, é um acelerador do segundo tipo, onde as partículas irão percorrer um túnel circular com 27 km de comprimento. Já a próxima geração de aceleradores de elétrons, como o ILC (International Linear Collider), planejado para ser construído daqui a 10 anos, alinha cerca de 30 km de caixas de radiofrequência. Qualquer um desses aceleradores tem um consumo de energia equivalente ao de uma cidade de porte médio.

Ronald Cintra Shellard, Centro Brasileiro de Pesquisas Físicas e Departamento de Física, Pontifícia Universidade Católica do Rio de Janeiro.

Ciência Hoje, Agosto de 2006

domingo, 24 de novembro de 2013

Por que a água não pega fogo, se é formada por dois elementos combustíveis?

Nada se cria, tudo se transforma! Para os químicos, a água é uma substância, ou seja, uma forma simples e pura da matéria. Substâncias são raras na natureza: no dia-a-dia, somos geralmente confrontados com misturas. A água do mar, por exemplo, é uma mistura de água e sal, mas uma operação elementar, como a evaporação, permite a separação dos dois. Hidrogênio e oxigênio, por outro lado, são elementos. Os elementos correspondem ao último estágio possível na separação das substâncias.
A água é um composto, porque ela pode ser decomposta em hidrogênio e oxigênio, através de eletrólise, por exemplo. Cada molécula de água é constituída por exatamente um átomo de oxigênio e dois átomos de hidrogênio, que se combinam na estrutura H-O-H, com duas ligações químicas O-H. Classicamente, uma ligação química é representada por um tracejado entre os dois átomos ligados. Assim, a água é um composto de hidrogênio e oxigênio, e não uma mistura dos dois elementos, que, em condições normais, se apresentam com combinações moleculares de dois átomos: H-H e O=O, respectivamente.
O hidrogênio é combustível porque sua mistura com o oxigênio é altamente reativa. Uma vez iniciada, a reação procede até o consumo completo de pelo menos um dos dois gases, gerando como produto final a água, substância muito mais estável que a mistura inicial. Isso ocorre porque, assim como uma pedra caindo do alto de um penhasco só para quando atinge o nível maios baixo, a reação entre hidrogênio e oxigênio para quando forma a molécula mais estável. A molécula de água é mais estável porque a ligação O-H é, em média, mais forte que as ligações H-H e O=O. Assim, a água não reage mais com hidrogênio ou oxigênio, porque ela já é o composto mais estável que se pode formar a partir dos dois elementos.
Isso não quer dizer que a água não possa ‘pegar fogo’ em outras circunstâncias! Na verdade, o fogo é apenas a manifestação violenta da emissão de calor por uma reação irreversível. Existem substâncias inflamáveis ao contato com a água, como o sódio metálico. Mas essa reação só acontece porque seu produto final é mais estável que a mistura inicial.

Jean Guillaume Eon
Instituto de Química, Universidade Federal do Rio de Janeiro.

Revista Ciência Hoje, Outubro de 2006.

Como os gregos sabiam sobre a existência dos planetas se eles não são visíveis a olho nu?

Vários planetas são visíveis a olho nu: Marte, Júpiter, Vênus, Saturno e Mercúrio. Esses já eram conhecidos não apenas dos gregos, mas também de povos ainda mais antigos que eles, como os babilônios. Apesar de sua semelhança com as estrelas, os planetas eram identificados pelos povos da antiguidade graças a duas características que os diferenciavam. Primeiro: as estrelas, em curtos períodos, não variam de posição umas em relação às outras. Já os planetas mudam de posição no céu com o passar das horas. À noite, esse movimento pode ser percebido com facilidade.
Segundo: as estrelas têm uma luz que, por ser própria, pisca levemente. Já os planetas, que apenas refletem a luz do Sol, têm um brilho fixo. Os mais distante só puderam ser descobertos mais tarde, com a ajuda de aparelhos óticos como telescópio. “O primeiro a ser identificado foi Urano, descoberto em 1781 pelo astrônomo inglês William Herschel”, conta a astrônoma Daniela Lázzaro, do Observatório Nacional do Rio de Janeiro.

 Super, Março de 1997.

As torres de celulares próximas às residências prejudicam a saúde?

O efeito das emissões de rádio das estações rádio base celulares (conhecida popularmente como torres de celulares) na saúde das pessoas ainda constitui um assunto muito polêmico tanto no Brasil como no exterior. O tema tem sido investigado com grande atenção nos Estados Unidos e na Europa. Embora ainda não conclusivos, estes estudos centram suas atenções mais nos aparelhos celulares que nas estações rádio base, já que os níveis de energia destas torres ainda é pequeno. Enquanto isso, várias cidades têm adotado normas de segurança, algumas baseadas em órgãos governamentais e outras definidas por sociedades científicas internacionais. Além disso, as próprias operadoras de serviço celular têm-se preocupado em avaliar os níveis de radiação próximos às estações. Por enquanto, as medidas mostram que os índices estão dentro da normalidade. É bom ressaltar que em centros urbanos, onde há um grande número de moradores vizinhos às antenas, as potências emitidas são, propositalmente, muito pequenas.

Michel Daoud Yacoub

Professor do Departamento de Comunicações da Faculdade de Engenharia Elétrica e de Computação da Unicamp

O que é bluetooth?

É uma tecnologia de comunicação sem fio por ondas de rádio. Com ela, é possível jogar games em aparelhos portáteis simultaneamente com outras pessoas e enviar fotos do celular para o computador sem o incômodo de cabos. O nome bluetooth vem da forma do receptor, que se assemelha a um grande dente azul (blue tooth, em inglês). Além da liberdade de movimentos, a outra grande vantagem do bluetooth é que o envio de ondas de rádio é gratuito, sem a necessidade de se conectar à internet – e pagar as taxas exorbitantes das conexões sem fio. A desvantagem da tecnologia é que as ondas de rádio só atingem um raio de 10 metros. Os aparelhos, no entanto, não precisam estar apontados um para o outro, como ocorre na transmissão por raios infravermelhos.
Virtualmente, todo tipo de aparelho eletrônico poderá ser adaptado para trabalhar com o bluetooth, que não funciona com software. Só é necessário que os dois aparelhos tenham placas de recepção e de envio de dados. Segundo Fiore Mangone, gerente de produtos de uma empresa escandinava de celulares, há diferentes perfis de bluetooth. Alguns enviam apenas áudio, enquanto outros enviam áudio e dados de outros tipos. 

Super, Março de 2004.

segunda-feira, 11 de novembro de 2013

Qual a forma correta de determinar a temperatura: graus centígrados ou Celsius?

Segundo a União Internacional de Química Pura e Aplicada (IUPAC), responsável pela nomenclatura e simbologia em química, o correto desde 1948 é o emprego de graus Celsius. A escala Celsius está dividida em 100 partes, ou graus, entre os pontos de fusão do gelo (0 °C) e ebulição (100 °C) da água. Essa divisão justifica os nomes centesimal e centígrado para a escala Celsius. É importante notar que o “zerinho” faz parte do símbolo de graus Celsius, assim não deve haver espaço entre ele e a letra C. Exemplo: 25 °C e não 25° C. É bom ressaltar também que na escala de temperatura absoluta, em que zero é a mais baixa que se pode alcançar, a unidade é o kelvin (assim mesmo, com inicial minúscula), e não mais grau Kelvin. O símbolo é simplesmente a letra K em vez de °K, como ainda se encontra em livros antigos.

Peter W. Tiedemann, Professor do Instituto de Química da USP.

Revista Galileu, Outubro de 1998.

terça-feira, 5 de novembro de 2013

Qual a implicação, para a mecânica quântica, da perda de informação que teoricamente ocorre em um buraco negro?

Enquanto lemos as linhas impressas no papel de uma revista, estamos nos aproveitando de uma propriedade da natureza que nos é muito útil: a informação em um sistema fechado não desaparece. Ela pode se misturar de complicadas maneiras em diferentes partes do sistema, como aconteceria caso rasgássemos o papel em muitos pequenos pedaços, mas ainda assim a informação estaria ali, distribuída em um difícil quebra-cabeça.
A mecânica quântica nos ensina que isso continua sendo verdade mesmo para escalas tão diminutas quanto a dos átomos. Se em vez de rasgar o papel, escolhermos escondê-lo em um buraco negro, estaremos dificultando bastante o acesso à informação: somente poderá lê-lo quem também entrar no buraco negro. Esse é mesmo um preço árduo a pagar, mas de fato essa informação ainda não foi perdida, e sim muito bem guardada, e até aqui não há qualquer contradição com a mecânica quântica.
O problema realmente acontece caso esperemos o buraco negro ‘evaporar’ (ver ‘Os buracos negros são eternos ou têm fim?’ em CH 252). O físico inglês Stephen Hawking foi o primeiro a demonstrar que buracos negros, ao contrário do que se acreditava, podem evaporar e diminuir de tamanho, mesmo que esse seja um processo muito demorado. Caso esperemos que o buraco negro evapore por completo, para depois procurarmos por nossa folha de papel, descobriremos que tanto o papel quanto a informação contida nele não mais existirão. Essa contradição entre a evaporação de buracos negros e a lei de conservação da informação, segundo a mecânica quântica, é conhecida como o ‘paradoxo da informação’, e ainda não se sabe quais suas reais implicações para a mecânica quântica. Resolver esse paradoxo é um dos grandes desafios teóricos perseguidos hoje.

Clóvis Maia
Instituto de Física Teórica, Universidade Estadual Paulista (SP)


Ciência Hoje, Dezembro de 2008.


Quando se diz que alguém está com a pressão 12 por 8, o que isso significa?

O primeiro número indica a pressão com que o sangue é bombeado do coração para o resto do corpo. O segundo refere-se à pressão com que ele retorna para dentro do órgão, fazendo o caminho inverso. Como aprendemos na escola, esses dois movimentos complementares do coração são chamados tecnicamente de sístole (contração) e diástole (dilatação) – daí, os dois números que medem a pressão serem denominados pressão sistólica (ou pressão máxima) e pressão diastólica (ou pressão mínima). No caso, os números 12 e 8 correspondem, respectivamente, a 120 e 80 milímetros de mercúrio aferidos no manguito, aquela bombinha utilizada para medir a pressão arterial. Essa pressão precisa ser forte o suficiente para alcançar a circulação periférica, mas não a ponto de lesar os vasos sanguíneos. “Para maiores de 18 anos, o ideal é justamente essa medida, de, no máximo, 12 por 8”, afirma o cardiologista Décio Mion Júnior, da USP, também chefe da Unidade de Hipertensão do Hospital das Clínicas de São Paulo.

Super, Setembro de 2002.

quarta-feira, 23 de outubro de 2013

O campo de Higgs poderia ser a mesma coisa que o éter, da época de Aristóteles, só que explicado de uma forma mais sofisticada?

Não, trata-se de conceitos bem distintos. Segundo a visão aristotélica do mundo, que perdurou por dois mil anos, o universo consistia de 10 esferas concêntricas em torno da Terra. Os elementos terra, água, ar e fogo compunham as três esferas terrestres, delimitadas pela esfera lunar. As esferas além da Lua, imutáveis, consistiam do quinto elemento, o éter. Este seria uma substância passiva, sempre em repouso.
O conceito de éter reapareceu no século 19 como o meio onipresente no qual se propagam as ondas luminosas. A relatividade especial, de 1905, idealizada pelo físico alemão Albert Einstein (1879-1955) – amparada pelo resultado negativo do famoso experimento feito em 1887 pelos norte-americanos Albert Michelson (1852-1931) e Edward Morley (1838-1923) – eliminou o conceito de éter do arcabouço conceitual da física moderna.
Hoje, o chamado Modelo Padrão das Interações Fundamentais – teoria com a qual os físicos explicam como a matéria é formada e quais as forças que existem na natureza – inclui o bóson de Higgs, que, no caso, serve para ‘separar’ – ou quebrar a simetria, como se diz na física – a força eletromagnética (a responsável pelo atrito, por exemplo) da força fraca (a que atua em certos tipos de radioatividade). As outras duas forças da natureza são a gravitacional e a forte – esta última, como a fraca, só age nos domínios do núcleo atômico. Cada uma dessas forças é ‘carregada’ (ou transmitida) por uma ou mais partículas, os chamados bósons. Exemplos: Fótons (eletromagnética), fraca (W+, W- e Z0), glúons (forte) e o teorizado (mas ainda não detectado) gráviton (gravitacional).
Todos esses bósons têm massa nula, com exceção dos da força fraca. E isso era um mistério até a década de 1960. O bóson de Higgs surgiu justamente em um contexto teórico para ser o responsável por conferir a propriedade massa aos W+, W- e o Z0. Além disso, o bóson de Higgs é também o responsável por ‘dar’ massa às outras partículas, como elétrons, neutrinos, quarks etc.
Assim, éter aristotélico e bóson de Higgs dificilmente podem ser interpretados de forma semelhante. Os dois conceitos se desenvolveram em contextos históricos totalmente distintos, no interior de modelos da realidade completamente diversos. E, mesmo no interior de cada modelo, eles têm funções diferentes. (João de Mello Neto, Instituto de Física, Universidade Federal do Rio de Janeiro).

Revista Ciência Hoje, Novembro de 2012

sábado, 12 de outubro de 2013

Como os satélites e os ônibus espaciais reentram na atmosfera terrestre sem se incendiar? O que pode acontecer com os astronautas a bordo?

Vários fatores podem influenciar o destino de veículos espaciais quando eles se chocam com uma atmosfera planetária. Os mais significativos são a densidade atmosférica, a forma e a massa do satélite, e o seu ângulo de incidência ao entrar. Os mesmos princípios se aplicam também para objetos naturais, como os meteoros, por exemplo. O conjunto desses fatores pode incendiar o corpo que está entrando, trazê-lo de forma segura até camadas da atmosfera onde ele se comporte como um avião ou, ainda, jogá-lo de volta para fora da atmosfera, como uma pedra que, arremessada sobre a superfície de um rio, de forma quase paralela, saltita até afundar. No caso dos ônibus espaciais, ainda é possível realizar manobras orbitais, como mudanças de órbita ou de atitude (posição relativa do satélite), para garantir que o veículo atinja o destino desejado pela missão. Os ônibus espaciais mais usados hoje, como o Discovery, o Atlantis e o Endeavour, têm um revestimento térmico especial que os protege do forte atrito com a atmosfera. Se houver alguma falha, os astronautas não têm muita chance de sobreviver. Eles podem morrer carbonizados se o ângulo de incidência provocar uma reentrada do ônibus espacial rápida demais. Ou ter uma morte mais lenta e sofrida se a nave não conseguir entrar na atmosfera e ficar “quicando”, como uma pedra arremessada no rio. Nesse caso, pode acabar o oxigênio no interior do ônibus. Até agora, nunca houve um acidente com vítimas fatais durante uma reentrada.

Walkiria Schulz (Astrônoma do Instituto de Pesquisas Espaciais (Inpe), de São José dos Campos, SP).

 Revista Galileu, Maio de 2000.

Por que apenas dois elementos, mercúrio e bromo, são líquidos à temperatura ambiente (20°C, por exemplo)?

A ciência não tem uma resposta formulada em termos simples para essa questão. Vários elementos químicos são líquidos à temperatura ambiente, mas isso depende do local considerado. Em um local onde a temperatura não chega a 26°C, apenas o mercúrio e o bromo são líquidos, mas em outro, com 40°C, também seriam líquidos frâncio, césio, gálio e rubídio.
Os vários elementos líquidos à temperatura ambiente (dependendo do local) têm natureza química muito diferente e, portanto, estruturas eletrônicas também muito diversas. Consultando uma tabela periódica, o leitor verá que o bromo não é um metal, que o mercúrio é um metal de transição, que o frâncio, césio e rubídio são metais alcalinos e que o gálio, embora também seja um metal, é de outra família, a do alumínio.
Podemos ler em alguns lugares que o fato de o mercúrio ser líquido à temperatura ambiente deve-se a uma “contração relativística dos orbitais atômicos, fazendo com que sua estrutura se aproxime da de um gás nobre, o que dificulta o compartilhamento de seus elétrons”. Essa explicação, porém, conflita com muitos fatos, a começar pelo fato de os átomos do gálio, que tem ponto de fusão de 30°C, compartilharem seus elétrons sem nenhuma dificuldade. Além disso, a estrutura do frâncio, césio e rubídio, sendo metais alcalinos, é muito diferente da de gases nobres.
Portanto, o fato de um elemento ser ou não líquido em uma ou outra faixa de temperatura não depende direta e exclusivamente de suas estruturas eletrônicas. A mecânica quântica não nos dá uma resposta satisfatória para esse problema, assim como para muitos outros, que se possa resumir em poucas palavras simples.
Existir no estado líquido ou sólido depende, na verdade, das interações entre as moléculas (e existem vários tipos de interações, com intensidades diferentes). Para que os leitores não fiquem frustrados com a falta de uma explicação, sugiro que leiam sobre as intrigantes diferenças de propriedades entre o gálio e o mercúrio. O mercúrio ferve a 357°C, mas o gálio existe como líquido até 2.403°C (é o líquido que existe na maior faixa de temperatura conhecida). O mercúrio não adere a quase nenhuma substância, mas o gálio adere fortemente ao vidro, à pele e a alguns têxteis. Além disso, ao se solidificarem, o mercúrio sofre contração, enquanto o gálio se expande. Por quê? A ciência não tem hoje explicações simples para esses fenômenos, mas o leitor disposto a explorar o tema encontrará ideias interessantes.

 Fernando Galembeck
Instituto de Química, Universidade Estadual de Campinas
 Revista Ciência Hoje, Novembro de 2009.

segunda-feira, 23 de setembro de 2013

Quais os efeitos da pressão sobre um mergulhador? O que é a doença descompressiva?

Sempre que um mergulhador submerge ele está sujeito ao aumento da pressão ambiente, gerado pelo peso da água sobre seu corpo. O que não é pouco. A cada 10 metros de profundidade no mar, o aumento da pressão na água equivale ao peso de toda a atmosfera sobre a superfície da Terra, cerca de 1kg/cm². Assim, a 10 metros, a pressão equivale a 2 atmosferas e assim sucessivamente.
Essa mudança radical na pressão do ambiente tem alguns efeitos sobre o organismo. Os mais óbvios são exercidos nas cavidades aéreas do corpo, como os pulmões, ouvidos e seios da face. Estes espaços, ligados entre si, se comprimem conforme a pressão sobre eles aumenta. Mas não sofrem maiores danos, desde que o ar flua perfeitamente entre eles, equilibrando a pressão. O ouvido, porém, é o órgão mais vulnerável, já que sua ligação com a região da faringe se dá por um canal bastante estreito, a chamada trompa de Eustáquio, que dificulta a passagem do ar. Para superar o desconforto, os mergulhadores, tanto os que praticam o mergulho livre, com snorkel, quanto o autônomo, com equipamento de respiração, usam uma manobra simples: fechar o nariz com os dedos e forçar o ar a sair por ele. Mas há dificuldades que só surgem no mergulho autônomo. Uma delas é que o ar comprimido dos tanques deve chegar aos pulmões do mergulhador em uma pressão igual à do ambiente. Isso significa que a quantidade de ar inalado deve ser progressivamente maior conforme a profundidade aumenta. A 10 metros, por exemplo, são necessários 10 litros de ar para encher os pulmões, o dobro do que na superfície. Se ele subir prendendo a respiração, pode sofrer o rompimento dos pulmões, provocado pela expansão do ar comprimido no interior do órgão. Para evitar acidentes graves, deve-se respirar sempre normalmente.
A chamada doença descompressiva está diretamente ligada à ação do gás nitrogênio. Este gás responde por cerca de 80% da composição do ar respirável, mas não é aproveitado pelo organismo. Sob pressão, o gás se dissolve pelo sangue e outros tecidos do corpo. E, durante a subida para a superfície, se o mergulhador não observar os limites do tempo no fundo do mar, velocidade de ascensão e eventuais paradas estipuladas pelas tabelas de mergulho, o nitrogênio dissolvido formam bolhas, que podem causar paralisia e até morte. (Luciano Candisani, Mergulhador, biólogo e fotógrafo submarino).

 Galileu, Março de 2000

Como funcionam os monitores de computador que respondem por toque na própria tela? A tecnologia utilizada é cara?

Existem quatro tecnologias para se construir as telas sensíveis ao toque que geralmente são usadas em museus, shopping centers e locais turísticos. “A mais usada atualmente chama-se tecnologia capacitiva”, diz o engenheiro eletrônico Sérgio Humberto Marques, da VGArt, empresa que fabrica monitores para computador, em São Paulo. “É ela quem conjuga as melhores condições de preço e bom desempenho”. A tecnologia capacitiva funciona do seguinte modo: o monitor é formado por um sanduíche de um vidro especial, que é resistente e não risca. No meio existe um sensor com uma determinada carga elétrica. Quando alguém encosta o dedo, a própria eletricidade do corpo altera as características elétricas daquele ponto. Existem placas de chips dentro do computador que criam um sistema de coordenadas verticais e horizontais para identificar o ponto e depois traduzir qual é a função que foi selecionada. O tempo de resposta (intervalo entre acionar um comando e o computador realizar a tarefa) é considerado baixo: cerca de 10 milissegundos.
O que diferencia as outras três técnicas é a forma como a tela é sensibilizada. Na tecnologia que usa infravermelho, vários fachos de luz são emitidos por dentro do monitor e o percorrem o tempo todo. Quando encosta-se o dedo, o facho de infravermelho é interrompido em determinado ponto, identificado pelo computador. O inconveniente é que luzes vindas do exterior podem interferir no funcionamento. Esse tipo de tela só pode ser usada em ambientes escuros como discotecas.
Outra tecnologia é conhecida como resistiva. Dentro da tela existem milhares de fios extremamente finos (cerca de um mícron) de material metálico que tem uma certa tensão elétrica e formam uma espécie de rede. Quando a tela é pressionada, a tensão elétrica é modificada e o computador identifica o ponto. Esses fios são menos sensíveis que os sensores da tecnologia capacitiva. Portanto, é preciso pressionar a tela. Com isso, o desgaste do mecanismo é maior.
A última tecnologia é a que usa ondas acústicas. Um emissor envia constantemente ondas de ultrassom que varrem a tela. Quando alguém encosta o dedo, as ondas são interrompidas e o ponto identificado. Uma das vantagens desse sistema é que o tempo de resposta é bem pequeno. Essa tecnologia é ainda pouco usada devido ao preço. Como ela ainda é produzida em pequena escala, custa muito caro.

 Super, maio de 1995.

Qual o efeito sobre um banhista (ou alguém que esteja em um barco) de um raio que caia em um rio ou no mar?

Uma pessoa que se encontra no mar ou no rio a bordo de um barco não correrá tanto risco, pois não se encontra em contato com a água, por onde passará a corrente elétrica do raio. Ao atingir o chão, por exemplo, um raio tem sua corrente elétrica difundida pelo solo. Quanto maior for a condutividade deste, maior será o alcance da eletricidade difundida. No mar, pela alta condutividade da água, os efeitos de uma descarga elétrica serão sentidos a uma distância muito maior do que no solo. Já nos rios, lagos ou outros corpos de água doce, onde a condutividade não é tão alta, mas ainda é maior do que no solo, um alcance intermediário é esperado. Em termos de efeito do raio, a letalidade ou não da descarga elétrica dependerá de quão distante está o ponto onde o raio caiu da pessoa. Para uma mesma distância, no mar seria mais perigoso.
As árvores, pela sua altura, independentemente de estarem próximas ou não de rios, podem atrair os raios, por isso nunca se deve procurar abrigo embaixo delas durante uma tempestade. Árvores situadas em regiões elevadas apresentam maior risco do que aquelas situadas em margens de rios que percorrem regiões de terrenos menos elevados. (Marcelo Saba, Grupo de eletricidade atmosférica, Instituto Nacional de Pesquisas Espaciais.

Ciência Hoje, março de 2012.

Como funciona o foco automático de uma máquina fotográfica?

Assim que você aperta o botão, a câmera envia sinais de ultrassom em direção ao que vai ser fotografado. Ao atingirem um obstáculo, as ondas voltam e são captadas por um sensor. Pelo tempo de ida e volta, a máquina deduz a distância entre ela e o objeto e ajusta o foco. “A câmera vai focar o que estiver no centro da lente”, explica o engenheiro eletrônico Rudolf Reimerink, da Kodak, em São Paulo. Tudo o que estiver no mesmo plano do objeto central será registrado com nitidez. Já o que estiver na frente ou atrás ficará desfocado.

Super, novembro de 1997.

Por que prata, cobre e ouro, bons condutores de eletricidade, não apresentam supercondutividade?

A supercondutividade não deve ser vista simplesmente como um aperfeiçoamento no processo normal de condução. No processo normal, um condutor é essencialmente uma rede tridimensional de átomos, regularmente ordenados, que apresenta grande quantidade de elétrons que não estão fortemente presos aos átomos, chamados elétrons livres ou de condução. Tais elétrons, quando submetidos a um campo elétrico externo, que cria uma diferença de potencial entre as extremidades do condutor, movem-se para reduzir essa diferença, formando a corrente elétrica. Como esses elétrons enfrentam alguma resistência ao seu movimento, perdem energia, dissipada em forma de calor. Apesar de adequado para descrever a condução normal, esse modelo não explica a supercondutividade, que ocorre a baixas temperaturas, é necessário considerar outra forma de interação entre elétrons, que não a seja a repulsiva.
De acordo com a teoria da supercondutividade formulada em 1957, pelos físicos norte-americanos John Bardeen (1908-1991), Leon Cooper e John Schrieffer, no estado supercondutor os elétrons não se movimentam como partículas independentes, mas aos pares (denominados pares de Cooper). Esses pares se formam a temperaturas muito baixas por ação de poderosas forças de atração, com origens em fenômenos de natureza quântica (que os físicos ainda não entendem inteiramente) e com a ajuda de ‘vibrações’ que ocorrem na rede de átomos de alguns materiais. Os pares de Cooper apresentam um estado de energia reduzida e se deslocam pelo material sem enfrentar resistência (portando, sem perder energia).
A explicação para a prata, o cobre e o ouro (os melhores condutores de eletricidade à temperatura normal que conhecemos, nesta ordem) não apresentam supercondutividade, mesmo a temperaturas tão baixas quanto 0,05K (-273,10°C), é a fraca capacidade de interação entre os elétrons e a rede de átomos desses materiais. Neles, a ação das forças de atração responsáveis pela supercondutividade mostra-se incapaz de superar a repulsão natural entre os elétrons, impedindo a produção dos pares de Cooper – e as razões dessa incapacidade ainda são estudadas pelos físicos. (José Fernando Moura Rocha, Departamento de física do estado sólido, Universidade Federal da Bahia).

Ciência Hoje, Março de 2012

domingo, 8 de setembro de 2013

O que é a força de Coriolis? Como ela atua nos corpos? Por que tem esse nome?

A força de Coriolis é provocada pelo movimento de rotação da Terra. Ela altera o movimento de um corpo para a direita, no hemisfério Norte, e para a esquerda, no hemisfério Sul. Como isso ocorre? É que o planeta gira com uma velocidade angular constante. Por isso, quando um objeto que não esteja conectado a Terra se move para o Norte ou para o Sul, a velocidade de rotação do planeta vai interferir na posição final do objeto. Por exemplo, imagine uma viagem de avião em linha reta de São Paulo a Brasília. Como o planeta gira de oeste para leste, se a rotação da Terra não for compensada e o vôo prosseguir numa trajetória retilínea, a aeronave poderá chegar a Goiânia, cidade que está à esquerda do destino original, e não Brasília. Um outro exemplo vem dos Estados Unidos. Lá, foram feitas pesquisas comprovando que uma bolinha de beisebol atirada horizontalmente percorrendo 100 metros em 4 segundos (à velocidade de 90 km/h), sofre um desvio para a direita de 1,5 centímetro.

A circulação atmosférica global também sofre influência da força de Coriolis. Ela atua na geração dos ventos alísios, próximo ao equador, e em médias e altas latitudes, nas frentes frias e na circulação da brisa marítima. Muitas pessoas acreditam ainda que a força de Coriolis seria a responsável pelo fato de a água, em uma pia, girar em um sentido no hemisfério Norte, e em outro no Sul. Pura lenda. O modo como a água escoa depende mais da maneira como foi construído o buraco da pia e de sua inclinação. O efeito da força de Coriolis é desprezível em fenômenos de escalas tão pequenas. A força de Coriolis tem esse nome em homenagem ao francês Gaspard Gustave Coriolis (1792-1843), um renomado matemático e físico. (Técio Ambrizzi, Professor do departamento de Ciências Atmosféricas do Instituto Astronômico e Geofísico da USP).

 Revista Galileu, Outubro de 1999

Como funcionam os painéis de LED usados em TVs e telões de estádios?



O painel de LED é composto por dezenas ou centenas de milhares de diodos emissores de luz (LED, na sigla em inglês): cristais semicondutores que acendem quando atravessados por uma corrente elétrica. São usados LEDs que produzem luz verde, vermelha e azul. Por meio da combinação dessas três cores básicas, obtêm-se praticamente todas as tonalidades que a visão humana pode distinguir. A operação do painel depende de um processador central, que recebe um sinal de vídeo proveniente de um DVD, câmera ou computador. O processador separa a informação para cada uma das três cores básicas e redimensiona a imagem conforme a quantidade e posição dos LEDs. Dentro do painel, cada LED está ligado a um circuito que controla o acendimento conforme a informação recebida do processador.
Esse é um dos poucos sistemas que podem ser utilizados ao ar livre, em pleno dia, seja devido à sua robustez, seja pelo seu elevado brilho. Agora estão começando a surgir televisores que utilizam LEDs orgânicos (que não são cristalinos) como elementos emissores de luz. Mas os televisores ditos ‘de LED’ que estão no mercado são, na maioria das vezes, telas de cristal líquidos (LCD), retroiluminadas por LEDs brancos. A vantagem é que a luz do LED permite uma melhor reprodução de cores pelo LCD, além de maior uniformidade e menor espessura da tela. (Guido Stolfi, Laboratório de Comunicações e Sinais, Escola Politécnica, Universidade de São Paulo).

Revista Ciência Hoje, Outubro de 2012.

Por que algumas pessoas sentem mais frio ou calor do que as outras?

Na pele, existem sensores para frio e calor. Esses receptores detectam a temperatura local enviam sinais elétricos para regiões específicas do cérebro, onde a informação é interpretada e transformada em ‘sensação’, isto é, informação consciente de ‘frio’ ou ‘quente’. Enquanto a temperatura interna do nosso corpo é mantida praticamente constante (cerca de 37°C), a temperatura da pele varia em função de dois fatores: a temperatura externa e a quantidade de sangue que, vindo do interior do corpo, vai irrigar a pele.
Se colocarmos pessoas diferentes em ambiente com a mesma temperatura (22°C, por exemplo), a sensação de frio poderá ser maior em algumas, porque, em temperaturas baixas, os vasos sanguíneos da pele se fecham. Isso diminui a chegada de sangue aquecido (a 37°C) aos tecidos superficiais e ajuda a manter a temperatura interna a 37°C. Num indivíduo em que os vasos se contraem mais, a temperatura da pele será menor. Os sensores de frio enviarão um maior número de sinais elétricos para o cérebro e ele terá uma sensação de frio mais intensa. Assim, a intensidade da sensação de ‘frio’ ou ‘quente’ vai depender da diferença de temperatura entre a pele e o interior do corpo.
Outros fatores, como a velocidade de mudança de temperatura na pele, também influem na intensidade da sensação. Pessoas com alterações dos vasos cutâneos (diabéticos, por exemplo) ou com alterações dos hormônios da glândula tireóide também podem sentir mais frio ou calor do que outras. (José Geraldo Mill, Centro de Ciências da Saúde, Universidade Federal do Espírito Santo). 

Revista Ciência Hoje, Abril de 2012.

O que é microfonia e como evitá-la?

É uma espécie de bola de neve sonora. Aquele chiado insuportável que acontece quando você deixa o microfone perto demais do alto-falante, virado de frente para ele, é o resultado da amplificação exagerada de um barulho. Ocorre porque o som que sai da caixa se soma a um outro, idêntico, ao que está entrando. A caixa, então, realimenta o microfone e o barulho torna-se cada vez mais alto. “Iniciado o processo”, diz o engenheiro Antônio Seabra, da Universidade de São Paulo, “não adianta nem parar de falar, porque o som no ambiente realimenta a cadeia”. O jeito é baixar o volume para diminuir a amplificação do chiado. Ou afastar o microfone da caixa. Alguns amplificadores têm um recurso chamado delay, ou atraso, que emite o som captado uma fração de segundo depois. Isso evita que ele entre imediatamente no microfone.

Revista Super, Outubro de 1998.

sexta-feira, 9 de agosto de 2013

A depilação a laser é cada vez mais comum, sobretudo entre as mulheres. O contato sucessivo com essa fonte de luz pode prejudicar a saúde humana?

Esse risco não existe. A palavra laser é um acrônimo formado pelas iniciais de Light Amplification by Stimulated Emission of Radiation. Significa, portanto, uma amplificação da luz pela emissão estimulada de radiação. Isso envolve a liberação de ondas luminosas chamadas fótons, que são emitidos por elétrons excitados.
Na pele, essa energia luminosa é absorvida por estruturas-alvo e convertida em energia térmica. No caso do pelo, a melanina-pigmento que dá a cor à pele, aos pelos e aos cabelos - é a estrutura-alvo (cromatóforo) onde energia luminosa se converte em energia térmica. É por isso, aliás, que os pelos claros não respondem tão bem a essa terapia quanto os pelos escuros.
Os efeitos indesejáveis desse tipo de tratamento decorrem do calor liberado. Não há, porém, caráter cumulativo dessa irradiação. Isso diferente do que ocorre com a radiação ultravioleta emitida pelo sol e por outras fontes luminosas. É esse tipo de luz que está envolvido com o processo de envelhecimento e com os cânceres cutâneos. Assim, não risco no contato cumulativo com o laser utilizado na depilação.

Paulo Eduardo Neves Ferreira Velho (Departamento de Clínica Médica, Universidade Estadual de Campinas (SP)

Ciência Hoje, Março de 2010.

quarta-feira, 7 de agosto de 2013

Como é possível calcular o desvio de um raio de luz ao passar próximo de uma grande massa como o Sol, se os fótons têm massa zero?

Fóton é o mínimo pacote (quantum) de energia que compõe a onda eletromagnética, ou seja, a luz. Ele não tem massa, mas tem energia e, segundo a teoria da gravitação do físico Albert Einstein (1879 - 1955), qualquer forma de energia sofre efeitos gravitacionais de uma grande massa.
Para Einstein, mais detalhadamente, uma grande massa não mais exerce uma força gravitacional sobre outros corpos. Ela simplesmente altera as propriedades geométricas do espaço e do tempo ao seu redor, de tal forma que o movimento de uma partícula livre, no caso o fóton, neste espaço-tempo curvo, não é mais retilíneo uniforme, mas um movimento curvo. O desvio é, então, essa diferença entre a trajetória dos dois movimentos.
Pela teoria de Einstein, o desvio previsto é de 1,74 segundos de arco. Para encontrá-lo, observamos, à noite, a posição da estrela celeste, quando a trajetória da luz emitida pelo astro é retilínea, já que não há interferência do Sol. Comparamos esta posição com a encontrada seis meses depois, quando o Sol se interpões entre nós e a estrela, causando o desvio. evidentemente, nessa situação, é dia claro e só podemos ver a estrela caso aconteça um eclipse.
A primeira observação foi feita pelas expedições lideradas por Arthur Eddington (1882 - 1944) -  uma delas a de Sobral, no Ceará, em 1919, que produziu os melhores dados, confirmando as previsões de Einstein e tornando-o famoso mundialmente.

Nelson Pinto Neto (Centro Brasileiro de Pesquisas Físicas, RJ).

Ciência Hoje, Março de 2010.

O que é ouvido absoluto?

Ouvido absoluto é capacidade de nomear ou produzir uma frequência predetermina na ausência de uma nota de referência. Por exemplo: a campainha de casa toca e consigo identificar que aquele toque é um si bemol. Ou então, quando, em resposta a um pedido para entoar um fá sustenido, algumas pessoas conseguem emitir a nota, de maneira afiada e segura, sem uma nota de referência.
O ouvido absoluto é muito raro. Porém, estudos recentes vêm mostrando que falantes de línguas tonais - línguas em que o significado de uma palavra muda conforme a entonação, como, por exemplo, mandarim e vietnamita - dispõem de uma forma surpreendentemente precisa de ouvido absoluto.
Alunos dotados de ouvido absoluto não têm, necessariamente, mais facilidade para aprender a tocar um instrumento do que aqueles que têm ouvido relativo (isto é, que só conseguem reproduzir uma frequência qualquer a partir de uma nota de referência). Os com ouvido absoluto apenas aprendem de forma diferente, uma vez que não precisam de uma nota de referência para reconhecer uma nota mal executada em suas performances.
Na minha experiência de ensino, verifiquei um fato curioso: o ouvido absoluto de alguns alunos atrapalha a compreensão do discurso musical quando eles precisam executar suas peças em pianos que não estão afinados no diapasão (afinação universal). Eles relatam que "é muito difícil esperar um som e, de repente, vir outro". Isso frustra suas expectativas, acarretando a produção de uma performance emocionalmente comprometida.

Danilo Ramos (Departamento de Música, Universidade Federal do Paraná e Instituto de Artes, Universidade Estadual de Campinas).

Ciência Hoje, jan/fev de 2013.

segunda-feira, 24 de junho de 2013

Como funciona o radiotelescópio?

Ei, você que está lendo este texto, sabe por que consegue enxergá-lo? Porque seus olhos são sensíveis à luz visível, que é uma onda eletromagnética. A luz refletida na página da revista chega aos seus olhos e a informação por ela carregada é enviada para o seu cérebro, que a transforma em imagens que você consegue entender. Mas a luz visível é apenas um tipo de onda eletromagnética. Existem muitos outros, como as ondas de rádio, que podem ser detectadas por um radinho de pilha ou... pelos radiotelescópios! A diferença básica é que o radinho de pilha captas as ondas de rádio emitidas pelas estações na Terra, enquanto os radiotelescópios captam ondas vindas de fora da Terra, emitidas pelos astros.
Em 1932, os astrônomos descobriram que os objetos celestes emitem este tipo de energia. Com ela, foi possível realizar muitas descobertas importantes que as ondas de rádio podem ser muito fracas, e os objetos que existem na Terra podem interferir na sua captação.
A solução foi criar um equipamento específico para captá-las, o radiotelescópio. Ele tem a forma de uma grande antena parabólica, justamente para capturar uma quantidade grande destas ondas. Depois de captadas, as ondas são processadas por computadores específicos para remover as interferências. Assim, analisando as ondas de rádio que vêm do espaço, os astrônomos podem obter informações importantíssimas sobre o universo. Podem observar, por exemplo, detalhes da superfície do Sol que outros métodos não revelam e descobrir novos objetos celestes.
Depois deste processo, as informações podem ainda passar por outro processo de conversão, gerando imagens. Diga lá, você é capaz de identificar, na figura acima, o planeta que o radiotelescópio captou?
Eder Cassola Molina, Departamento de Geofísica, Instituto de Astronomia, Geofísica e Ciências Atmosféricas.
Revista Ciência Hoje das Crianças, Maio de 2013.

quarta-feira, 15 de maio de 2013

Materiais magnéticos mantêm seu magnetismo para sempre, ou têm uma vida útil limitada?

Depende do material. Se for um ímã permanente, aquele cuja magnetização é constante e permite a atração ou repulsão dos demais materiais magnéticos no seu entorno, a resposta é sim. Sua magnetização dura para sempre desde que não seja acima da temperatura de Curie (a temperatura máxima na qual pode ocorrer o magnetismo), não sofra corrosão ou alguma alteração em sua composição química, e não seja colocado muito próximo de outro ímã permanente mais forte que contrarie sua magnetização.
A magnetização é produzida pelo alinhamento dos momentos magnéticos dos átomos se comportam como a agulha magnética de uma bússola, só que em nível atômico. O aumento da temperatura ou a proximidade de outro ímã pode desalinhar esses momentos. Somente alguns elementos da tabela periódica têm momentos magnéticos atômicos: os do grupo de transição do ferro, como níquel, manganês, ferro e cobalto; e elementos de terras raras, e elementos de terras raras, como európio, gadolínio, samário etc.
Além dos ímãs permanentes, existem os chamados materiais doces, permeáveis, cuja magnetização é facilmente e que são utilizados em transformadores, motores e geradores elétricos. Por fim, há os materiais usados como meio de gravação magnética, que têm características intermediárias entre os dois primeiros.

Sérgio Machado Rezende, Departamento de Física, Universidade Federal de Pernambuco.
Ciência Hoje, Maio de 2013.

quarta-feira, 8 de maio de 2013

Como funciona o sobe e desce das marés?


Já ouviu a expressão" fulano é de Lua"? Ela é usada para descrever uma pessoa que ora está alegre, ora está de mau humor, ou ora é doce, ora é nervosa... Sabia que essa expressão pode ter origem na influência da Lua, nosso satélite natural, sobre a Terra?
É o seguinte: a Lua, como você sabe, gira em torno da Terra e a Terra gira em torno do seu próprio eixo, como um pião. O resultado desses movimentos é que, se você olhar para o céu do mesmo lugar diariamente, verá a Lua quase na mesma posição a cada 24 horas. E o que faz com que a Lua não se desprenda da órbita da Terra é a força de atração que existe entre os dois corpos, gravidade. Ao atrair a Terra para si, a Lua atrai também tudo o que está na superfície terrestre, o que inclui... A água dos oceanos!
Então, vamos lá: se você está sentado na areia da praia olhando o mar desde cedo, vai perceber que, quando se inicia o período da tarde, a água do mar vai se aproximando de você - esta subida da maré é também é chamada de preamar. Cerca de 12 horas depois, quando a Lua começa a se aproximar do Japão, o mar aqui no Brasil parece recuar, seu nível diminui, fazendo a faixa de areia ficar mais larga - é a baixamar.
Para resumir: a força de atração entre o nosso planeta e o seu satélite natural é mais intensa do lado da Terra que aponta para Lua do que do outro. A Terra como um todo sente esse "puxão", porém, o efeito dessa força fica mais evidente nos mares, uma vez que a água é mais maleável. O resultado de tudo isso é que sempre que a maré sobe de uma lado do planeta, desce do outro.
Ah! O Sol também produz maré! Nas fases de Lua cheia ou nova, o sobe e desce do mar é mais intenso por influência do astro-rei. Mas isso rende outra conversa...

Revista Ciência Hoje das Crianças, n. 232, Março de 2012.
David Zee, Faculdade de Oceanografia, Universidade Estadual do Rio de Janeiro.

domingo, 10 de março de 2013

O que é o sistema UPS? Quais são as suas particularidades para instalação?

UPS é sinônimo de estabilizador, armazenador de energia e no-break usado para se proteger de interrupções no fornecimento da rede elétrica. Há inúmeros fabricantes no Brasil: uma boa lista pode ser encontrada na página da Associação Brasileira da Indústria Elétrica e Eletrônica (Abinee): http://www.abinee.org.br . A configuração básica de um UPS contém um retificador (conversor de corrente alternada (CA) em corrente contínua (CC)), um carregador de baterias e um inversor (conversor CC-CA). As diferenças principais entre os tipos de UPS estão na qualidade da saída de CA e na forma de ligação à rede. Os melhores (e mais caros) são os que fornecem tensão de saída senoidal, mas há também os que fornecem ondas de tensão retangulares. Quanto à ligação coma rede, alguns devem ser ligados entre a rede e a carga, de modo que toda a potência da carga passe pelo UPS o tempo todo (online). Mas há também os que ficam em paralelo coma rede; estes requerem uma chave de transferência estática (rápida) para comutar entre a rede e o UPS quando falta energia. Os principais cuidados que devem ser tomados com relação à instalação de um UPS são a correta especificação da capacidade de corrente, de condutor neutro e de aterramento. Os problemas que mais ocorrem são causados pelo tipo de carga que se costuma suprir com UPS (computadores etc.), que freqüentemente drenam correntes muito distorcidas (alto THD). A sigla THD significa ‘distorção harmônica total’ – é um índice numérico que mede o quanto uma onda se parece com uma senóide. Uma onda de tensão ou corrente tem THD igual a zero se for uma senóide perfeita. Já uma onda retangular tem THD próximo de 50%.

Fonte: Guilherme Rolim Escola Politécnica, Universidade Federal do Rio de Janeiro.
Revista Ciência Hoje, Nov. 2005.

quinta-feira, 14 de fevereiro de 2013

Por que em caso de uma inesperada despressurização da cabine do avião devemos usar a “máscara de oxigênio?”


Quem viaja ou já teve a oportunidade de viajar de avião, ao prestar atenção às instruções dos(as) comissários(as) de bordo antes da decolagem da aeronave, já ouviu o seguinte alerta: “Em caso de uma inesperada despressurização da cabine do avião, máscaras de oxigênio cairão automaticamente dos compartimentos localizados acima dos assentos. Puxe a mangueira para liberar o fluxo de ar e coloque a máscara sobre o nariz e a boca e....” Por que em caso de uma inesperada despressurização da cabine do avião devemos usar a “máscara de oxigênio”?
A pressão atmosférica é a consequência do peso do ar. É o peso da atmosfera distribuído em todas as direções, em volta das coisas, que produz a pressão atmosférica. Por isso quando a altitude aumenta, a pressão atmosférica diminui, pois há menos ar sobre nossas cabeças.
Em regiões como a cidade de La Paz, na Bolívia, localizada a mais de 3000 metros de altura em relação ao nível do mar, o ar atmosférico é rarefeito (menos denso) - o numero de moléculas, por metro cúbico, dos gases que compõem o ar, entre eles o oxigênio (O2), é menor - se comparado com o ar atmosférico de cidades localizadas a baixa altitude, como Salvador, na Bahia. Isso acontece devido à variação da pressão atmosférica com a altitude.
Porém, quando estamos dentro da cabine de um avião, que voa em altitudes maiores que a da cidade de La Paz, isso não acontece porque as aeronaves possuem um sistema que efetua o bombeamento ativo de parte do ar atmosférico, aspirado e comprimido pelos motores da aeronave [1], para dentro da cabine do avião com a finalidade de manter as condições adequadas (pressão ambiente e oferta de O2 por metro cúbico) ao corpo humano durante o voo, permitindo, assim, que os passageiros respirem normalmente [2], mesmo com a aeronave voando em altas altitudes.
No entanto, em caso de falha nesse sistema (ou escape do ar devido a um problema em alguma porta ou janela da aeronave) poderá ocorrer a despressurização da cabine do avião, uma vez que, em altas altitudes, a pressão dentro da aeronave é maior do que fora dela. Como consequência da despressurização, o ar no interior da cabine se tornará rarefeito, ou melhor, diminuirá a oferta de O2, por metro cúbico, dentro da aeronave. A esta diminuição da oferta de O2 denomina-se hipóxia.
Segundo Lemos e cols. [3], em decorrência da hipóxia o indivíduo tentará adaptar-se, seu organismo produzirá respostas em vários sistemas e acontecerão diferentes ajustes fisiológicos, como por exemplo, alterações na frequência respiratória e no sistema cardiovascular. Entre as estratégias para minimizar os efeitos negativos da hipóxia está a utilização de suplemento de O2 [3]. Por isso, numa inesperada despressurização da cabine do avião, “mascaras de oxigênio” cairão automaticamente dos compartimentos localizados acima dos assentos.
Conforme Bogsan [2], Vice-presidente técnico da GOL Linhas Aéreas Inteligentes, ao puxar a mangueira que conecta a máscara, o passageiro aciona um gatilho que desencadeia uma reação química no interior do gerador químico, localizado acima da caixa onde as máscaras ficam armazenadas, e fornece O2 por aproximadamente 12 min, tempo suficiente para que os pilotos possam efetuar a descida da aeronave para uma altitude de voo em que se possa respirar sem o auxílio da máscara (cerca de 3000 m, conforme o Blog Voegol [1]). Bogsan [2], ainda frisa que o O2 distribuído para as máscaras dos pilotos não é fornecido por meio de geradores químicos, mas sim por cilindros independentes, localizados no porão da aeronave, que permitem o uso mais prolongado.

Fábio Luís Alves Pena, 
Instituto Federal da Bahia, Campus Simões Filho.



Referências

[1]<blog.voegol.com.br/index.php/categ/pergunte-ao-comandante> Acesso em: 18 de jun. 2012.
[2] A. BOGSAN. Revista GOL – Linhas Aéreas Inteligentes, 122 (2012).
[3] V. A LEMOS; H. K. M ANTUNES; R. V. T SANTOS; J. M. S. PRADO; S.TUFIK; M. T. MELLO. Revista Brasileira de Psiquiatria, 32, 1 (2010).


domingo, 6 de janeiro de 2013

Qual a metade do cosmo que não se vê?


Desde que os físicos aprenderam a provocar colisões frontais entre as partículas subatômicas para transformá-las em energia pura, notaram um paradoxo que até então não havia ocorrido a ninguém. É que a energia produzida desse modo geralmente toma a forma de novas partículas, metade das quais é feita de matéria comum à outra metade, de antimatéria. Ou seja, sempre que se cria um próton de carga elétrica positiva, também surge um antipróton, que é negativo. Se nasce um elétron negativo, ao seu lado existe um anti-elétron positivo. Antimatéria é simplesmente isso: um inverso elétrico da matéria usual. Mas, então, por que não se vê antimatéria no grande laboratório natural que é o universo? Tudo indica que ela deve ter sido criada em grandes quantidades durante o Big Bang, a explosão que criou o Cosmo, há 15 bilhões de anos. Mas é praticamente certo que, dentro do enorme volume gigantesco a nossa volta, não existe o menor traço de anti-estrelas ou antigaláxias.
A necessidade de resolver essa contradição explica, em parte, a importância da máquina experimental montada no laboratório americano Fermilab, desde novembro do ano passado, para fabricar anti- hidrogênios. São átomos inteiros de antimatéria nos quais os prótons não têm carga positiva, mas sim negativa. E os elétrons passam de negativos a positivos. Então, esses elementos de eletricidade invertida podem fornecer uma pista para a sua aparente ausência no Cosmo: se forem examinados bem de perto, talvez revelem alguma propriedade nova, que não havia sido percebida antes.
A oportunidade surgiu somente agora porque os anti-hidrogênios são conquista recente. Só passaram a ser produzidos no final de 1995, numa experiência dirigida pelo físico alemão Walter Oelert, do Cern, sigla em francês para Centro Europeu de Pesquisas Nucleares. Oelert deu o primeiro passo, mas fez somente nove anti-elementos.
Este mês, o Fermilab deu um salto à frente ao demonstrar que é viável fabricar anti-átomos em quantidade – e, talvez, no fim do processo, fabricar energia. Os cem exemplares produzidos desde a montagem da “antifábrica”, em novembro de 1996, não são muita coisa. “Ainda vai ser preciso multiplicar esse número por vinte ou trinta, para poder fazer um estudo rigoroso”, diz David Christian, um dos responsáveis pela experiência. Mas, dado o primeiro passo, não vai ser difícil aumentar a produção e começar a investigar as propriedades dos anti- hidrogênios. Por enquanto, os físicos não sabem exatamente que tipos de coisa terão que procurar. Talvez a antimatéria sofra de alguma instabilidade, alguma propensão interna para desintegra-se. Isso explicaria o seu sumiço durante a história do Universo. Para Christian, a probabilidade de achar alguma anomalia não é grande. Mesmo assim, o trabalho não se perderá. Pois, enquanto mantém um olho no enigma cósmico, os físicos vão explorar um novo tipo de material à disposição da humanidade. E não é muito improvável que, nos próximos anos, ele sirva para desenvolver tecnologias inimagináveis atualmente.
Revista Super Interessante, novembro de 1997.