Física e Química



QUIMICA 10

Solução
A uma mistura homogénea de duas ou mais substâncias dá-se o nome de solução. Uma solução pode ser sólida, líquida ou gasosa.
Um dos componentes da solução é o solvente ou fase dispersante. Todos os outros são os solutos ou fases dispersas.

Destilação

O processo de destilação envolve ferver a água transformando-a em vapor. O vapor de água é conduzido a uma superfície de refrigeração onde retorna ao estado líquido em outro recipiente. Uma vez que as impurezas (solutos) não são vaporizados, permanecem no primeiro recipiente. Observe-se que mesmo a destilação não purifica completamente a água, embora a torne 99,9% pura.

Evolução do modelo atómico

Modelo de Dalton
Em 1808, Dalton propôs a teoria do modelo atómico, onde o átomo é uma minúscula esfera maciça, impenetrável, indestrutível e indivisível. Todos os átomos de um mesmo elemento químico são idênticos. Seu modelo atómico foi apelidado de "modelo atómico da bola de bilhar".
Modelo de Thomson
Através de suas experiências, Thomson concluiu que a matéria era formada por um modelo atómico diferente do modelo atómico de Dalton: uma esfera de carga positiva continha corpúsculos (electrões) de carga negativa distribuídos uniformemente à semelhança de um pudim de passas.
O "modelo atómico do pudim com passas", substituiu então ao "modelo da bola de bilhar", mas não eliminou totalmente as deduções de Dalton, apenas foram acrescentadas mais informações.
Modelo de Rutherford
Modelo atómico no qual os electrões giravam em torno do núcleo atómico, que considerou a região central do átomo onde havia a maior parte da massa atómica.
O modelo se baseava em órbitas electrónicas, isto é comparáveis à um sistema planetário, Rutherford chegou à conclusão que a maior parte do átomo se encontra vazia, estando praticamente a totalidade de sua massa no núcleo, este sendo em torno de dez mil vezes menor que o átomo.
Modelo de Bohr
Sua teoria consistia que ao girar em torno de um núcleo central, os elétrons deveriam girar em órbitas específicas com níveis energéticos bem definidos. Que poderia haver a emissão ou absorção de pacotes discretos de energia chamados de quanta ao mudar de órbita.
Realizando estudos nos elementos químicos com mais de dois elétrons, concluiu que se tratava de uma organização bem definida em camadas. Descobriu ainda que as propriedades químicas dos elementos eram determinadas pela camada mais externa.
Modelo atómico actual
Fundamentada na hipótese proposta por Broglie onde todo corpúsculo atómico pode comportar-se como onda e como partícula, Heisenberg, em 1925, postulou o princípio da incerteza.
A ideia de órbita electrónica acabou por ficar desconexa, sendo substituída pelo conceito de probabilidade de se encontrar num instante qualquer um dado electrão numa determinada região do espaço.
O átomo deixou de ser indivisível como acreditavam filósofos gregos antigos. O modelo atómico portanto, passou a se constituir na verdade, de uma estrutura complexa.

Reacções nucleares

A emissão natural de uma partícula, por um núcleo atómico instável, seja ela, alfa, beta, neutrão, protão, etc, transforma o núcleo de um determinado elemento químico em um novo núcleo que corresponde à um outro elemento químico. Assim , cada uma dessas desintegrações radioactivas representa a transmutação de um elemento em outro. (Transmutação também pode ser efectuada artificialmente).

Radioactividade

A Radioactividade é a actividade, que certos átomos possuem, de emitir radiações electromagnéticas e/ou partículas de seus núcleos instáveis, com o propósito de adquirir estabilidade. Nesse processo são originados outros núcleos, que podem ser estáveis ou ainda instáveis; quando o núcleo formado ainda é instável, ele continua emitindo partículas e/ou radiações até se transformar em um núcleo estável.

Teoria do big bang

Big Bang é a teoria científica que o universo emergiu de um estado extremamente denso e quente há cerca de 13,7 bilhões de anos. A teoria baseia-se em diversas observações que indicam que o universo está em expansão de acordo com um modelo Friedmann-Robertson-Walker baseado na teoria da Relatividade Geral, dentre as quais a mais tradicional e importante é relação entre os redshifts e distâncias de objetos longínquos, conhecida como Lei de Hubble, e na aplicação do princípio cosmológico.
Em um sentido mais estrito, o termo "Big Bang" designa a fase densa e quente pela qual passou o universo. Essa fase marcante de início da expansão comparada a uma explosão.

Constituição do universo

O Universo é o conjunto de todos os astros existentes: planetasestrelas, galáxias, nebulosas e restantes corpos conhecidos. Os dados actuais levam à conclusão de que o Universo é constituído por 4% de átomos, 22% de matéria escura (apenas detectável pelo seu efeito gravitacional) e 74% de energia escura.

Radiação do corpo negro

corpo negro é um corpo que absorve toda a radiação que nele incide: nenhuma luz o atravessa nem é refletida. Apesar do nome, corpos negros produzem radiação eletromagnética, tal como luz. Quando um corpo negro é aquecido, essas propriedades o tornam uma fonte ideal de radiação térmica. Se um corpo negro ideal a certa temperatura é cercado por outros objetos da mesma temperatura e em equilíbrio térmico, um corpo negro em média emitirá exatamente a mesma quantidade que absorve, em todos os comprimentos de onda: cada raio que atinge o objeto é absorvido, então ele será emitido da mesma forma

Formação e evolução das estrelas

Estrelas nascem em nuvens moleculares, grandes regiões de matéria de alta densidade (apesar dessa densidade ser um pouco menor do que aquela obtida numa câmara de vácuo na Terra), e se formam por instabilidade gravitacional nestas nuvens, causada por ondas de choque de uma supernova (estrelas de grande massa que iluminam com muita intensidade as nuvens que as formam. Um exemplo dessa reflexão é a Nebulosa de Orion).
Estrelas gastam 90% de suas vidas realizando a fusão nuclear do hidrogênio para produzir hélio em reações de alta pressão próximo ao seu centro. Tais estrelas estão na sequência principal do diagrama de Hertzsprung-Russell.
Pequenas estrelas (chamadas de anãs vermelhas) queimam seu combustível lentamente e costumam durar dezenas a centenas de bilhões de anos. No fim de suas vidas, elas simplesmente vão apagando até se tornarem anãs negras.
Conforme a maioria das estrelas esgota a sua reserva de hidrogênio, suas camadas externas expandem e esfriam formando uma gigante vermelha (em cerca de 5 bilhões de anos, quando o Sol já for uma gigante vermelha, ele terá engolido Mercúrio e Vênus.)
Eventualmente, o núcleo será comprimido o suficiente para iniciar a fusão do hélio. Então a camada de hélio se aquece e expande, para em seguida esfriar e se contrair. A reação expulsa a matéria da área externa para o espaço, criando uma nebulosa planetária. O núcleo exposto irradia fótons ultravioletas que ionizam a camada ejetada, fazendo-a brilhar.
Estrelas maiores podem fundir elementos mais pesados, podendo queimar até mesmo ferro. O núcleo remanescente será uma Anã branca, formada de matéria degenerada sem massa suficiente para provocar mais fusão, mantida apenas pela pressão de degenerescência. Essa mesma estrela vai se esvair em uma anã negra, em uma escala de tempo extremamente longa.
Em estrelas maiores, a fusão continua até que o colapso gravitacional faça com que a estrela exploda em uma supernova. Este é o único processo cósmico que acontece em escalas de tempo humanas. Historicamente, supernovas têm sido observadas como "novas estrelas" onde antes não havia nenhuma.
A maior parte da matéria em uma estrela é expelida na explosão (formando uma nebulosa como a Nebulosa do Caranguejo) mas o que sobra vai entrar em colapso e formar uma estrela de nêutrons (um pulsar ou emissor de raios x) ou, no caso das estrelas maiores, um buraco negro.
A camada externa expelida inclui elementos pesados, que são comumente convertidos em novas estrelas e/ou planetas. O fluxo da supernova e o vento solar de grandes estrelas é muito importante na formação do meio interestelar.

Espectros

Espectro é o resultado obtido quando as radiações electromagnéticas são emitidas nos seus comprimentos de onda ou frequências correspondentes.
As radiações luminosas visíveis dão um espectro de bandas coloridas quando a luz branca passa através de um prisma ou rede de difracção. As cores deste espectro, segundo os comprimentos de onda decrescentes são vermelho, laranja, amarelo, verde, azul, anil e violeta, ver em Espectro de Fraunhofer.
Os espectros formados pelas radiações emitidas por corpos incadescentes ou convenientemente excitados são designados por espectros de emissão.
Quando a luz branca passa através de um meio semitransparente, dá-se uma absorção selectiva de radiações de certos comprimentos de onda; o espectro desta luz transmitida designa-se então por espectro de absorção.
Os espectros de emissão e de absorção de uma substância são caracterísitcos dessa substância, sendo muitas vezes usados para a sua identificação. Tais espectros são o resultado de transições entre diferentes estados estacionários dos átomos ou moléculas da substância, sendo emitidas ou absorvidas, simultaneamente, ondas electromagnéticas.
Espectro contínuo é aquele em que figuram todos os comprimentos de onda dentro de certos limites. Espectro de riscas é, pelo contrário, aquele em que aparecem apenas certos comprimentos de ondas.

Efeito fotoeléctrico

O efeito fotoeléctrico é a emissão de electrões por um material, geralmente metálico, quando exposto a uma radiação electromagnética (como a luz) de frequência suficientemente alta, que depende do material. Ele pode ser observado quando a luz incide numa placa de metal, literalmente arrancando da placa electrões.
Os Electrões que giram à volta do núcleo são aí mantidos por forças de atracão. Se a estes for fornecida energia suficiente, eles abandonarão as suas órbitas. O efeito fotoeléctrico implica que, normalmente sobre metais, se faça incidir um feixe de radiação com energia superior à energia de remoção dos electrões do metal, provocando a sua saída das órbitas: sem energia cinética (se a energia da radiação for igual à energia de remoção) ou com energia cinética, se a energia da radiação exceder a energia de remoção do electrões.

Tabela periódica

Tabela periódica dos elementos químicos é a disposição sistemática dos elementos, na forma de uma tabela, em função de suas propriedades. É muito útil para se preverem as características e tendências dos átomos. Permite, por exemplo, prever o comportamento de átomos e das moléculas deles formadas, ou entender porque certos átomos são extremamente reativos enquanto outros são praticamente inertes etc. Permite prever propriedades como eletronegatividaderaio iônicoenergia de ionização etc.. Dá, enfim, fazer inferências químicas plausíveis.

Ligações químicas

As ligações químicas são uniões estabelecidas entre átomos para formarem as moléculas, que constituem a estrutura básica de uma substância ou composto. Na Natureza existem aproximadamente uma centena de elementos químicos. Os átomos destes elementos químicos ao se unirem formam a grande diversidade de substâncias químicas.
As ligações químicas podem ocorrer através da doação e recepção de electrões entre os átomos (ligação iónica). Como exemplo NaCl (cloreto de sódio). Compostos iónicos conduzem electricidade no estado líquido ou dissolvido. Eles normalmente têm um alto ponto de fusão e alto ponto de ebulição.
Outro tipo de ligações químicas ocorre através da partilha de electrões: a ligação covalente. Como exemplo H2O (água).
ligação metálica - onde os electrões das últimas camadas dos átomos do metal saltam e passam a se movimentar livremente entre os átomos criando uma força de atracão entre os átomos do metal, neste caso, não há perda de electrões.
Ligações iónicas - Ligações Iónicas são um tipo de ligação química baseada na atracão electrostática entre dois iões carregados com cargas opostas.
Na formação da ligação iónica, um metal tem uma grande tendência a perder electrão(s), formando um ião positivo ou catião. Isso ocorre devido à baixa energia de ionização de um metal, isto é, é necessária pouca energia para remover um electrão de um metal.

Teoria do Octeto

Um grande número de elementos adquire estabilidade electrónica quando seus átomos apresentam oito electrões na sua camada mais externa. Existem excepções para essa teoria como o Hidrogénio (H) e o Hélio (He), onde ambos se estabilizam com dois electrões na última camada, ainda temos o caso do átomo de carbono que é tetravalente (pode realizar quatro ligações), além dele todos os átomos que pertencem a família de número 14 da tabela periódica (antes conhecida como família IVA) são tetravalentes e sendo assim encontram-se no eixo central dessa regra (Octeto), nesses casos os átomos optam (por assim dizer) por fazer 4 ligações sigmas (ligações simples) entre diferentes átomos.

Geometria molecular

Geometria molecular é o estudo de como os átomos estão distribuídos espacialmente em uma molécula. Esta pode assumir várias formas geométricas, dependendo dos átomos que a compõem.

Tipos de geometria molecular

Linear: Acontece em toda molécula biatómica (que possui dois átomos) ou em toda molécula em que o átomo central possui no máximo duas nuvens electrónicas em sua camada de valência. Exemplo: Ácido clorídrico (HCl) e gás carbónico (CO2).
Trigonal plana ou triangular: Acontece somente quando o átomo central tem três nuvens electrónicas em sua camada de valência. Estas devem fazer ligações químicas, formando um ângulo de 120 graus entre os átomos ligados ao átomo central. Obs: caso 2 das nuvens electrónicas for de ligações químicas e uma de electrões não ligantes a geometria é angular, como descrita a cima. O ângulo é de 120º .
Angular: Acontece quando o átomo central tem três ou quatro nuvens electrónicas em sua camada de valência. No caso de três, duas devem estar fazendo ligações químicas e uma não, formando um ângulo de 120 graus entre os átomos ligantes. Quando há quatro nuvens, duas devem fazer ligações químicas e duas não, formando um ângulo de 105 graus entre os átomos.
Tetraédrica: Acontece quando há quatro nuvens electrónicas na camada de valência do átomo central e todas fazem ligações químicas. O átomo central assume o centro de um tetraedro regular. Ângulo de 109º 28'
Piramidal: Acontece quando há quatro nuvens electrónicas na camada de valência do átomo central, sendo que três fazem ligações químicas e uma não. Os três átomos ligados ao átomo central não ficam no mesmo plano. O ângulo é de 107°. O exemplo mais citado é o amoníaco, NH3
Bipiramidal: Acontece quando há cinco nuvens electrónicas na camada de valência do átomo central, todas fazendo ligação química. O átomo central assume o centro de uma bipiramide trigonal, sólido formado pela união de dois tetraedros por uma face comum. Como exemplo cita-se a molécula PCl5. Os ângulos entre as ligações são 120 graus e 90 graus.
Octaédrica: Acontece quando há seis nuvens electrónicas na camada de valência do átomo central e todas fazem ligações químicas formando ângulos de 90 graus e 180 graus.

Atmosfera

A atmosfera terrestre é uma fina camada de gases sem cheiro, sem cor e sem gosto, presa à Terra pela força da gravidade. Visto do espaço, o planeta Terra aparece como uma esfera de coloração azul brilhante. Esse efeito cromático é produzido pela dispersão da luz solar sobre a atmosfera, que também existe em outros planetas do sistema solar que também possuem atmosfera. Consiste, da superfície até o espaço, da troposfera, da estratosferamesosferaionosfera e exosfera. Cada uma destas camadas apresentam gradiente adiabático saturado, definido as mudanças de temperatura conforme a altura.
Composição : composição da atmosfera e sua estrutura vertical possibilitaram o desenvolvimento da vida no planeta. Esta é sua composição, quando seca e abaixo de 25 km é: Nitrogénio(BR) ou Azoto(PT) (N2) 78,08 %, actua como suporte dos demais componentes, de vital importância para os seres vivos, fixado no solo pela acção de bactérias e outros microrganismos, é absorvido pelas plantas, na forma de proteínas vegetais; Oxigénio(BR) ou Oxigénio(PT) (O2) 20,94 % do volume da atmosfera, sua estrutura molecular varia conforme a altitude em relação ao solo, é responsável pelos processos respiratórios dos seres vivos; Árgon 0,93 %; (CO2) (variável) 0,035 %; (He) 0,0018 %; (O3) 0,00006 %; (H2) 0,00005 %; (Kr) indícios; Metano (CH4) indícios; (Xe) Indícios; (Rn) indícios.

Camadas e áreas de descontinuidade

As camadas atmosféricas são distintas e separadas entre si por áreas fronteiriças de descontinuidade.

Troposfera (0 - 7/17 km)
Troposfera é a camada atmosférica que se estende da superfície da Terra até a base da estratosfera(0 - 7/17 km). Esta camada responde por oitenta por cento do peso atmosférico e é a única camada em que os seres vivos podem respirar normalmente. A sua espessura média é de aproximadamente 12km, atingindo até 17km nos trópicos e reduzindo-se para em torno de sete quilómetros nos pólos. Todos os fenómenos meteorológicos estão confinados a esta camada.
Na base da troposfera encontra-se a Camada Limite Planetária (CLP) (também chamada Camada Limite Atmosférica, CLA) de altura típica 1 km, na qual os efeitos da superfície são importantes, como o ciclo diurno de aquecimento e resfriamento. Na CLP também ocorre a turbulência atmosférica e seu efeito de mistura resultando na chamada Camada de Mistura (CM). Acima da CLP, o escoamento é laminar (não turbulento), e o ar desliza em camadas, à excepção do movimento turbulento que é encontrado dentro das nuvens convectivas do tipo cúmulos de grande desenvolvimento vertical e cúmulos nimbus. Em geral, a base das nuvens e a uma inversão térmica de altitude pode ser encontrada junto ao topo da CLP, limitando-a. Os poluentes atmosféricos são difundidos pela turbulência dentro da CLP e transportados à longas distâncias, até encontrar uma região de ocorrência de nuvens de grande desenvolvimento vertical que possam lhes transportar até a troposfera superior. Uma camada de transição existe entre a CLP e a atmosfera livre, na qual ocorre entranhamento de ar frio e seco da atmosfera livre dentro da CLP. O ar da CLP sobre os continentes nas latitudes tropicais em geral é quente e húmido. Os fluxos de calor, momento, humidade, poluentes ocorrem na base da CLP a partir da superfície e, por isso, o fluxo turbulento de calor diminui com a vertical dentro da CLP. Em geral, durante o dia, a CLP é uma camada convectiva, durante a noite, é estável junto à superfície que se resfria por perda radioactiva do calor acumulado durante o dia.
tropopausa é o nome dado à camada intermediária entre a troposfera e a estratosfera, situada a uma altura média em torno de 17km no equador. A distância da Tropopausa em relação ao solo varia conforme as condições climáticas da troposfera, da temperatura do ar, a latitude entre outros factores. Se existe na troposfera uma agitação climática com muitas correntes de convecção, a tropopausa tende a subir. Isto se deve por causa do aumento do volume do ar na troposfera, este aumentando, aquela aumentará, por consequência, empurrará a tropopausa para cima. Ao subir a tropopausa esfria, pois o ar acima dela está mais frio.

Estratosfera (15-50 km)
Na estratosfera a temperatura aumenta com a altitude e se caracteriza pelos movimentos de ar em sentido horizontal, fica situada entre 7 e 17 até 50 km de altitude aproximadamente, sendo a segunda camada da atmosfera, compreendida entre a troposfera e a mesosfera, a temperatura aumenta à medida que aumenta a altura. Apresenta pequena concentração de vapor de água e temperatura constante até a região limítrofe, denominada estratopausa. Muitos aviões a jacto circulam na estratosfera porque ela é muito estável. É nesta camada que existe a camada de ozono e onde começa a difusão da luz solar (que origina o azul do céu).
É próximo à estratopausa que a maior parte do ozono da atmosfera situa-se. Isto é em torno de 22 quilómetros acima da superfície, na parte superior da estratosfera.

Mesosfera (50 - 80/85 km)
Na mesosfera a temperatura diminui com a altitude, esta é a camada atmosférica onde há uma substancial queda de temperatura chegando até a -90°C em seu topo, está situada entre a estratopausa em sua parte inferior e mesopausa em sua parte superior, entre 50 a 85 km de altitude. É na mesosfera que ocorre o fenómeno da aeroluminescência das emissões da hidroxila e é nela que se dá a combustão dos meteoróides.
mesopausa é a região da atmosfera que determina o limite entre uma atmosfera com massa molecular constante de outra onde predomina a difusão molecular.

Termosfera (80/85 - 640+ km)
Na termosfera a temperatura aumenta com a altitude e está localizada acima da mesopausa, sua temperatura aumenta com a altitude rápida e monotonicamente até onde a densidade das moléculas é tão pequena e se movem em trajectórias aleatórias tal, que raramente se chocam. É a camada onde ocorrem as auroras e onde orbita Vaivém Espacial.

Ozono

A camada de ozono localiza-se na estratosfera, cerca de 90% de ozono atmosférico está nesta camada, entre 16 a 30 quilómetros de altitude, cerca de 20 km de espessura. Os gases na camada do ozono são tão rarefeitos que, se os comprimíssemos à pressão atmosférica ao nível do mar, sua espessura não seria maior que alguns milímetros. Este gás é produzido nas baixas latitudes, migrando directamente para as altas latitudes.
As radiações electromagnéticas emitidas pelo Sol trazem energia para a Terra, entre as quais a radiação infravermelha, a luz visível e um misto de radiações e partículas, muitas destas nocivas.
Grande parte da energia solar é absorvida e reemitida pela atmosfera. Se chegasse em sua totalidade à superfície do planeta, esta energia o esterilizaria.
A camada do ozono é uma das principais barreiras que nos protegem dos raios ultravioleta. O ozonio deixa passar apenas uma pequena parte dos raios U.V., esta benéfica. Quando o oxigénio molecular da alta-atmosfera sofre interacções devido à energia ultravioleta provinda do Sol, acaba dividindo-se em oxigénio atómico; o átomo de oxigénio e a molécula do mesmo elemento se unem devido à reionização, e acabam formando a molécula de ozónio cuja composição é (O3)
A região, quando saturada de ozono funciona como um filtro onde as moléculas absorvem a radiação ultravioleta do Sol e, devido a reacções fotoquímicas, é atenuado o seu efeito. É nesta região que estão as nuvens-de-madrepérola, que são formadas pela capa de ozonio.
O ozono (O3) é um composto químico com efeitos prejudiciais para os seres vivos quando se encontra junto à superfície terrestre: provoca irritações nos olhos e tracto respiratório, é o componente principal do nevoeiro fotoquímico e actua como gás com efeito de estufa.

Degradação
Os clorofluorcarbonetos (CFC´s), para além de outros produtos químicos produzidos pelo Homem que são bastante estáveis e contêm elementos de cloro ou bromo, como o brometo de metilo, são os grandes responsáveis pela destruição da camada de ozonio. Os CFC tem inúmeras utilizações pois são relativamente pouco tóxicos, não inflamáveis e não se decompõem (facilmente). Sendo tão estáveis, duram cerca de cento e cinquenta anos. Estes compostos, resultantes da poluição provocada pelo Homem, sobem para a estratosfera completamente inalterados devido à sua estabilidade e na faixa dos 10 a 50 km de altitude, onde os raios solares ultravioletas os atingem, decompõem-se, libertando seu radical, no caso dos CFCs o elemento químico cloro. Uma vez liberto, um único átomo de cloro destrói cerca de 100 000 moléculas de ozono antes de regressar à superfície terrestre, muitos anos depois.
Três por cento (3%), talvez mesmo cinco por cento (5%), do total da camada de ozono já foram destruídos pelos clorofluorcarbonetos. Outros gases, como o óxido de azoto (NO) libertado pelos aviões na estratosfera, também contribuem para a destruição da camada do ozono.

Buraco do ozono
O buraco na camada de ozono é um fenómeno que ocorre somente durante uma determinada época do ano, entre Agosto e início de Novembro (primavera no hemisfério sul).
Quando a temperatura se eleva na Antárctica, em meados de Novembro, a região ainda apresenta um nível abaixo do que seria considerado normal de ozonio.
No decorrer do mês, em função do gradual aumento de temperatura, o ar circundante à região onde se encontra o buraco inicia um movimento em direcção ao centro da região de baixo nível do gás.
Desta forma, o deslocamento da massa de ar rica em ozonio (externa ao buraco) propicia o retorno aos níveis normais de ozonio a alta atmosfera fechando assim o buraco.

Efeito de estufa.

O efeito estufa (ou efeito de estufa, como se diz em Portugal) é um processo que ocorre quando uma parte da radiação solar reflectida pela superfície terrestre é absorvida por determinados gases presentes na atmosfera. Como consequência disso, o calor fica retido, não sendo liberado ao espaço. O efeito estufa dentro de uma determinada faixa é de vital importância pois, sem ele, a vida como a conhecemos não poderia existir.
O que se pode tornar catastrófico é a ocorrência de um agravamento do efeito estufa que desestabilize o equilíbrio energético no planeta e origine um fenómeno conhecido como aquecimento global, que deve-se muito provavelmente a um aumento dos gases do efeito estufa.
Os gases de estufa (dióxido de carbono (CO2), metano (CH4), Óxido nitroso (N2O), CFC´s (CFxClx)) absorvem alguma da radiação infravermelha emitida pela superfície da Terra e radiam por sua vez alguma da energia absorvida de volta para a superfície. Como resultado, a superfície recebe quase o dobro de energia da atmosfera do que a que recebe do Sol e a superfície fica cerca de 30ºC mais quente do que estaria sem a presença dos gases «de estufa».




QUIMICA 11



Síntese do amoníaco

O processo de Haber (também conhecido como Processo Haber-Bosch) é uma reacção entre nitrogénio e hidrogénio para produzir amoníaco.
Esta reacção é catalisada com o ferro, sob as condições de 250 atmosferas de pressão e uma temperatura de 450ºC.:
N2(g) + 3H2(g) <--> 2NH3(g) + energia
A reacção entre azoto e hidrogénio é reversível, portanto, o rendimento na produção do amoníaco depende de algumas condições:
Temperatura: A formação do amoníaco é um processo exotérmico, ou seja, ocorre com libertação de calor. Sendo assim, baixas temperaturas favorecem a produção do NH3 e o incremento da temperatura tende a deslocar o equilíbrio da reacção no sentido inverso. Por outro lado, a redução da temperatura diminui a velocidade da reacção, portanto, uma temperatura intermédia é a ideal para favorecer o processo. Experiências demonstraram que a temperatura ideal é de 450ºC.
Pressão: A elevação da pressão favorece a formação do amoníaco pois no processo ocorre uma diminuição de volume ( devido a diminuição do número de moléculas ). Logo, o incremento da pressão aumenta o rendimento de formação do produto, mas por outro lado este incremento deve ser economicamente viável, ou seja, não deve tornar os custos de produção demasiado elevados. A pressão considerada tecnicamente e economicamente viável é de 200 atmosferas.
Catalisador: O catalisador não afecta o equilíbrio porém, acelera a velocidade da reação para atingir o equilíbrio. A adição de um catalisador permite que o processo se desenvolva favoravelmente em temperaturas mais baixas.

Principio de Le Châtelier


Se a um sistema de equilibriu se induz uma perturbação, o sistema vai reagir no sentido de contrariar essa perturpação.

Purificação da água

A purificação da água ou potabilização é um processo que consiste no tratamento da água, a fim de remover os contaminantes que eventualmente contenha, tornando-a potável, isto é, própria para o consumo humano.

Métodos de tratamento da água
Água mineral

Separação/Filtração - embora não sejam suficientes para purificar completamente a água, são uma etapa preliminar necessária.

Filtros de areia rápidos - o uso de filtros de areia de acção rápida, são o tipo mais comum de tratamento físico da água, para os casos de água de elevada turvação. Em casos em que o gosto e o odor possam vir a constituir um problema, o filtro de areia pode incluir uma camada adicional de carvão activado. Recorde-se que os filtros de areia ficam obstruídos após um período de uso e devem ser lavados.

Desinfecção - A maior parte da desinfecção de águas no mundo é feita com gás cloro. Porém, outros processos tais como hipoclorito de sódio, dióxido de cloro, ozonio ou luz ultravioleta, também são utilizados em menor escala, dada a complexidade, alto custo e eficácia aquém das necessidades sanitárias do mundo actual. Antes de ser bombeada para os tanques de armazenamento e para o sistema de distribuição aos consumidores, equipamentos de cloração garantem a manutenção de uma quantidade de cloro residual, que continua exercendo a sua função de desinfectante até o destino final. A cloração de águas para consumo humano é considerada um dos maiores avanços da ciência nos últimos dois séculos, podendo ser comparada com a descoberta da penicilina ou mesmo a invenção do avião.
Outros métodos para purificar a água, especialmente para fontes locais são a destilação e a osmose, embora envolvam custos elevados e manutenção complexa.
Para o uso doméstico, utilizam-se desde a Antiguidade:

Fervura - A água é aquecida até ao ponto de ferver, mantendo-se a fervura por, pelo menos, um minuto, tempo suficiente para inactivar ou matar a maior parte dos microrganismos que nela possam existir. Este tipo de tratamento não elimina o vírus da hepatite A que só é destruído a mais de 120 graus Celsius.

Filtração por carbono - Utilizando-se carvão de lenha, um tipo de carbono com uma extensa área, que absorve diversos compostos, inclusive alguns tóxicos. Filtros domésticos podem ainda conter sais de prata.

Destilação - O processo de destilação envolve ferver a água transformando-a em vapor. O vapor de água é conduzido a uma superfície de refrigeração onde retorna ao estado líquido em outro recipiente. Uma vez que as impurezas (solutos) não são vaporizadas, permanecem no primeiro recipiente. Observe-se que mesmo a destilação não purifica completamente a água, embora a torne 99,9% pura.

Chuva ácida

A denominação chuva ácida é concedida a toda chuva que possui um valor de pH abaixo de 4,5 unidades. Esta acidez da chuva é causada pela solubilização de alguns gases presentes na atmosfera terrestre cuja hidrólise seja ácida. Entre estes destacam-se os gases contendo enxofre, proveniente das impurezas da queima dos combustíveis fósseis.
As chuvas normais têm um pH de, aproximadamente, 5,6 unidades, que é levemente ácido. Essa acidez natural é causada pela dissociação do dióxido de carbono em água, formando um ácido fraco, conhecido como ácido carbónico, segue a reacção:

Formação: Os dois principais compostos que geram esse problema ambiental seguem processos diferentes. O enxofre é uma impureza frequente nos combustíveis fósseis, principalmente o carvão mineral e o petróleo, que ao serem queimados também promovem a combustão desse composto. O enxofre e os óxidos de enxofre podem ser lançados na atmosfera pelos vulcões. Os óxidos ácidos formados reagem com a água para formar ácido sulfúrico (H2SO4) e ácido sulfuroso (H2SO3).
O gás nitrogénio (N2), abundante na composição da atmosfera, é muito pouco reactivo. Para reagir com o oxigénio gasoso precisa de grande quantidade de energia, como ocorre em uma descarga eléctrica ou no funcionamento de um motor a explosão. Estes motores são os maiores responsáveis pela reacção de oxidação do nitrogénio na actualidade. Os óxidos, ao reagir com água, formam ácido nitroso (HNO2) e ácido nítrico (HNO3).
As duas principais séries de reacções de formação da chuva ácida são as que se seguem, onde inicialmente temos a formação do ácidos provenientes do enxofre e depois, dos ácidos provenientes da oxidação no nitrogénio:
Pela queima dos combustíveis contendo enxofre em sua composição, temos:



Neste caso, o SO3 formado, na presença de chuva, produz:

Pela queima a presença de nitrogénio do ar, temos que na câmara de combustão dos motores, ocorre:

O NO formado, na presença do oxigénio do ar, produz:

O dióxido de nitrogénio formado, na presença de água(chuva), produz:


Corrosão/ferrugem

A corrosão metálica é a transformação de um material metálico ou liga metálica pela sua interacção química ou electroquímica num determinado meio de exposição, processo que resulta na formação de produtos de corrosão e na liberação de energia.
Quase sempre, a corrosão metálica (por mecanismo electroquímico), está associada à exposição do metal num meio no qual existe a presença de moléculas de água, juntamente com o gás oxigénio ou iões de hidrogénio, num meio condutor.

A ferrugem é o resultado da oxidação do ferro. Este metal em contacto com o oxigénio presente na água e no ar se oxida e desta reacção surge a ferrugem que deteriora pouco a pouco o material original. Para evitar que as máquinasferramentas e demais objectos feitos de ferro se decomponham por causa da oxidação é necessário evitar que o entrem em contacto com o oxigénio, o que pode ser obtido através da pintura, ou cobertura da superfície de ferro com óleo ou outras substâncias lubrificantes, ou ainda através da mistura com metais de sacrifício.

Oxidação e redução
Na formação da ferrugem, ocorre a oxidação do ferro e redução do oxigénio. A soma das duas equações leva à equação geral da formação da ferrugem:
Fe(s)  Fe2+ + 2e- (oxidação do ferro)
O2 + 2H2O + 4e-  4OH- (redução do oxigénio)
2Fe + O2 + 2H2 2Fe(OH)2 (equação geral da formação da ferrugem)
Geralmente o Fe(OH)2 (hidróxido de ferro II) é oxidado a Fe(OH)3 (hidróxido de ferro III), que é muitas vezes representado por Fe2O3 . 3H2O. A presença de iões em contacto com o ferro facilita sua oxidação, por isso em regiões litorais (contêm maior concentração de sais) a ferrugem aparece com maior frequência.

Dureza da água

Dureza da água é a propriedade relacionada com a concentração de iões de determinados minerais dissolvidos nesta substância. A dureza da água é predominantemente causada pela presença de sais de Cálcio e Magnésio, de modo que os principais iões levados em consideração na medição são os de Cálcio (Ca+) e (Mg+)[1]. Eventualmente também o ZincoEstrôncioFerro ou Alumínio podem ser levados em conta na aferição da dureza.



FISICA 11



Situação energética mundial

O consumo de energia no mundo está resumido, em sua grande maioria, pelas fontes de energias tradicionais como petróleocarvão mineral e gás natural, essas fontes são poluentes e não-renováveis, o que no futuro, serão substituídas inevitavelmente. Há controvérsias sobre o tempo da duração dos combustíveis fósseis mas devido a energias limpas e renováveis como biomassaenergia eólica e energia maremotriz e sanções como o Protocolo de Quioto que cobra de países industriais um nível menor de poluentes (CO2) expelidos para a atmosfera, as energias alternativas são um novo modelo de produção de energias económicas e saudáveis para o meio ambiente.

Leis da termodinâmica

A termodinâmica é baseada em leis estabelecidas experimentalmente:
Lei Zero da Termodinâmica determina que, quando dois corpos têm igualdade de temperatura com um terceiro corpo, eles têm igualdade de temperatura entre si. Esta lei é a base para a medição de temperatura.
Primeira Lei da Termodinâmica fornece o aspecto quantitativo de processos de conversão de energia. É o princípio da conservação da energia e da conservação da massa, agora familiar, : "A energia do Universo é constante".
Segunda Lei da Termodinâmica determina o aspecto qualitativo de processos em sistemas físicos, isto é, os processos ocorrem numa certa direcção mas não podem ocorrer na direcção oposta. Enunciada por Clausius da seguinte maneira: "A entropia do Universo tende a um máximo".
Terceira Lei da Termodinâmica estabelece um ponto de referência absoluto para a determinação da entropia, representado pelo estado derradeiro de ordem molecular máxima e mínima energia. Enunciada como "A entropia de uma substância cristalina pura na temperatura zero absoluto é zero". É extremamente útil na análise termodinâmica das reações químicas, como a combustão, por exemplo.

Lei de Stefan-Boltzmann

Josef stefan descobriu experimentalmente que todos os corpos emitiam energia, com uma potência que podia ser determinada pela expressão  P=o * £ * AT4
Esta expressão foi demonstrada teoricamente por Ludwig Boltzmann.
Nesta expressão o= 5,67 * 10-8 é chamada constante de stefan-boltzmann e £ é a emissividade da superfície do objecto, que toma valores entre 0 e 1, dependendo da composição da superfície. Se um corpo tiver uma emissividade de 1, o que significa que tem o máximo de emissividade possível para um corpo à sua temperatura, diz-se que é um corpo negro.
Da lei de stefan-boltzmann são imediatas as proporcionalidades directas, para qualquer corpo, entre a potência irradiada e a área de irradiação e entre a potência irradiada e a quarta potencia da temperatura.



Deslocamento de wien

A lei de Wien (ou Lei do deslocamento de Wien) é a lei da física que afirma que existe uma relação inversa entre o comprimento de onda que produz um pico de emissão de um corpo negro e a sua temperatura.





Onde
é o comprimento de onda que gera o pico em metros,






 é a constante de proporcionalidade, chamada constante de dispersão de Wien, em kelvin-metros.



O valor dessa constante é

Cor das estrelas

Esta classificação estelar é a mais comum. As suas classes são listadas normalmente de mais quente a mais frio, e são:

Classe
Temperatura
Cor (luz visível)
Massa
Raio
Luminosidade
O
Azul
60
15
1,4 milhões
B
Azul-branco
18
7
20 mil
A
Branco
3,2
2,5
80
F
Branco-amarelo
1,7
1,3
6
G
Amarelo
1,1
1,1
1,2
K
Laranja
0,8
0,9
0,4
M
Vermelho
0,3
0,4
0,04







Temperatura média da terra

A terra tem uma temperatura média de cerca de 288K. A terra encontra-se numa situação de equilíbrio térmico com as tuas vizinhanças, isto é, que a energia que absorve é igual à que emite. Assim sendo, a energia absorvida pela terra terá de ser igual à energia emitida pela mesma.

Mecanismos de transferência de calor

Quando dois corpos a diferentes temperaturas são postos em contacto, chegarão em ultima analise a uma temperatura comum a ambos e que terá um valor entre os valores inicias de temperatura de cada um dos corpos. Dizemos então que ouve transferência de calor do corpo mais quente para o corpo mais frio.
Existem fundamentalmente duas formas de propagação de energia sob a forma de calor:

Condução: Condução térmica é um dos meios de transferência de calor que geralmente ocorre em materiais sólidos, e é a propagação do calor por meio do contacto de moléculas de duas ou mais substâncias com temperaturas diferentes (metaismadeirascerâmicas, etc...). Ocorre a propagação de calor sem transporte da substância formadora do sistema, ou seja, através de choques entre suas partículas integrantes ou intercâmbios energéticos dos átomosmoléculas, e electrões.

Convecção: Quando uma certa massa de um fluido é aquecida as suas moléculas passam a mover-se mais rapidamente, afastando-se, em média, uma das outras. Como o volume ocupado por essa massa fluida aumenta, ela torna-se menos densa. A tendência dessa massa menos densa no interior do fluido como um todo é sofrer um movimento de ascensão ocupando o lugar das massas do fluido que estão a uma temperatura inferior. A parte do fluido mais fria (mais densa) move-se para baixo tomando o lugar que antes era ocupado pela parte do fluido anteriormente aquecido. Esse processo se repete inúmeras vezes enquanto o aquecimento é mantido dando origem as chamadas correntes de convecção. São as correntes de convecção que mantêm o fluido em circulação.

Painéis foto voltaicos

Painéis solares são dispositivos utilizados para converter a energia da luz do Sol em energia eléctrica ou em energia térmica. Os painéis solares foto voltaicos são compostos por células solares, assim designadas já que captam, em geral, a luz do Sol. Estas células são, por vezes, e com maior propriedade, chamadas de células foto voltaicas, ou seja, criam uma diferença de potencial eléctrico por acção da luz (seja do Sol ou não). As células solares contam com o efeito foto voltaico para absorver a energia do sol e fazem a corrente eléctrica fluir entre duas camadas com cargas opostas.
Actualmente, os custos associados aos painéis solares tornam esta opção ainda pouco eficiente e rentável. Ainda que não se preveja, a curto prazo, um aumento no uso deste tipo de energia renovável, o aumento do custo dos combustíveis fósseis, e a experiência adquirida na produção de células solares, que tem vindo a reduzir o custo das mesmas, indica que este tipo de energia será tendencialmente mais utilizado.






FISICA 11

 Gps

O sistema GPS dispõe de 24 satélites distribuídos por 6 planos orbitais distintos e cada um com durabilidade de 12 horas.
A localização de um receptor GPS é determinada por três satélites que enviam para este, através de sinais electromagnéticos, um sinal codificado com a sua localização e o instante de emissão. Estes são registados no receptor GPS que calcula a distância a que se encontra o satélite. Com as três distâncias aos três satélites registadas sabe-se que o receptor GPS encontra-se na intercepção de três superfícies esféricas centradas em cada satélite e de raio igual a distancia destes ao receptor GPS.

Coordenadas geográficas

Existem pelo menos quatro modos de designar uma localização exacta para qualquer ponto no globo terrestre.
Nos três primeiros sistemas, o globo é dividido em latitudes, que vão de 0 a 90 graus (Norte ou Sul) e longitudes, que vão de 0 a 180 graus (Leste ou Oeste). Para efeitos práticos, usam-se as siglas internacionais para os pontos cardeais: N=Norte, S=Sul, E=Leste/Este, W=Oeste.
Para as latitudes, o valor de cada unidade é bem definido, pois o grande círculo tem 20.003,93km[1], dividindo este último por 180, conclui-se que um grau (°) equivale a 111,133km. Dividindo um grau por 60, toma-se que um minuto (') equivale a 1.852,22m. Dividindo um minuto por 60, tem-se que um segundo (") equivale a 30,87m,
Para as longitudes, há um valor específico para cada posição, que aumenta de 0 nos Pólos até a Linha do Equador, onde está o seu valor máximo.

Lei da gravitação universal

A Gravitação universal é a força de atracão que age entre todos os objectos por causa da sua massa, isto é, a quantidade de matéria de que são constituídos. A gravitação mantém o universo unido. Por exemplo, ela mantém juntos os gases quentes no sol e faz os planetas permanecerem em suas órbitas. A gravidade da Lua causa as marés oceânicas na terra. Por causa da gravitação, os objectos sobre a terra são atraídos em sua direcção. A atracão física que um planeta exerce sobre os objectos próximos é denominada força da gravidade. A lei da gravitação universal foi formulada pelo físico inglês Sir Isaac Newton
Formulação da Lei da Gravitação Universal
A lei da gravitação universal diz que dois objectos quaisquer se atraem gravitacionalmente por meio de uma força que depende das massas desses objectos e da distância que há entre eles.
Dados dois corpos de massa m e M, a uma distância d entre si, esses dois corpos se atraem mutuamente com uma força que é proporcional à massa de cada um deles e inversamente proporcional ao quadrado da distância que separa esses corpos. Matematicamente, essa lei pode ser escrita (em módulo) por:

Onde:
G é a constante universal da atracão gravitacional. (constante gravitacional). G = 6,67.10 − 11Nm2 / Kg2
M e m são as massas dos dois corpos;
d é a distância entre os centros dos dois corpos;
F é a intensidade da força gravitacional.
Tomando como exemplo a massa de protão e um electrão, a força da gravidade será de 3,6 × 10−8 N (Newtons) ou 36 nN.
O estabelecimento de uma lei de gravitação, que unifica todos os fenómenos terrestres e celestes de atracão entre os corpos, teve enorme importância para a evolução da ciência moderna.

Leis de Newton

As leis de Newton são as leis que descrevem o comportamento de corpos em movimento.
Primeira Lei de Newton ou Princípio da Inércia
A partir das ideias de inércia de Galileu GalileiIsaac Newton enunciou sua Primeira Lei com as palavras: "Todo corpo permanece em seu estado de remorso ou de movimento rectilíneo e uniforme, a menos que seja obrigado a mudar seu comportamento por forças ocultas."
A primeira lei de Newton pode parecer perda de tempo, uma vez que esse enunciado pode ser deduzido da Segunda Lei:
F=m.a
Se, F=0 existem duas opções: Ou a massa do corpo é zero ou sua aceleração. Obviamente como o corpo existe, ele tem massa, logo sua aceleração é que é zero, e consequentemente, sua velocidade é constante.
No entanto, o verdadeiro potencial da primeira lei aparece quando se envolve o problema dos referenciais. Foi dito "repouso ou movimento rectilíneo uniforme", mas em relação a quê? A resposta é: em relação a um referencial inercial. Numa reformulação mais precisa:
"Se um corpo está em equilíbrio, isto é, a resultante das forças que agem sobre ele é nula, é possível encontrar ao menos um referencial, denominado inercial, para o qual este corpo está em repouso ou em movimento rectilíneo uniforme."
Segunda Lei de Newton (Lei Fundamental da Mecânica/Dinâmica)
O segundo princípio consiste em que todo corpo em repouso precisa de uma força para se movimentar e todo corpo em movimento precisa de uma força para parar. O corpo adquire a velocidade e sentido de acordo com a força aplicada. Ou seja, quanto mais intensa for a força resultante, maior será a aceleração adquirida pelo corpo.
Quando uma força resultante actua sobre uma partícula, esta adquire uma aceleração na mesma direcção e sentido da força, segundo um referencial inercial. Neste caso a relação entre a causa (força resultante) e o efeito (aceleração) constitui o objectivo principal da Segunda Lei de Newton, cujo enunciado pode ser simplificado assim:
"A resultante das forças que agem num corpo é igual à taxa de variação do momento linear (quantidade de movimento) do mesmo em relação ao tempo."
Matematicamente, a definição de força é expressa por

Quando a massa do corpo é constante temos ,                              e por conseguinte

Isso significa que, sendo a massa do corpo constante, a força resultante e aceleração produzida possuem intensidades directamente proporcionais.
A força resultante aplicada a um corpo é directamente proporcional ao produto entre a sua massa inercial e a aceleração adquirida pelo mesmo 



Se a força resultante for nula,                                                    , o corpo estará em repouso (equilíbrio estático) ou em movimento rectilíneo uniforme (equilíbrio dinâmico). A força poderá ser medida em Newton se a massa for medida em kg e a aceleração em m/s² pelo Sistema Internacional de Unidades de medidas (S.I).
A Terceira Lei de Newton também é conhecida como Lei da Ação e Reação.
Se um corpo A aplicar uma força sobre um corpo B, receberá deste uma força de mesma intensidade, mesma direcção e sentido oposto à força que A aplicou em B. As forças de acção e reacção têm as seguintes características:
estão associadas a uma única interacção, ou seja, correspondem às forças trocadas entre apenas dois corpos;
têm sempre a mesma natureza (ambas de contacto ou ambas de campo), logo, possuem o mesmo nome ("de contacto" ou "de campo");
É indiferente atribuir a acção a cada uma das forças e a reacção à outra. Estas forças são caracterizadas por terem: Sentidos diferentes; Direcções iguais; Intensidade igual
aplicadas em corpos diferentes, logo não se anulam
"Para cada acção há sempre uma reacção oposta e de igual intensidade."

Queda livre

Em Física, queda livre é o movimento resultante unicamente da aceleração provocada pela gravidade. Um objecto em queda livre sofre somente uma força: o seu próprio peso.
Sem resistência do ar - ou queda livre





Onde
vy0 é a velocidade inicial
y0 é a altitude inicial
t é o tempo
g é a aceleração causada pela gravidade

Satélites geoestacionários

Os satélites geoestacionários são satélites que se encontram parados relativamente a um ponto fixo sobre a Terra, geralmente sobre a linha do equador. Como se encontram sempre sobre o mesmo ponto da Terra, os satélites geostacionários são utilizados como satélites de comunicações e de observação de regiões específicas da Terra. Note-se que um satélite que não é geoestacionário nunca está sobre a mesma zona da Terra e por isso não pode ser utilizado para observar em permanência a mesma região.
Um ponto qualquer sobre a superfície da Terra move-se continuamente em torno do eixo da Terra com uma frequência de uma volta por dia. Isto significa que um satélite geoestacionário tem que se mover com a mesma velocidade angular. Os satélites artificiais existentes descrevem as mais diversas órbitas. Grande parte dos satélites não são geoestacionários e descrevem várias órbitas por dia. Como é que é possível colocar satélites em órbita com velocidades orbitais distintas? A resposta está na altitude a que os satélites são colocados e na velocidade inicial que lhes é impressa. Quanto mais alta for a órbita de um satélite menor é a sua velocidade angular.
A altitude para se colocar o satélite é de 35.786 km, onde a força centrífuga e a força centrípeta do planeta se anulam.
Note-se que, se a Terra fosse perfeitamente esférica, a única posição geoestacionária seria sobre o equador. No caso real, a assimetria na distribuição das massas entre os hemisférios faz com que os satélites geoestacionários devam ser posicionados fora do equador
Além disso, a irregularidade do campo gravitacional terrestre, junto com perturbações orbitais (tanto gravitacionais, como as atracões da Lua e do Sol, quanto forças não-inerciais, como a pressão da radiação solar) obrigam que a posição seja periodicamente corrigida, através de manobras orbitais.

Sinal

Em geral, entende-se que um sinal é uma sequência de estados em um sistema de comunicação que codifica uma mensagem. A definição pode mudar de acordo com o contexto em que se está trabalhando.
Em um sistema de comunicação, o transmissor recebe uma mensagem, e a codifica em um sinal, que é transportado pelo sistema de comunicações até o receptor, que descodifica o sinal e solta uma mensagem. Por exemplo, o texto "batatinha quando nasce", ao ser transmitido via telégrafo, é convertido primeiro em traços, pontos e pausas, e o telegrafista acciona o dispositivo de telégrafo criando um sinal, que é a tensão eléctrica a ser transmitida por um par de fios. Do outro lado, o receptor recebe um sinal, também na forma de uma tensão eléctrica em um par de fios. Por fim, o sinal é descodificado, gerando uma mensagem que se espera ser igual ao texto original transmitido.

Sinal analógico
Sinal analógico é um tipo de sinal contínuo que varia em função do tempo. Um velocímetro analógico de ponteiros, um termómetro analógico de mercúrio, uma balança analógica de molas, são exemplos de sinais lidos de forma directa sem passar por qualquer descodificação complexa, pois as variáveis são observadas directamente. Para entender o termo analógico, é útil contrastá-lo com o termo digital.
Como exemplos de meios que registam sinais analógicos, temos:
Gravação de som; Sistemas mecânicos (Disco de vinil); Sistemas magnéticos (FitaCassete)
; Gravação de imagem (Fotografia em película)
instrumento analógico consiste num painel com uma escala e um ponteiro que desliza de forma a se verificar a posição deste sobre aquela. Num galvanómetro, por exemplo, a deflexão do ponteiro sobre uma escala fornece a leitura directa de grandezas físicas, como tensão eléctrica, ou força electromotriz, intensidade de corrente eléctricaresistência eléctrica, entre outras.

Sinal digital
Sinal Digital é um sinal com valores discretos (descontínuos) no tempo e amplitude. Isso significa que um sinal digital só é definido para determinados instantes de tempo, e o conjunto de valores que podem assumir é finito.

Ondas mecânicas e electromagnéticas

Uma onda em física é uma perturbação oscilante de alguma grandeza física no espaço e periódica no tempo. A oscilação espacial é caracterizada pelo comprimento de onda e a periodicidade no tempo é medida pela frequência da onda, que é o inverso do seu período. Estas duas grandezas estão relacionadas pela velocidade de propagação da onda.
Fisicamente uma onda é um pulso energético que se propaga através do espaço ou através de um meio (líquido, sólido ou gasoso). Segundo alguns estudiosos e até agora observado, nada impede que uma onda magnética se propague no vácuo ou através da matéria, como é o caso das ondas electromagnéticas no vácuo ou dos neutrinos através da matéria onde as partículas do meio oscilam à volta de um ponto médio, mas não se deslocam; excepto pela radiação electromagnética, e provavelmente as ondas gravitacionais, que podem se propagar através do vácuo, as ondas existem em um meio cuja deformação é capaz de produzir forças de restauração através das quais elas viajam e podem transferir energia de um lugar para outro sem que qualquer das partículas do meio seja deslocada permanentemente como acontece num imã; isto é, nenhuma massa transportada associada pode anular o efeito magnético. Em lugar disso, qualquer ponto particular oscila em volta de um ponto fixo.
Uma onda pode ser longitudinal quando a oscilação ocorre na direcção da propagação, ou transversal quando a oscilação ocorre na direcção perpendicular à direcção de propagação da onda.
Ondas podem ser descritas usando um número de variáveis, incluindo: frequênciacomprimento de ondaamplitude e período.
A amplitude de uma onda é a medida da magnitude de um distúrbio em um meio durante um ciclo de onda. Por exemplo, ondas em uma corda têm sua amplitude expressada como uma distância (metros), ondas de som como pressão (pascals) e ondas electromagnéticas como a amplitude de um campo eléctrico (volts por metro). A amplitude pode ser constante (neste caso a onda é uma onda contínua), ou pode variar com tempo e/ou posição. A forma desta variação é o envelope da onda.
O período é o tempo(T) de um ciclo completo de uma oscilação de uma onda. A frequência (F) é período dividido por uma unidade de tempo (exemplo: um segundo), e é expressa em hertz. Veja abaixo:

.


Quando ondas são expressas matematicamente, a frequência angular (ómega; radianos por segundo) é constantemente usada, relacionada com frequência f em:
.



Som

O som é a propagação de uma frente de compressão mecânica ou onda longitudinal; esta onda se propaga de forma circuncêntrica, apenas em meios materiais -- que têm massa e elasticidade, como os sólidoslíquidos ou gasosos, quer dizer, não se propaga no vácuo. Os sons naturais são, na sua maior parte combinações de sinais, mas um som puro monotónico, representado por uma senóide pura, possui uma velocidade de oscilação ou frequência que se mede em hertz (Hz) e uma amplitude ou energia que se mede em decibéis. Os sons audíveis pelo ouvido humano têm uma frequência entre 20 Hz e 20 kHz. Acima e abaixo desta faixa estão ultra-som e infra-som, respectivamente.

Microfone
Um microfone é um dispositivo que converte vibrações na gama audível (20Hz-20kHz), seja no ar, água ou num material sólido, numa forma de onda eléctrica. Na maioria dos microfones em uso as ondas sonoras são convertidas em vibrações mecânicas através de um diafragma fino e flexível e em seguida convertidas em sinal eléctrico através de bobina móvel ou por carga e descarga de um condensador. No caso de microfones de condensador estes necessitam de uma tensão de alimentação contínua, chamada de phantom power, que é de facto uma tensão de polarização.

Altifalantes
No alto-falante ocorre a transformação inversa aquela do microfone: a corrente eléctrico é transformada em vibrações mecânicas do ar, reconstituindo o som inicial. Para tanto, é necessário o uso de uma bobina, um diafragma (um cone circular ou elíptico, geralmente de papelão por ter peso menor ou polipropileno, um plástico), um imã permanente (ou um electroíman) e uma suspensão chamada "aranha". O diafragma fica preso na carcaça de metal por meio de um sistema de suspensão de borracha ou espuma localizado ao redor de sua borda externa (chamado de "surround" ou borda). Na parte central do cone, fica a bobina, posicionada entre os pólos de um imã permanente e em suspensão pela "aranha", um disco de tecido ondulado grosso coberto com resina que facilita a movimentação da mesma.
Liga-se o enrolamento da bobina aos fios de saída do amplificador. No momento em que surgir corrente eléctrica nestes fios, surgirá um campo magnético na bobina. Este irá interagir com o campo natural do imã permanente, criando uma reacção de atracão ou repulsão - consequentemente gerando o movimento do diafragma, que está livre para movimento, sendo sustentado pela "aranha". Esta movimentação diagramática criará uma turbulência ritmada no ar, consequentemente, ondas sonoras.
Resumindo: o som produzido por um alto-falante nada mais é do que uma turbulência ritmada no ar, causada pelo movimento do diafragma, resultado da interacção do campo magnético da bobina com o do imã permanente.

Campo electromagnético

Na física do electromagnetismo, um campo electromagnético é um campo composto de dois vectores campo: o campo eléctrico e o campo magnético.
Os vectores (E e B) que caracterizam esses dois campos que possuem um valor definido a cada ponto no espaço e tempo. Se apenas o campo eléctrico (E) não for nulo, e é constante no tempo, esse campo é denominado campo electrostático. E e B (o campo magnético) são unidos pelas Equações de Maxwell.
Campos electromagnéticos podem ser explicados com base quântica pela electrodinâmica quântica.
Importância:
O campo electromagnético é fundamental na protecção da vida, pois, sem ela ficaríamos expostos a radiações multagenicas. Esse é o principal motivo pelo qual o homem ainda não foi a Marte, apesar que muitos acham que é pela falta de tecnologia, o motivo real mesmo é pelo fato de que em Marte por ser um planeta totalmente sólido, não gira mais como a terra e não existe um campo electromagnético que nos protege.

A lei de Faraday-Neumann-Lenz, ou lei da indução electromagnética

A lei de Faraday-Neumann-Lenz, ou lei da indução electromagnética, é uma lei da física que quantifica a indução electromagnética, que é o efeito da produção de corrente eléctrica em um circuito colocado sob efeito de um campo magnético variável ou por um circuito em movimento em um campo magnético constante. É a base do funcionamento dos alternadoresdínamos e transformadores.
Tal lei é derivada da união de diversos princípios. A lei da indução de Faraday, elaborada por Michael Faraday a partir de 1831, afirma que a corrente eléctrica induzida em um circuito fechado por um campo magnético, é proporcional ao número de linhas do fluxo que atravessa a área envolvida do circuito, na unidade de tempo.




Sendo E o campo eléctrico induzido, ds é um elemento infinitesimal do circuito e dΦB/dt é a variação do fluxo magnético
e a lei, expressa matematicamente na forma elaborada por Franz Ernst Neumann em 1845 em termos da força electromotriz, é:





A lei de Faraday-Lenz enuncia que a força electromotriz induzida num circuito eléctrico é igual a variação do fluxo magnético conectado ao circuito. É importante notar que um campo magnético constante não dá origem ao fenómeno da indução. Por esta razão, não é possível colocar um magneto no interior de um solenoide e obter energia eléctrica. É necessário que o magneto ou o solenóide movam-se, consumindo energia mecânica. Por esse motivo que um transformador só funciona com corrente alternada. A lei é de natureza relativista, portanto o seu efeito é resultado do movimento do circuito em relação ao campo magnético.

Produção de energia eléctrica

As turbinas girando unidas aos geradores eléctricos produzem a electricidade. As turbinas podem ser movidas usando o vapor, a água, o vento ou outros líquidos como um portador de energia intermediário. As fontes de energia mais comuns são o vapor, combustíveis fosseis, reactores nucleares, e da energia potencial gravitacional das barragens das usinas hidroeléctricas. As pilhas produzem a electricidade pelas reacções de óxido-redução com uma variedade de produtos químicos.
O mundo confia principalmente no carvão e no gás natural para fornecer energia. As exigências elevadas do Energia nuclear e seus perigos impediram requisitar estruturas de poder nuclear para a América do Norte desde os 1970.
As turbinas de vapor podem produzir energia usando o vapor produzido das fontes geotérmicas, da energia solar, ou dos reactores nucleares , que usam a energia criada pela fusão do plutónio ou do urânio radioactivo para gerar o calor.
O poder hidroeléctrico usa a água que flui directamente através das turbinas para dar energia aos geradores. As turbinas do vento usam o vento as girar as turbinas que são enganchadas até um gerador.

Modulação

Modulação é o processo de variação de altura (amplitude), de intensidade, frequência, do comprimento e/ou da fase de onda numa onda de transporte, que deforma uma das características de um sinal portador (amplitude, fase ou frequência) que varia proporcionalmente ao sinal modulador

Reflexão

Em física o fenómeno da reflexão consiste na mudança da direcção de propagação da energia (desde que o ângulo de incidência não seja 0º). Consiste no retorno da energia incidente em direcção à região de onde ela é oriunda, após entrar em contacto com uma superfície reflectora.
A energia pode tanto estar manifestada na forma de ondas como transmitida através de partículas. Por isso, a reflexão é um fenómeno que pode se dar por um carácter electromagnéticoóptico ou sonoro.
A reflexão difere da refracção porque nesta segunda, há desvio da energia para meio diverso do meio de onde se originou.
A reflexão pode ser explicada totalmente com base em apenas duas leis, de cunho geral.
Para enunciá-las, é preciso antes definir alguns conceitos.
-A normal é a semi-recta que se origina a partir da superfície reflectora, situando-se perpendicularmente a esta
-Ângulo de incidência é o ângulo que a direcção de deslocamento da energia faz com a normal
-Ângulo de reflexão é o ângulo que a direcção que a energia que é reflectida faz com a normal
Assim, as duas leis da reflexão podem ser expressas da seguinte maneira:
-O raio incidente, a recta normal e o raio reflectido são complanares, ou seja estão no mesmo plano.
-O ângulo de incidência com a recta normal é igual ao ângulo de reflexão com a recta normal.

Refracção

Refracçãode um modo simplificado, é a passagem da luz por meios com diferentes índices de refracção. A refracção modifica a velocidade da luz, mesmo que a direcção permaneça a mesma (caso a luz incida perpendicularmente à superfície). Índice de refracção é uma relação entre a velocidade da luz em um determinado meio e a velocidade da luz no vácuo (c). Em meios com índices de refracção mais baixos (próximos a 1) a luz tem velocidade maior (ou seja, próximo a velocidade da luz no vácuo). A relação pode ser descrita pela fórmula:

Onde: c é a velocidade da luz no vácuo (c = 3 x 108 m/s); v é a velocidade da luz no meio;
De modo geral, a velocidade da luz nos meios materiais é menor que c; e assim, em geral, teremos n > 1. Por extensão, definimos o índice de refracção do vácuo, que obviamente é igual a 1. Portanto, sendo n o índice de refracção de um meio qualquer, temos n > 1.
A velocidade de propagação da luz no ar depende da frequência da luz, já que o ar é um meio material. Porém essa velocidade é quase igual a 1 para todas as cores. Ex.: índice de refracção da luz violeta no ar = 1,0002957 e índice de refracção da luz vermelha no ar = 1,0002914. Portanto, nas aplicações, desde que não queiramos uma precisão muito grande, adoptaremos o índice de refracção do ar como aproximadamente igual a 1.

Reflexão total

Uma situação em que o feixe de luz refractado será quase paralelo à superfície. Aumentando um pouco mais o ângulo de incidência (i), o feixe refractado desaparece e toda a luz passa a ser reflectida. Esse fenómeno chama-se reflexão total. Para que isso aconteça, é preciso que a luz seja proveniente de um meio mais refringente em relação ao outro (N1 < N2).
O fenómeno da reflexão total é aplicado, por exemplo, na comunicação, através da 
fibra óptica que transmite informação a partir de ondas electromagnéticas. A luz atravessa o fio sem que haja perda considerável de energia ou interferência, ocorrendo sucessivas reflexões totais nas paredes da fibra.

Fibra óptica

Fibra óptica é um filamento de vidro ou de materiais poliméricos com capacidade de transmitir luz. Tal filamento pode apresentar diâmetros variáveis, dependendo da aplicação, indo desde diâmetros ínfimos, da ordem de micrómetros (mais finos que um fio de cabelo) até vários milímetros.
A transmissão da luz pela fibra segue um princípio único, independentemente do material usado ou da aplicação: é lançado um feixe de luz numa extremidade da fibra e, pelas características ópticas do meio (fibra), esse feixe percorre a fibra por meio de reflexões sucessivas.
A fibra possui no mínimo duas camadas: o núcleo e o revestimento. No núcleo, ocorre a transmissão da luz propriamente dita. A transmissão da luz dentro da fibra é possível graças a uma diferença de índice de refracção entre o revestimento e o núcleo, sendo que o núcleo possui sempre um índice de refracção mais elevado, característica que aliada ao ângulo de incidência do feixe de luz, possibilita o fenómeno da reflexão total.
As fibras ópticas são utilizadas como meio de transmissão de ondas electromagnéticas (como a luz) uma vez que são transparentes e podem ser agrupadas em cabos. Estas fibras são feitas de plástico ou de vidro. O vidro é mais utilizado porque absorve menos as ondas electromagnéticas. As ondas electromagnéticas mais utilizadas são as correspondentes à gama da luz infravermelha.
O meio de transmissão por fibra óptica é chamado de "guiado", porque as ondas electromagnéticas são "guiadas" na fibra, embora o meio transmita ondas omnidireccionais, contrariamente à transmissão "sem-fio", cujo meio é chamado de "não-guiado". Mesmo confinada a um meio físico, a luz transmitida pela fibra óptica proporciona o alcance de taxas de transmissão (velocidades) elevadíssimas, da ordem de dez elevado à nona potência a dez elevado à décima potência, de bits por segundo, com baixa taxa de atenuação por quilómetro. Mas a velocidade de transmissão total possível ainda não foi alcançada pelas tecnologias existentes. Como a luz se propaga no interior de um meio físico, sofrendo ainda o fenómeno de reflexão, ela não consegue alcançar a velocidade de propagação no vácuo, que é de 300.000 km/segundo, sendo esta velocidade diminuída consideravelmente

Difracção

O fenómeno da difracção está relacionado com as propriedades de ondas ao transportarem energia de um ponto ao outro do espaço. E é intimamente relacionado ao fenómeno da interferência.
Como as ondas são caracterizadas por uma variação periódica de uma qualquer propriedade, podem interagir entre si quando duas ou mais ondas atravessam a mesma região do espaço. Pode acontecer também que uma onda tenha a sua velocidade e/ou direcção mudadas, ao interagir com um objecto ou meio material interposto em seu caminho.
A difracção, como dito acima, está relacionada com a interacção de uma onda com um obstáculo, ou então quando encontra um orifício através do qual possa atravessar um obstáculo.
A onda então, ao contornar ou atravessar um obstáculo, toma diferentes caminhos (diferentes trajectórias), cujos comprimentos totais podem variar. Da variação dos comprimentos totais atravessados, diversas ondas oriundas da original (segundo o princípio de Huygens) acabam por se recombinar ao passar por um dado ponto do espaço.
Ao passarem por esse ponto do espaço, ondas difractadas de uma mesma origem tem a mesma fase e por isso podem interagir uma com a outra naquele ponto. A recombinação se processa porque as ondas, exibindo propriedades periódicas ao longo do espaço e ao longo do tempo combinam seus máximos e mínimos de amplitude de uma maneira que depende do total de ondas interagentes e das distâncias totais percorridas. O resultado disso varia entre dois extremos: num caso, num dado ponto, um máximo de amplitude se combina com um mínimo, produzindo uma anulação parcial ou total da energia da onda. Por outro lado, quando dois ou mais máximos ou mínimos se encontram, a energia observada é maior.

Banda Radiofrequência

Banda Radiofrequência é um termo técnico relacionado a Central de Atendimento Telefónico.
Faixa de rádio frequência destinada a determinado tipo de comunicação (no Brasil, a telefonia celular, por exemplo, divide-se por enquanto entre Banda A e a Banda B). Existem bandas para o governo, bandas para operadoras de telefonia de longa distancia e bandas para uso comercial - links de microondas privativos e corportativos. O termo também define a amplitude dos canais de comunicação nas redes.