FAQ - Perguntas comuns sobre conceitos técnicos mal compreendidos

082. Na natureza todos os sons são mono?

Errado - o termo 'estéreo' refere-se à forma de captura e reprodução de determinado som; como temos 2 ouvidos diametralmente opostos (180 graus), ouvimos os sons da natureza que nos chegam dos dois lados do corpo. De forma simplificada, no processo 'mono', o áudio é captado em um único ponto e levado de forma idêntica a nossos dois ouvidos; no processo 'estéreo' o áudio é captado em 2 pontos, que deveriam estar localizados à esquerda e à direita do nosso corpo e levado de forma independente a cada um dos nossos ouvidos, tentando assim reproduzir o espaço acústico em 3D. Na natureza as fontes sonoras podem ser pontuais, como o canto de um pássaro ou extensas, como o som de uma grande cascata. Se nos colocássemos no meio dessa cascata, como em algumas onde é possível através de passarelas colocar-se quase 'dentro' delas, ouviremos um mesmo som da natureza, de forma estéreo. Ou se colocarmos a cabeça dentro de um grande sino e batermos com as mãos em uma de suas laterais, também teremos uma fonte extensa, mas uma única fonte, produzindo um efeito estéreo para nossos ouvidos. Ao sair do sino e colocar-se ao lado dele, o mesmo som deixa de ser estéreo e passa a ser mono, de forma principal, ou ainda estéreo, de forma secundária, se considerarmos o som refletido do sino, por uma parede do lado oposto ou, ainda, o som que nos chega ao ouvido oposto, mesmo que em menor intensidade, diretamente - sem reflexão - trazido pelo ar. É por isso que pessoas que não conseguem ouvir com um dos lados do corpo, conseguem, mesmo em tom mais baixo, ouvir com o ouvido oposto o som que é produzido do outro lado. Ou seja, o conceito artificial é o mono, não o estéreo, porque o mono faz uma reprodução irreal da natureza. Assim, é incorreto dizer que na natureza os sons são mono e também que são estéreo: esses conceitos não se aplicam na produção dos sons e sim na recepção dos mesmos, quando feita através de processos eletrônicos.

081. Tanto no início quanto no final do dia o Sol tem a mesma tonalidade alaranjada?

Depende - vários fatores interferem na tonalidade da luz solar nas primeiras horas do dia (amanhecer) e nas horas finais (entardecer). Quando a luz solar provém de uma posição 'alta' (Sol 'a pino', Sol 'de meio dia', ou próximo dessa localização, percorre trajetória menor do que quando o Sol está 'baixo', próximo do horizonte. A tonalidade da luz solar quando sai do Sol e atinge a Terra é branca - é assim que é registrada pelas câmeras, a partir de satélites e levadas em naves espaciais. Isso porque no espaço existe vácuo e este não altera a tonalidade da luz. O que produz alterações é a passagem da luz através de gases, no caso, os que formam a atmosfera dos planetas. Ao atravessar a atmosfera de nosso planeta e atingir a superfície, ocorrem alterações da tonalidade da luz do Sol, que deixa de ser completamente branca e adquire tonalidade ligeiramente azulada. Somado a esse fator (composição dos gases da atmosfera, que não pode ser mudada) existem outros, variáveis, que também produzem alterações: a temperatura desses gases (dias frios, dias quentes, regiões frias, regiões quentes) e a presença de partículas diversas em suspensão (provenientes de diversas fontes, como poluição, vento carregando poeira, vapor de água da chuva, do mar, isoladas ou em conjunto). As partículas do ar agem como um filtro, retendo radiações na faixa da luz azul e deixando passar as que localizam-se na faixa das cores avermelhadas - alaranjadas.

Existe uma analogia que pode ser feita: imaginando-se que vamos colocando filtros coloridos de mesma tonalidade sobre a objetiva, a cada novo filtro acrescido, a tonalidade vai ficando mais intensa. Assim, se esse filtro tem tom laranja bem fraco, sobrepondo-se dois deles, depois três, quatro, etc... cada vez mais o tom da imagem vai ficando mais alaranjado. E isso é o que acontece quando o dia está nascendo ou terminando, com a luz solar. Comparando com o percurso de sua luz no meio do dia, o percurso nessas horas iniciais e finais do dia é muito maior. Isso é o mesmo que acrescentar muitos 'filtros' no nosso exemplo. E essa comparação mostra também outro fator: à medida que as horas passam, no final da tarde, o percurso aumenta, o inverso, no início do dia. É por isso que à medida que o tempo passa, no entardecer e o Sol fica mais baixo, sua luz fica mais alaranjada, chegando ao tom avermelhado.

O contrário, no nascer do Sol no início do dia. Por fim, além da atmosfera normal do planeta, da temperatura dos gases, da presença de partículas em suspensão e da trajetória percorrida pela luz (movimento do planeta em relação ao Sol) existe ainda um outro: se essas partículas em suspensão tiverem sua concentração alterada, será o mesmo que colocar menos filtros sobrepostos em nossa comparação com a objetiva. Isso acontece depois de um temporal durante do dia, quando surge logo a seguir o Sol: tem-se a impressão de tudo ter ficado mais claro, mais cristalino. Fato semelhante ocorre com o orvalho na madrugada, que também contribui para limpar as partículas da atmosfera. E, ainda, o ar mais frio no início do dia, juntamente com menos partículas resultantes da poluição (geradas ao longo do dia, mas bem pouco à noite) soma-se aos outros fatores para fazer com que, normalmente, a luz do amanhecer seja menos alaranjada, avermelhada do que ao entardecer. Isso é o que normalmente acontece, mas vez por outra um ou mais desses fatores, assim como o horário do dia a ser considerado, e outros mais, pode causar tonalidades diferentes dessa regra (mais laranja à tarde), embora sejam exceções.

080. Tanto o zoom óptico como o digital reduzem a resolução das imagens?

Errado - apenas o digital faz isso, por tratar-se de uma ampliação artificial do sinal captado, causando o pixelamento da imagem; salvo uso em situações especiais (registro jornalístico ou documentacional onde não é possível a menor aproximação da câmera fisicamente, do assunto), o zoom digital deve permanecer desligado na câmera.

079. Emissoras de TV transmitindo em alta definição, no padrão HDTV, nunca utilizam o formato full HD (1080p) e sim o formato entrelaçado 1080i?

Correto - em todos os sistemas de TV de alta definição as imagens ou são progressivas, no modo 720p ou são entrelaçadas, no modo 1080i, não existindo a forma 1080p. A opção de transmitir em 720p ou em 1080i é da emissora, normalmente decidida com base no seu tipo predominante de programação (cenas de esportes por exemplo apresentam-se de forma melhor no modo progressivo, já as de dramas e novelas por exemplo, no modo entrelaçado).

078. O áudio 5.1 registrado por algumas câmeras de vídeo do segmento doméstico com especificação surround não pode ser comparado a um som 5.1 verdadeiro?

Correto - trata-se mais de um efeito do que um áudio surround verdadeiro; para efetuar o registro ambiente do áudio em 5 canais é necessário que os microfones estejam dispostos de maneira espacial dentro do local, próximos das fontes sonoras, ou então dispostos em algumas configurações como a tradicional "X" (cruzados, para som frontal) ou ainda que este áudio seja processado em um software criando a sensação de envolvimento. Nestas pequenas câmeras, os microfones são também muito pequenos e ficam reunidos, muito próximos, em um mesmo local; com isso é impossível isolar adequadamente o áudio que atinge cada um dos microfones e a sensação surround é conseguida somente através de efeitos eletrônicos na câmera, tentando reforçar os canais frontais por exemplo. O resultado é tênue se comparado ao verdadeiro surround produzido por equipamentos de captação de áudio destinados a este fim.

077. Existem 3 tipos de sensores, CCD, CMOS e MOS, este último comercializado pela Panasonic em algumas de suas câmeras?

Errado - o "MOS" não é um novo tipo de sensor e sim o mesmo CMOS empregado em diversos equipamentos de imagem; trata-se apenas de um nome comercial para diferenciar-se dos sensores CMOS tradicionalmente trazidos para as câmeras de vídeo pela Sony. Os fabricantes estão constantemente investindo em pesquisas e avanços tecnológicos em seus equipamentos, assim, tanto CCDs quanto CMOSs aparecem em versões melhoradas de tempos em tempos, mas não deixam de serem, em sua essência, os mesmos sensores.

076. O CCD utiliza maior quantidade de pixels do que o CMOS, o que proporciona o registro de imagens melhores?

Errado - a afirmação não faz sentido, é o mesmo que dizer que "veículos movidos exclusivamente à gasolina são melhores do que os do tipo flex porque possuem reservatório de combustível maior". Na realidade existem sensores CCD e sensores CMOS com diferentes quantidade de pixels e tanto um quanto outro podem ter mais pixels do que o outro. Normalmente é o inverso que acontece, o CMOS pode atingir quantidade de pixels bem maior do que o CCD, tanto que é utilizado em câmeras de cinema digital onde, ao invés de 3 sensores, apenas um, do tipo CMOS, é empregado, com o mesmo tamanho, em muitos desses equipamentos, que um fotograma de 35mm de cinema. O CMOS tem sensibilidade ligeiramente menor à luz do que o CCD, o que se manifesta principalmente em regiões de baixa luz na imagem. Por outro lado consome menos energia elétrica (bateria), é menor (menos espaço ocupado na câmera) e esquenta menos quando comparado a um sensor de mesmo tamanho, do tipo CCD. Com a melhora gradual, à medida em que as técnicas de fabricação avançam, de sua sensibilidade às baixas luzes, por todas as demais vantagens - principalmente para os fabricantes, refletindo-se em um custo menor, tende no futuro a substituir o CCD. Tanto CCD quanto CMOS apresentam alguns defeitos na geração das imagens, o que alguns softwares tentam minimizar, por serem ocasionais, em situações específicas. O que define uma imagem melhor ou pior em uma câmera não é o tipo de sensor e sim um conjunto de fatores que vai desde o formato do sinal gravado, passando pelo codec empregado, qualidade do processamento eletrônico, qualidade das lentes e suas especificações diversas (este um fator primordial), qualidade dos materiais empregados no caminho óptico-eletrônico dentro da câmera e inclui as características do sensor como um todo (quantidade de pixels, tamanho dos mesmos, etc...).

075. Televisores conhecidos por LED TV possuem LEDs no lugar do tradicional painel de LCD?

Errado - painéis de LCD não possuem luminosidade própria, necessitando de fonte externa de luz para poderem ser enxergados. Cada pixel em um painel de LCD é formado por um cristal que pode tornar-se mais ou então menos opaco à passagem da luz. Essa variação na opacidade é controlada por impulsos elétricos aplicados ao mesmo, que produzem as imagens justamente através dessa variação de opacidade (claro-escuro). Se colocarmos um papel aluminizado atrás de um painel de LCD, ele refletirá a luz que o atingir: nos pontos (correspondentes aos pixels) onde o cristal estiver opaco, a luz não atingirá o alumínio e portanto teremos um pixel escuro nesse local, formando as imagens de um relógio simples comum de pulso por exemplo. Nas telas de monitores e televisores existe um fundo claro atrás do painel de LCD ao invés desse fundo aluminizado, assim a tela pode ser vista no escuro. Este fundo é tradicionalmente iluminado por lâmpadas fluorescentes situadas nas bordas da tela, portanto a luz que se vê na frente da tela provém dessas lâmpadas. Nos televisores do tipo "LED TV" essas lâmpadas são substituídas por LEDs, em dois tipos diferentes de arranjos. Em um desses tipos os LEDs são dispostos em fileiras, emitindo luz branca, em número de 4: uma acima, outra abaixo e uma de cada lado da tela, todas próximas de suas bordas. A vantagem desse tipo de tela é um televisor muito fino, pois os LEDs ocupam espaço muito menor do que a estrutura das lâmpadas fluorescentes, além de serem dispostos não atrás mas nas bordas da tela. Outra forma de arranjo é utilizar um número bem maior de LEDs, não dispostos em fileiras nas bordas e sim distribuídos e espaçados igualmente atrás da tela. A tela fica com espessura intermediária entre a do arranjo anterior e a de um televisor tradicional de LCD (além do espaço ocupado pelos LEDs, usam-se 3, nas cores RGB); por outro lado, obtém a vantagem dos LEDs poderem ser individualmente controlados por região, na tela. Assim, é possível desligar sua luz em determinados trechos da tela para obter tons mais profundos de preto - a iluminação tradicional fica sempre ligada (fluorescente ou LEDs laterais) e os cristais do painel LCD não conseguem bloqueá-la totalmente, mesmo quando ficam em sua situação de maior opacidade. No entanto, a tecnologia empregada não é perfeita, uma vez que não se consegue ainda fabricar LEDs tão pequenos quanto os cristais do LCD e assim toda uma região, ainda que pequena, torna-se absolutamente escura e não somente um pixel dessa região. Telas do tipo LED puro, sem uso de LCD, existem, com cada pixel correspondendo a um LED ou a um conjunto de 3, nas cores RGB, porém, em tamanho muito grande, geralmente utilizadas em estádios em grandes shows. Assim, um televisor LED TV é um televisor LCD comum iluminado em sua parte traseira por LEDs.

074. AVC-Intra e AVCHD são o mesmo formato, apenas com nomes diferentes?

Errado - os dois formatos são semelhantes ao utilizarem o mesmo codec de compressão, MPEG4. No entanto, diferem na forma de compressão utilizada. No AVCHD a compressão é do tipo interframe (ou seja, através do uso de GOPs, grupos de quadros dos quais somente o primeiro é armazenado por completo e dos demais somente as diferenças são armazenadas; a seguir, o conjunto é comprimido como um todo). Já no AVC-Intra a compressão é do tipo intraframe (os quadros de imagem são comprimidos individualmente). A compressão intraframe garante maior qualidade de imagem e maior precisão na edição, ao passo que a interframe ganha no espaço final ocupado. O formato AVC-Intra foi desenvolvido pela Panasonic para uso em aplicações profissionais que exijam alta qualidade em HD. O formato AVCHD foi desenvolvido por um pool de empresas, entre as quais a Panasonic, a Sony e a Canon, visando o mercado de usuários domésticos a procura de soluções de baixo custo e de uso prático em HD.

073. O termo correto para "sinal NTSC utiliza 30qps" é "sinal NTSC utiliza 59,97cps"?

Correto - existem duas formas para referenciar-se ao sinal NTSC, uma delas de uso corrente para facilidade de comunicação entre usuários dos equipamentos de videoprodução, que é "30qps" e outra, mais precisa, para textos técnicos, "59,97cps", embora mesmo nestes muitas vezes encontre-se a forma abreviada (arredondada) "30cps". Na realidade não existe no padrão NTSC, que é entrelaçado, algo como 30 quadros/seg, o que existem são 60 campos/seg, pois não existe um quadro completo que possa ser isolado nesse sistema, com todas as suas linhas. O que existem são campos pares e campos ímpares, que são exibidos alternativamente no monitor ou TV. Ainda que durante a exibição em um CRT possa haver interposição das linhas dos mesmos (a última linha do campo anterior ainda está aparecendo na tela enquanto a primeira linha do campo seguinte está sendo desenhada) devido a um fator de latência que se traduz em um maior tempo de exposição na tela do que os 1/60 do campo, a rigor não se consegue isolar um quadro completo e sim um campo par ou um campo ímpar.

É o desenho sequencial desses campos que forma os 30 quadros, diferente do que acontece por exemplo para o formato não-NTSC 30p ou 24p. Nesses casos, como a montagem das linhas é progressiva, é possível isolar um quadro completo, com todas as suas linhas. Assim, o correto é o uso de "cps" (campos por segundo) ao invés de "qps" (quadros por segundo). Outra notação usual é a letra "i", de "interlaced" (entrelaçado"), tendo-se então "60i".Quanto ao valor "59,97" ao invés de "60", trata-se do frame rate real dos campos no padrão NTSC. Originalmente, esse valor era de fato "60", mas com a introdução da TV colorida nos EUA no início da década de 50 tornou-se necessário fazer algumas alterações nas ondas do sinal, basicamente para evitar interferências com o sinal de áudio e uma delas foi a ligeira redução na cadência de montagem dos campos na tela, de "60" para "59,97", daí o termo "59,97cps". O termo corrente "60cps" ou "60i" (mais comum) é no entanto empregado, para maior facilidade de comunicação.

072. Câmeras de vídeo utilizando sensores do tipo CMOS produzem imagens inferiores às que possuem CCDs?

Errado - essa afirmação que tornou-se um verdadeiro "mito" decorre da própria história dos dois sensores, CMOS e CCD. Ambos tiveram início na tentativa do registro de imagens empregando um painel de células foto-sensíveis, a grade de pixels. As cargas elétricas geradas por estas células tinham que ser armazenadas de alguma forma e na época dessas experiências dois chips de memória empregados em computação estavam disponíveis: o chip CCD e o chip CMOS - que, portanto, não eram, eles próprios, sensores de imagem. Com o CCD, devido ao seu processo de funcionamento, era possível facilmente associar seus dispositivos de armazenamento de cargas individualmente a cada pixel, dentro do próprio painel. Já com o CMOS isso era possível mas a resolução do painel ficava muito limitada, devido ao tamanho maior ocupado por esse tipo de chip de memória. Resultado: o CMOS foi inicialmente abandonado na tarefa, tendo-se destacado o CCD. Mais tarde, com o surgimento de memórias melhores para computação, o mesmo deixou de ser utilizado para este fim, sendo montado somente nos painéis de imagem e assim passou a significar "chip de imagem" e não mais "chip de memória" - na realidade tinha-se um chip de memória (o CCD) associado a um painel de imagem, ou seja, 2 peças diferentes conectadas. O que ocorreu foi o todo tomar o nome da parte.

O CMOS passou logo depois a ser utilizado em aplicações onde a resolução da imagem não era vital, como por exemplo em câmeras de vídeo de vigilância, produzindo imagens em preto e branco com um custo bem baixo em relação ao do CCD. Vem dessa época a noção do CMOS ser inferior ao CCD - de fato, era mesmo inferior. Mais recentemente também as câmeras de vigilância evoluíram e muitas passaram a utilizar imagens coloridas produzidas por CCDs, com a queda no preço destes.

O CMOS ainda permanecia nessa época em um estágio um tanto estagnado. No entanto, nos últimos anos, com o extraordinário avanço da tecnologia de miniaturização, tornou-se possível a construção de chips de imagem com CMOS em resoluções bem maiores, competindo em pé de igualdade com as atingidas pelos CCDs. Com custo mais baixo de fabricação, menor tamanho, menor aquecimento, menor consumo de energia e agora atingindo maiores resoluções, tem-se tornado uma alternativa atraente em substituição ao CCD, somente não o superando ainda devido a uma menor qualidade de imagem quando produzida sob baixas condições de luz. No entanto, isso não pode servir como parâmetro de comparação para equipamentos de imagem como o vídeo, onde uma das principais regras associa justamente qualidade de imagem à iluminação adequada.

Além disso painéis CMOS especialmente construídos tem sido utilizados em telescópios espaciais (são menos sujeitos à determinados tipos de radiação predominantes no espaço) e também em câmeras de vídeo específicas utilizadas para gravação em alta velocidade (1.000 quadros). No cinema, a Arri, entre outras, comercializa equipamentos que utilizam esse chip: a Arriflex D-20 possui um sensor CMOS de 6 Megapixels, permitindo o uso das lentes normais de cinema 35mm com as mesmas aberturas empregadas em filmes. Nesses casos o decantado padrão Bayer que faz os chips enxergarem cores, relegado às câmeras do segmento consumidor com 1 CCD, volta a ser utilizado. A D-20 possui um único CMOS - e não 3, como nos casos do sistema mais aperfeiçoado de cores utilizado em todas as câmeras de vídeo de maior qualidade. Neste caso a enorme quantidade de pixels no painel compensa e supera a menor resolução de cor de um sistema que emprega filtros coloridos para simular as cores.

Embora isso ainda não tenha ocorrido em todos os tipos de situações (o chip CMOS supera o CCD em algumas aplicações e está muito próximo dele em outras), a tendência é em breve ele equiparar-se totalmente ao CCD: o CMOS de hoje nada tem a ver com o empregado anos atrás em câmeras e equipamentos mais baratos.

071. No formato HDV não é possível efetuar captura para edição com precisão de quadro?

Correto - ao contrário do que ocorre por exemplo no formato Mini-DV, com HDV não é possível fazer captura para edição-não-linear com precisão de quadro, devido às características dos GOP.s (Group Of Pictures) utilizados nesse formato. A maneira de se trabalhar é capturar trechos da fita e armazenar em disco, passando a seguir a considerar este material no disco como sendo o master para ser editado. Pelo mesmo motivo não é recomendado fazer insert edit no conteúdo de uma fita cujo conteúdo foi gravado, por exemplo, a partir de um processo de exportação do micro para fita (Export To Tape). Se isso for feito, na reprodução (play) não haverá uniformidade nos trechos das emendas, ocorrendo pequenas interrupções durante as quais o decoder MPEG2 tentará fazer re-sincronizar os dados.

070. O valor de resolução horizontal de um formato de vídeo é igual à quantidade de pixels no sentido horizontal?

Errado - o conceito de linhas de resolução horizontal não tem correspondência com a quantidade de pixels no(s) CCD(s) / CMOS(s) da câmera nesse sentido (nem com a quantidade de pixels na tela dos televisores e monitores CRTs, LCDs, etc...); para ser uma medida de comparação, ele é normalizado, ou seja, multiplicado por um fator numérico para que possa ser associado à resolução dentro de um quadrado de imagem e não um retângulo.

O conceito "linhas de resolução" refere-se à percepção visual que podemos ter da imagem de um determinado sistema de vídeo quando comparado a outro. Basicamente, no sentido vertical (resolução vertical) podemos fazer analogia com uma câmera apontada para uma persiana em frente a uma janela: podemos contar de alto a baixo quantas lâminas podem ser vistas na imagem. A seguir, diminui-se cada vez mais a largura das lâminas, aproximando-se também umas das outras. A partir de determinado ponto, não é mais possível distinguir uma lâmina de sua vizinha: este é o limite da resolução vertical do sistema de vídeo em questão (que engloba desde a câmera até o monitor onde a imagem está sendo vista, todos otimizados para exibição com a maior qualidade possível).

A resolução horizontal pode ser então pensada do mesmo modo, apenas mudando para o modelo de persiana com lâminas verticais (lembrando que a contagem inclui os "espaços" entre as lâminas, tanto no sentido vertical como no horizontal).

No momento de expressar esses valores, busca-se tornar essa medida independente do aspect ratio da imagem, ou seja, da proporção altura x largura que ela possui. A resolução vertical é sempre fixa, atrelada ao padrão de vídeo que está sendo utilizado. Por exemplo, no padrão NTSC tem-se 525 linhas nesse sentido. Dessas, somente 483 são visíveis na tela - as demais destinam-se a controles diversos do sistema analógico. Quando por exemplo o formato DV foi criado, estabeleceu-se 480 linhas de resolução vertical, correspondentes a colunas de 480 pixels nesse sentido.

A resolução horizontal varia conforme os formatos e equipamentos utilizados. Nos sistemas digitais, como o DV por exemplo, foi estabelecido um valor de 720 pixels no sentido horizontal. Essa é a maior quantidade de lâminas verticais da hipotética persiana que poderiam ser contadas em uma linha horizontal do vídeo. No entanto, como o formato DV estabelece uma imagem dentro de um retângulo de proporções 4:3 (ou seja, 1, 333...), divide-se 720 por 1,333... obtendo-se 540. Na prática, devido a diversas limitações técnicas obtém-se valores próximos de 525 linhas. É por este motivo que indica-se a resolução limite atingida pelo formato DV como 525. Na realidade o valor é somente atingido por equipamentos do segmento semi-profissional, enquanto equipamentos destinados ao público consumidor obtém números ligeiramente menores do que este.

069. Um conector digital defeituoso (ex. FireWire) pode acarretar imagens semelhantes às do dropout?

Correto - a transmissão de sinais digitais em computação é feita através do envio de séries controladas de "0"s e "1"s através dos fios dos condutores. No entanto, ao contrário dos sinais analógicos, para os sinais digitais é possível efetuar uma verificação via processamento do que está chegando pelo cabo em seu destino. Como analogia poderemos pensar no envio de milhares de cartas pelo correio a um determinado destinatário, de modo que cada uma delas seja acompanhada por um pequeno ticket grampeado à carta. Se alguma dessas cartas se perder de seu grampo pelo caminho, o destinatário receberá, em nosso exemplo, somente o ticket. Percebendo então que houve a perda, devolve o ticket ao emissor das cartas solicitando o reenvio de carta semelhante à perdida. O emissor pode sempre fazer isso, porque tem todas as cartas. Ele então faz o reenvio e como esses problemas de extravio são esporádicos, o destinatário a recebe sem problemas. Isso é a grosso modo o que acontece com a transmissão de sinais digitais: a todo momento existem mecanismos de verificação atuando sobre a informação, para garantir que nada seja perdido - um desses mecanismos por exemplo é conhecido como bit de paridade. Através dessa técnica, antes do envio é efetuado um cálculo matemático especial com os algarismos a serem transmitidos e o resultado (bit de paridade) é transmitido juntamente com todo o bloco de informações. No destino o cálculo inverso é efetuado, e se tudo estiver correto, o bloco é aceito normalmente, caso contrário uma nova transmissão do mesmo bloco é solicitada.

Problemas pontuais constantes podem no entanto acontecer: é a situação onde não existe a informação (bloco de dados) original a ser enviada pelo emissor, ou ela existe mas encontra-se defeituosa. O destinatário não consegue receber o pacote corretamente e diversas tentativas são feitas, sem sucesso. A partir de certo número de tentativas, a informação é aceita do mesmo modo (com defeito), e o sistema tenta interpretá-la de alguma forma que faça sentido em sua estrutura de armazenamento. No caso de imagens, essa forma é mostrar graficamente o que existe no bloco sem informação (ou com parte dela), o que se traduz por um minúsculo (mas perceptível) retângulo na tela, com diversos pequenos pedaços coloridos em seu interior: tem-se o dropout digital e a informação inexistente (correspondente ao retângulo colorido) é o trecho da fita onde ocorreu o descolamento das partículas magnéticas.

Situação semelhante pode ocorrer não por desprendimento na superfície de fitas e sim por um conector (macho ou fêmea) defeituoso. Uma conexão para estar correta tem que transmitir o sinal elétrico com total intensidade, sem perdas, através de seus contatos. Se houver falhas - o plug possui problemas em seu encaixe e suas superfícies de contato não encostam firmemente - a própria vibração dos aparelhos no local (os motores dos discos rígidos de um micro, locais ou externos, do próprio computador através de sua ventilação, etc...) ou de situações as mais diversas (movimentações de objetos na mesa por exemplo), ocorrerão momentos de contato e não contato, mesmo que com breve duração e mesmo que imperceptíveis em algumas vezes ao olho humano.

Nesta situação, informações não serão recebidas corretamente em seu destino (bloco digital) e o sistema passará a pedir com frequência o reenvio. Em algumas vezes este ocorrerá com sucesso (o plug encaixou-se novamente), em outras não. O trabalho adicional de reenvio tornará o processo de transmissão bem mais lento e quando a informação não for recebida em modo definitivo, após diversas tentativas, ficará, na tela, com a mesma aparência do dropout digital em fita.

068. Em formatos de vídeo digital em fita não existe o problema do dropout, comum em fitas de formatos analógicos?

Errado - a situação decorre de um problema físico na fita, que independe do tipo de sinal ali gravado (analógico ou digital). Havendo desprendimento de partes magnéticas da superfície da fita, haverá perda de sua capacidade de reter as informações transmitidas pela cabeça de gravação no momento em que a mesma passar pelo trecho danificado. O mesmo ocorre com a cabeça de leitura, que no local deixará de ler um sinal correto. O "buraco" se traduzirá, no vídeo digital, por pequenos retângulos coloridos espalhados pelo quadro de imagem, geralmente limitando-se a um único quadro. No entanto, o efeito ficará perceptível na passagem do quadro durante a reprodução.

067. AVCHD é o sinal HDV gravado em um DVD comum?

Errado - AVCHD (Advanced Video Codec High Definition) não é HDV e sim um sinal High Definition comprimido em MPEG4 (HDV usa MPEG2) e gravado em diversos tipos de mídias, dentre elas, os DVDs comuns. Desenvolvido pela Panasonic em conjunto com a Sony, o fato do sinal AVCHD (1080i ou 720p) ser gravado em diferentes mídias possibilita seu uso em câmeras HD mais baratas, utilizando DVDs de 8cm de diâmetro ou micro-HDs para armazenar as cenas gravadas, ou seja, a tecnologia atualmente consolidada em outros formatos, ao invés de tecnologias mais caras como blu-ray ou HD-DVD. Sendo um formato de arquivo (como o mp3 por exemplo, para áudio), pode ser gravado em diferentes mídias, até mesmo um CD (embora com pouca capacidade), de modo diferente dos formatos de vídeos tradicionais (que exigem o mesmo tipo de mídia, como por exemplo o Mini-DV e suas fitas). Os discos assim gravados podem ser reproduzidos em players específicos que entendam esse formato, ou então a câmera AVCHD pode ser conectada diretamente a um televisor (HD) para que as imagens em alta definição possam ser vistas.

066. Dropout em uma fita com conteúdo HDV pode acarretar prejuízo bem maior para a imagem do que com conteúdo DV?

Correto - isso ocorre porque o HDV utiliza compressão MPEG2 para gravar suas imagens. Dropouts são falhas eventuais e pontuais em determinados locais da fita, que podem ocorrer devido principalmente ao desgaste da mesma. Nesta situação, partículas minúsculas da superfície magnética podem desprender-se, acarretando "buracos" sobre os quais nenhuma informação magnética consegue mais ser retida. Porém, como o problema normalmente é muito esporádico (a não ser que as condições da fita estejam muito prejudicadas) afeta somente um ou outro quadro da imagem. Isso não quer dizer que o problema não seja visível na tela, pelo contrário. Mas se o mesmo fato acontecer em um conteúdo HDV, as consequências para a imagem podem em determinadas situações ser piores. Isso porque a compressão MPEG2 agrupa uma sequência de diversos quadros para comprimir de uma só vez. Esses grupos assim comprimidos (GOPs - Groups Of Pictures) terão a informação completa da imagem gravada apenas no primeiro quadro do grupo. Todos os demais guardam somente a informação do que mudou em relação a esse primeiro quadro.

Esse modo de comprimir chama-se inter-frame (antes, cada quadro ainda é comprimido individualmente, processo utilizado no formato DV por exemplo e denominado intra-frame). O problema com o dropout é que se ele ocorrer no primeiro quadro do grupo, o problema irá se propagar para todos os demais quadros deste grupo. Assim, o defeito ficará muito mais visível na tela do que se fosse com conteúdo DV. É por este motivo que, embora seja perfeitamente possível gravar HDV em fitas Mini-DV, recomenda-se o uso de fitas próprias para gravação HDV. Não existe "fita HDV", a fita em si é a mesma utilizada em Mini-DV, porém com a denominação "HDV" um cuidado maior é utilizado na confecção da mesma, tomando-se diversas providências para minimizar eventuais defeitos como o do dropout.

065. Um televisor comum pode ser usado para monitorar imagens gravadas sem problema algum?

Errado - o grande problema de usar um televisor ao invés de um monitor para acompanhar uma gravação é depender desse televisor para efetuar ajustes de imagem na câmera. Isso porque os televisores são fabricados para corrigirem o máximo de erros e imperfeições possível existente no sinal de vídeo. A finalidade é poder mostrar ao público uma melhor imagem, reforçando eletronicamente diversas características do sinal que o alimenta, através de filtros, analisadores, etc... O problema para videoprodução é justamente esse, o fato do televisor "mascarar" os defeitos do sinal de vídeo. É por isso que monitores de videoprodução devem ser empregados, pois estes mostram o sinal como ele realmente é, além de também mostrar o quadro completo da imagem - o televisor corta ligeiramente as bordas, conforme o tipo e modelo.

064. É impossível recuperar o conteúdo de uma fita de vídeo apagada / regravada?

Correto - esta é uma dúvida frequente, que tem por base a situação (real) de recuperação de arquivos em determinados tipos de mídias de computador, como disketes e mesmo o disco rígido da máquina. Isto ocorre porque em computação quando apagamos o conteúdo de um arquivo não estamos na verdade o removendo de seu local de armazenamento (a não ser na situação de formatação) e sim marcando-o com um indicador dizendo "área livre para reutilização". Assim, se a tal área não foi reutilizada, programas de recuperação conseguem acessá-la e exibir seu conteúdo. Para o computador, esse conteúdo não existe mais, pois o mesmo só exibe arquivos sem a referida marca. Assim, ele não é mais mostrado quando a lista de arquivos gravados na mídia é solicitada. Mas o programa especializado em recuperação consegue ter acesso a eles.

Porém, isto não ocorre em todas as situações. Se a área em questão foi reutilizada, total ou parcialmente, o novo trecho é gravado sobre o anterior e este não pode ser mais recuperado, no todo ou em parte. É o caso de um disquete regravado. Situação bem mais comum é a do HD do micro, onde os arquivos ficam gravados quase sempre fragmentados em centenas de pedaços. Isso torna bem mais difícil a recuperação, pois a quase todo momento o disco está sendo atualizado, até mesmo em decorrência do próprio funcionamento do sistema operacional.

Levando esse situação para fitas magnéticas, o apagamento de informações não corresponde a simplesmente desligar um indicador de área livre ou ocupada, e sim a substituir toda a área gravada com um novo conteúdo. Toda gravação é precedida pela passagem, através da fita, de uma cabeça chamada "apagadora", cuja função é justamente apagar o conteúdo da gravação anterior. Ela faz isso redirecionando de maneira uniforme a polaridade das milhões de partículas magnéticas da fita. A seguir vem a cabeça gravadora (ou cabeças, para ser mais preciso), que recolocam essas partículas em outro padrão, de acordo com o novo conteúdo.

Desta forma torna-se impossível recuperar o que havia antes. É como fazer um desenho na areia, e depois passar um "rodo" por cima, alisando toda a superfície e fazer novo desenho.

063. Conteúdo HD só pode ser visto em televisores (também HD)?

Errado - é possível assistir a conteúdo HD no micro, existem diversas opções para isso. Um exemplo é o codec WMV-HD (Windows Media Video-High-Definition) da Microsoft, que permite exibir imagens HD no micro, tanto em 720p como 1080i, gravadas em mídias DVDs comuns. É possível encontrar filmes e documentários gravados em WMV-HD comercializados através de lojas on-line. O site da Microsoft disponibiliza dicas de autoração nesse formato, além de recomendar um processador de 3.0GHz com placa de vídeo de 128Mb para visualização das imagens. Também é possível gravar conteúdo HD em mídia DVD através de versões recentes do programa DVD Studio Pro a Apple, para playback através do software QuickTime.

062. Uma fita Mini-DV pode ser reutilizada inúmeras vezes sem problema algum?

Depende - teoricamente as fitas são fabricadas para poderem ser regravadas mais de 1.000 vezes sem apresentar problemas. Porém, na realidade, cada regravação deixa-as mais propensas a sofrer dropouts, situação não exclusiva das fitas utilizadas em formatos analógicos.

Apesar dos cuidados em sua fabricação, como por exemplo o uso de lubrificantes especiais em sua superfície, o inevitável atrito com o cilindro giratório das cabeças de gravação vai aos poucos acarretando desgaste da camada de proteção. Com o tempo, a camada contendo as partículas magnéticas fica exposta e no atrito não só com a superfície do cilindro, mas também com os pequenos roletes e rodízios internos que direcionam a fita dentro do cassete, pode ter algumas partículas desprendidas.

Esses pontos perdem a capacidade de reter informações - no caso do Mini-DV por exemplo, de ter partículas metálicas magnetizadas (polarizadas conforme a orientação Norte/Sul magnética) representando os "0"s e "1"s da informação digital. Embora minúsculos, os pontos falhos podem-se refletir na imagem alterando-a. Os sistemas digitais possuem diversos mecanismos de recuperação automática de dados perdidos em caso de falha, porém essa recuperação possui um limite, que se extrapolado, resultará em falha na reprodução da imagem: tem-se o dropout. É possível a ocorrência de um dropout intermitente: dependendo do posicionamento particular do cilindro das cabeças em relação à superfície da fita, em dado momento o software pode ou não conseguir corrigir a falha.

O uso intensivo de fitas já gastas pode fazer com que as partículas desprendidas de sua superfície fiquem aderidas de forma temporária em determinados trechos da superfície do cilindro das cabeças. Isso acarreta ainda mais dropouts, desta vez por falta de contato direto desses trechos do cilindro com a superfície da fita, e não por defeito nas fitas. Nesta situação, o defeito ocorrerá de forma constante para todas as fitas reproduzidas no equipamento - tem-se o chamado head clog, exigindo uma limpeza geralmente efetuada com mais êxito por pessoal especializado. Algumas câmeras possuem sensores internos para detectar essa situação e enviar uma mensagem através do visor.

Não existe porém uma regra matemática para prever quando exatamente o problema irá ocorrer. Uma fita pode ser reutilizada muitas e muitas vezes sem apresentar problema algum. Por outro lado, dependendo de diversos fatores, na segunda reutilização algum dropout já pode aparecer. Esta situação é muito rara, porém, como não é impossível, leva a algumas conclusões sobre o modo de utilização das fitas.

Para trabalhos com importância crítica, com grande exigência de qualidade, é recomendável o uso de uma nova fita sempre. Mas deve-se ter em mente que a exigência mencionada refere-se geralmente a trabalhos destinados a broadcast, a transferência para película cinematográfica, a tratamento digital para produção de efeitos especiais ou ao uso profissional (registro de eventos por exemplo).

Nos usos domésticos (segmento consumidor) e mesmo semi-profissional, alguma eventual falha, por ser dificilmente visível ou então por aparecer e desaparecer rapidamente, na forma de quadriculados mais claros do que deveriam ser, é perfeitamente aceitável, o que leva a recomendação do uso e reuso constante das fitas, sem problemas. Aliás, era essa a intenção dos criadores do formato Mini-DV, originalmente destinado ao público desses segmentos.

O cuidado na preservação das fitas é algo que não pode ser deixado de lado e também contribui em muito para o aparecimento precoce de falhas, como a rebobinagem frequente das mesmas, a rebobinagem total antes do primeiro uso, a preocupação em não armazená-las sem estarem totalmente rebobinadas, o não desligamento e armazenamento da câmera com a fita dentro e outros cuidados mais básicos, como proteção contra umidade, campos magnéticos, calor, mudanças bruscas de temperatura e/ou umidade, etc..

Outra recomendação é evitar a troca de marcas de fita na mesma câmera, ou então o uso de fitas gravadas em um equipamento para serem reproduzidas em outro. O formato Mini-DV foi criado originalmente para uso no segmento consumidor, onde essas trocas são menos frequentes do que em uma produtora por exemplo. O ideal é as mesmas fitas serem utilizadas mas mesmas câmeras (ou pelo menos em câmeras do mesmo fabricante). O processo de gravação Mini-DV comprime uma grande quantidade de dados em trilhas microscópicas na fita, e o mecanismo para efetuar a gravação e leitura dessas trilhas empregando um cilindro girando a 9.600rpm em conjunção com o movimento da fita exige um mecanismo de alta precisão, com precisão de relojoaria. Isso deixa a fita mais sensível a pequenas variações milimétricas entre um equipamento e outro.

A outra situação - troca frequente de equipamentos - é contemplada pelo formato DVCAM, também da família DV, ou seja, com a mesma qualidade de sinal, porém gravado em fitas bem mais robustas (tanto o cassete como a fita em si), com características para suportar o trabalho pesado do dia a dia (o maior espaçamento entre as trilhas por exemplo, reduz o tempo de gravação mas permite a troca entre equipamentos sem problemas - maior folga na leitura). Neste caso o benefício não é somente da gravação do sinal (que pode ser gravado também em uma fita Mini-DV comum): para complementá-lo, quando em uso intensivo, deve-se utilizar a própria fita DVCAM. Estas são também bem mais resistentes a regravações do que as fitas Mini-DV.

061. Imagens HDV 1080i são melhores do que as 720p pois possuem mais pixels?

Errado - embora seja verdade que a quantidade de pixels é maior no 1080i do que no 720p (1.555.200 pixels contra 921.600 pixels), uma outra característica importante difere os dois subformatos do HDV: um deles funciona no modo progressive scan e o outro no modo interlaced. A imagem no modo interlaced perde em qualidade para a imagem no modo progressive; o entanto, como possui quantidade maior de pixels (devido à maior quantidade de linhas), um fator compensa o outro, e as duas formas de exibir HDV mostram imagens equivalentes em termos de qualidade.

060. Decupagem e minutagem são sinônimos?

Errado - utilizados às vezes indistintamente, de modo incorreto, os dois termos tem na verdade significados diferentes. O termo "decupagem" é relacionado à cenografia de um vídeo / filme. Ao ler o roteiro, torna-se necessário descrever e relacionar tudo o que será exigido para o registro das cenas. Assim, se o roteiro fala em uma cena que acontece no interior de uma residência antiga, conforme a cena e o enquadramento exigidos serão necessários móveis antigos, quadros, lustres e uma série de objetos de cena para fazer referência à época ali representada. Se o roteiro pede um sorvete, poderá, conforme o que vai ocorrer, ser feito um mockup (imitação do objeto), e assim por diante. Já o termo "minutagem" refere-se ao ato de assistir uma gravação e anotar os minutos e segundos em que as cenas sucessivamente aparecem. A minutagem é útil como referência para a edição (saber em que fita e em que posição determinada cena está), assim como para montar um banco de imagens a serem utilizadas em trabalhos futuros.

059. Profundidade de foco e profundidade de campo são sinônimos?

Errado - embora no linguajar corrente - mesmo entre alguns profissionais - os dois termos sejam às vezes usados indistintamente, eles não tem, a rigor, o mesmo significado. A profundidade de campo é a área, na frente da câmera, dentro da qual qualquer objeto estará nitidamente focalizado. Essa área é maior ou menor de acordo com alguns parâmetros, como a abertura utilizada no diafragma por exemplo. Com aberturas menores, tem-se áreas de foco ampliadas, com aberturas grandes esta área torna-se restrita. O controle manual da abertura é por isso utilizado muitas vezes para a obtenção de efeitos artísticos, como desfocar o fundo para dar destaque ao primeiro plano. Por outro lado, a profundidade de foco refere-se à área semelhante, porém localizada dentro da câmera, atrás das lentes. O filme fotográfico, a película cinematográfica e o CCD / CMOS precisam estar a determinada distância das lentes para que a imagem fique nítida. Esta distância no entanto, ao contrário do que ocorre com a profundidade de campo (normalmente medida em metros), é muito menor, da ordem de milímetros. Normalmente em câmeras com objetivas fixas (não removíveis) essa característica não tem importância: como o conjunto óptico é fixo - não pode ser alterado, já vem com ajuste de precisão de fábrica. No entanto, em equipamentos profissionais a objetiva pode ser removida e trocada por outra. Neste caso, pode haver variações milimétricas nos encaixes das lentes e do equipamento, suficientes para acarretar problemas de foco nas imagens. Essas variações não são normais, mas podem ocorrer, e dizem respeito ao conceito profundidade de foco. Profissionais que defrontam-se com esses dois eventos tem que utilizar o termo correto, para nomear cada um deles, não podendo utilizá-los indistintamente. Assim, para o conceito tradicional que refere-se à área em foco na imagem registrada pela câmera à frente da mesma, o termo correto é profundidade de campo.

058. É correto dizer "a câmera grava nos formatos HDV, DVCAM e DV (Mini-DV)"?

Errado - o correto é dizer "a câmera grava nos formatos HDV, DVCAM e Mini-DV", pois são DV tanto o formato DVCAM como o formato Mini-DV. O DV é uma família de formatos, também conhecida como DV25 (decorrente de sua taxa de transmissão de informações, de 25 Mbps), que inclui os formatos Mini-DV, Digital-8, DVCPRO e DVCAM. Com exceção do descontinuado Digital-8, todos possuem 2 tamanhos de cartuchos de fita, um grande, de tamanho aproximado de uma fita VHS e um pequeno. Os tamanhos grandes destinam-se a alguns modelos de câmeras profissionais e a decks de gravação empregados em estúdios, que necessitam de maior tempo de gravação. Assim, tem-se os formatos Mini-DV e Standard-DV, Mini-DVCAM e Standard-DVCAM, Small-DVCPRO e Standard-DVCPRO. No caso específico do Stardard-DV, às vezes este formato de fita é referenciado simplesmente como "DV". Assim, a informação acima além de estar incorreta por incluir o nome genérico da família (DV) para "Mini-DV" e excluí-lo do "DVCAM", também é imprecisa ao induzir que a câmera pode gravar tanto em Standard-DV como Mini-DV, capacidade que de fato alguns modelos de câmeras possuem.

057. Para trabalhar em edição com surround não é necessário nenhum hardware especial?

Errado - não basta instalar no computador um programa que suporte áudio multi-canal se o sistema de som utilizado pelo computador é o tradicional estéreo com 2 saídas. Neste caso, deve ser instalada no computador uma placa de som que suporte multi-canal e serem adquiridas as caixas de som correspondentes, normalmente 5, duas posicionadas à frente do observador (lado esquerdo e direito), duas atrás (idem) e uma para frequências baixas, o subwoofer (que não exige posicionamento especial). Só assim será possível avaliar e testar a distribuição de áudio simultânea nos vários canais do sistema.

056. Em se tratando de CDs e DVDs graváveis, a cor da superfície de gravação do disco tem a ver com a qualidade do mesmo?

Depende - na realidade o que importa mais é o inverso, ou seja, a qualidade da mídia é o mais importante. O fato de nem todos os discos possuírem a mesma aparência externa deve-se ao fato da combinação da cor da camada refletiva de alumínio (prateada ou dourada) com a cor dos materiais empregados na camada orgânica (a que vai ser marcada pelo laser). Assim, tem-se discos cuja superfície gravável é amarelada, azulada, esverdeada, cinza-chumbo e outras cores. Na prática, é possível encontrar discos de determinadas cores que sejam lidos mais facilmente em determinadas marcas de players do que outras. No entanto, não existe regra absoluta para isso, e o mesmo tipo de cor de disco de um fabricante A pode ter qualidade melhor do um disco da mesma cor de um fabricante B. O que por outro lado existe de concreto são marcas / mídias de qualidade inferior e outras de melhor qualidade. Maior qualidade nos materiais e processos envolvidos na fabricação custa caro: as chamadas mídias de baixa qualidade empregam materiais menos nobres nas diversas camadas internas que compõem o "sanduíche prensado" através do qual o disco é feito, chegando até mesmo a dispensar camadas no processo de montagem. Neste caso, problemas na gravação ou leitura podem ocorrer com mais facilidade, além do disco em si possuir menor durabilidade: no curto espaço de alguns anos podem ocorrer degradações que chegam a impossibilitar a leitura de determinados trechos. Assim, escolhida a marca do fabricante do disco, sua cor será mera decorrência dos processos empregados por este fabricante.

055. O áudio no formato DV é melhor do que no formato HDV?

Depende - teoricamente no formato DV é melhor, pois neste o mesmo é gravado no formato PCM (Pulse Code Modulation, o mesmo empregado no formato de vídeo Hi8), enquanto que no HDV o áudio é gravado em mp2 (MPEG1 layer 2). O formato PCM não emprega compressão, ao passo que o formato mp2 emprega compressão, e toda compressão é passível de perdas. No entanto, para a maioria dos casos essa diferença pode ser imperceptível ao ouvinte. No formato DV o áudio tem qualidade semelhante à de um CD-Audio e no formato HDV aproxima-se bastante disso. No formato DV o áudio possui duas opções de gravação, 4 trilhas de baixa fidelidade (12 bits, 32 Khz de frequência de amostragem) ou 2 trilhas de alta fidelidade (16 bits, 48 Khz), esta última é a que assemelha-se ao CD-Audio. No formato HDV o áudio é captado em também em 16 bits / 48 Khz, mas a seguir comprimido antes de ser gravado, para 384Kbps, no formato mp2. A qualidade de um áudio em mp2 é semelhante à de um áudio em mp1 ou mp3, apenas a taxa de compressão utilizada é maior no mp3 do que no mp2 e do que no mp1, exigindo para taxas maiores maior complexidade e trabalho do software durante a compressão.

054. ProHD é um formato HD criado para competir com o HDV?

Errado - o sistema ProHD, criado pela JVC, não é um novo formato em si: ProHD é HDV. O formato HDV prevê duas especificações, HD1 e HD2 (720 linhas de resolução vertical progressive, chamado "720p" e1080 linhas de resolução vertical interlaced, chamado "1080i "). Nenhuma das duas especificações trabalha com 24qps: o HD1 admite 30 ou 60qps e o HD2 somente 30qps. O que a JVC fez então foi criar uma implementação própria do HDV, trazendo como opção a possibilidade de se gravar a 24p (24qps no modo progressive).

053. Em comparação com os formatos DV, o formato HDV é mais propenso a apresentar artefatos (defeitos) na imagem, principalmente na especificação HD2?

Correto - este fato decorre da utilização da compressão MPEG2, que agrupa quadros para comprimí-los em conjunto (compressão inter-frame), ao contrário do que ocorre nos formatos DV (Mini-DV, Digital-8, DVCAM), que utilizam compressão intra-frame, onde os defeitos também existem, mas são menos visíveis. Áreas da imagem que apresentam grande complexidade de elementos, combinados a bastante movimento podem apresentar eventuais falhas, mais visíveis do que nos formatos DV. Este fato é bem mais perceptível na implementação HD2 do HDV (1080 linhas de resolução vertical interlaced) do que na implementação HD1 (720 linhas de resolução vertical progressive), porque a HD2 emprega GOPs mais longos do que a HD1, o que motivou a criação das fitas próprias para HDV pela Sony (suas primeiras câmeras HDV utilizam HD2). Um procedimento que também contribui para isso - e deve ser evitado - é a exportação para a câmera / recaptura do mesmo material, pois como os quadros são recuperados no micro (os blocos de quadros agrupados são desfeitos), na exportação torna-se necessário remontá-los, ou seja, uma nova compressão é efetuada, podendo potencializar eventuais falhas existentes no original.

052. É aconselhável o uso de um monitor HD durante a edição do conteúdo HDV?

Correto - a não ser que não haja necessidade de um controle mais apurado da imagem durante a edição, para trabalhos com características profissionais é sempre recomendável poder visualizar a imagem como ela realmente é para poder efetuar correções, ajustes e mesmo verificar eventuais perdas de resolução decorrente de efeitos aplicados incorretamente. Para o trabalho com a especificação HD1 do HDV (sinal progressivo com 720 linhas de resolução vertical a 30 ou 60qps) o monitor deve ser capaz de exibir pelo menos 720p de resolução. Para o trabalho com a especificação HD2 do HDV (sinal interlaced com 1080 linhas de resolução vertical a 30qps) o monitor deve ser capaz de exibir pelo menos as 1080 linhas de resolução. Existem monitores do tipo LCD ou CRT com essas especificações, tanto independentes como conectáveis a computadores e necessitam ser capazes de exibir imagens no formato 16x9. Para aplicações menos críticas em termos de monitoramento, podem ser empregados monitores que aceitam entrada analógica tanto do sinal 720p (progressivo com 720 linhas) quanto do 1080i (interlaced com 1080 linhas).

051. O HDV não permite fazer a captura de conteúdo para edição-não-linear com precisão de quadro?

Correto - não é possível fazer captura com precisão de quadro como ocorre com o Mini-DV, devido às características dos GOPs - Group Of Pictures utilizados na compressão MPEG2 do HDV. A melhor maneira de se trabalhar com HDV é capturar trechos da fita e armazená-los no disco, passando-se a seguir a considerar este material no disco como master. Pelo mesmo motivo não é possível fazer insert edit em uma fita HDV cujo conteúdo foi gravado a partir da função export to tape, no micro, via FireWire para a câmera, nem é possível fazer assemble edit, gravando aos poucos a fita, pois na reprodução da mesma (playback) não haverá uniformidade na emenda dos trechos: existirá no local uma breve pausa, durante a qual o decoder MPEG2 fará a ressincronização dos dados.

050. O filmlook é melhor imitado com uma câmera Mini-DV semi-profissional gravando a 24p do que com uma câmera HDV trabalhando em HD1/HD2?

Correto - isso se deve principalmente à velocidade 24qps e ao modo progressive (24p) scan existente nessas câmeras. No formato HDV, a especificação HD1 provê progressive scan, mas a 30 ou então a 60 qps, não a 24 qps. E a especificação HD2 do formato HDV só trabalha com imagem do tipo interlaced. De modo geral, o aspecto da imagem produzida em HDV aproxima-se muito mais do look vídeo do que do look cinema, principalmente na especificação HD2. Tratamentos de pós-produção neste caso não alteram significativamente a imagem neste ponto, acarretando em muitos casos perda de resolução. Essa característica deve-se não ao formato ser HD e sim às suas especificações: não ocorre por exemplo em equipamentos do segmento profissional como o Varicam DVCPRO HD, que pode captar imagens em diversas velocidades, entre elas, 24p. Ou em câmeras HDV que não seguem estritamente os padrões HD1 / HD2 do formato HDV, implementando uma solução própria da especificação HD1, em 24p, como o ProHD da JVC.

049. Não existe fita HDV?

Correto - o HDV utiliza as mesmas fitas do formato Mini-DV, inclusive com a mesma velocidade de passagem da fita sobre as cabeças de leitura / gravação, o que fornece o mesmo tempo de gravação. Algumas melhorias estruturais no entanto foram efetuadas na superfície das fitas destinadas ao formato HDV, originando-se daí a existência de fitas com a denominação " HDV ". O tratamento feito pelo formato HDV em relação a eventuais falhas nas fitas (dropouts) difere do tratamento efetuado pelo formato Mini-DV e uma das idéias envolvidas nas melhorias referidas tem ligação com este fato. Como o HDV utiliza compressão MPEG2 (compressão inter-frame, onde vários quadros dependem da informação de um único quadro, em uma sequência denominada GOP - Group Of Pictures) e o Mini-DV utiliza compressão própria, do tipo intra-frame (cada quadro é individualmente comprimido), a perda de informação em um trecho da fita (causada por um dropout) acarreta consequências bem maiores no HDV do que no Mini-DV. Enquanto neste esta perda pode-se traduzir pelo piscar único de um pequeno ponto brilhante (muitas vezes imperceptível para observadores comuns), no HDV pode-se traduzir por um breve congelamento da imagem no playback (de frações de segundo, mas bem mais perceptível). Este fato é bem mais perceptível na implementação HD2 do HDV (1080 linhas de resolução vertical interlaced) do que na implementação HD1 (720 linhas de resolução vertical progressive), porque a HD2 emprega GOPs mais longos do que a HD1, o que motivou a criação das fitas " HDV " pela Sony (suas primeiras câmeras HDV utilizam HD2). Assim, teoricamente as fitas denominadas " HDV " seriam de melhor qualidade, menos susceptíveis a dropouts como as MIni-DVs. Seja como for, o formato aceita indistintamente tanto um como outro tipo de fita e as câmeras HDV normalmente também gravam e lêem em Mini-DV, embora para melhores resultados em HDV as fitas próprias sejam recomendadas, pelos motivos expostos acima.

048. Não é possível distribuir conteúdo HD, como o produzido por câmeras HDV por exemplo, em DVDs comuns?

Correto - o DVD-Video é um meio que armazena vídeo em resolução padrão (SD - Standard Definition), não em alta resolução (HD - High Definition). Para transferir imagens HDV para um DVD, é necessário diminuir sua resolução, onde sua vantagem é perdida, inclusive frente a câmeras comuns de 3 sensores do segmento semi-profissional. Somente através de discos que suportam alta resolução, como o Blu-ray e o HD-DVD, é possível manter o sinal HD sem diminuição de qualidade.

047. A alta definição da imagem HDV pode ser comprovada em um televisor comum?

Errado - somente através de um televisor / monitor de alta definição (plasma, LCD, CRT) ou de um projetor de alta definição (DLP e outros) é possível desfrutar da maior qualidade da imagem oferecida pelo formato HDV; para visualização em televisores comuns não há nenhuma vantagem no uso desse formato. A imagem produzida por uma câmera HDV não difere por exemplo da imagem produzida por câmeras de 3 sensores do segmento semi-profissional quando visualizada em um monitor / televisor comum (não de alta-definição).

046. O formato HDV pode ser editado em qualquer sistema de edição-não-linear?

Errado - existem 2 requisitos, um de hardware outro de software. O tipo de compressão utilizado (MPEG2, com Group Of Pictures - GOPs longos) exige o uso intensivo de CPU para montar e desmontar os blocos codificados de imagens. Assim, a edição em HDV exige CPUs com processadores de no mínimo 2.8 Gb a 3.0 GB, com 1 Gb de memória RAM, situação que não é exigida no trabalho com formatos não HD, como o Mini-DV por exemplo. Por outro lado, o sinal HDV gravado na fita (formato MPEG2-TS, Transport Stream) necessita que o programa de edição consiga interpretá-lo diretamente, ou então, em outro tipo de abordagem, que seja convertido para o formato " .avi " . De uma forma ou de outra, isso exige um tratamento diferenciado por parte do programa de edição, o que é conseguido através de plug-ins ou de versões desses programas adaptadas para o trabalho com esses formatos. Ainda em relação ao hardware, em máquinas menos potentes, utilizadas sem problemas na edição de conteúdo não HD (Mini-DV por exemplo), a transformação a partir do MPEG2-TS é muito lenta e o playback do conteúdo editado na Timeline pode praticamente não ser possível. Além disso, a renderização, mesmo de pequenos trechos, consome um tempo consideravelmente maior do que o tempo real do vídeo (até 30 vezes mais, dependendo do processador). Pode-se afirmar que os requisitos de hardware de uma máquina para editar HDV são semelhantes aos exigidos para se editar DVCPRO HD. Assim, existem requisitos tanto de hardware como de software que devem ser atendidos para a edição em HDV.

045. A diferença entre o zoom óptico e o digital é que o primeiro aproxima a imagem enquanto o segundo somente a amplia?

Errado - os dois tipos de zoom fazem exatamente a mesma coisa: ampliam a imagem. Nada na imagem muda, a perspectiva continua a mesma - proporção entre o tamanho aparente dos objetos - somente ocorre a ampliação, que acarreta o corte nas laterais acima e abaixo. Essa ampliação é que causa a sensação de proximidade dos objetos e pessoas na imagem. A diferença é que o zoom óptico faz isso através de lentes, trabalhando com alteração da geometria do percurso dos raios de luz e o zoom digital através de interpolação, duplicando e criando artificialmente pixels em lugares antes não existentes. Isso faz com que a ampliação da imagem ocorra sem perda de resolução no processo óptico e com perda no processo digital. Neste, quanto maior o aumento, maior a perda da qualidade da imagem. Algumas câmeras permitem o desligamento do zoom digital e/ou a indicação no visor do momento em que a imagem está sendo ampliada por um processo ou por outro. Normalmente o que ocorre é o zoom digital ser ativado automaticamente após o término da ampliação máxima efetuada pelo zoom óptico.

044. O formato mp3 de áudio é sinônimo de mpeg3?

Errado - apesar da semelhança, a sigla MPEG3 nem existe: ela foi inicialmente proposta para definir um formato de transmissão para TV de alta definição (HDTV), mas em seguida abandonada ao perceber-se que o padrão MPEG2 poderia ser utilizado para este propósito. Os formatos de compressão de vídeo MPEG1 e MPEG2 englobam processos para tratamento tanto da imagem como do som que a acompanha. Na parte que se refere ao som, 3 métodos de compressão de áudio foram definidos, indistintamente de tratar-se de MPEG1 ou MPEG2. Esses métodos receberam os nomes Layer-I, Layer-II e Layer-III. A taxa de compressão utilizada aumenta do método I para o II e do II para o III, e com isso também aumenta a complexidade do software necessário para comprimir e descomprimir o áudio. O de compressão mais eficiente (MPEG1 Layer-III) ficou conhecido como mp3 ao difundir-se rapidamente pela Internet. As taxas de compressão utilizadas são 4:1 (Layer-I), 6:1 a 8:1 (Layer-II) e 10:1 a 12:1 (Layer-III, o mp3).

043. O formato digital de alta definição HDV não tem relação com a TV de alta definição (HDTV)?

Correto - apesar dos 2 conceitos tratarem de alta definição, HDV (High Definition Video) não é HDTV (High Definition Television). O sinal do formato HDV é completamente diferente dos sinais empregados nos vários padrões HDTV existentes. A única relação entre estes sistemas é o fato do HDV ter sido criado, entre outros motivos, para aproveitar o crescente número de aparelhos de TV de alta definição comercializados. Estes aparelhos, fabricados para trabalharem com sinais de HDTV, também podem exibir imagens geradas pelas câmeras HDV, que possuem maior resolução horizontal e vertical do que os sistemas tradicionais, além de empregar o formato widescreen 16:9, também utilizado em padrões HDTV. Os estúdios que geram imagens em HDTV utilizam equipamentos (câmeras, formatos) próprios destes sistemas. O HDV somente aproveita-se da existência dos referidos aparelhos de TV.

042. Um DVD com capacidade de armazenamento 4,7 G bytes armazena 4.700.000.000 bytes?

Correto - em Informática, ao contrário do que ocorre em Física, unidades de grandeza como Kilo, Mega, Giga e Tera não correspondem a múltiplos de 1000, como por exemplo em "1 Kw = 1000 watts". O número que expressa essas grandezas é sempre o número 1024. Nessa relação, 1 Kb = 1024 bytes (e não 1000 bytes). Da mesma forma, 1 Mb = 1024 kb, 1 Gb = 1024 Mb e 1 Tb = 1024 Gb. Assim, um arquivo contendo 1 Gb contém 1.073.741.824 bytes (pouco mais de 1 bilhão de bytes), porque 1 Gb = 1024 vezes 1 Mb, que por sua vez é igual a 1024 vezes 1 Kb, que possui 1024 byes. Ocorre que a norma de especificação para medida da capacidade em bytes de DVDs é diferente da utilizada em Informática, seguindo o mesmo padrão utilizado em Física, de múltiplos de 1000 ao invés de múltiplos de 1024. Assim, um DVD de 4,7 G bytes armazena 4.700.000.000 bytes e não 5.046.586.572 bytes (valor correspondente a 4,7 Gb). As notações utilizadas são diferentes: 4,7 G bytes e não 4,7 Gb, onde o "G" representa 1 bilhão, assim como o "M" representa 1 milhão e o "K" representa 1000. É por este motivo que não se consegue gravar 4,7 Gb de dados em um DVD de 4,7 G bytes de capacidade: somente é possível gravar 4,3 Gb de dados.

041. Microfones sem fio funcionam melhor em ambientes externos?

Correto - existem dois problemas que costumam afetar a transmissão do som do microfone sem fio para o receptor: um deles é conhecido como multipath interference. O transmissor ao qual é acoplado o microfone sem fio emite ondas de rádio em todas as direções. A antena (ou antenas) do dispositivo receptor deve teoricamente captar as ondas que vem somente em sua direção. No entanto, as ondas de rádio, assim como outras ondas eletromagnéticas (como a luz por exemplo) sofrem reflexão ao encontrar determinados tipos de obstáculos. Para cada tipo de onda, o obstáculo que causa a reflexão é um: para as ondas de rádio, superfícies metálicas por exemplo, ou sólidas (como o concreto por exemplo). Assim, várias ondas que saem do transmissor podem ser refletidas por paredes, teto e outros objetos e acabarem chegando também à antena do receptor. O trajeto percorrido por estas ondas refletidas é maior do que o percorrido pelas ondas que atingem a antena do receptor diretamente. O problema é que o comprimento de onda (tamanho de cada onda completa) das ondas de rádio é muito pequeno e este fato (ondas percorrendo trajetos diferentes e chegando ao mesmo local) pode fazer com que, em determinados momentos (dependendo da posição da antena), haja o cancelamento de uma onda com outra. Em outras palavras, pode ocorrer a coincidência de uma onda chegar à antena diretamente ao mesmo tempo que outra refletida e, pela diferença de distância percorrida, ficarem em fases diferentes (os "picos" e os "vales" da onda). Este fenômeno, chamado phase cancelation faz com que por instantes o som fique mudo ou com chiados.

Outro problema que afeta a recepção do som pela antena é a interferência de outras ondas eletromagnéticas, como as emitidas por determinados reatores de luzes fluorescentes ou por motores elétricos no local, fenômeno chamado radio frequency interference (RFI). Em ambientes externos, geralmente estes dois problemas não ocorrem, devido às características diferentes desses ambientes, o que explica o fato desses microfones funcionarem melhor.

040. O chamado film look não tem nada a ver com a frequência de quadros por segundo (24) utilizada no cinema?

Correto - enquanto que em cinema a frequência de quadros por segundo tradicional é a de 24 qps, o vídeo no formato NTSC trabalha com 30 qps. Essa cadência um pouco maior é responsável pelas cenas panorâmicas (movimento de pan horizontal) não apresentarem-se entrecortadas (efeito parecido com strobe). No entanto, descontando-se este tipo de cena, não é a velocidade mais baixa que confere à imagem do cinema um aspecto visual diferente do apresentado pelo vídeo. Se assim fosse, ao projetar-se o mesmo filme a 30qps ao invés de a 24qps seu aspecto ficaria como o do vídeo, o que não acontece. Por outro lado, aumentar a cadência na câmera de cinema durante a filmagem também não faz a imagem cinematográfica ficar como a do vídeo. Se assim fosse, isso ocorreria nas cenas filmadas em câmera lenta (onde a velocidade na câmera é aumentada, para projetá-la posteriormente em velocidade normal). Nem mesmo projetar em velocidade maior esse filme, captado também em velocidade maior, reproduz o "vídeo look". E como argumento definitivo em relação à questão da velocidade, pode-se citar o vídeo no formato PAL europeu, exibido à 25qps (portanto muito próximo dos 24qps do cinema) e que nem por isso possui um film look.

Também não é a granulação, muitas vezes aparente nos filmes (e inexistente na maioria das vezes no vídeo, exceto quando subexpostos) a responsável pelo film look. Películas de cinema no formato 70mm dificilmente apresentam granulação visível. Por outro lado, fitas de vídeo gravadas com pouca luz, como visto acima, apresentam com frequência granulação visível.

O que confere à imagem cinematográfica um visual diferente do visual da imagem do vídeo (o chamado film look) é a latitude de exposição, muito diferente no vídeo e na película cinematográfica (que é igual à película fotográfica). Por latitude entende-se a faixa de variação possível em termos de exposição, indo dos tons mais claros aos tons mais escuros. A latitude de exposição do vídeo é cerca da metade da latitude máxima de exposição atingida pela película cinematográfica. É por isso que uma mesma cena de um espetáculo teatral, onde é comum o uso de grandes contrastes de luz e de grandes variações de meios-tons, apresenta-se tão diferente em uma gravação e em uma filmagem. Um vaso de plantas na penumbra por exemplo, localizado em um canto do palco não muito iluminado, será visto pelo filme com os detalhes e nuances de suas folhas e os desenhos existentes na parte externa do vaso, embora em tons de cinza escuro. Já o vídeo o verá como um objeto totalmente negro. O equivalente acontece com as tonalidades claras, e é isto o que faz a imagem do vídeo ser diferente da do cinema, onde se pode falar do chamado film look.

O que não é film look: películas cinematográficas desgastam-se com as sucessivas 'passadas' pelo projetor, onde diversos roletes-guias, cilindros e outros mecanismos acabam produzindo eventuais riscos ou marcas na superfície da fita. Somando-se a isto eventuais cuidados inadequados na manipulação e conservação das fitas tem-se o visual típico de filmes antigos sendo projetados, existindo inclusive um efeito em softwares de edição-não-linear para imitar isto. No entanto, por tratar-se de um defeito (filmes novos não o possuem) não pode ser considerado como film look. O aspect ratio diferente (proporções de imagem mais largas do que a de 1,33:1, como 1,85:1 ou 1,66:1 por exemplo) também não é o responsável pelo film look: colocar faixas horizontais de papel acima e abaixo da superfície da tela de uma TV comum não muda em nada a imagem, apenas deixa seu formato parecido com o do cinema. Se fizermos isso, continuaremos a notar uma grande diferença quando a programação desta TV com faixas de papel mostrar um filme e mostrar uma novela comum.

Existe no entanto outro aspecto, que juntamente com a latitude de exposição, confere diferença entre filme e vídeo: a profundidade de campo (zona para trás e para frente do ponto focalizado, onde tudo fica nítido). Quando menor a área da imagem formada pelas lentes, maior a profundidade de campo da imagem. Como os CCDs tem área bem menor do que a do fotograma de 35mm (o mais usado em cinema), a maioria dos filmes apresenta profundidades de campo pequenas na maioria das cenas, o que é menos comum em vídeo (na maioria das cenas, porque a profundidade depende também de outros fatores, como a abertura utilizada por exemplo). Portanto, a latitude de exposição e a menor profundidade de campo na maioria das cenas é que são as causas do film look. Outros aspectos, como a proporção mais larga da imagem, a velocidade mais baixa, etc... ajudam na semelhança, mas não são isoladamente causas do aspecto visual da imagem ser tão diferente.

Existem softwares e plug-ins específicos para 'maquiar' uma imagem de vídeo e torná-la bem parecida com o film look. Juntamente com outras técnicas e truques durante a produção, como filtros para suavizar a imagem, o uso constante de pequena profundidade de campo, a gravação em PAL europeu (25qps), o uso de transições somente do tipo corte seco e dissolve, etc.., um material gravado em vídeo pode aproximar-se bastante do film look, a ponto de enganar muitos observadores.

039. Embora o formato NTSC trabalhe com 525 linhas, a imagem de um televisor doméstico nesse formato apresenta resolução em torno de 330 linhas devido a perdas no processo de geração e transmissão?

Errado - o sistema NTSC de fato trabalha com 525 linhas, mas a afirmação incorre em uma confusão de conceitos resolução horizontal e vertical. O valor 525 refere-se à resolução vertical, que conta o número de linhas de alto a baixo na tela. Essa resolução é sempre fixa, inerente ao padrão (assim como no sistema PAL é de 625 linhas). Qualquer fator de degradação, ocorrido desde a edição, formatação, geração e transmissão das imagens, afetará somente a resolução horizontal das mesmas, que conta a maior quantidade de linhas verticais que podem ser contadas através da imagem exibida. Assim é que o sistema NTSC trabalha com 330 linhas de resolução horizontal em média, para broadcast, enquanto uma fita VHS atinge cerca de 240 linhas em média, de resolução horizontal. Mas a imagem das duas fontes, a recebida via antena / cabo e a apresentada pelo videocassete sempre tem 525 linhas de resolução vertical, no padrão NTSC.

038. Câmeras com sensores (CCDs/CMOSs) maiores produzem imagens com melhor qualidade do que as produzidas por câmeras com sensores menores?

Depende - nem sempre isso é verdade, porque há vários fatores envolvidos na questão. Em primeiro lugar, a quantidade de pixels presente no sensor é diretamente proporcional à qualidade da imagem, cf. Q-13 . Porém, a quantidade de pixels não tem relação direta com o tamanho do sensor: chips maiores (geralmente os de fabricação mais antiga) podem possuir uma quantidade de pixels menor do que a presente em chips menores. Assim, levando-se em conta somente o fator 'quantidade de pixels' , não é verdade que sensores de 2/3pol. contenham mais pixels do que os de 1/2 pol, e estes do que os de 1/3pol, 1/4pol e 1/6pol. (lembrando que esta é a medida do diâmetro da área onde é formada a imagem no sensor).

Em segundo lugar, existe um limite para o qual a informação captada no sensor é útil: este limite é o limite suportado pelo formato. No formato Mini-DV por exemplo, cerca de 350.000 pixels no sensor são suficientes para produzir uma imagem de alta qualidade. Se o sensor contiver mais pixels do que isso, a informação produzida por eles será desperdiçada, não podendo ser aproveitada pelo limite determinado pelo formato. Algumas câmeras possuem sensores com um número de pixels bem maior do que este: porém os pixels a mais são utilizados para outros fins, como foto digital, estabilizador eletrônico (EIS), etc...

Em terceiro lugar, quanto menor o tamanho da imagem projetada pelas lentes, menos pixels estarão sendo usados para representar um determinado trecho da imagem. Isso ocorre também em cinema e fotografia, onde quanto menor a imagem projetada sobre a película pelas lentes, menos cristais de prata vão ser utilizados para representar uma determinada área da imagem. É por isso que a imagem do fotograma de um filme captado em 70mm é geralmente melhor do que a de um outro captado em 35mm, e idem para 16mm e 8mm (e que fotógrafos profissionais fazem muitas vezes uso em estúdio de câmeras fotográficas de 70mm ao invés das de 35mm) . Isso poderia ser resolvido aumentando-se a densidade dos cristais de prata na película, mas normalmente não resolveria a questão, pois o filme ficaria cada vez menos sensível à luz, exigindo tempos maiores de exposição. Em vídeo, a operação equivalente (colocar mais pixels na mesma área) tende a acarretar problemas como a invasão ou interferência do sinal de um determinado pixel sobre seu vizinho (fenômeno denominado crosstalk).

E em quarto lugar, se a imagem projetada sobre o sensor for maior, isso implica que também as lentes terão de ser maiores e também a abertura das mesmas. Lentes maiores podem ser confeccionadas com mais precisão (maior qualidade) e são mais luminosas (permitem a entrada de quantidade maior de luz). Mais luz se traduz em melhor rendimento do sensor e também na possibilidade de se trabalhar com aberturas menores, e portanto maior profundidade de campo. Assim, embora não necessariamente um sensor maior propicie imagem melhor, são geralmente utilizados sensores de 1/3pol, 1/2pol ou 2/3pol nas câmeras profissionais (pelos fatores e características acima descritos).

037. Um DVD player NTSC reproduzindo um filme no formato widescreen envia para um aparelho de TV de tela larga (16:9) um sinal analógico não-widescreen, no formato 4:3?

Correto - isto acontece porque esta é a proporção do quadro no sinal NTSC. Quando a imagem é mais larga do que isso (widescreen), é normalmente gravada no DVD com faixas pretas acima e abaixo. Assim, a saída do player tem sempre o formato tradicional 4:3 ; se esta saída for conectada a um televisor comum, as barras pretas acima e abaixo aparecerão. Se for conectada a um televisor de tela larga, o processador interno da TV faz o ajuste da imagem existente dentro das faixas pretas para que a mesma se encaixe na tela, 'encolhendo-a' / 'esticando-a' ligeiramente até que ela encoste nas bordas da tela. Ajustes opcionais nestes televisores permitem manter a proporção original do filme sem haver 'esticamento' / 'encolhimento' , porém com o acréscimo automático de faixas pretas. Isto ocorre porque nenhuma das diversas proporções utilizadas em cinema é exatamente igual à proporção 16:9, utilizada em sistemas de TV de alta definição (HDTV) e nos aparelhos de TV de tela larga.

036. Sendo o disco DVD uma mídia digital, os sinais de saída de áudio e vídeo de um DVD player são sinais digitais?

Errado - são sinais analógicos. Somente são digitais os arquivos de som e imagem armazenados no disco. Quando o DVD player lê o disco, envia o sinal digital lido para um conversor digital-analógico, que gera o sinal analógico que vai alimentar um aparelho de TV por exemplo. As saídas mais utilizadas neste caso são a vídeo componentes (3 conectores do tipo RCA ou BNC para o sinal que combina cor e luminosidade das cores do sistema RGB), a SVHS (1 conector do tipo Y/C para cor e luminosidade separados) e a vídeo composto (1 conector do tipo RCA para cor e luminosidade combinados), todas, saídas analógicas. A maior qualidade da imagem em relação à de uma fita VHS por exemplo deve-se aos processos de produção e armazenamento digitais. O sinal digital lido do disco sofre perdas na conversão para analógico e também na transmissão através dos cabos do player ao aparelho de TV, porém estas perdas são mínimas e não chegam a ser perceptíveis.

035. Unlocked audio é a causa da perda de sincronismo de som e imagem em arquivos grandes, quando editados em alguns softwares?

Errado - unlocked audio nunca é a causa da perda perceptível de sincronismo entre áudio e vídeo, mesmo após a edição de arquivos grandes. Isso porque, apesar de não existir o sincronismo perfeito entre áudio e vídeo, o circuito da câmera tenta a todo momento efetuar correções, não deixando a diferença ultrapassar cerca de 1/3 de quadro. A referida perda de sincronismo pode ter várias outras causas, entre elas: » versões antigas de softwares que não corrigiam (automaticamente ou não) o sampling de áudio em relação à diferença entre 29,97 quadros/seg (real) e 30 quadros/seg do padrão NTSC » ajuste incorreto do frame rate no menu de captura e/ou em outras partes do software. » opção para auto-correção de sincronismo entre áudio e vídeo (existente em alguns softwares) desligada.

034. Embora tenham nomes diferentes, MiniDV, Digital8, DVCam e DVCPro usam tipo idêntico de sinal de vídeo?

Correto - todos estes formatos fazem parte da família de formatos DV. O que distingue um desses formatos de outro não é o tipo de sinal e sim a maneira de armazenar o sinal na fita. Aplicações profissionais pressupõem uso intensivo, logo requerem materiais mais robustos e mais resistentes a eventuais falhas. Assim por exemplo, o formato DVCPro usa fita do tipo metal particle (MP) ao invés do tipo metal evaporated (ME) usada no formato MiniDV, considerada mais resistente para uso frequente. As trilhas são mais largas nos formatos DVCam / DVCPro do que no formato MiniDV: isso permite o intercâmbio do cassete com facilidade de um equipamento para outro, que possuem sempre diferenças mínimas de alinhamento no mecanismo das cabeças de leitura/gravação. Diferenças deste tipo fazem com que um formato seja mais indicado para um tipo de utilização do que outro, mas a qualidade do sinal é a mesma. O que pode ocorrer por outro lado é que os formatos voltados para o mercado profissional funcionam geralmente em câmeras melhores do que as câmeras voltadas para o mercado consumidor: lentes maiores, presença de 3 sensores e circuitos eletrônicos mais apurados, entre outros fatores, fazem com que o resultado final seja melhor. No entanto, este resultado melhor decorre não do formato em si, que é o mesmo (DV) e sim dos outros fatores como os citados acima.

033. Uma imagem para ser utilizada na web precisa ter 72 dpi de resolução?

Errado - o tamanho de uma imagem na tela depende somente da quantidade de pixels que ela contém, da resolução ajustada para a tela e do tamanho físico da tela; não existe um valor ‘x’ de ‘resolução de exibição na tela’ associado ao arquivo de imagem. Existe sim um outro valor de resolução associado ao arquivo, a ‘resolução de impressão’ ("Resolution" em "Document Size" no software de edição de imagens Adobe Photoshop, por exemplo). Alterando-se este valor (que é armazenado com o arquivo), aumenta-se ou diminui-se a concentração de pontos por polegada na impressão (point per inch, dpi) e com isto a imagem fica menor ou maior no papel.

Alguns softwares, como o Photoshop, permitem que juntamente com a alteração deste campo de resolução de impressão, seja também alterada a quantidade de pixels no arquivo. A ativação dessa opção (chamada "Resample Image") faz com que após a alteração o tamanho da imagem na impressão permaneça o mesmo, somente com uma resolução diferente. Assim, se a resolução for dobrada, mais pontos serão usados (o dobro por área) para efetuar a impressão e como o tamanho total da imagem tem que ser o mesmo, serão necessários mais pontos no total (o dobro). A quantidade de pixels (=pontos) terá que ser dobrada e o software irá criar pixels antes inexistentes, entre os já existentes, em um processo denominado interpolação. Aumentando a quantidade de pixels, aumenta o tamanho do arquivo. Após clicar-se OK a imagem vista na tela dobra de tamanho, porque a resolução do monitor permaneceu a mesma (o que aumentou foi a resolução na impressão). De maneira inversa, se a resolução for dividida por dois, menos pontos serão usados (metade por área) para efetuar a impressão e como o tamanho total da imagem tem que ser o mesmo, serão necessários menos pontos no total (a metade). A quantidade de pixels terá que ser reduzida à metade e o software irá descartar informações (que não poderão mais ser recuperadas) para criar a nova imagem. Diminuindo a quantidade de pixels, diminui o tamanho do arquivo. Após clicar-se OK a imagem vista na tela fica com a metade do tamanho que tinha antes. Se a opção "Resample Image" estiver desativada, a alteração na resolução de impressão em nada afetará o tamanho da imagem. A informação deste campo não é utilizada por nenhum Browser para dimensionar imagens, porque somente a quantidade de pixels é levada em consideração.

Sempre que uma nova imagem é gerada este campo é carregado com o valor inicial (valor default) "72". No entanto essa é uma resolução baixa para impressão e geralmente o valor é aumentado para um número maior (pelo menos 300 dpi) para obter-se trabalhos de ótima qualidade.

O uso do valor "72" como default para resolução de impressão no papel tem sua origem na tentativa de aproximar o tamanho da imagem impressa ao tamanho da imagem exibida no monitor. Assim, em 1984 a Apple criou um novo microcomputador, onde sua tela, com 9 polegadas (medida da diagonal da tela) trabalhava no modo gráfico. Pela primeira vez era possível a exibição de fontes de diversos tamanhos na tela, com efeitos como negrito ou itálico, ao contrário dos caracteres de forma e tamanho fixos das telas de fósforo verde, em uso até então. Com resolução fixa de 512x234 pixels a nova tela exibia 72 pixels por polegada, não por acaso.

Historicamente (desde antes dos computadores) o tamanho das fontes impressas (medida da altura das letras) é dimensionado em número de pontos: quanto mais pontos, maior o tamanho da fonte. Cada ponto é definido como 1/72 de polegada medida no papel, ou seja, uma polegada = 72 pontos. Assim, uma fonte de tamanho 10 pontos tem 10 vezes 1/72 polegada de tamanho, ou seja, 10/72 polegadas de altura quando impressa. Como, no monitor da Apple, uma polegada correspondia também a cerca de 72 pixels, as fontes exibidas na tela e impressas ficavam com tamanho semelhante, qualquer que fosse o tamanho escolhido.

Os monitores mudaram desde então, mas a Apple continuou a usar esse número, chamado "polegada lógica", para dimensionamento de textos. E o que acontecia para o antigo monitor de 9 polegadas (semelhança entre texto impresso e texto na tela) é o mesmo que ocorre para os atuais monitores de 15 polegadas (medida da diagonal da tela) se ajustados para a resolução de 800x600 pixels, onde uma polegada na tela corresponde aproximadamente a 72 pixels. Este tipo de monitor com este ajuste é o mais utilizado para visualização de imagens na Internet. A imagem de uma régua com marcações em polegadas, se capturada através de um scanner ajustado para 72 dpi, será exibida em um monitor com essas características de forma bem semelhante ao original.

Mais tarde a Microsoft passou a utilizar 96 pixels ao invés de 72 para representar uma polegada (referência válida somente para telas de 15 polegadas ajustadas para 800x600 pixels), com a finalidade de melhorar a legibilidade dos textos (ajuste "Font Size" no Windows). Este valor pode ser no entanto alterado, por exemplo para 120, quando se seleciona "Large Fonte Size" no Windows, afetando somente o tamanho dos textos exibidos na tela (imagens e ícones não são afetados). O monitor não utiliza este número para exibição de imagens do tipo foto / vídeo; a resolução destas na tela depende somente da quantidade de pixels que possuem, da resolução ajustada para a tela do monitor no momento da exibição e do tamanho físico da tela.

No Photoshop por exemplo, ao alterar-se para a metade o valor deste campo para uma determinada imagem (mantendo-se desabilitada a opção Resample Image para que a resolução da mesma não seja alterada), o tamanho de um mesmo texto digitado antes e depois da alteração também cai pela metade.

Além de servir para dimensionamento de fontes nas telas, a polegada lógica também é utilizada, como visto acima, como valor default para o campo que indica a resolução na impressão de imagens digitais. Neste caso, enquanto alguns softwares utilizam o valor 72, outros utilizam 96. Alguns softwares, como o Photoshop, adotam a terminologia "pixel per inch" (ppi) ao invés de "dot per inch" (dpi) para o campo "Resolution" acima mencionado.

032. O sistema de raios-X presente nos detectores de metais dos aeroportos é totalmente inofensivo para os equipamentos de vídeo?

Correto - este sistema só afeta películas fotográficas e, mesmo assim, as de grande sensibilidade (alto valor de ISO). Equipamentos de vídeo, como câmera e fitas não são afetados por estes raios.

031. A taxa de transferência de informações entre o meio onde o vídeo está armazenado (fita, disco óptico) e o aparelho que o exibe/armazena (microcomputador, câmera, DVD-player) é diretamente proporcional à qualidade da imagem?

Correto - este é um dos fatores que tem influência na qualidade da imagem. Assim, por exemplo, em um DVD-Vídeo comum a taxa de transferência é de 8Mbps (mega bits por segundo); já no formato Micromv esta taxa é de 12Mbps e no formato DV é de 25Mbps. Esses números mostram que entre os três é o DVD-Vídeo o que possui a maior taxa de compressão de imagem. E comprimir uma imagem acarreta sempre perda de qualidade: quanto maior a taxa de compressão, mais artefatos (defeitos) podem ser observados na mesma. Para uso em processos de edição, quando menos comprimido for o sinal melhor será o resultado. Assim, editar um original gravado em DV é duas vezes melhor do que editar um original gravado em Micromv, e três vezes melhor do que editar o sinal obtido do DVD-Vídeo, em termos de qualidade final. Por outro lado, a taxa de compressão é apenas um dos fatores que influenciam a imagem final. A qualidade do original capturado pode fazer com que sem o uso de equipamentos apurados de medição o sinal do DVD-Vídeo (obtido a partir de uma película cinematográfica com diversos tratamentos digitais na fase de masterização do disco óptico) pareça a um observador ser melhor do que o sinal obtido com uma simples câmera Micromv ou DV de apenas um sensor (CCD ou CMOS), do segmento consumidor. Conclusão: imagens muito comprimidas não são aceitáveis para trabalhos profissionais de edição, embora sejam perfeitamente aceitáveis para exibição.

030. Um DVD-Vídeo de determinada região (regional code 4 por exemplo), pode ser reproduzido sem problemas em qualquer DVD player da mesma região?

Errado - assim como o sinal das fitas de vídeo VHS pode ter formatos diferentes (NTSC, PAL-N, SECAM por exemplo), o mesmo acontece com os DVD-Vídeo: é preciso que além de possuírem o mesmo código de área aceito pelo player também utilizem sistema de sinal de vídeo compatível com o aparelho.

029. Quanto maior a quantidade de pixels no sensor, maior a sua resolução?

Correto - supondo-se na comparação sensores CCDs/CMOSs com mesmo tamanho de área de exposição. Como, para caberem na mesma área os pixels tem que ser menores, maior vai ser a individualização de pequenos pedaços da imagem, ou seja, mais detalhes serão capturados. Isto porque o trecho da imagem que recai sobre cada pixel é uniformizado, ou seja, o pixel não é capaz de 'enxergar' detalhes na imagem, ele analisa a luminosidade total que recai sobre o mesmo. Assim, o detalhamento se dá pixel a pixel e não dentro da superfície de cada um deles. Desta forma, quanto menores e mais numerosos, mais detalhes poderão ser captados. Porém, isso tudo refere-se à resolução (nível de detalhamento) captado pelo sensor: cf. Q-12 , trata-se apenas de uma das 3 etapas que envolvem o processo completo. Para imagens em movimento por exemplo (vídeo), a imensa quantidade de pixels existente em uma câmera que possua sensor do tipo megapixel não poderá ser aproveitada se o formato de gravação utilizado for o SVHS por exemplo; o mesmo não aconteceria se a câmera estivesse registrando imagens no formato HDTV por exemplo. Além da quantidade de pixels por sensor, existe um outro fator que interfere na resolução de cores, melhorando a aparência da imagem: a quantidade de sensores. Câmeras de vídeo com 3 sensores apresentam resolução muito melhor de cores do que as com apenas um.

028. A imagem observada na tela do monitor de vídeo não tem obrigatoriamente ligação direta com a resolução da câmera que a captou?

Correto - o processo de manipulação de imagens digitais envolve 3 etapas; em cada uma delas o conceito de resolução aplica-se separadamente. A primeira etapa é a da aquisição da imagem. Nesta etapa, entre 2sensores com mesmo tamanho (mesma área de exposição), o que tiver mais pixels terá maior resolução, ou seja, conseguirá individualizar uma quantidade maior de pequenos fragmentos da imagem e portanto mais fiel será a cópia eletrônica da imagem. A segunda etapa é a do armazenamento dos dados adquiridos na primeira. Nesta etapa acontecem vários processos, entre eles a leitura dos sinais armazenados nos pixels do sensor, sua codificação (conversão analógico/digital) e o armazenamento propriamente dito. Se o objetivo for produzir uma foto digital, os dados podem opcionalmente serem armazenados com a mesma resolução captada (quanto maior a quantidade de pixels, maior a resolução e maior o tamanho do arquivo gerado). Se o objetivo for produzir um vídeo, este, dependendo do formato utilizado, possui um valor maior ou menor, fixo, de resolução máxima suportada: se a resolução captada pelo sensor for maior, o excedente será desprezado. A terceira etapa é a da reprodução. Nesta etapa, supondo-se os dados a serem exibidos com uma determinada resolução, o resultado será apresentado com resolução maior ou menor, dependendo das características do dispositivo de exibição. Assim, uma foto com maior resolução ficará maior em tamanho quando exibida em um monitor de microcomputador, porém a qualidade será a mesma do que a de uma de menor resolução: a maior ou menor qualidade de ambas dependerá da resolução (PPI - Pixel Per Inch) ajustada para o monitor de vídeo (VGA: 640x480 pixels, SVGA: 800x600 pixels, XGA: 1024x768 pixels, UXGA: 1280x1024 ou 1600x1200) e não da quantidade de pixels nas fotos. Se esta foto for ser impressa, o software controlador da impressora converterá pixels em pontos de tinta: a resolução da foto impressa dependerá da quantidade máxima de pontos por área (DPI - Dot Per Inch) que a impressora for capaz de executar. Com as imagens de vídeo ocorre o mesmo: um sinal SVHS (resolução horizontal em torno de 400 linhas) terá qualidade melhor quando exibido em um monitor de vídeo capaz de mostrar resolução de imagem igual ou acima deste valor.

027. A lente zoom altera a profundidade aparente de campo, ao passar-se da posição grande-angular para tele-objetiva e observar-se uma pessoa ou objeto em movimento, aproximando-se ou afastando-se da câmera?

Correto - e isso só é percebido para cenas animadas, ou seja, é uma característica do filme/vídeo, não existe na fotografia, que é estática. Isto porque para uma pessoa se aproximando ou afastando da objetiva regulada em tele, ocorre uma 'compressão' aparente do espaço situado atrás e à frente dela: a pessoa parece caminhar quase sem sair do lugar. Efeito inverso ocorre quando a objetiva está regulada para grande-angular: aqui os movimentos são ampliados, como se a pessoa caminhasse a passos bem mais largos do que na realidade. Ocorre uma 'expansão' aparente do espaço situado atrás e à frente dela. Em outras palavras, a profundidade aparente de campo muda, numa e noutra situação.

026. A lente zoom muda a perspectiva da imagem, quando passa-se da posição grande-angular para tele-objetiva ou vice-versa?

Errado - a perspectiva da imagem não muda, permanece a mesma. Objetos ao fundo continuam com o mesmo tamanho proporcional em relação aos situados em primeiro plano; ocorre uma simples ampliação da imagem, como no processo de ampliação de negativos fotográficos. O efeito é geralmente confundido com outro, que ocorre quando a câmera afasta-se ou aproxima-se dos objetos enquadrados no visor. Neste caso ocorre, sim, a mudança na perspectiva da imagem: uma pessoa em primeiro plano, situada bem próxima da objetiva regulada para grande-angular, aparenta ser bem mais alta do que um poste situado a dezenas de metros atrás dela. Se a câmera afastar-se dezenas de metros para trás, as alturas aparentes se modificarão, ou seja, o poste ficará maior do que a pessoa. Se deste ponto afastado utilizarmos agora o zoom, de grande angular para tele-objetiva, até fazer com que a pessoa fique com o mesmo tamanho aparente que antes, como o zoom não altera a perspectiva, tanto a pessoa como o poste aumentarão de tamanho na mesma proporção. Comparando-se então a primeira imagem da pessoa, obtida com grande-angular e a câmera próxima da mesma, com a segunda, obtida com tele e a câmera distante, a perspectiva será bem diferente: na segunda, o poste atrás da pessoa estará bem maior. É errado no entanto atribuir este efeito à utilização do zoom: ele foi causado pelo distanciamento da câmera em relação à pessoa e não pelo zoom. Portanto o zoom só altera o ângulo de visão, não a perspectiva.

025. Uma lente de 10 mm. (distância focal) é uma lente grande angular?

Depende - uma lente grande angular possui distância focal menor do que uma lente normal, então o parâmetro de comparação é a lente normal. Ocorre que para formar uma imagem com perspectiva dita 'normal' (semelhante ao que o olho humando enxerga), é necessário que o diâmetro da lente seja pelo menos igual ao diâmetro da imagem formada por ela. Nessas condições, observa-se que a imagem tem perspectiva normal quando a distância focal da lente é ligeiramente superior ao seu diâmetro. Assim, uma objetiva de câmera fotográfica que necessita impressionar um negativo de 35 m.m. de largura (cujo diâmetro é 43 m.m.) com 50 m.m. de distância focal é considerada normal. Abaixo desse valor, será grande angular. Por outro lado uma objetiva de câmera de vídeo que precisa formar uma imagem sobre a superfície de um sensor CCD/CMOS de 6,7 m.m. (1/3 pol) de largura (cujo diâmetro é 8,5 m.m.) com 10 m.m. de distância focal é considerada normal. Abaixo desse valor, será grande angular. Portanto tudo depende do diâmetro da lente e da imagem formada.

024. Um visor de câmera (viewfinder) preto e branco pode ser preferível a um visor colorido?

Correto - a quase totalidade das câmeras do segmento profissional utiliza visor preto e branco, porque no visor colorido cada 1/3 do total de pixels do mesmo é reservado para uma das 3 cores básicas RGB (Red, Green, Blue), enquanto que no visor preto e branco todos os pixels são utilizados com uma única finalidade: reproduzir a luminosidade da imagem. Com isso, a resolução do visor preto e branco é maior do que a do visor colorido equivalente, o que é importante para o operador da câmera, constantemente preocupado com questões como foco por exemplo. Em uma câmera do segmento amador / semi-profissional geralmente este item possui menos importância, uma vez que o foco automático é utilizado na maioria das vezes. Além disso, no segmento profissional a preocupação com ajuste de cores não ocorre na câmera e sim um um monitor ligado à mesma.

023. Se o formato DV é capaz de gravar imagens com 500 linhas de resolução horizontal, toda câmera neste formato também gravará imagens com a mesma resolução?

Errado - as câmeras DV mais populares e baratas não possuem sistemas internos capazes de gravar com esta resolução, ainda que utilizando o formato DV. Assim, é possível encontrar câmeras deste tipo com resolução horizontal em torno de 400 linhas.

022. Quanto maior a quantidade de pixels no sensor melhor a qualidade da imagem de uma câmera?

Errado - a qualidade da imagem de uma câmera depende de diversos fatores, dos quais a quantidade de pixels no sensor (CCD ou CMOS) é apenas um deles. De fato, um sensor com mais pixels produz imagem mais detalhada e com mais nitidez do que outro com menos. Porém, esta vantagem pode facilmente ser suplantada por outros fatores. Um deles, a própria quantidade de sensores: câmeras com 3 sensores possuem melhor reprodução e resolução de cores do que câmeras com somente 1 sensor, ainda que com menos pixels nos 3 sensores somados. Outro fator é o elemento óptico: uma objetiva pode ser construída com materiais de melhor qualidade do que outra, pode ter lentes construídas com maior rigor e precisão do que outra, pode ser mais luminosa do que outra. Um terceiro fator é a qualidade dos circuitos eletrônicos internos da câmera, correções automáticas, etc... Um quarto - e muito importante fator, o tipo de formato utilizado (VHS, SVHS, DV, ...). Assim, somente é possível comparar-se a qualidade da imagem de duas câmeras em relação à quantidade de pixels no(s) sensor(es) se ambas tiverem todas as outras características equivalentes.

021. Uma câmera analógica é uma câmera 'eletrônica' e uma câmera digital é uma câmera 'digital?'

Errado - as duas são eletrônicas, o que existe são os termos 'circuito eletrônico analógico' e 'circuito eletrônico digital' , cada um processando um tipo diferente de sinal. Ambos podem estar presentes tanto na câmera analógica (dependendo do modelo) como na digital.

020. Sensores CCD/CMOS são dispositivos digitais?

Errado - todo sensor é um dispositivo eletrônico analógico contendo inúmeros pontos onde a luz é captada e convertida em cargas elétricas, com intensidade proporcional à intensidade da luz que incidiu naquele ponto (daí o termo 'analógico'). Estas cargas elétricas nos pontos dos CCDs/CMOSs são então lidas por um circuito eletrônico e convertidas em um sinal elétrico analógico, que entra a seguir em um processador dentro da câmera que o converte para sinal elétrico digital. Portanto todo sinal gerado dentro de uma câmera, mesmo nos modelos digitais, tem início como sinal analógico e não digital.

019. (túnel do tempo) Um computador para editar HDV necessita ter muito mais espaço em disco

Depende - existem duas formas diferentes utilizadas no tratamento do sinal proveniente de uma câmera HDV. Em uma delas este sinal pode ser copiado da fita para o disco diretamente, sofrendo apenas uma transformação da forma "Transport Stream" (na qual é gravado na fita) para "Program Stream" (na qual é gravado no disco). A outra forma é converter o sinal "Transport Stream" para um sinal do tipo ".avi". Existem vantagens e desvantagens em uma e outra abordagem. Sem conversão para ".avi" a qualidade da imagem é preservada - embora a degradação da conversão seja mínima, torna-se perceptível se o processo é repetido várias vezes com o mesmo conteúdo. Por outro lado esta forma de trabalho exige muito da CPU (exige processadores potentes), além de requisitar renderizações frequentes. Com conversão para ".avi" o trabalho de edição é facilitado, permitindo inclusive a realização de previews real-time. No entanto, e aqui a resposta para a questão, o espaço ocupado pelo vídeo em disco cresce cerca de 4 vezes após a conversão. No caso do trabalho direto sobre o "Transport Stream" (transformado para a edição em "Program Stream") o espaço ocupado em disco após a captura é normalmente semelhante ao que seria ocupado se o conteúdo fosse do tipo DV. Isso porque embora o HDV possua uma quantidade bem maior de informações do que o DV, estas estão comprimidas em MPEG2. Esse fato também explica a mesma fita Mini-DV poder ser totalmente preenchida com aproximadamente o mesmo tempo de gravação seja em DV ou HDV.

018. (túnel do tempo) Televisores de plasma exibem imagens em alta-definição?

Depende - o fato do televisor ser de plasma (ou LCD ou outra tecnologia) não implica necessariamente que sua resolução seja compatível com imagens HD (high definition). Nem todos os televisores possuem as 1080 linhas de resolução vertical no modo interlaced necessárias para exibição de conteúdo HDV no subformato HD2 por exemplo. Ou as 720 no modo progressive scan do subformato HD1. Ou ainda as mesmas 1080 linhas utilizadas em sistemas HDTV. Por outro lado, alguns aparelhos podem conseguir um número maior de linhas do que realmente possuem, mas de forma simulada, através de um artifício denominado interpolação, onde um processador analisa duas linhas e gera uma terceira, intermediária, tentando prever o que seria mostrado ali na realidade. No entanto, somente as telas - independentemente da tecnologia utilizada - capazes de exibir nativamente (sem artifícios) a quantidade de linhas acima referidas podem exibir efetivamente conteúdo em alta-definição com a máxima qualidade.

017. (túnel do tempo) A principal aplicação para o formato HDV é a exibição de conteúdo HD?

Correto - essa é a melhor utilização desse formato. Assim por exemplo uma câmera HDV pode ser conectada a um monitor HD para apresentação de um vídeo em HD em um evento. Pode ser conectada a um televisor preparado para HDTV, para apreciação das imagens gravadas em HD com a câmera HDV - os dois sistemas são compatíveis, ou seja, imagens HDV podem ser exibidas nesses televisores - inclusive esta foi uma das propostas da criação do formato. Conteúdo gravado em HDV pode ser editado em uma emissora de TV, para ser veiculado juntamente com suas transmissões HDTV. Imagens capturadas em HDV podem ser armazenadas para uso futuro, quando meios de distribuição HD estiverem largamente adotados, como ocorre hoje com o DVD-Video. Neste caso, embora a conversão posterior HD-SD da fita gerada não garanta imagens melhores do que as que se obteria com uma excelente câmera SD, é possível aproveitar as características particulares de algumas câmeras HDV, como por exemplo a maior latitude de exposição propiciada pelo processamento digital do sinal gerado no CCD/CMOS utilizando 14 bits ao invés dos tradicionais 10 bits. Isso explica a melhor qualidade de imagem gerada por algumas câmeras HDV após a conversão HD-SD em comparação com algumas câmeras SD de 3 CCDs - mas não em comparação com todas.

016. (túnel do tempo) Assim como o Mini-DV logo após ser criado, existem poucas possibilidades de distribuição do conteúdo HD gravado na própria fita HDV?

Correto - a mais simples é utilizar a própria câmera conectada a um monitor ou televisor HD para visualizar as imagens. Outra forma é gravar o sinal HD em VCRs DVCPRO HD - alguns modelos aceitam diretamente o sinal emitido pela câmera HDV, via FireWire. Gravadores HDCAM também aceitam o conteúdo HD, mas este precisa ser reproduzido a partir do sistema de edição-não-linear (playback da Timeline) no modo compatível com HDTV. Outra possibilidade são gravadores D-VHS (que gravam sinal MPEG2, como o sinal HDV). A distribuição do sinal HD é possível por outro lado através do Windows Media 9 ou do protocolo H.264, utilizando processadores de 3.0Ghz. O sinal Windows Media 9 / H.264 também é suportado pelos discos HD-DVD e Blu-ray. Outra possibilidade de distribuição é a gravação do conteúdo HD em servidores de estúdios / emissoras de TV para edição e apresentação em HDTV.

015. (túnel do tempo) O formato HDV substituirá no futuro o formato Mini-DV?

Depende - é muito provável que isto ocorra, na medida em que mais e mais países adotem padrões de HDTV e os preços dos televisores HD diminua, porém desde que não surja nenhum outro formato equivalente ou superior. Ambos formatos foram criados com objetivos semelhantes: embora sejam também utilizados por produtoras e estações de TV, seu público alvo é o usuário consumidor e o semi-profissional.

014. (túnel do tempo) Se formatos de vídeo que utilizam MPEG2 são tradicionalmente ruins para edição, o mesmo deve ocorrer com o formato HDV, que também utiliza MPEG2?

Errado - isso é verdade para formatos como o DVD-CAM e o Micromv por exemplo, devido à forma de compressão tradicional empregada no algoritmo MPEG2, acarretando problemas como perda de precisão em cortes. Porém no caso do HDV isso não ocorre: os programas de edição efetuam o tratamento correto das imagens ao descomprimirem trechos inteiros de sequências de quadros para aplicar os efeitos, recomprimindo-os posteriormente (em um processo que consome bastante CPU).

013. (túnel do tempo) Formatos que utilizam discos ópticos, como o DVD-CAM, tendem a suplantar formatos que utilizam fitas, como o Mini-DV?

Errado - o DVD-CAM utiliza um tipo de compressão MPEG-2 que gera alguns problemas de qualidade nos processos de edição-não-linear (da mesma forma que o formato Micromv, que, embora utilize fita, também trabalha com um tipo semelhante de compressão MPEG2), principalmente nas opções de criação de efeitos. São formatos destinados ao mercado consumidor, não ao mercado semi-profissional, em que pouca ou nenhuma edição será efetuada. A mídia ' fita ', por outro lado, tem-se mostrado um excelente suporte para gravação de sinais digitais: como exemplo, um dos mais recentes formatos lançados no mercado é o HDV (imagens digitais em alta definição - HDTV), que utiliza fita, na realidade, a mesma fita do consagrado formato Mini-DV. No HDV também é utilizada a compressão MPEG2, porém em um tipo que não acarreta problemas na edição-não-linear, quando efetuada através de softwares específicos para o trabalho com este formato (geralmente softwares tradicionais que recebem plug-ins para trabalharem com HDV). A médio-longo prazo, no entanto, o mercado será totalmente dominado por um tipo de mídia que não utiliza nem fitas nem discos ópticos: os chips de memória. Câmeras equipadas com este tipo de mídia praticamente não possuem partes móveis (exceto no mecanismo das lentes e outras poucas partes menores internas), resultando em maior durabilidade do equipamento. Por outro lado, por não necessitarem um compartimento para fitas, podem ser construídas menores, mais leves e com grande isolação do meio ambiente, protegendo seus circuitos eletrônicos internos da poeira, humidade e outros agentes nocivos do ambiente. Sua popularização depende somente do aumento da capacidade de armazenamento destes chips, acompanhado da queda em seu nível de preços.

012. (túnel do tempo) Colocar uma fita embolorada em um VCR ou câmera é prejudicial ao equipamento, pois ele poderá desenvolver bolor internamente, mesmo que a fita seja retirada logo a seguir?

Correto - o bolor é um fungo, que contém em seu interior milhares de minúsculas estruturas, denominadas esporos. Estes esporos possibilitam a propagação e disseminação do fungo, pois levados para outros locais onde não existe bolor, dão origem a novos focos nos locais onde caem. E o manuseio automático da fita por parte do equipamento facilita em muito esta contaminação, permitindo a liberação dos esporos devido aos movimentos bruscos efetuados para posicionar ou rebobinar a fita. O calor e a umidade do ar, se presentes, facilitam a seguir o crescimento e desenvolvimento do novo foco, condições não muito difíceis de serem reproduzidas dentro dos equipamentos, dependendo principalmente do local onde são operados.

011. (túnel do tempo)Existe diferença visual ao assistir-se uma fita Mini-DV gravada no modo LP e outra gravada no modo SP, assim como no sistema analógico existe diferença entre gravações de fitas VHS feitas nos modos EP e SP?

Errado - visualmente não é possível notar nenhuma diferença. No modo LP da fita Mini-DV e no EP da fita VHS as trilhas são gravadas mais próximas umas das outras; nos formatos analógicos, como no VHS, isso acarreta perda de informação. No formato digital Mini-DV, as trilhas estão mais próximas no modo LP, mas não há sobreposição entre elas. A largura das trilhas também é diferente: no modo SP, é de 10 microns, no modo LP, de 6,7 microns. Mas todos os bits referentes aos dados da imagem estão lá, tanto em uma trilha como em outra. Há no entanto uma restrição quanto ao som: no modo LP não é possível gravar um segundo canal de áudio, como no modo SP. Apesar de não existirem diferenças (exceto quanto ao áudio) problemas podem ocorrer. Isso porque sendo as trilhas gravadas mais próximas umas das outras, qualquer falha de óxido da fita deixa o sinal mais suscetível a dropouts. Além disso, fica mais difícil reproduzir a fita em outro equipamento mini-DV que não a câmera onde ela foi gravada. O problema dos dropouts, no entanto, é raro, com a qualidade atual de manufatura das fitas do tipo ME - Metal Evaporated que são utilizadas neste formato. No entanto, o problema da reprodução em outra máquina é bem mais comum. Podem haver diversos problemas, como o sinal de timecode tornar-se intermitente por exemplo. Como exemplo, em um equipamento Sony seu manual de instruções possui a advertência para reprodução de fitas gravadas em outros equipamentos: "the playback quality in LP mode, however, will not be as good as that in SP mode..." Assim, a sugestão é tentar gravar sempre em SP; no entanto, se for necessário, o fato de se gravar em LP não acarretará maiores problemas se não for necessário reproduzir a fita em outro equipamento.

010. (túnel do tempo) O uso de cabos Y/C melhora a qualidade do original gravado em uma fita e elimina a degradação da cópia?

Errado - os cabos Y/C, utilizados no formato S-VHS por exemplo, efetuam uma transmissão mais eficiente de um sinal de vídeo do que os cabos utilizados com sinal composto. Isto porque o sinal Y/C possui as informações de brilho (luminosidade) e cor separadas, o que não ocorre no sinal composto (onde as mesmas estão misturadas e portanto sujeitas a interferência mútua). No entanto, um original pré-gravado nunca será melhorado, mesmo se colocado por exemplo em um videocassete com saída do tipo Y/C. A qualidade da saída obtida sim, será melhor do que seria a qualidade da saída do sinal do tipo composto, o que ajudaria a obter uma representação mais próxima do que está gravado, mas nunca superior à mesma. E como o sinal que trafega pelo cabo é do tipo analógico, sempre haverá aí também uma parcela de degradação na imagem.

009. (túnel do tempo) Fitas de vídeo tem sua durabilidade aumentada se armazenadas, assim como os filmes fotográficos, em geladeira?

Errado - Emulsões fotográficas beneficiam-se realmente do frio, antes de serem expostas à luz dentro da câmera. Por este motivo, filmes dedicados a aplicações profissionais costumam ser armazenados em câmaras frias. No entanto isso nunca deve ser feito com fitas de vídeo. Entre outros problemas, como condensação de umidade no interior do cassete quando a fita é levada para um local menos frio (a fita não é vedada à entrada de ar em seu interior e este ar quente tem sua umidade natural condensada (transformada em água) ao entrar em contato com as partes frias no interior do cassete), o principal é a migração do lubrificante (de teor ácido) do mecanismo do cassete para a superfície da fita.

008. (túnel do tempo) Armazenar fitas em prateleiras metálicas pode eventualmente com o tempo causar problemas de desmagnetização nas mesmas, ou mesmo alterar o campo magnético das partículas na superfície das fitas, devido à transmissão de campos eletromagnéticos?

Errado - ao contrário, prateleiras metálicas são melhores do que as de madeira, por não serem combustíveis, por serem mais resistentes, não emitirem gases devido à evaporação de seladoras e vernizes e não absorverem umidade, como ocorre com a madeira não-selada. O campo magnético na prateleira metálica necessário para causar algum dano às fitas teria de ser muito intenso, o que poderia ocorrer em situações insólitas como um poderoso ímã / eletroímã conectado à prateleira, ou um grande motor elétrico cuja carcaça estivesse conectada eletricamente à mesma.

007. (túnel do tempo) Fitas de vídeo devem sempre ser armazenadas após efetuar-se FF (Fast Forward) até o final da fita?

Errado - este procedimento é comum no meio profissional de áudio, com o uso de fitas de áudio em rolo ou cassete a serem armazenadas por um longo período. Com o passar do tempo, eventualmente pode ocorrer a 'contaminação' magnética dos sons gravados em uma camada da fita para a camada adjacente. Essa transferência magnética, que ocorre de um trecho com forte magnetização (batida forte de um bumbo por exemplo) para outro com pouca, chama-se 'print through'. Manter a fita na posição pós-FF não a evita, porém quando a fita é colocada em 'play' a cópia do som da outra camada (ouvida como ruído de fundo, em volume mais baixo) é tocada de trás para frente, sendo assim menos perceptível: é mais difícil identificar uma melodia tocada de trás para frente do que no modo normal. Fitas de vídeo dificilmente apresentam 'print through' em suas trilhas de áudio e não apresentam este problema em suas trilhas de vídeo. Neste caso, para fitas de vídeo a única indicação para armazenamento pós-FF é quando a operação Rewind do equipamento não re-enrola uniformemente a fita. Caso contrário é indiferente o armazenamento pós-FF ou pós-Rewind.

006. (túnel do tempo) Placa digitalizadora e placa de captura são dispositivos diferentes?

Correto - uma placa de captura transfere para o HD do microcomputador um sinal já no formato digital (ex.: emitida por uma câmera Mini-DV). Já uma placa digitalizadora converte um sinal analógico para digtal, antes de transferí-lo para o HD do microcomputador.

005. (túnel do tempo) Uma vez que determinada câmera de vídeo possui função progressive scan, a qualidade da imagem obtida neste modo poderá ser aproveitada indistintamente, com excelente qualidade, em aplicações fotográficas e de transferência para película (cinema)?

Errado - o fato de uma câmera possuir esta função opcional, independente de outros fatores (como qualidade da parte óptica, eletrônica, sensores, etc...) por si só não a indica para uma aplicação ou outra. Existe uma segunda característica que deve ser anotada: a frequência de gravação (em quadros por segundo). Assim, algumas câmeras do segmento semi-profissional da Sony (TRV900 por exemplo) geralmente apresentam a função progressive scan implementada a 15 qps. A Panasonic possui equipamentos neste nível utilizando 30 qps e 24 qps, como a AG-DVX100. E a Canon, utilizando 30 fps (frames/segundo, utilizando Frame Movie mode), como a XL1S. Um exemplo comparativo câmera x aplicação do modo progressive poderia ser:

60i - (interlace comum) - ruim p/ still - excelente p/ vídeo - ruim p/ conversão p/ cinema 15p - (progressive Sony) - excelente para still - ruim p/ vídeo - ruim p/ conversão p/ cinema 30p - (progressive Panasonic) excelente p/ still - muito bom p/ vídeo - bom p/ conversão p/ cinema 24p - (progressive Panasonic) excelente p/ still - muito bom p/ vídeo - excelente p/ conversão p/ cinema 30fm - (Frame Movie Panasonic, Canon) - excelente p/ still - bom p/ vídeo - bom p/ conversão p/ cinema

e na captura:

60i - 1 campo em 1/60seg., 2 campos em 1/30seg., gerando 30 quadros/seg. 15p - 1/2 quadro em 1/60seg., 1 quadro em 1/30seg., repetido 1 vez, gerando 15 quadros/seg. 30p - 1/2 quadro em 1/60seg., 1 quadro em 1/30seg., gerando 30 quadros/seg. 24p - 1/2 quadro em 1/48seg., 1 quadro em 1/24seg., gerando 24 quadros/seg. 30fm - 1 quadro em 1/30seg., formado a partir da soma de 2 campos lidos em 1/60seg. cada, sendo esta leitura diferente da feita no modo 60i (via vertical pixel shift), gerando 30 quadros /seg..

004. (túnel do tempo) Determinada câmera digital efetua gravações utilizando fita Digital-8?

Errado - não existe "fita Digital-8". Este formato, criado pela Sony, utiliza as mesmas fitas do formato Hi-8, porém gravando nelas um sinal digital do tipo DV (no formato Hi-8 o sinal é analógico).

003. (túnel do tempo) Uma câmera de vídeo com um sensor do tipo megapixel produzirá com certeza imagens de melhor qualidade do que outra com um sensor que não tenha esta característica?

Errado - o termo megapixel significa que o sensor possui pelo menos um milhão (prefixo "mega") de pixels: assim como por exemplo um arquivo de 5,5 Mb possui 5 milhões e meio de bytes, um sensor com 1,2 megapixel possui 1 milhão e 200 mil pixels. No entanto cada formato de vídeo suporta uma determinada resolução máxima; para obtê-la, a quantidade necessária de pixels situa-se bem abaixo de 1 milhão - em geral torno de 300 mil pixels. Uma quantidade adicional (500 mil por exemplo) pode ser utilizada para outras finalidades, como por exemplo a função de estabilização eletrônica da imagem (onde capta-se mais para mostrar-se menos e poder ter-se margens para que a imagem possa ser deslocada compensando movimentos involuntários na mesma). Quantidades maiores serão desperdiçadas na geração do sinal de vídeo. Por outro lado, podem ser utilizadas para registrar imagens fotográficas, onde a quantidade de pixels maior criará imagens maiores quando exibidas em um monitor de computador, que poderão ser impressas com maior resolução por uma impressora que utilize uma grande quantidade de pixels (convertidos para pontos na impressão) por área. Assim, a quantidade adicional de pixels em sensores de câmeras de vídeo pode ser utilizada para produzir fotos de maior qualidade, mas não vídeo.

002. (túnel do tempo) Imagens gravadas em DVDs (formato MPEG2) através de um gravador de DVDs de um micro ou através de uma câmera de vídeo gravadora de imagens neste formato (DVD-RAM, por exemplo) terão aspecto de qualidade sempre semelhante à dos DVDs de filmes encontrados nas locadoras?

Errado - a qualidade da imagem gravada em quaquer tipo de mídia depende de vários fatores, que podem variar muito desde a fase de captação da mesma até a fase em que ela está pronta para ser transferida para a mídia em questão. Por outro lado, cada tipo de mídia suporta qualidade em maior ou menor grau: a qualidade da informação suportada por um DVD é superior por exemplo à que pode ser gravada em uma fita VHS. Portanto, supondo-se que a mídia escolhida seja DVD, a imagem obtida dependerá do que foi gravado nela. Embora na fase de captação de um vídeo comum a objetiva da câmera parta do próprio mundo real enquanto que na produção do DVD de um filme a objetiva parta da película fotográfica do mesmo (resolução portanto menor do que a do mundo real), o que acontece das objetivas (inclusive) para frente fará a diferença no resultado final. Diferenças na qualidade óptica das lentes num e noutro caso, na qualidade dos circuitos eletrônicos das câmeras, no número e qualidade do(s) CCDs, na quantidade de pixels/CCD, nos processos de digitalização, nos algoritmos de compressão utilizados, nos processos de gravação do sinal, entre outros fatores, explicam os diferentes resultados obtidos.

001. (túnel do tempo) Ao utilizar a função áudio insert existente em determinados VCRs para inserir áudio em uma fita pré-gravada nos formatos VHS/SVHS, este áudio será sempre de baixa fidelidade, nunca de alta fidelidade?

Correto - nestes formatos de vídeo existem 2 trilhas sonoras, uma gravada juntamente com a imagem, de alta fidelidade e estéreo e outra gravada de maneira separada da imagem, de baixa fidelidade, geralmente mono. A primeira, disposta de forma diagonal à extensão da fita, é gravada 'sob' a trilha de vídeo, no mesmo trajeto percorrido pelo cilindro das cabeças giratórias, em um processo denominado deep multiplexing. Aqui a imagem é separada do som no momento da reprodução através de um processo de multiplexação. Apagar esta trilha sonora significa apagar também a imagem. A segunda trilha é disposta longitudinalmente em relação à fita, em uma das bordas da mesma. Embora alguns poucos equipamentos consigam dividí-la em duas, gerando um sinal estéreo, a maioria dos equipamentos grava um único sinal mono neste local. No entanto, de uma forma ou outra, como a velocidade com que a fita passa pela cabeça fixa que lê esta trilha (cabeça estacionária) é muito baixa, a qualidade do som ali gravado é baixa. Esta trilha pode, nestes formatos, ser apagada e regravada, sem causar distúrbios à imagem, processo denominado áudio insert.