Explicação do jargão do vídeo

Índice:

Anonim

Cada nova câmera de vídeo vem com uma lista desconcertante de marcadores, especificações e recursos para explicar por que é melhor do que qualquer outra coisa que já existiu, mas o que todos eles significam e quão importantes são na verdade?

Muitas das coisas que você procura em uma câmera fotográfica também são importantes para o vídeo, principalmente coisas como o tamanho do sensor e a faixa ISO. Mas a captura de vídeo apresenta uma série de outros aspectos e tecnicismos além disso, então aqui está um guia para alguns dos jargões que você provavelmente encontrará e o que isso significa em termos reais.

Resolução de vídeo

12K, 8K, 6K, C4K, 4K UHD, FHD, HD … existem tantas resoluções diferentes agora! HD é o antigo 'HD padrão' com uma largura de quadro de 1280 pixels, enquanto FHD é 'FullHD' com a largura de 1920 pixels maior e mais usada. Depois disso, o número indica a largura aproximada do quadro em pixels, então 4K é o vídeo com 4.000 pixels de largura, 6K é o vídeo com 6.000 pixels de largura e assim por diante. Apesar das notícias de manchete sobre 6K, 8K e além, 4K é a resolução atual mais universal e ainda é muito alta para a maioria dos propósitos.

Razões de aspecto

A relação de aspecto é a largura do quadro de vídeo em relação à sua altura. É especialmente importante para vídeo, onde você deseja que as proporções do vídeo correspondam à tela ou exibam em que está sendo mostrado. De longe, a proporção de aspecto mais comum é 16: 9 (16 unidades de largura por 9 de altura). Isso é usado por quase todos os modos de vídeo comuns em câmeras, por aparelhos de TV domésticos e monitores de computador. Existem proporções mais amplas do que isso e usadas em produções de cinema. Cinema 4K (C4K ou DCI 4K) tem uma proporção ligeiramente mais ampla do que 4K UHD regular e é oferecido em algumas câmeras, e há proporções cinematográficas muito mais amplas do que esta, que são usadas apenas na indústria cinematográfica.

Lente anamórfica

Este é um tipo especial de lente amplamente utilizado quando os filmes são filmados em tamanhos fixos, para comprimir uma imagem ampla horizontalmente para caber em uma área mais estreita do filme. Outra lente anamórfica seria usada para projetar ou exibir o filme e esticá-lo de volta às suas proporções adequadas. As lentes anamórficas estão começando a fazer um retorno no vídeo digital, pois oferecem uma maneira de capturar cenas muito mais amplas do que caberia no sensor da câmera. Eles também produzem efeitos óticos, como formas de bokeh elíptico e reflexos entremeados que muitos cineastas adoram.

Culturas e tamanhos de sensores

O tamanho do sensor é tão importante para vídeo quanto para fotografia, porque sensores maiores produzem melhor qualidade, especialmente com pouca luz, e fornecem profundidade de campo mais rasa para um efeito mais "cinematográfico". Mas uma câmera pode nem sempre ser capaz de usar a largura total do sensor ao gravar um vídeo, dependendo da resolução do sensor, da taxa de quadros que está sendo usada e dos recursos de processamento da câmera. Algumas câmeras full frame, por exemplo, só podem gravar vídeo "recortado" usando uma área central menor do sensor. Há um movimento geral em direção a sensores full frame em vídeo, onde anteriormente o padrão era o formato Super 35 (tamanho aproximadamente APS-C) que permanece em uso generalizado e é frequentemente fornecido em câmeras full frame como um modo de 'corte' pelas razões explicado acima.

Pixel binning vs oversampling

Algumas câmeras de vídeo são feitas com sensores que possuem exatamente a mesma resolução em pixels do vídeo que capturam. Com câmeras que tiram fotos e vídeos, no entanto, a resolução do sensor costuma ser muito maior do que o necessário para o vídeo - você só precisa de um sensor de 12 MP para capturar 4K, por exemplo. Isso deixa os fabricantes com três opções:

1) Capture vídeo cortado usar uma área menor do sensor com as mesmas dimensões de pixel do vídeo - isso requer menos processamento, mas reduz o ângulo de visão de suas lentes.

2) Use ‘pixel binning’ ou 'salto de linha' para combinar ou descartar pixels indesejados - isso geralmente é visto como uma abordagem bastante insatisfatória e de baixa tecnologia.

3) Use 'sobreamostragem' para capturar quadros de vídeo na resolução total do sensor e, em seguida, reamostrá-los rapidamente para a resolução de vídeo necessária - isso é considerado como dando a melhor qualidade e não corta o quadro de vídeo, mas requer mais poder de processamento.

Entrelaçado versus progressivo

Nos velhos tempos da transmissão de TV, quando a largura de banda do sinal era limitada, o entrelaçamento era usado para transmitir quadros de vídeo em duas partes, uma com linhas ímpares e outra apenas com linhas pares, e então "entrelaçá-los" na tela da TV. Funcionou bem o suficiente, mas você pode ver facilmente o entrelaçamento em quadros congelados ou programas de TV antigos digitalizados. Nos primórdios do vídeo digital, muitas câmeras ainda usavam o entrelaçamento para aproveitar ao máximo o limitado poder de processamento disponível na época. Agora, porém, quase todo o vídeo é "progressivo", onde cada quadro de vídeo é capturado por completo. A qualidade é muito melhor e você não obtém mais o horrível efeito de entrelaçamento listrado. Quando você vê um 'p' após um formato de vídeo, por exemplo, 1080p, ou uma taxa de quadros de 30p, significa captura progressiva, enquanto 'i' significa captura entrelaçada.

Taxa de quadros

Para que o vídeo tenha uma aparência uniforme, é necessária uma velocidade de gravação e reprodução de 24-30 fps. 24fps é popular na cinematografia, 25fps é usado para transmissão de TV e dispositivos de reprodução no Reino Unido e em muitos territórios europeus e parte do antigo padrão PAL, e 30fps nos EUA e outros territórios como no antigo padrão NTSC. Os cinegrafistas geralmente escolhem a taxa de quadros para corresponder ao território em que estão, embora com a distribuição e reprodução digital, as diferenças estão se tornando menos importantes, assim como as diferenças entre os sistemas PAL e NTSC. As câmeras oferecem múltiplos dessas taxas de quadros para efeitos de câmera lenta. A gravação a 60fps e a reprodução a 30fps darão um efeito de câmera lenta 2x, por exemplo. As altas taxas de quadros são um ponto de venda para câmeras de vídeo, mas exigem muito do processador e podem vir com resoluções de vídeo mais baixas.

Taxa de bits

A taxa de bits indica a velocidade máxima de captura de dados de uma câmera de vídeo e está relacionada à resolução do vídeo e às configurações de qualidade. Quanto maior a taxa de bits da câmera, melhor será a qualidade que ela pode capturar de forma ampla. 100 Mbps (megabits por segundo) é bom, mas câmeras de vídeo de ponta podem oferecer 500 Mbps. As taxas de bits não dizem tudo o que você precisa saber sobre a qualidade de uma câmera de vídeo, mas dão uma ideia de seu status profissional e de sua "potência" de gravação.

Subamostragem de cor

A filmagem é muito>

Vídeo cru

O vídeo cru é como imagens brutas em fotografias. A câmera grava o vídeo como dados brutos e não processados, em vez de arquivos de filme visualizáveis ​​e processados. No entanto, a captura de vídeo bruto impõe demandas MUITO maiores de poder de processamento e capacidade de armazenamento, especialmente em altas resoluções como 4K e acima, portanto, apenas câmeras de vídeo de ponta podem capturar material bruto internamente e até mesmo modelos bastante avançados podem precisar de um gravador externo.

Modos de registro

Os modos de registro são uma espécie de meio termo para a flexibilidade do vídeo bruto. Eles capturam vídeo que tem tons muito planos, mas captura uma faixa de brilho extra-alta para trabalhar mais tarde ao editar ou "dar nota" ao vídeo. Os modos de registro são um recurso profissional importante em câmeras mais avançadas e geralmente aumentam o preço - embora às vezes os fabricantes adicionem modos de registro por meio de uma atualização de firmware. Ao classificar a sequência de registro, você precisará aplicar um perfil para "corrigir" os tons e cores para uma aparência normal, ou um LUT (tabela de pesquisa) para criar uma paleta de cores cinematográfica específica ou "aparência".

Codecs vs formatos

Isso pode ser confuso porque muitas vezes parece que as pessoas os estão tratando como a mesma coisa, mas eles não estão. Essencialmente, o ‘formato’ do vídeo é o ‘contêiner’ para o vídeo, áudio e metadados diversos para unir tudo, enquanto o ‘codec’ é puramente o sistema de compressão de vídeo usado. Por exemplo, o Sony A7S III usa um formato XAVC HS que usa o codec de vídeo H.265. O formato XAVC HS é propriedade da Sony, mas outros fabricantes usam o mesmo codec de vídeo H.265 para seus próprios formatos de vídeo. O formato MPEG-4 comum (também conhecido como MP4 por causa de sua extensão de arquivo .mp4) usa o codec de vídeo H.264, igualmente comum. Você precisa de contêineres (formatos) para vídeo porque eles também precisam armazenar arquivos de áudio e metadados necessários ao fabricante para oferecer recursos de vídeo proprietários para reprodução e edição.

• Como escolher uma câmera de vídeo
• Melhores câmeras para vlogging
• Melhores câmeras 4K para cinema
• Melhores câmeras de cinema
• Explicação do jargão do microfone