Restaurando a fé no fotojornalismo: nova tecnologia permite que os leitores verifiquem os detalhes de uma foto

Anonim

Você acredita em tudo que vê nas redes sociais? Em caso afirmativo, você provavelmente não deveria. Para dar apenas um exemplo, após um protesto contra o aquecimento global no Hyde Park de Londres em 2022-2023, apareceram fotos mostrando a área coberta de lixo.

Que hipócritas, certo? Na verdade não: essas fotos foram tiradas em Mumbai, Índia. Mas como você saberia disso, a menos que estivesse no protesto ou quisesse passar horas pesquisando o assunto?

A mídia convencional também não está imune a esse problema. Graças aos cortes de pessoal e a um ciclo de notícias em movimento, até mesmo sites de jornais conceituados muitas vezes acabam redirecionando imagens de mídia social sem verificá-las adequadamente.

É um problema que o grupo de P&D do New York Times está enfrentando de frente, por meio da Content Authenticity Initiative (CAI), cujos membros também incluem Adobe, Twitter, Qualcomm e Truepic. E juntos, eles têm desenvolvido uma nova tecnologia que certificará uma foto em termos de onde foi tirada, quando foi tirada e assim por diante.

O plano é que, quando uma foto aparecer online, o leitor possa verificar facilmente sua procedência, de forma semelhante ao exemplo hipotético abaixo:

O CAI acaba de anunciar que um protótipo funcional está instalado e funcionando e estará disponível para fotojornalistas e editores "em breve". Esta tecnologia inteligente, que é baseada em blockchain, permitirá que fotojornalistas, editores e editores "assinem" uma imagem em cada estágio do processo, criando o que eles chamam de "uma cadeia de confiança de ponta a ponta para os metadados da foto".

Em outras palavras, é um pouco como o conceito de "cadeia de custódia" na profissão jurídica. Cada foto é incorporada a metadados que incluem não apenas quando e onde a foto foi tirada, mas também quais edições específicas foram feitas nela no Photoshop e a organização responsável pela publicação.

Você pode ver um exemplo de como pode ser o processo editorial, retirado do site de P&D do NYT, abaixo. Isso envolve a captura segura usando um dispositivo de teste Qualcomm / Truepic, edição via Photoshop e publicação por meio do sistema de gerenciamento de conteúdo Prismic do jornal.

É uma perspectiva muito empolgante para qualquer pessoa envolvida em fotografia, edição de imagens ou mídia, mas também é importante destacar o que essa nova tecnologia NÃO é.

Não é uma maneira dos fotógrafos imporem os direitos autorais sobre seus trabalhos: como o CAI afirma claramente em sua página de perguntas frequentes: "O CAI não aplicará nenhuma permissão de acesso aos próprios ativos."

Também não é um ataque à privacidade pessoal. Pessoas com necessidades únicas de privacidade, como trabalhadores de direitos humanos em países autoritários, terão a opção de editar informações de identificação pessoal.

Obviamente, a nova tecnologia não é em si uma maneira de impedir que imagens falsas apareçam nas redes sociais. Isso continuará a acontecer e provavelmente sempre acontecerá. É, no entanto, uma forma potencialmente valiosa de autenticar imagens de fontes confiáveis ​​e restaurar a confiança do público no conceito de fotojornalismo responsável.

Então, como os fotógrafos podem embarcar? No momento, a tecnologia está em um teste beta fechado e, portanto, é basicamente uma questão de sentar e esperar que ela se torne comercialmente disponível. No entanto, o CAI sugere que, se você estiver interessado na nova tecnologia, assine a lista de mala direta para obter notícias e atualizações sobre quando essas ferramentas estarão disponíveis (role até a parte inferior da página de contato para encontrar o formulário de inscrição).