Você acredita em tudo que vê nas redes sociais? Em caso afirmativo, você provavelmente não deveria. Para dar apenas um exemplo, após um protesto contra o aquecimento global no Hyde Park de Londres em 2022-2023, apareceram fotos mostrando a área coberta de lixo.
Que hipócritas, certo? Na verdade não: essas fotos foram tiradas em Mumbai, Índia. Mas como você saberia disso, a menos que estivesse no protesto ou quisesse passar horas pesquisando o assunto?
A mídia convencional também não está imune a esse problema. Graças aos cortes de pessoal e a um ciclo de notícias em movimento, até mesmo sites de jornais conceituados muitas vezes acabam redirecionando imagens de mídia social sem verificá-las adequadamente.
É um problema que o grupo de P&D do New York Times está enfrentando de frente, por meio da Content Authenticity Initiative (CAI), cujos membros também incluem Adobe, Twitter, Qualcomm e Truepic. E juntos, eles têm desenvolvido uma nova tecnologia que certificará uma foto em termos de onde foi tirada, quando foi tirada e assim por diante.
O plano é que, quando uma foto aparecer online, o leitor possa verificar facilmente sua procedência, de forma semelhante ao exemplo hipotético abaixo:
O CAI acaba de anunciar que um protótipo funcional está instalado e funcionando e estará disponível para fotojornalistas e editores "em breve". Esta tecnologia inteligente, que é baseada em blockchain, permitirá que fotojornalistas, editores e editores "assinem" uma imagem em cada estágio do processo, criando o que eles chamam de "uma cadeia de confiança de ponta a ponta para os metadados da foto".
Em outras palavras, é um pouco como o conceito de "cadeia de custódia" na profissão jurídica. Cada foto é incorporada a metadados que incluem não apenas quando e onde a foto foi tirada, mas também quais edições específicas foram feitas nela no Photoshop e a organização responsável pela publicação.
Você pode ver um exemplo de como pode ser o processo editorial, retirado do site de P&D do NYT, abaixo. Isso envolve a captura segura usando um dispositivo de teste Qualcomm / Truepic, edição via Photoshop e publicação por meio do sistema de gerenciamento de conteúdo Prismic do jornal.
É uma perspectiva muito empolgante para qualquer pessoa envolvida em fotografia, edição de imagens ou mídia, mas também é importante destacar o que essa nova tecnologia NÃO é.
Não é uma maneira dos fotógrafos imporem os direitos autorais sobre seus trabalhos: como o CAI afirma claramente em sua página de perguntas frequentes: "O CAI não aplicará nenhuma permissão de acesso aos próprios ativos."
Também não é um ataque à privacidade pessoal. Pessoas com necessidades únicas de privacidade, como trabalhadores de direitos humanos em países autoritários, terão a opção de editar informações de identificação pessoal.
Obviamente, a nova tecnologia não é em si uma maneira de impedir que imagens falsas apareçam nas redes sociais. Isso continuará a acontecer e provavelmente sempre acontecerá. É, no entanto, uma forma potencialmente valiosa de autenticar imagens de fontes confiáveis e restaurar a confiança do público no conceito de fotojornalismo responsável.
Então, como os fotógrafos podem embarcar? No momento, a tecnologia está em um teste beta fechado e, portanto, é basicamente uma questão de sentar e esperar que ela se torne comercialmente disponível. No entanto, o CAI sugere que, se você estiver interessado na nova tecnologia, assine a lista de mala direta para obter notícias e atualizações sobre quando essas ferramentas estarão disponíveis (role até a parte inferior da página de contato para encontrar o formulário de inscrição).