19.7 C
Lisboa
Segunda-feira, Julho 4, 2022

Quando a IA muda de ideia

Must read


Uma das questões que preocupa muito meu espaço mental é: por que muitos fotógrafos parecem cautelosos com fotografia computacional? As tecnologias de IA oferecem muitas vantagens: elas fazem com que as câmeras vejam melhor no escuro, capturar faixas dinâmicas maiores de exposição e cor, identifique o foco bloqueando automaticamente em rostos ou olhos e economize tempo dos fotógrafos acelerando o processo de seleção e edição. Tudo isso soa como vitórias, certo?

E, no entanto, os fotógrafos parecem relutantes em adotar totalmente as ferramentas de IA e aprendizado de máquina. Não é que rejeitemos o progresso: a própria fotografia é uma história em constante evolução do avanço tecnológico – sem tecnologia, não haveria fotografia.

Em vez disso, acho que nem sempre sabemos o que esperar ao invocar muitos recursos de IA.

A maioria das fotografias é bastante previsível e, mais importante, repetível. Por exemplo, durante o processo de captura, fotografar com uma velocidade mais lenta do obturador aumenta a exposição. Aumentar o ISO adiciona ainda mais exposição, mas cria ruído digital. Ao ajustar as configurações de uma câmera, você sabe o que obterá.

Por outro lado, quando você captura uma cena usando um smartphone moderno, ele combina exposições e ajusta áreas específicas de uma cena para equilibrar a aparência geral. Os algoritmos de um fabricante determinam quais áreas renderizar de que maneiras, como a saturação de uma cena, com base no que a câmera percebe. Os algoritmos do telefone de outra empresa podem renderizar a mesma cena de maneira diferente.

No lado da edição, fazer ajustes geralmente é igualmente previsível, desde aumentar a exposição até equilibrar as cores. Claro, há variabilidade na forma como os mecanismos de imagem de alguns aplicativos aplicam cores, mas, em geral, você sabe o que obterá quando se sentar para editar.

O aprendizado de máquina introduz um elemento de imprevisibilidade à edição. Às vezes você sabe o que o software fará, mas nem sempre é aparente.

Percebo que estou falando em linhas gerais aqui, então deixe-me oferecer alguns exemplos (e contra-exemplos).

Percepção e identificação

Uma foto de paisagem editada com IA.
O filtro neural Landscape Mixer no Adobe Photoshop é selvagem e imprevisível. Jeff Carlson

Uma característica marcante dos recursos de edição de IA é a capacidade de reconhecer o que está em uma imagem. O software identifica características como o céu, pessoas, folhagens, edifícios e qualquer outra coisa que seu modelo seja treinado para perceber. Com base nisso, pode agir nessas áreas.

No entanto, no início, você não sabe quais áreas serão reconhecidas. Por exemplo, as novas ferramentas de seleção assistidas por IA em Lightroom e Lightroom Classic fazer um ótimo trabalho de identificar um céu ou um assunto, na minha experiência. Mas cada vez que você clica em “Selecionar assunto”, você não sabe se a ideia do software sobre o assunto é a mesma que a sua. Ou quanto derramamento também será selecionado fora do assunto.

Agora, o objetivo de tal ferramenta é economizar seu tempo. Você pode levar essa imagem para o Photoshop e usar suas ferramentas para fazer uma seleção incrivelmente precisa. Fazer isso no Lightroom permite 90% do caminho e você pode limpar a seleção.

Dentro IA Luminar, a seleção do objeto é opaca. O aplicativo analisa uma foto quando você a abre e você deve confiar que, quando usar uma ferramenta como o Sky Enhancer, ela será aplicada ao céu. Se o aplicativo não achar que existe um céu, as ferramentas de edição do céu não estarão ativas. Se um céu for detectado, você deve ir com as áreas que ele acha que são céus, com opções limitadas para ajustar a máscara.

(O próximo Luminar Neo terá ferramentas aprimoradas de mascaramento e camada, mas atualmente existe como uma versão beta limitada de acesso antecipado, que não usei.)

Para um exemplo extremo, considere o Filtro neural do Mixer de paisagem no Adobe Photoshop. Reconheço de antemão que isso não é totalmente justo, porque é um recurso ainda em desenvolvimento e também foi projetado como algo divertido e artístico – ninguém aplicará uma cena de inverno a uma foto de verão e a passará como uma foto genuína . Mas meu ponto é que, quando você aplica uma das predefinições a uma foto, não sabe o que obterá até que ela seja feita.

Uma foto de paisagem editada com IA.
Aqui está a mesma foto de cima, com o filtro “Inverno” aplicado. Jeff Carlson

A parte de aprendizado do aprendizado de máquina

A outra razão pela qual acho que os fotógrafos hesitam em adotar totalmente as tecnologias de IA é a maneira como o estado da arte está avançando. Melhorar algoritmos e desempenho é um dado adquirido no desenvolvimento de software, e é o que esperamos quando atualizamos para novas versões de aplicativos. Às vezes, esse progresso não é como esperamos.

Como exemplo, em uma versão inicial do Luminar AI, usei a ferramenta Sky AI para transformar uma cena monótona do meio-dia em um pôr do sol mais dramático. Uma das melhorias que o Luminar AI fez em relação ao seu antecessor foi a capacidade de detectar água refletida em uma cena e aplicar o novo céu nessa área.

Uma foto de paisagem
Uma foto de paisagem não editada que tirei em um dia bastante cinza. Jeff Carlson

A versão que editei ficou muito boa (com exceção de um ponto no surf onde o destaque é apagado), com uma boa distribuição da luz na água.

Pouco tempo depois, a Skylum lançou uma atualização para o Luminar AI que, entre outras coisas, melhorou o reconhecimento dos reflexos. Quando abri a mesma imagem após aplicar a atualização, o efeito foi diferente, embora eu não tivesse movido um controle deslizante desde a edição original. E agora não consigo replicar os tons nessa primeira edição. Na verdade, não consigo posicionar o céu da mesma maneira, o que pode ser parte do motivo pelo qual o reflexo não é renderizado da mesma maneira. A repetibilidade da minha edição anterior saiu pela janela.

Uma foto de paisagem editada com IA.
Editado usando a ferramenta de substituição do céu no Luminar AI no início de 2021. Jeff Carlson

É perfeitamente possível que isso tenha ocorrido devido a um bug na forma como o Luminar AI lidava com os reflexos, antes ou depois da atualização. Mas também pode ser devido à parte de “aprendizagem” do aprendizado de máquina. Os modelos que o software usa são treinados analisando muitas outras fotos semelhantes, que podem ser de alta qualidade ou forragem. Nós não sabemos.

Eu sei que parece que sou resistente a mudanças ou que não acredito no avanço da tecnologia, mas não é o caso. Como contraponto, deixe-me chamar sua atenção para “Versões de processo” no Lightroom Classic, encontradas no painel Calibração. A versão do processo é o mecanismo usado para renderizar imagens no módulo Revelação. À medida que a tecnologia de imagem melhora, a Adobe implementa novas versões do Process para adicionar recursos e se adaptar a novas ferramentas. A encarnação atual é a Versão 5.

Uma foto de paisagem editada com IA.
A mesma imagem, editada no Luminar AI no início de 2022. Jeff Carlson

Mas as outras versões do processo ainda estão disponíveis. Quando edito uma imagem importada quando a versão 3 era a mais recente, posso obter os mesmos resultados que obtive na época. Ou posso aplicar a Versão 5 e tirar proveito de ferramentas que não existiam na época. Tenho uma ideia muito melhor do que esperar.

Não me interpretem mal, em geral, sou um tipo de cara que olha para o futuro e estou entusiasmado com muitos dos recursos que as tecnologias de IA estão trazendo. Mas não podemos ignorar que o ciclo evolutivo da fotografia computacional é fluido e em movimento. E acho que é isso que faz os fotógrafos hesitarem em abraçá-los.





Fonte deste Artigo

- Advertisement -spot_img

More articles

DEIXE UMA RESPOSTA

Please enter your comment!
Please enter your name here

- Advertisement -spot_img

Latest article