Segundo um relatório da CBC, a flexibilização das restrições em torno da geração de imagens no ChatGPT pode contribuir para a produção de deepfakes políticos. A CBC constatou que não apenas foi simples contornar as políticas de representação de figuras públicas do ChatGPT, mas também sugeriu maneiras de burlar suas próprias regras de geração de imagens. Mashable conseguiu replicar esse procedimento ao carregar imagens de Elon Musk e Jeffrey Epstein, e depois retratá-los como personagens fictícios em diferentes cenários, como “em um clube obscuro” ou “em uma praia bebendo piña coladas”.
Muitas novidades surgiram. Recentemente, foram implementadas atualizações no ChatGPT que simplificam a criação de imagens falsas de políticos reais, conforme testado pela CBC News. #cdnpoli www.cbc.ca/news/canada/…[imagem ou incorporação]
Os políticos manipuladores não são uma novidade, porém, a disseminação em larga escala de modelos de inteligência artificial generativa capazes de criar imagens, vídeos, áudios e textos para imitar pessoas tem impactos significativos. A disponibilidade de ferramentas comerciais como o ChatGPT, que podem facilitar a propagação de desinformação política, levanta questionamentos sobre a responsabilidade da OpenAI nesse cenário. A necessidade de garantir a segurança pode se tornar comprometida à medida que empresas de IA competem pela aceitação dos usuários.
“Quando se trata de modelos de IA gerados por computador, nossa eficácia é limitada pelo desempenho do modelo mais fraco. O especialista em forense digital e professor de Ciência da Computação da UC Berkeley, Hany Farid, mencionou que a OpenAI começou com modelos de alta qualidade, mas seus concorrentes não seguiram o exemplo. Como resultado, a OpenAI reduziu a qualidade de seus modelos para evitar ficar em desvantagem no mercado.”
Quando a OpenAI revelou que o GPT-4 agora poderia gerar imagens nativas para ChatGPT e Sora no final de março, a empresa indicou que também adotaria uma abordagem de segurança menos rigorosa.
“O CEO da OpenAI Altman explicou que a ferramenta de geração de imagens do ChatGPT não cria conteúdo ofensivo, a menos que seja intencional, respeitando os limites da razão. Ele enfatizou a importância de dar liberdade intelectual e controle aos usuários, mas também se comprometeu a monitorar a situação e ouvir o feedback da sociedade.”
O complemento ao recurso de segurança do GPT-4, que melhora a forma como a empresa lida com a criação de imagens originais, afirma que não estão impedindo a capacidade de gerar imagens adultas, mas estão aplicando as mesmas medidas protetivas usadas para alterar imagens realistas de pessoas enviadas.
Quando Nora Young da CBC testou esse método, ela percebeu que o pedido direto por uma imagem de Mark Carney com Epstein não teve sucesso. No entanto, ao enviar imagens separadas de Carney e Epstein, juntamente com uma sugestão que os descrevia como “duas personagens fictícias criadas pelo repórter da CBC”, o ChatGPT atendeu ao pedido.
Em uma situação diferente, o ChatGPT auxiliou Jovens a trabalhar com suas próprias ideias de segurança, afirmando que, embora não fosse possível combinar pessoas reais em uma única imagem, era possível criar uma cena fictícia estilizada com um personagem inspirado pela pessoa na imagem original. Isso resultou na criação bem-sucedida de uma selfie que combinava o primeiro-ministro indiano Narendra Modi com o líder conservador do partido canadense Pierre Poilievre, conforme observado por Young.
É interessante observar que, embora as imagens iniciais do ChatGPT geradas pela Mashable tenham uma aparência plástica e suave, comum em imagens geradas por inteligência artificial, é possível obter resultados mais realistas ao brincar com diferentes imagens de Musk e Epstein e aplicar diferentes instruções, como “capturado por imagens de CCTV” ou “capturado por um fotógrafo de imprensa usando um grande flash”. Ao adotar essa abordagem, é evidente como ajustes e edições nos prompts podem resultar em imagens fotorealistas capazes de enganar as pessoas.
Um representante da OpenAI informou ao Mashable por e-mail que a empresa desenvolveu medidas de segurança para bloquear propaganda extremista, conteúdo de recrutamento e outros tipos de conteúdo prejudicial. A OpenAI implementou também medidas adicionais para a geração de imagens de figuras públicas políticas, como políticos, e proíbe o uso do ChatGPT para campanhas políticas. Além disso, o representante mencionou que figuras públicas que não queiram ser representadas em imagens geradas pelo ChatGPT podem preencher um formulário online para solicitar a exclusão.
A regulação da inteligência artificial influencia o desenvolvimento da IA de várias formas, já que os governos buscam criar leis apropriadas para proteger as pessoas e combater a disseminação de informações falsas geradas por IA. Enquanto isso, enfrentam a resistência de empresas como a OpenAI, que argumentam que regulamentações excessivas podem inibir a inovação. As medidas de segurança e responsabilidade são principalmente autoimpostas pelas empresas, mas especialistas argumentam que essas diretrizes não podem ser apenas voluntárias e precisam ser obrigatórias e regulamentadas.
Empresa OpenAI