O Google anunciou hoje uma nova política que obriga os anunciantes a identificar claramente as propagandas eleitorais que utilizem conteúdo digitalmente alterado para representar pessoas ou eventos reais, ou que pareçam ser reais.
Esta medida faz parte dos esforços da empresa para combater a disseminação de desinformação durante períodos eleitorais. De acordo com as novas normas da empresa para publicidade política, os anunciantes terão que marcar uma opção específica na seção “conteúdo alterado ou sintético” nas configurações de suas campanhas.
O crescimento acelerado da inteligência artificial generativa tem causado preocupações. Afinal, esse estilo de tecnologia tem a capacidade de gerar texto, imagens e vídeos rapidamente em resposta a comandos específicos.
Com isso, esse avanço tecnológico também suscita preocupações significativas quanto ao potencial de uso indevido dessas capacidades.
A proliferação dos deepfakes, que são vídeos manipulados de maneira convincente para retratar alguém de maneira enganosa, tem contribuído para uma crescente confusão entre o que é genuíno e o que é falso.
O Google anunciou que vai introduzir novas medidas para ajudar os usuários a identificar anúncios. Em feeds e vídeos curtos em celulares, assim como em transmissões em computadores e televisões, os anúncios serão acompanhados de um indicativo claro diretamente no conteúdo. Para outros formatos de anúncios, os anunciantes terão a obrigação de incluir uma marcação destacada e perceptível, facilitando aos usuários a distinção entre conteúdo publicitário e outros tipos de conteúdo.
O Google afirmou que o conceito de “linguagem de divulgação aceitável” varia conforme o contexto do anúncio. Nesse mesmo caminho a OpenAI, liderada por Sam Altman, revelou que interrompeu cinco operações secretas que usavam IA para atividades enganosas online. E a Meta anunciou que exigirá que anunciantes informem sobre o uso de IA em anúncios políticos, sociais ou eleitorais no Facebook e Instagram.