A OpenAI, famosa por desenvolver o ChatGPT, está enfrentando um caso sem precedentes por calúnia. Esse caso levanta questões jurídicas complexas sobre a responsabilidade dos chatbots generativos e a disseminação de informações imprecisas.
Embora esses sistemas de inteligência artificial sejam amplamente utilizados, eles adquiriram uma reputação questionável em termos de confiabilidade como fontes de informação.
O processo em questão envolve um repórter da Geórgia que estava trabalhando em um artigo sobre um caso federal. Ao pedir ao ChatGPT um resumo do caso, fornecendo um arquivo PDF para análise, o chatbot ofereceu um resumo contendo acusações falsas contra um terceiro, Mark Walters, um conhecido apresentador de rádio em Atlanta. De acordo com o ChatGPT, Walters teria desviado US$ 5 milhões de uma organização que apoia a Segunda Emenda, embora ele nunca tenha sido acusado disso anteriormente.
Sentindo-se difamado pela disseminação dessas acusações falsas, Walters decidiu processar a OpenAI. Alega-se que o chatbot da empresa efetivamente publicou informações “difamatórias” ao transmitir as acusações falsas ao repórter.
Isso expôs Walters a danos em sua reputação e possíveis consequências negativas em sua vida pública. Embora o repórter não tenha divulgado as informações, ainda não se sabe como Walters teve conhecimento delas.
No processo, Walters busca indenizações gerais e punitivas não especificadas, além do reembolso de despesas legais. O valor das indenizações será decidido por um júri.
Como fica o universo jurídico nesse caso do ChatGPT
Essa situação inovadora suscita várias questões legais complexas. Embora seja claro que os chatbots devem evitar inventar informações sobre pessoas, especialmente em casos que envolvam crimes, ainda não está definido se a OpenAI pode ser responsabilizada pelos danos causados. O próprio ChatGPT adverte que não é uma fonte confiável e a OpenAI já expressou posições semelhantes anteriormente.
A polêmica em torno desse processo gira em torno da aplicação das regulamentações existentes. Pode-se argumentar que as proteções legais aplicáveis ao conteúdo gerado pelos usuários em plataformas online, como a Seção 230 nos Estados Unidos, não se aplicam diretamente a sistemas baseados em IA que produzem conteúdo de forma autônoma.
Esse caso marca apenas o começo de uma série de desafios legais que provavelmente surgirão à medida que a inteligência artificial avançar.
A expansão rápida desses serviços de geração de texto tem suscitado discussões sobre a necessidade de regulamentações mais abrangentes e medidas adequadas para lidar com a disseminação de informações imprecisas ou difamatórias.