Por Luciana Gurgel

Luciana Gurgel

Na semana passada, a Associated Press publicou seu guia de regras para o uso da inteligência artificial, tentando disciplinar o que para muitas organizações pode ser incontrolável: como seus profissionais usarão a IA diante dos riscos corporativos desse uso.

Ameaças existem em qualquer empresa, mas na mídia estão relacionadas à razão de ser de um veículo de imprensa: informar de maneira precisa e confiável.

O guia da AP veta a publicação de textos feitos pelo ChatGPT, embora a agência tenha assinado um contrato para ceder seu conteúdo a fim de treinar o chatbot da OpenIA. Vale usar para pesquisas, mas não para um texto final. O guia da agência diz que o material fornecido pela IA deve ser tratado como “de origem não verificada”. Leia-se: precisa apurar.

Também está proibido o uso de imagens ou áudios modificados por computador, a não ser que sejam parte da notícia. E notícia sobre isso não falta. Um exemplo é o caso do fotógrafo alemão que venceu um concurso internacional como uma imagem produzida por IA e recusou o prêmio como forma de chamar a atenção para a necessidade de regras em prêmios de fotografia.

Até publicações de tecnologia estão cautelosas. A exemplo da AP, a Wired também definiu que os chatbots não podem ser usados para escrever um texto final − exceto quando o fato de ser gerado por IA for parte da história. Ainda assim, possíveis erros devem ser sinalizados.

(Crédito: Emiliano Vittoriosi/Unsplash)

A revista proibiu o uso da IA generativa para edição, alegando que, embora a redução de um texto pelo chatbot possa parecer menos problemática, “há armadilhas”. Os riscos listados são a possibilidade de introdução de erros factuais ou mudanças de significado e, o principal: “a edição é um julgamento do que é mais original, relevante ou divertido no texto, e isso a IA não pode fazer”, diz o guia da Wired.

Mas nem todos estão adotando políticas tão específicas. O The Guardian, por exemplo, publicou em junho um texto assinado pela editora-chefe Katharine Viner e pela CEO Anna Bateson com três princípios sobre como a IA generativa será ou não usada: para o benefício dos leitores, para o benefício da missão do veículo e com respeito para quem cria e produz conteúdo − referindo-se ao problema dos direitos autorais.

O Guardian admite que as ferramentas são “interessantes, mas atualmente não são confiáveis”. E salienta que não há espaço para falta de confiabilidade em seu jornalismo. O documento descreve riscos e a intenção de só usar as ferramentas de IA editorialmente “onde elas contribuam para criação e distribuição de jornalismo original”. Entretanto, não proíbe o uso em determinadas circunstâncias, como fizeram a AP e a Wired.

Proibições de IA difíceis de fiscalizar

Essas proibições podem ser difíceis de fiscalizar, sobretudo com muita gente trabalhando remotamente. Quem tem mais idade deve lembrar que nos primórdios das redes sociais algumas empresas proibiam funcionários de ter contas ou de postar assuntos relacionados ao trabalho ou compartilhar opiniões políticas que pudessem ser associadas à organização.

Ainda há manuais com essas recomendações, mas punir um funcionário que postou algo hoje em dia é visto como violação da liberdade de expressão. O ex-jogador de futebol Gary Lineker, comentarista da BBC, é um exemplo. Ele foi suspenso por um tweet criticando o governo e a rede foi criticada pela atitude.

Com a IA pode acontecer o mesmo. No entanto, ter regras é mais do que urgente para empresas de qualquer tipo, e principalmente para as que lidam com informação como matéria-prima, incluindo veículos de mídia e agências de relações públicas, fornecedores de serviços e departamentos de comunicação de empresas.

Entrevistado pela correspondente Eloá Orazem para a edição especial do MediaTalks sobre ESG e inteligência artificial que circulará nos próximos dias, o pesquisador Nils Köbis, do Max Planck Institute, fala do risco que mais o preocupa na adoção da IA em larga escala: o de delegarmos decisões à tecnologia, que pode não saber diferenciar bem e mal − ou verdade e mentira. Ou um bom texto e um mau texto.

Inscreva-se aqui para receber a edição especial.


Para receber as notícias de MediaTalks em sua caixa postal ou se deixou de receber nossos comunicados, envie-nos um e-mail para incluir ou reativar seu endereço.

0 0 votes
Article Rating
Subscribe
Notify of
guest
0 Comentários
Inline Feedbacks
View all comments