O Grupo Estado anuncia nesta quarta, 22, sua política de uso de ferramentas de inteligência artificial (IA) pelas suas redações. O lançamento é um dos primeiros do tipo entre veículos brasileiros e segue uma tendência global. Ao longo do ano, jornais, revistas, agências de notícias e associações, como Associated Press, Reuters, The Telegraph e Wired, publicaram documentos com diretrizes de como usar esses recursos.
A política de IA do Grupo Estado estabelece regras e permissões para a produção de conteúdo editorial, em resposta ao crescimento na popularidade de serviços de IA generativa, como o ChatGPT, da OpenAI, e o Bard, do Google. Se utilizados com cautela e responsabilidade, tais serviços são uma ferramenta útil para auxiliar jornalistas profissionais em tarefas como transcrição de áudio, tradução, análise de dados e edição de texto. O documento reforça a necessidade de supervisão e revisão humana nos processos.
“Nossa política de uso das inteligências artificiais tem a qualidade de trazer, na dose certa, o incentivo total à experimentação com essas novas tecnologias e a garantia de que a responsabilidade final pelas produções jornalísticas será sempre de uma pessoa, um profissional de carne e osso”, diz Eurípedes Alcântara, diretor de Jornalismo do Grupo Estado.
Ao definir seu conjunto de regras para IA, a empresa também formaliza a criação do Comitê de Inteligência Artificial do Grupo Estado, que analisará os projetos editoriais da área e será composto por representantes dos departamentos de Tecnologia, Redação, Produto, Jurídico e Auditoria.
“Um dos grandes valores do Estadão é a proteção contra desinformação, cuja percepção de perigo cresceu com a disseminação de instrumentos de IA. É essencial demonstrar de maneira muito nítida para a audiência como esses novos recursos serão usados no jornal, para elevar a qualidade tanto do conteúdo quanto da experiência de consumo”, diz André Furlanetto, diretor de Estratégias Digitais do Estadão.
Com essa preocupação, a política veta o uso de IA para gerar fotos, ilustrações, vídeos ou áudios. Nos últimos meses, IAs como DALL-E e Midjourney geraram dúvidas sobre direitos autorais e desinformação. O uso de programas de melhoria gráfica em imagens é restrito aos recursos de ferramentas já disponibilizadas para a Redação.
As regras também determinam que dados empresariais do Grupo Estado, segredos de negócios, bases de dados proprietárias e furos jornalísticos não sejam inseridos em ferramentas de IA. A governança de dados é também uma das maiores preocupações de empresas em todo o mundo desde o avanço de IAs generativas – e casos de vazamento de informações já foram registrados.
“É importante garantir que nossos jornalistas façam uso responsável de ferramentas que estão transformando veículos de comunicação no mundo inteiro. A adoção dessas tecnologias é inevitável, mas é preciso que esse processo respeite leitores, parceiros e clientes do Grupo Estado. Acredito que conseguimos responder com velocidade, equilibrando inovação e governança de dados”, diz David Friedlander, diretor de Governança e Qualidade Editorial do Estadão.
Leia a seguir uma versão resumida do documento que apresenta as orientações do Grupo Estado para o uso de recursos de inteligência artificial por seus colaboradores.
———————————————————————————————————————
POLÍTICA DE USO DE FERRAMENTAS DE INTELIGÊNCIA ARTIFICIAL PELOS COLABORADORES DO GRUPO ESTADO
Novembro/2023
1. Apresentação
Apesar das tecnologias baseadas em Inteligência Artificial (IA) não serem exatamente uma novidade, é indiscutível que o contexto relativo a elas se alterou nos anos recentes, principalmente em decorrência da evolução das chamadas IAs generativas. O Estadão, enquanto veículo de imprensa comprometido com a qualidade, a ética e a precisão jornalística há quase 150 anos, reconhece o potencial inegável dessas tecnologias.
Nessa toada, compreendemos que parte dos nossos colaboradores pode já estar explorando o uso de IAs como ferramentas auxiliares em suas tarefas diárias, uma vez que as capacidades de automação e de análise das IAs podem proporcionar maior eficiência e aprimoramento em diversas etapas do processo editorial. Apesar disso, temos também plena consciência de que existem riscos inerentes ao uso indiscriminado de tais ferramentas, sobretudo em uma atividade tão essencial para a manutenção do Estado Democrático de Direito quanto a Imprensa.
Por essa razão, esta Política Institucional de Uso de Inteligência Artificial foi elaborada visando estabelecer diretrizes claras para o uso de IA pelo Grupo Estado.
Nosso compromisso firmado neste documento é revisar esta Política de forma recorrente e atualizá-la sempre que se faça necessário, objetivando mantê-la alinhada aos nossos valores e primando por nossa qualidade jornalística.
2. Diretrizes Gerais
O uso de IA para fins de criação integral ou parcial de notícias, conteúdos, produtos e serviços (doravante conjuntamente designados “Conteúdos”) é permitido, desde que cumpridas as condições a seguir. Tais condições objetivam manter a integridade factual de nossos Conteúdos, respeitar direitos autorais próprios e de terceiros e garantir a manutenção do nosso padrão jornalístico.
3. Diretrizes Específicas
3.1. Criação de Conteúdos
Em regra, ferramentas de IA podem ser utilizadas no processo de criação de Conteúdos, desde que com supervisão e revisão humana.
Em alguns casos específicos, no entanto, Conteúdos gerados por intermédio de ferramentas de IA poderão ser publicados de forma automática, portanto, sem revisão humana prévia, desde que tenha passado por um processo de homologação pelo Comitê de IA, e que deverá garantir a inexistência de (i) risco de erros factuais e de (ii) infringência a direitos autorais de terceiros, entre outros. Consulte o Comitê de IA para verificar as ferramentas e categorias de conteúdos disponíveis para esta finalidade.
É fundamental esclarecer que, mesmo quando optamos por publicar conteúdos sem revisão humana prévia, isso não implicará de forma alguma na ausência de controle ou de rigor no processo editorial. Manteremos um compromisso inabalável com a precisão e confiabilidade das informações que transmitimos. Para isso, serão implementados protocolos de verificação contínua da confiabilidade dos conteúdos gerados por IA, que envolverão revisões periódicas para identificar e corrigir possíveis erros, de aprimoramento das ferramentas de IA e de garantia de que as soluções de inteligência artificial estejam alinhadas aos nossos valores e padrões de produção jornalística.
Em todos os casos em que ferramentas de IA forem utilizadas para a produção de Conteúdo, ainda que parcialmente, deverá ser incluído aviso ao leitor, conforme o caso:
Conteúdos com Revisão Humana: Quando um Conteúdo for produzido com a ajuda de IA e revisado por nossa equipe editorial, deverá ser incluído o seguinte aviso no início ou ao final do texto, conforme adequado: “Este conteúdo foi produzido com o auxílio de ferramentas de Inteligência Artificial e revisado por nossa equipe editorial. Saiba mais em nossa Política de IA (link para página).”
Conteúdos sem Revisão Humana: Para materiais publicados sem revisão humana (apenas válido para processos homologados pelo Comitê de IA), o aviso deverá conter o seguinte aviso: “Este conteúdo foi gerado e publicado automaticamente com o uso de Inteligência Artificial. Saiba mais em nossa Política de IA (link para página).”
3.2. Criação de Conteúdo Audiovisual
3.3. Edição de Textos
3.4. Transcrição de Áudio
3.5. Tradução de Textos
3.6. Elaboração de Títulos e Chamadas
3.7. Como ferramenta de busca e pesquisa
3.8. Aprimoramento de materiais escritos em língua inglesa
3.9. Extração e compilação de dados de origem pública
4. Do Comitê de IA
4.1. Da composição do Comitê
O Comitê de IA (doravante designado “Comitê”) será designado pela Diretoria Executiva e será composto por representantes dos seguintes departamentos do Grupo Estado: Tecnologia, Redação, Produto, Jurídico e Auditoria. Os membros do Comitê se reunirão mensalmente e suas deliberações serão tomadas por consenso.
4.2. Das atribuições
Caberá ao Comitê avaliar ferramentas de IA, atualizar estas Diretrizes, homologar processos de criação de conteúdos e gerir seus riscos e assegurar treinamentos sobre o tema para os colaboradores.
Esta Política deverá ser revisada anualmente.