Impactos na criação de textos levantam questões sobre ética, originalidade e processo criativo
Ferramentas como o ChatGPT, desenvolvida pela OpenAI, demonstram capacidade impressionante de gerar textos coerentes e contextualmente relevantes. Estima-se que cerca de 45% dos estudantes já utilizaram IA para auxiliar na elaboração de trabalhos acadêmicos. Este dado é corroborado por um estudo da Universidade de Stanford, que revela que 62% dos alunos em cursos de graduação em ciências exatas utilizaram ferramentas de IA em algum momento para completar suas tarefas.
O uso dessas tecnologias oferece benefícios evidentes, como a rapidez na geração de textos e a capacidade de revisar grandes volumes de dados para criar conteúdos bem-informados.
Empresas como a Microsoft, com o GitHub Copilot, exemplificam a aplicação prática dessas tecnologias no mundo corporativo, transformando processos tradicionais de escrita e análise de dados.
As IAs prometem eficiência e precisão, porém levantam questões sobre ética, originalidade e o papel humano na criação de conteúdo. A adoção generalizada de IAs na produção de textos levanta importantes questões. A qualidade do conteúdo gerado pode variar significativamente, com a possibilidade de erros factuais e interpretações equivocadas. Além disso, a autenticidade e a criatividade humana podem ser comprometidas, uma vez que as IAs tendem a reproduzir padrões existentes, limitando a inovação.
A questão ética é um ponto crítico nesse debate. Pesquisas indicam que 39% dos estudantes consideram o uso de IAs em trabalhos acadêmicos como uma forma de trapaça, enquanto 28% acreditam que é uma ferramenta legítima de aprendizado. A linha entre o uso ético e a trapaça acadêmica é tênue e exige regulamentações claras.
Nas redações de jornal, a situação não é diferente. O The New York Times e a Reuters, por exemplo, têm experimentado o uso de IAs para a produção de artigos e relatórios financeiros. No entanto, a confiança na precisão das informações e a transparência sobre o uso de IAs são essenciais para manter a credibilidade jornalística.
Estudos recentes da Universidade de Harvard e do Instituto de Tecnologia de Massachusetts (MIT) apontam para um crescimento exponencial na adoção de IAs em setores educacionais e jornalísticos. Em 2023, o uso de ferramentas como o Copilot aumentou 74% entre desenvolvedores de software, segundo um relatório da McKinsey & Company. Esse crescimento reflete a confiança nas capacidades dessas ferramentas, mas também ressalta a necessidade de uma avaliação crítica contínua.
Pesquisadores têm grandes expectativas sobre o potencial das IAs para transformar a educação e o jornalismo. A capacidade de essas ferramentas assistirem na criação de conteúdos complexos e na análise de dados volumosos é vista como uma oportunidade para ampliar o acesso ao conhecimento e otimizar processos de trabalho. No entanto, a verdadeira questão é se o uso de IAs para a realização de textos é realmente proibido ou prejudicial. Não há uma resposta única. Em muitos contextos, o uso de IAs pode ser perfeitamente aceitável e até mesmo recomendado, desde que acompanhado de transparência e responsabilidade.
O uso de inteligências artificiais na criação de textos representa uma revolução com benefícios claros e desafios substanciais. A comunidade acadêmica e profissional deve abordar essas tecnologias com um olhar crítico, valorizando tanto as oportunidades de inovação quanto a necessidade de preservar a ética, a originalidade e a qualidade do conteúdo. O futuro da escrita, seja acadêmica ou jornalística, dependerá de como equilibramos a eficiência das máquinas com a criatividade humana, garantindo que a tecnologia seja um complemento, e não um substituto, da mente criativa.
Flávia Fernandes é jornalista, professora e autêntica “navegadora do conhecimento IA”
Instagram: @flaviaconteudo
Emal: [email protected]