A Inteligência Artificial Generativa (IAG) se tornou uma parte integrante das atividades cotidianas. Soluções como ChatGPT, Claude e Gemini, além do novo Deep Seek, estão disponíveis em diversos aplicativos, mecanismos de pesquisa e navegadores, sendo amplamente utilizadas por acadêmicos em diferentes níveis de suas carreiras. Apesar da crescente presença dessas ferramentas, muitos pesquisadores, educadores e alunos ainda apresentam hesitações quanto ao uso dessas plataformas, as quais podem realizar tarefas com rapidez, mas que também podem gerar consequências indesejadas para a pesquisa científica e para o aprendizado acadêmico.
Um dos principais desafios enfrentados é o potencial envio de dados de pesquisa, muitas vezes inéditos, para empresas estrangeiras, sem garantias de que essas informações não serão incorporadas aos modelos de IA. Por exemplo, ao utilizar o ChatGPT para ajudar na redação de um artigo, é possível que resultados preliminares sejam, inadvertidamente, integrados a um sistema de IA, o que poderia resultar na divulgação de partes de um trabalho sem o devido crédito ao autor original.
A falta de transparência no tratamento dos dados pessoais e a preocupação com a proteção dessas informações são questões relevantes a serem consideradas. Outro aspecto crítico é o impacto ambiental associado ao uso dessas tecnologias. A operação de servidores massivos, que processam perguntas em questão de segundos, demanda significantemente recursos energéticos e de água para refrigeração, um tópico que geralmente não é abordado nas discussões públicas sobre inovações tecnológicas. No contexto acadêmico, as instituições estão cada vez mais preocupadas com o consumo de energia, especialmente em relação aos modelos de IA que levantam questões em âmbito global. A DeepSeek, por sua vez, introduziu um modelo que reduz significativamente os custos de treinamento e operação no mercado americano.
Adicionalmente, a ocorrência de “alucinações” nas respostas geradas pela IA, que incluem a criação de informações ou referências falsas, representa um risco significativo. Tal situação pode resultar em conclusões erradas, comprometendo a integridade de artigos e gerando incertezas acerca da credibilidade de uma pesquisa. A verificação cuidadosa das informações é essencial, e o entendimento do funcionamento dos algoritmos, assim como as interações éticas entre humanos e máquinas, formam a base para uma supervisão eficaz.
Embora existam riscos, o uso das tecnologias de IA não é facilmente evitável. Ferramentas como Microsoft Office e Google Docs já incorporam funcionalidades de inteligência artificial. A utilização da IA para revisar textos, encontrar referências ou sugerir estrutura de capítulos está se tornando cada vez mais comum, resultando em processos mais ágeis e eficientes. Portanto, a IAG deve ser vista como um auxiliar no processo de pesquisa, em vez de assumir um papel central.
Embora algumas vozes argumentem que as desvantagens superam os aspectos positivos, essas ferramentas têm demonstrado utilidade em diversas fases da pesquisa científica, inclusive potencializando a produtividade. No meio acadêmico, muitos alunos reconheceram rapidamente os benefícios do texto gerado por IA, embora seu uso em avaliações ainda suscite preocupações em torno da integridade acadêmica e do aprendizado.
Tentativas para proibir a IAG provavelmente levarão a um uso clandestino sem uma discussão ética adequada ou a formação necessária para um uso consciente. Por outro lado, a aceitação acrítica dessas tecnologias pode comprometer a privacidade e a essência da pesquisa científica. Para abordar essa tensão, foi elaborado um guia intitulado “Diretrizes para o uso ético e responsável da Inteligência Artificial Generativa: um guia prático para pesquisadores”, direcionado para a comunidade científica no Brasil. A necessidade de posicionamentos claros das instituições reguladoras e de fomento à pesquisa é fundamental.
O guia é estruturado em duas partes. A primeira discute princípios gerais e normativos, abordando temas como ética e responsabilidade no uso da IAG, além de ressaltar a importância de entender o funcionamento e os riscos associados a esses sistemas. Questões como autoria, plágio, viés em algoritmos e a necessidade de transparência no desenvolvimento e aplicação dos resultados científicos são exploradas.
Na segunda parte, o guia oferece orientações práticas para diversas etapas da pesquisa acadêmica, desde a fase inicial de brainstorming e busca de literatura até a redação e análise de dados. Exemplos práticos são apresentados, incluindo situações problemáticas como a criação de referências inexistentes ou a reprodução de viés presente nos dados de treinamento, com sugestões de boas práticas a serem adotadas.
Uma reflexão significativa proposta no guia é se a adoção da IAG deve ser ampla em todas as etapas da pesquisa. Apesar da promessa de ganho de tempo e agilidade nos processos, especialistas alertam que o tempo gasto na verificação de fontes e na validação do conteúdo gerado pela IA pode anular os benefícios percebidos. A presença excessiva da tecnologia poderá desviar a responsabilidade do pesquisador na construção do conhecimento.
Além disso, nem todas as situações exigem automação. Em projetos que envolvam dados sensíveis ou resultados inovadores, a utilização de plataformas de IA pode não ser aconselhável. Por essa razão, o guia sugere reflexões que todos os pesquisadores devem considerar antes de utilizar a IA, pesando sempre os prós e contras. Uma abordagem crítica é essencial: se a opção for pelo uso da tecnologia, que seja feita com cautela, levando em conta as políticas de privacidade e a proteção de informações sensíveis.
As instituições acadêmicas e de pesquisa precisam também promover discussões sobre a criação de diretrizes e boas práticas, instigando a formação de comitês de ética para avaliar a aplicação da IA em projetos, dissertações e teses. Isso garantirá que os pesquisadores não atuem isoladamente, mas dentro de um framework institucional.
Além disso, o desenvolvimento de soluções nacionais é crucial para atender às demandas locais. O Brasil precisa investir em pesquisa e desenvolvimento para não depender de ferramentas que podem não atender às especificidades culturais, sociais e linguísticas do país.
A IAG está transformando o panorama da pesquisa científica, mas é essencial não ignorar questões fundamentais como a privacidade, a integridade acadêmica e o impacto ambiental. As recomendações contidas no guia visam maximizar os benefícios da IA enquanto se mantém a ética, o senso crítico e a soberania tecnológica.
Ao utilizarmos a IAG de maneira consciente, será possível impulsionar descobertas significativas sem comprometer a essência reflexiva que caracteriza o conhecimento científico. Caso contrário, há o risco de acentuar a concentração de poder em poucas empresas, perder o controle sobre as produções acadêmicas e contribuir para questões ambientais que transcendem fronteiras nacionais.
O debate sobre o uso da IAG é premente e a responsabilidade nas escolhas deste novo cenário recai sobre todos os envolvidos na pesquisa.