Um estudo recente demonstrou que certos modelos de inteligência artificial foram capazes de passar pelo Teste de Turing, um conceito criado pelo matemático britânico Alan Turing para avaliar se uma máquina pode demonstrar um comportamento inteligente comparável ao de um ser humano. No experimento, quatro sistemas foram testados, e o modelo GPT-4.5, desenvolvido pela OpenAI, conseguiu enganar 73% dos participantes ao adotar uma persona humana.
A pesquisa também revelou que 74% das empresas no setor financeiro estão interessadas em implementar inteligência artificial generativa. Além disso, o Papa Francisco expressou preocupações sobre os riscos associados ao uso da IA, enquanto dados apontam que as músicas geradas por inteligência artificial representam 18% de todas as faixas disponíveis na plataforma Deezer.
O experimento foi conduzido por pesquisadores do Departamento de Ciência da Computação da Universidade Cornell, nos Estados Unidos, e ainda aguarda publicação e revisão por pares. Os resultados indicaram que o sistema artificial foi bem-sucedido em um teste de Turing tradicional com três participantes. Outros três modelos foram avaliados: o Llama 3.1, da Meta, que foi considerado humano em 56% das interações; os modelos base GPT-4 da OpenAI; e Eliza, um dos primeiros chatbots, que apresentaram taxas de acerto inferiores a 25%, evidenciando que esses sistemas foram facilmente reconhecidos como máquinas.
No contexto do Jogo da Imitação, que é amplamente conhecido como o Teste de Turing, um interrogador humano interage com duas testemunhas (uma humana e uma máquina) exclusivamente por meio de comunicação escrita. O objetivo de cada testemunha é convencer o interrogador de que é o humano verdadeiro. Quando o interrogador não consegue identificar de maneira confiável quem é o humano, a máquina é considerada como tendo passado no teste, o que sugere que ela é capaz de imitar a inteligência humana de forma convincente.
Além disso, o Brasil está entre os países que mais fazem uso da inteligência artificial.