A Meta anunciou nesta segunda-feira, 14 de agosto, que utilizará interações dos usuários com sua inteligência artificial, além de postagens públicas e comentários de adultos em suas plataformas, para o treinamento de seus modelos de IA na União Europeia. Essa decisão da empresa controladora do Facebook segue o lançamento de sua tecnologia de IA na região no mês anterior, que ocorreu após atraso inicial previsto para junho de 2024, em razão de preocupações regulatórias relacionadas à proteção de dados e privacidade.
Apesar da implementação da Meta AI nos Estados Unidos em 2023, sua introdução na Europa enfrentou diversos entraves devido às rigorosas normativas de privacidade e transparência estabelecidas pela União Europeia. A partir de agora, usuários das plataformas da Meta na UE, incluindo Facebook, Instagram e WhatsApp, começarão a receber notificações detalhando quais dados serão utilizados pela empresa. Essas notificações incluirão um link para um formulário que permitirá aos usuários se oporem ao uso de seus dados para fins de treinamento.
Embora a Meta se utilize de dados como consultas e perguntas feitas por usuários na Meta AI, é importante destacar que mensagens privadas e informações públicas de contas pertencentes a usuários menores de 18 anos não serão empregadas no treinamento dos modelos de IA.
A Comissão Europeia não se pronunciou sobre a decisão da Meta. A empresa decidiu suspender seu lançamento na Europa em junho passado, após um pedido da Comissão de Proteção de Dados da Irlanda, que solicitou que a companhia adiasse seus planos de explorar dados de postagens em redes sociais. Além disso, a Meta recebeu críticas de um grupo de defesa chamado NOYB, que instou os órgãos de proteção à privacidade a interromper o uso desse tipo de conteúdo.
Outras empresas também estão sob investigação do regulador de privacidade irlandês. O X, plataforma de Elon Musk, enfrenta um exame em relação ao uso de dados pessoais de usuários da UE para o treinamento do sistema de IA Grok. Por sua vez, a Comissão de Proteção de Dados iniciou uma investigação sobre o Google em setembro, para averiguar se a empresa garantiu a proteção adequada dos dados dos usuários antes de utilizá-los em seu modelo de IA.