Noyb solicitou uma resposta da Meta até 21 de maio, mas parece improvável que a Meta claveu rapidamente nesta luta.
Em uma postagem no blog, a Meta disse que o treinamento de IA sobre usuários da UE era fundamental para a criação de ferramentas de IA para os europeus informados por “tudo, desde dialetos e coloquialismos, conhecimento hiper-local e pela maneira distinta de países que diferentes países usam humor e sarcasmo em nossos produtos”.
A Meta argumentou que seus esforços de treinamento de IA na UE são muito mais transparentes do que os esforços dos concorrentes Google e OpenAI, que, observou a Meta “, já usaram dados de usuários europeus para treinar seus modelos de IA”, supostamente sem tomar as etapas que a Meta tem que informar os usuários.
Também ecoando um refrão comum no setor de IA, outro meta -blog alertou que os esforços para atrasar ainda mais o treinamento de IA da Meta na UE poderiam levar a “grandes contratempos”, empurrando a UE atrás dos rivais na corrida de IA.
“Sem uma reforma e simplificação do sistema regulatório europeu, a Europa ameaça ficar cada vez mais atrás na raça global da IA e perder terreno em comparação com os EUA e a China”, alertou Meta.
Noyb desacredita esse argumento e observou que ele pode buscar injunções em várias jurisdições para bloquear o plano de Meta. O grupo disse que atualmente está avaliando as opções para buscar alívio cautelar e potencialmente até fazer uma ação coletiva que valha a pena “bilhões em danos” para garantir que 400 milhões de direitos de dados dos usuários ativos mensais da UE sejam protegidos da gabra percebida da Meta.
Um porta -voz do Meta reiterou à ARS que o plano da empresa “segue um envolvimento extenso e contínuo com a Comissão de Proteção de Dados Irish”, ao reiterar as declarações da Meta em blogs de que sua abordagem de treinamento de IA “reflete consenso entre” as autoridades de proteção de dados da UE (DPAs).
Mas, embora a Meta afirme que os reguladores da UE tenham iluminado seus planos de treinamento de IA, a Noyb argumenta que os DPAs nacionais “ficaram em silêncio sobre a legalidade do treinamento de IA sem consentimento”, e Meta parece ter “simplesmente avançado de qualquer maneira”.
“Essa luta é essencialmente sobre pedir ao consentimento das pessoas ou simplesmente pegar seus dados sem ele”, disse Schrems, acrescentando que “a absurda de Meta alega que roubar dados pessoais de todos é necessário para o treinamento de IA é risível. Outros provedores de IA não usam dados de rede social – e geram modelos ainda melhores que meta”.