టెక్

Meta interrompe planos para treinar IA usando dados de usuários europeus, cedendo à pressão regulatória

Meta tem confirmado que interromperá os planos para começar a treinar seus sistemas de IA usando dados de seus usuários na União Europeia (UE) e no Reino Unido

A medida segue a resistência da Comissão Irlandesa de Proteção de Dados (DPC), o principal regulador da Meta na UE, que atua em nome de várias autoridades de proteção de dados (APDs) em todo o bloco. Gabinete do Comissário de Informação do Reino Unido (ICO) também solicitou que a Meta pausasse seus planos até que pudesse satisfazer as preocupações que havia levantado.

“A DPC saúda a decisão da Meta de interromper os seus planos para treinar o seu grande modelo de linguagem usando conteúdo público partilhado por adultos no Facebook e Instagram em toda a UE/EEE”, disse a DPC num comunicado. declaração hoje. “Esta decisão seguiu-se a um intenso envolvimento entre a DPC e a Meta. A DPC, em cooperação com as suas autoridades de proteção de dados da UE, continuará a colaborar com a Meta nesta questão.”

Embora Meta já esteja aproveitando conteúdo gerado pelo usuário para treinar sua IA nos mercados como os EUA, os rigorosos Regulamentos GDPR criou obstáculos para a Meta — e outras empresas — que buscam melhorar seus sistemas de IA com material de treinamento gerado por usuários.

No entanto, Meta começou a notificar os usuários sobre um mudança futura à sua política de privacidade no mês passado, que lhe dará o direito de usar conteúdo público no Facebook e Instagram para treinar sua IA, incluindo conteúdo de comentários, interações com empresas, atualizações de status, fotos e legendas associadas. A empresa argumentou que precisava fazer isso refletir “as diversas línguas, geografias e referências culturais dos povos da Europa”.

Essas alterações deveriam entrar em vigor em 26 de junho de 2024 – daqui a 12 dias. Mas os planos estimulado organização sem fins lucrativos ativista de privacidade NOYB (“não é da sua conta”) para registrar 11 reclamações junto aos países constituintes da UE, argumentando que a Meta está infringindo várias facetas do GDPR. Uma delas está relacionada com a questão do opt-in versus opt-out, vis-à-vis onde ocorre o processamento de dados pessoais, deve ser solicitada primeiramente a permissão dos usuários, em vez de ser necessária uma ação para recusar.

A Meta, por sua vez, baseava-se numa disposição do GDRP chamada “interesses legítimos” para afirmar que as suas ações estão em conformidade com os regulamentos. Esta não é a primeira vez que Meta usa esta base legal na defesa, tendo feito isso anteriormente para justificar o processamento de utilizadores europeus para publicidade direcionada.

Sempre pareceu provável que os reguladores pelo menos suspendessem a execução das mudanças planejadas pela Meta, especialmente considerando o quão difícil a empresa tornou para os usuários “optarem por não ter seus dados usados”. A empresa afirma ter enviado mais de 2 bilhões de notificações informando os usuários sobre as próximas mudanças, mas ao contrário de outras mensagens públicas importantes que ficam no topo dos feeds dos usuários, como pede para sair e votar, essas notificações apareceram junto com as notificações padrão dos usuários – aniversários de amigos, alertas de tags de fotos, anúncios de grupos e muito mais. Portanto, se alguém não verifica regularmente suas notificações, é muito fácil perder isso.

E aqueles que virem a notificação não saberão automaticamente que existe uma maneira de contestar ou cancelar, pois ela simplesmente convida os usuários a clicar para descobrir como o Meta usará suas informações. Não havia nada que sugerisse que houvesse uma opção aqui.

Meta: notificação de IA
Créditos da imagem: meta

Além disso, os usuários não eram tecnicamente capazes de “optar” pela utilização de seus dados. Em vez disso, eles tiveram que preencher um formulário de objeção onde apresentavam seus argumentos sobre por que queriam cancelar – ficava inteiramente a critério da Meta se esse pedido seria atendido, embora a empresa tenha dito que honraria cada pedido.

Facebook
Formulário de “objeção” do Facebook
Créditos da imagem: Meta/Captura de tela

Embora o formulário de objeção estivesse vinculado à própria notificação, qualquer pessoa que procurasse proativamente pelo formulário de objeção nas configurações de sua conta teria muito trabalho.

No site do Facebook, eles tiveram que primeiro clicar em seu foto de perfil no canto superior direito; bater configurações e privacidade; tocar centro de privacidade; role para baixo e clique no IA generativa na Meta seção; role para baixo novamente, passando por vários links para uma seção intitulada mais recursos. O primeiro link nesta seção é chamado “Como Meta usa informações para modelos de IA generativa”, e eles precisaram ler cerca de 1.100 palavras antes de chegar a um link discreto para o formulário de “direito de oposição” da empresa. Foi uma história semelhante no aplicativo móvel do Facebook também.

Link para
Link para o formulário de “direito de oposição”
Créditos da imagem: Meta/Captura de tela

No início desta semana, quando questionado sobre por que esse processo exigia que o usuário apresentasse uma objeção em vez de aceitar, o gerente de comunicações políticas da Meta Matt Pollard apontou o TechCrunch para seu postagem de blog existenteque diz: “Acreditamos que esta base legal [“legitimate interests”] é o equilíbrio mais adequado para processar dados públicos na escala necessária para treinar modelos de IA, respeitando ao mesmo tempo os direitos das pessoas.”

Traduzindo isso, fazer essa adesão provavelmente não geraria “escala” suficiente em termos de pessoas dispostas a oferecer seus dados. Parece que a melhor maneira de contornar isso foi emitir uma notificação solitária entre outras notificações dos usuários; ocultar o formulário de objeção atrás de meia dúzia de cliques para aqueles que buscam o “opt-out” de forma independente; e depois fazê-los justificar a sua objecção, em vez de lhes dar uma opção de exclusão directa.

Em um postagem atualizada do blog hoje, o diretor de engajamento global para política de privacidade da Meta, Stefano Fratta, disse que estava “decepcionado” com a solicitação que recebeu da DPC.

“Este é um retrocesso para a inovação europeia, a concorrência no desenvolvimento da IA ​​e mais atrasos na disponibilização dos benefícios da IA ​​às pessoas na Europa”, escreveu Fratta. “Continuamos altamente confiantes de que a nossa abordagem está em conformidade com as leis e regulamentos europeus. O treinamento em IA não é exclusivo dos nossos serviços e somos mais transparentes do que muitos de nossos colegas do setor.”

Corrida armamentista de IA

Nada disso é novo, é claro, e Meta está em uma corrida armamentista de IA que brilhou um holofote gigante sobre o vasto arsenal de dados A Big Tech domina todos nós.

No início deste ano, Reddit revelou que foi contratado para fazer mais de US$ 200 milhões nos próximos anos para licenciar seus dados para empresas como OpenAI, criador do ChatGPT e Google. E esta última dessas empresas já está enfrentando multas enormes por se apoiar em conteúdo de notícias protegido por direitos autorais para treinar seus modelos generativos de IA.

Mas estes esforços também destacam até onde as empresas irão para garantir que podem aproveitar estes dados dentro das restrições da legislação existente – a “opção pela participação” raramente está na agenda, e o processo de exclusão é muitas vezes desnecessariamente árduo. No mês passado, alguém viu algumas palavras duvidosas em uma política de privacidade existente do Slack que sugeria que seria capaz de aproveitar os dados do usuário para treinar seus sistemas de IA, com os usuários podendo cancelar apenas enviando um e-mail para a empresa.

E no ano passado, o Google finalmente deu aos editores on-line uma maneira para que seus sites não treinem seus modelos, permitindo-lhes injetar um pedaço de código em seus sites. OpenAI, por sua vez, é construindo uma ferramenta dedicada para permitir que os criadores de conteúdo optem por não treinar sua inteligência artificial generativa – isso deve estar pronto em 2025.

Embora as tentativas da Meta de treinar sua IA no conteúdo público dos usuários na Europa estejam congeladas por enquanto, provavelmente surgirá novamente de outra forma após consulta com o DPC e o ICO – esperançosamente com um processo diferente de permissão do usuário.

Source

Related Articles

Leave a Reply

Your email address will not be published. Required fields are marked *

Back to top button