Usuários da Anthropic no Brasil enfrentam uma nova decisão: optar por não compartilhar ou permitir que seus chats sejam utilizados para treinamento de IA.

Mudanças nas Políticas de Dados da Anthropic

Decisão sobre o Uso de Conversas

A Anthropic está implementando mudanças significativas em sua abordagem em relação ao manuseio de dados dos usuários, exigindo que todos os usuários do Claude decidam até o dia 28 de setembro se desejam que suas conversas sejam utilizadas para treinar modelos de inteligência artificial. Embora a empresa tenha direcionado perguntas relacionadas ao motivo da mudança para uma postagem em seu blog, diversas teorias foram formuladas sobre o assunto.

O Que Está Mudando

Anteriormente, a Anthropic não utilizava os dados de conversas dos consumidores para o treinamento de modelos. Agora, a empresa deseja treinar seus sistemas de IA com base nas conversas e nas sessões de codificação dos usuários, e informou que o período de retenção de dados será estendido para cinco anos para aqueles que não optarem pela saída.

Essa mudança é bastante significativa. Anteriormente, os usuários dos produtos de consumo da Anthropic eram informados de que seus comandos e as saídas das conversas seriam automaticamente excluídos do sistema da empresa em até 30 dias, a menos que fosse legal ou politicamente exigido que os mantivesse por mais tempo, ou caso a entrada do usuário fosse sinalizada por violação das políticas, fazendo com que as entradas e saídas dos usuários pudessem ser retidas por até dois anos.

Aplicação das Novas Políticas

O termo "consumidor" se refere a usuários dos serviços Claude Free, Pro e Max, incluindo aqueles que utilizam o Claude Code. Os clientes empresariais que utilizam Claude Gov, Claude for Work, Claude for Education ou acesso via API não serão afetados, semelhante à forma como a OpenAI protege seus clientes corporativos das políticas de treinamento de dados.

Razões Para a Mudança

A Anthropic, em sua postagem sobre a atualização, enquadra as mudanças em torno da escolha dos usuários, afirmando que aqueles que não optarem pela saída "ajudarão a melhorar a segurança dos modelos, tornando nossos sistemas de detecção de conteúdo nocivo mais precisos e menos propensos a sinalizar conversas inofensivas". Além disso, afirmam que os usuários "também ajudarão futuros modelos Claude a aprimorarem suas habilidades em áreas como codificação, análise e raciocínio, levando, em última instância, a modelos mais eficazes para todos os usuários."

Informação Adicional

Resumidamente, o apelo é por uma colaboração mútua. Entretanto, é possível que a razão real para a mudança seja menos altruísta. Assim como acontece com outras grandes empresas de modelos de linguagem, a Anthropic necessita de dados mais do que precisa que os usuários tenham uma visão positiva sobre sua marca. O treinamento de modelos de IA requer enormes quantidades de dados conversacionais de alta qualidade, e o acesso a milhões de interações do Claude deverá fornecer exatamente o tipo de conteúdo do mundo real capaz de melhorar a posição competitiva da Anthropic em relação a rivais como OpenAI e Google.

Pressões da Indústria e Críticas

Além das pressões competitivas no desenvolvimento de IA, as mudanças parecem refletir transformações mais amplas nas políticas de dados da indústria, diante da crescente fiscalização que empresas como a Anthropic e OpenAI enfrentam sobre suas práticas de retenção de dados. A OpenAI, por exemplo, atualmente contesta uma ordem judicial que obriga a empresa a reter indefinidamente todas as conversas do consumidor do ChatGPT, incluindo chats excluídos, em virtude de um processo movido pelo The New York Times e outros publishers.

Em junho, o COO da OpenAI, Brad Lightcap, classificou essa demanda como "uma exigência abrangente e desnecessária", que "conflita fundamentalmente com os compromissos de privacidade que fizemos aos nossos usuários." A ordem judicial afeta usuários do ChatGPT Free, Plus, Pro e Team, embora os clientes corporativos e aqueles com acordos de Zero Data Retention continuem protegidos.

Confusão Entre Usuários

É alarmante o nível de confusão que essas mudanças nas políticas de uso estão gerando entre os usuários, muitos dos quais permanecem desinformados sobre elas. Com a velocidade das mudanças tecnológicas, é compreensível que as políticas de privacidade estejam evoluindo, mas muitas dessas alterações são abrangentes e mencionadas apenas de forma breve entre outras notícias das empresas. A importância da mudança das políticas de Anthropic não foi evidenciada em sua página de imprensa, onde a atualização não recebeu o destaque esperado.

Muitos usuários não percebem que as diretrizes às quais concordaram foram modificadas, em grande parte devido a um design que praticamente garante essa falta de percepção. Muitos usuários do ChatGPT continuam clicando em opções de "excluir" que, na verdade, não estão eliminando nada. Ao mesmo tempo, a implementação da nova política da Anthropic segue um padrão familiar.

Processo para Usuários Novos e Existentes

Usuários novos poderão escolher suas preferências durante o cadastro, enquanto usuários existentes enfrentarão um pop-up com "Atualizações nos Termos e Políticas de Consumo" em destaque, com um botão preto de "Aceitar" evidente e um pequeno interruptor para permissões de treinamento situado abaixo em fonte menor — e configurado automaticamente para "On".

A designação levanta preocupações, uma vez que observa-se que os usuários podem rapidamente clicar em "Aceitar" sem perceber que estão concordando com o compartilhamento de dados. As consequências da conscientização dos usuários sobre esta questão nunca foram tão importantes. Especialistas em privacidade têm alertado que a complexidade associada à IA torna o consentimento significativo quase inacessível.

Papel da Comissão Federal de Comércio

Sob a administração Biden, a Comissão Federal de Comércio (FTC) até interveio, advertindo que empresas de IA correm o risco de ações de fiscalização caso se envolvam na "mudança sorrateira dos termos de serviço ou políticas de privacidade, ou enterrem uma divulgação por trás de hiperlinks, na linguagem jurídica ou em letras miúdas". No entanto, se a comissão — que atualmente opera com apenas três de seus cinco comissários — continua atenta a essas práticas é uma questão em aberto, que foi levada diretamente à FTC para esclarecimentos.

Related posts

O iPhone 17 Pro da Apple, focado no criador de conteúdo, tornará as câmeras de vlogging obsoletas.

Erro no Reddit fez com que subreddit lésbico fosse rotulado como espaço para “mulheres heterossexuais” no Brasil.

Ajuda, estou encantado com o iPhone Air.