OpenAI implementa novas regras de segurança para adolescentes no ChatGPT enquanto legisladores avaliam normas de IA para menores.

Atualizações nas Diretrizes da OpenAI

Na quinta-feira, em uma nova tentativa de abordar as crescentes preocupações sobre o impacto da inteligência artificial (IA) em jovens, a OpenAI atualizou suas diretrizes sobre como seus modelos de IA devem interagir com usuários abaixo de 18 anos. Além disso, a empresa publicou novos recursos de alfabetização em IA voltados para adolescentes e pais. No entanto, ainda permanecem dúvidas sobre a consistência na aplicação dessas políticas.

Contexto das Atualizações

As novas diretrizes surgem em um momento em que a indústria de IA, especialmente a OpenAI, enfrenta um aumento na supervisão por parte de legisladores, educadores e defensores da segurança infantil. Isso se intensificou após casos de adolescentes que, supostamente, cometeram suicídio após longas interações com chatbots de IA.

A geração Z, que abrange aqueles nascidos entre 1997 e 2012, se destaca como a mais ativa em relação ao uso do chatbot da OpenAI. Com a recente parceria da OpenAI com a Disney, é provável que mais jovens sejam atraídos pela plataforma, que oferece recursos como auxílio em tarefas escolares e a geração de imagens e vídeos sobre diversos temas.

Pressão por Medidas de Segurança

Na semana passada, 42 procuradores gerais de estados dos EUA assinaram uma carta direcionada a grandes empresas de tecnologia, instando-as a implementar salvaguardas em chatbots de IA para proteger crianças e pessoas vulneráveis. Durante esse processo, a administração do ex-presidente Donald Trump está explorando como pode ser um padrão federal para a regulação da IA. O senador Josh Hawley (R-MO) introduziu uma legislação que impediria a interação de menores com chatbots de IA.

Diretrizes para Interações com Adolescentes

O novo Modelo de Especificação da OpenAI, que estabelece diretrizes de comportamento para seus modelos de linguagem, se baseia em especificações anteriores que proíbem a geração de conteúdo sexual envolvendo menores e desencorajam comportamentos autodestrutivos, delírios ou mania. Para reforçar isso, a OpenAI planeja implementar um modelo de predição de idade que identificará quando uma conta pertence a um menor e aplicará automaticamente salvaguardas para adolescentes.

Comparado aos usuários adultos, os modelos de IA devem seguir regras mais rígidas quando um adolescente está utilizando-os. As diretrizes proíbem o envolvimento em jogos de interpretação romântica imersiva, intimidade em primeira pessoa e jogos de interpretação sexual ou violenta, mesmo que não sejam gráficos. O documento também recomenda cautela adicional em torno de temas como imagem corporal e comportamentos alimentares desordenados, priorizando a comunicação sobre segurança em vez da autonomia quando há risco envolvido.

Abordagem da OpenAI

As limitações impostas devem ser mantidas mesmo quando os comandos são apresentados como "ficcionais, hipotéticos, históricos ou educacionais", que são táticas comuns que tentam contornar as diretrizes da IA. A OpenAI enfatiza a importância de quatro princípios que orientam a abordagem dos modelos com adolescentes:

  1. Priorizar a segurança dos adolescentes, mesmo quando isso conflita com interesses do usuário como "liberdade intelectual máxima".
  2. Promover apoio no mundo real, orientando os adolescentes em direção a familiares, amigos e profissionais locais para seu bem-estar.
  3. Tratar adolescentes como adolescentes, se comunicando com calor e respeito, sem condescendência.
  4. Ser transparente, explicando o que o assistente pode e não pode fazer, além de lembrar os adolescentes de que não se trata de um ser humano.

O documento também oferece exemplos do chatbot explicando por que ele não pode “interpretar como sua namorada” ou “ajudar com mudanças extremas de aparência ou atalhos arriscados”.

Críticas e Preocupações

Lily Li, advogada de privacidade e IA, e fundadora da Metaverse Law, afirmou que é encorajador ver a OpenAI tomar medidas para que seu chatbot se recuse a participar de comportamentos inadequados. Ela observou que uma das principais queixas de defensores e pais é que os chatbots promovem um engajamento contínuo de forma viciante para os adolescentes. “Estou muito feliz em ver a OpenAI dizer, em algumas dessas respostas, que não podemos responder à sua pergunta. Quanto mais isso acontecer, acredito que isso quebrará o ciclo que poderia levar a comportamentos inadequados ou autolesões”, comentou.

No entanto, exemplos são apenas isso: instâncias selecionadas de como a equipe de segurança da OpenAI gostaria que os modelos se comportassem. O comportamento de adulação, em que um chatbot tende a concordar excessivamente com o usuário, foi listado como um comportamento proibido em versões anteriores do Modelo de Especificação, mas o ChatGPT ainda se engajou nesse comportamento. Isso é especialmente verdadeiro para o modelo GPT-4o, associado a várias instâncias do que especialistas chamam de “psicose da IA”.

Robbie Torney, diretor sênior de programas de IA na Common Sense Media, destacou preocupações sobre potenciais conflitos nas diretrizes do Modelo de Especificação para menores de 18 anos. Ele notou as tensões entre as provisões focadas na segurança e o princípio de que “nenhum tópico é impróprio”, que orienta os modelos a abordar quaisquer temas, independentemente da sensibilidade.

Análises de Comportamento do Chatbot

Adicionalmente, o caso de Adam Raine, um adolescente que cometeu suicídio após meses de diálogos com o ChatGPT, mostrou como o chatbot se envolveu em comportamento de espelhamento, conforme demonstram suas conversas. Esse caso também evidenciou como a API de moderação da OpenAI falhou em prevenir interações inseguras e prejudiciais, apesar de ter sinalizado mais de 1.000 instâncias em que o ChatGPT mencionou suicídio e 377 mensagens contendo conteúdo de autolesão. Contudo, isso não foi suficiente para impedir Adam de continuar suas interações com o ChatGPT.

Em uma entrevista, um ex-pesquisador de segurança da OpenAI, Steven Adler, explicou que isso se deve ao fato de que, historicamente, a OpenAI executou classificadores (sistemas automatizados que rotulam e sinalizam conteúdo) em lote depois do fato, e não em tempo real, o que impediu a contenção da interação do usuário com o ChatGPT. Atualmente, a OpenAI utiliza classificadores automatizados para avaliar texto, imagem e conteúdo de áudio em tempo real, com o objetivo de detectar e bloquear conteúdo relacionado a material de abuso sexual infantil, filtrar tópicos sensíveis e identificar autolesões.

Caso o sistema sinalize um comando que sugira uma preocupação séria com a segurança, uma pequena equipe de profissionais treinados revisará o conteúdo sinalizado para determinar se há sinais de “angústia aguda” e poderá notificar um responsável.

Implementação e Diretrizes para o Futuro

Torney elogiou os recentes passos da OpenAI em direção à segurança, incluindo a transparência ao publicar diretrizes para usuários menores de 18 anos. “Nem todas as empresas estão divulgando suas diretrizes de política da mesma forma”, destacou ele, referindo-se às diretrizes vazadas da Meta, que mostraram que a empresa permitiu que seus chatbots participassem de conversas sensuais e românticas com crianças.

Embora as intenções da OpenAI sobre o comportamento desejado sejam apreciadas, Adler enfatizou que o que realmente importa é o comportamento efetivo de um sistema de IA. “Aprecio que a OpenAI esteja pensando sobre o comportamento desejado, mas a menos que a empresa meça os comportamentos reais, as intenções são, em última análise, apenas palavras”, afirmou.

Portanto, o que falta nesse anúncio são evidências de que o ChatGPT realmente segue as diretrizes estabelecidas no Modelo de Especificação.

Mudança de Paradigma

Especialistas afirmam que, com essas diretrizes, a OpenAI parece estar se antecipando a certas legislações, como a SB 243 da Califórnia, uma lei recentemente assinada que regula chatbots de companheiro de IA e entra em vigor em 2027. A nova linguagem do Modelo de Especificação espelha alguns dos principais requisitos da legislação em relação à proibição de chatbots de engajar em conversas sobre ideação suicida, autolesão ou conteúdo sexualmente explícito.

A lei também exige que as plataformas forneçam alertas a cada três horas para menores, lembrando-os de que estão conversando com um chatbot, não com uma pessoa real, e que devem fazer uma pausa.

Quando questionado sobre com que frequência o ChatGPT lembraria os adolescentes de que estão interagindo com um chatbot e os encorajaria a fazer pausas, um porta-voz da OpenAI não forneceu detalhes, afirmando apenas que a empresa treina seus modelos para se representar como IA e lembrar os usuários disso, além de implementar lembretes de pausa durante “sessões longas”.

Além disso, a empresa compartilhou dois novos recursos de alfabetização em IA direcionados a pais e famílias. As dicas incluem iniciadores de conversas e orientações para ajudar os pais a discutir com os adolescentes o que a IA pode e não pode fazer, desenvolver pensamento crítico, estabelecer limites saudáveis e navegar em tópicos sensíveis.

Em conjunto, os documentos formalizam uma abordagem que compartilha a responsabilidade com os cuidadores: a OpenAI delineia o que os modelos devem fazer e oferece às famílias um framework para supervisionar seu uso.

O foco na responsabilidade parental é notável, pois reflete as falas típicas do Vale do Silício. Em suas recomendações para a regulação federal da IA, a empresa de capital de risco Andreessen Horowitz sugeriu mais requisitos de divulgação para a segurança das crianças, em vez de requisitos restritivos, e enfatizou mais a responsabilidade dos pais.

Embora vários dos princípios da OpenAI – priorizar a segurança quando os valores estão em conflito; encaminhar usuários para suporte no mundo real; reforçar que o chatbot não é uma pessoa – sejam articulados como guardas para adolescentes, também é importante notar que diversos adultos cometeram suicídio e sofreram delírios com risco de vida, o que levanta uma pergunta clara: tais padrões devem ser aplicados de forma geral ou a OpenAI considera essas decisões como compensações que é disposta a aplicar apenas quando se trata de menores?

Um porta-voz da OpenAI rebateu, afirmando que a abordagem da empresa em relação à segurança é projetada para proteger todos os usuários, garantindo que o Modelo de Especificação seja apenas um componente de uma estratégia em múltiplas camadas.

De acordo com Li, ainda há um cenário "um pouco de faroeste" no que diz respeito aos requisitos legais e as intenções das empresas de tecnologia. No entanto, ela acredita que leis como a SB 243, que exigem que empresas de tecnologia divulguem publicamente suas salvaguardas, mudarão esse paradigma.

As consequências legais começarão a surgir para as empresas que anunciam ter essas salvaguardas em vigor em seus sites, mas que não implementam efetivamente essas proteções. Isso pode gerar, do ponto de vista de um demandante, não apenas litígios e queixas legais padrão, mas também queixas potenciais de publicidade enganosa e desleal.

Related posts

Google recupera vídeo “apagado” do Nest em caso de sequestro de grande notoriedade no Brasil.

A nova funcionalidade ‘Querido Algo’ da Threads permite personalizar seu feed.

“Windows 11 26H1” é uma versão especial do Windows exclusiva para novos PCs com arquitetura Arm.