Pular para o conteúdo

ChatGPT reforça proteção para usuários menores de 18 anos

Além das proteções automáticas do ChatGPT, responsáveis podem personalizar a experiência de adolescentes com controles parentais

author ,

ChatGPT

A OpenAI iniciou a liberação de um sistema de previsão de idade no ChatGPT para identificar contas que possam pertencer a usuários com menos de 18 anos. A medida aplica salvaguardas automáticas e amplia a proteção de adolescentes, enquanto mantém menos restrições para adultos dentro dos limites de segurança.

Segundo a empresa, a novidade se baseia no conjunto de políticas já existentes para segurança juvenil. O objetivo é oferecer uma experiência mais adequada à idade, reduzindo a exposição a conteúdos sensíveis sem comprometer o uso responsável por adultos.

O ChatGPT utiliza um modelo de previsão de idade que estima se uma conta provavelmente é operada por alguém com menos de 18 anos. A análise considera sinais comportamentais e dados da conta, como tempo de existência do perfil, horários habituais de uso, padrões ao longo do tempo e a idade informada pelo próprio usuário.

Quando o sistema identifica possível uso por um menor, o ChatGPT ativa automaticamente proteções adicionais. Entre as restrições estão conteúdos com violência gráfica, desafios virais que incentivem comportamentos arriscados, encenações de cunho sexual, romântico ou violento, representações de automutilação e materiais que promovam padrões corporais irreais, práticas alimentares nocivas ou humilhação pela aparência.

Caso não haja informações suficientes para determinar a idade, a plataforma adota por padrão uma experiência mais segura. Usuários enquadrados incorretamente como menores podem recuperar o acesso completo ao confirmar a idade. A verificação é feita por meio de uma selfie, usando o serviço de verificação de identidade Persona, acessível em Configurações e Conta.

Além das proteções automáticas, responsáveis podem personalizar a experiência de adolescentes com controles parentais. As opções incluem definir horários de silêncio, gerenciar recursos como memória e treinamento de modelos e receber alertas quando padrões indicarem risco emocional imediato.

A OpenAI afirma que acompanha de perto a fase inicial de liberação para aprimorar a precisão do sistema. Na União Europeia, a funcionalidade deve chegar nas próximas semanas para atender exigências regionais. A empresa também diz manter colaboração contínua com especialistas externos em segurança e bem-estar juvenil.

Aplicativos
X

🍪 Utilizamos cookies para fornecer uma melhor experiência de navegação. Ao usar este site, você concorda com os cookies. Mais detalhes: Política de privacidade.