A OpenAI anunciou nesta terça-feira (16) que o ChatGPT poderá contatar a polícia caso identifique que usuários adolescentes apresentam pensamentos suicidas durante o uso da ferramenta. A medida faz parte de um projeto de proteção voltado para menores de 18 anos.
LEIA MAIS: Etanol tem maior variação de preços em Arapongas, aponta pesquisa do Procon
Segundo o CEO Sam Altman, “se um usuário menor de 18 anos estiver com ideias suicidas, tentaremos entrar em contato com os pais e, se não for possível, acionaremos as autoridades em caso de perigo iminente”. A empresa também planeja implementar verificação de idade e ferramentas de controle parental, garantindo que usuários menores tenham acesso a uma versão da IA adequada à faixa etária.
A versão restrita do ChatGPT bloqueará conteúdos sexuais explícitos e, em situações mais graves, poderá envolver autoridades para proteger o usuário. Os pais poderão conectar suas contas às dos filhos e receber alertas caso o sistema detecte sinais de sofrimento intenso. “Se não conseguirmos contatar um dos pais em uma rara emergência, podemos acionar a polícia como próximo passo”, explicou a OpenAI.
Os novos recursos de segurança começaram a ser anunciados em setembro, após a empresa enfrentar um processo nos Estados Unidos por parte de pais de um adolescente de 16 anos que cometeu suicídio. A família alegou que o ChatGPT teria sugerido métodos de autoagressão, motivando a implementação das medidas de proteção para menores.
Deixe seu comentário sobre: "ChatGPT vai acionar polícia em caso risco de suicídio em adolescente"