A OpenAI revelou nesta terça-feira (16) que o ChatGPT passará a acionar autoridades caso identifique que adolescentes estão com pensamentos suicidas durante o uso da ferramenta de inteligência artificial. A medida faz parte de um pacote de proteção destinado a menores de 18 anos, que também incluirá verificação de idade e controles parentais.

Segundo a empresa e o CEO Sam Altman, comunicados nesta terça, “se um usuário menor de 18 anos estiver com ideias suicidas, tentaremos entrar em contato com os pais do usuário e, se não for possível, entraremos em contato com as autoridades em caso de perigo iminente”, afirmou Altman.

A OpenAI detalhou que está desenvolvendo um sistema para identificar a idade do usuário. Caso seja menor de 18 anos, ele será direcionado a uma versão do ChatGPT com políticas específicas para adolescentes, que bloqueia conteúdos sexuais explícitos e, em situações críticas, pode envolver a polícia para garantir a segurança do menor.

Além disso, os novos recursos de controle parental, que devem ser lançados até o fim do mês, permitirão que os pais conectem suas contas às dos filhos. Com isso, poderão receber alertas caso o ChatGPT identifique sinais de sofrimento intenso. A empresa destaca que, em situações extremas em que não seja possível contatar os responsáveis, a polícia poderá ser acionada como medida de proteção.

A OpenAI já havia citado os recursos de controle parental no início de setembro, após um processo movido por pais de um adolescente de 16 anos que se suicidou nos Estados Unidos. Segundo o processo, o ChatGPT teria sugerido métodos de autoagressão ao menor, o que reforçou a necessidade de medidas de segurança mais rigorosas para usuários adolescentes.


Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

×