A OpenAI reforçou os sistemas de segurança parental no ChatGPT, mas mesmo assim não consegue escapar a críticas por ter limitado o acesso ao 4o.
No seguimento do caso em que uma família acusou o ChatGPT de
incentivar o suicídio do filho, a OpenAI responde com o lançamento de novas
ferramentas de segurança parental no ChatGPT, direccionadas aos pais de adolescentes entre os 13 e os 18 anos. A actualização permite que os pais liguem as suas contas às dos filhos, activando filtros de conteúdo mais rigorosos e alertas caso o adolescente escreva mensagens relacionadas com automutilação ou suicídio. Os conteúdos sinalizados são primeiro revistos por moderadores humanos, que decidem se deve ser enviada uma notificação aos pais, entregue por SMS, email ou notificação na app, no prazo de algumas horas.
As notificações parentais não incluem transcrições das conversas, mas avisam que o adolescente pode ter escrito mensagens preocupantes. Também podem trazer conselhos de especialistas em saúde mental sobre como abordar o tema. Para que o sistema funcione, tanto os pais como os adolescentes têm de aceitar a ligação entre contas. Se os moderadores considerarem que o jovem corre perigo e não conseguirem contactar os pais, a OpenAI poderá chegar ao ponto de alertar as autoridades.
Além dos alertas de crise, a actualização disponibiliza controlos parentais mais tradicionais. Os pais podem bloquear o acesso em determinados horários, desactivar funcionalidades como o modo de voz ou a geração de imagens, impedir que os dados do adolescente sejam usados para treinar o modelo, e desligar a função de memória do ChatGPT. O serviço também vai filtrar conteúdos gráficos, desafios virais, roleplays sexuais ou violentos, e padrões de beleza nocivos, para garantir uma experiência mais adequada à idade.
Estas mudanças surgem num contexto de crescente preocupação com a segurança dos adolescentes e o uso dado aos chatbots AI. Dito isto, a OpenAI também enfrenta críticas em sentido contrário, de utilizadores que dizem sentir-se enganados por a empresa estar a bloquear o acesso ao GPT-4o, o modelo mais "polémico" que assume uma personalidade mais humana que tenta agradar ao máximo. Quando a OpenAI detecta temas sensíveis, redirecciona a conversa para o mais recente GPT-5, que tem medidas de protecção adicionais que, por norma, impedem que a conversa prossiga.
1/ We’ve started testing a new safety routing system in ChatGPT.
As we previously mentioned, when conversations touch on sensitive and emotional topics the system may switch mid-chat to a reasoning model or GPT-5 designed to handle these contexts with extra care. This is similar…
— Nick Turley (@nickaturley) September 27, 2025
Em resposta a isso já existem campanhas que vão desde o apelo ao cancelamento da subscrição do ChatGPT Plus, ao incentivo de que o caso seja reportado às autoridades, por a OpenAI estar a cobrar por um serviço (o ChatGPT Plus dá acesso a escolher manualmente o modelo GPT-4o - que tinha sido removido com o lançamento do GPT-5, mas que a empresa voltou a disponibilizar face à pressão dos utilizadores) que afinal não disponibiliza.