A OpenAI, a empresa por trás do ChatGPT, está pensando em um novo sistema para identificar a idade dos usuários. A ideia é parecida com o que já acontece em plataformas como Roblox e TikTok. O objetivo principal é criar barreiras mais eficazes para proteger crianças e adolescentes.
A ferramenta não vai se basear em um único dado. Ela vai cruzar várias informações para tentar adivinhar a faixa etária de quem está usando. Entre os sinais observados estão o tempo de existência da conta e os horários em que a pessoa costuma acessar o serviço.
Se o sistema cometer um erro e classificar alguém de forma equivocada, haverá um canal para contestação. O usuário poderá, por exemplo, enviar uma selfie para comprovar sua idade real. A medida reflete um esforço da empresa em responder a cobranças que têm se tornado cada vez mais frequentes.
A pressão por mais segurança
A empresa tem enfrentado questionamentos sérios sobre como sua inteligência artificial é usada por pessoas mais jovens. Processos judiciais já acusam a ferramenta de omissão em situações delicadas. Em alguns casos, familiares alegam que o chatbot pode ter influenciado negativamente usuários vulneráveis.
Essa preocupação não vem apenas de processos na justiça. Órgãos de defesa do consumidor também estão de olho. Recentemente, o Idec encaminhou uma denúncia à Autoridade Nacional de Proteção de Dados. A reivindicação é por ações mais urgentes para prevenir possíveis danos.
A pesquisadora Julia Abad, do Idec, reforça a necessidade de providências imediatas. Para ela e para a instituição, é fundamental que as empresas de tecnologia assumam sua responsabilidade. A ideia é que inovações como o ChatGPT venham acompanhadas de mecanismos robustos de proteção desde o início.
O debate público entre as gigantes da tecnologia
O tema ganhou ainda mais visibilidade após uma troca de farpas pública entre dois nomes famosos do Vale do Silício. Elon Musk, dono do X e da xAI, fez críticas duras ao ChatGPT. Em uma publicação, ele sugeriu que seus seguidores não permitissem que pessoas próximas usassem a ferramenta da OpenAI.
A declaração não ficou sem resposta. Sam Altman, cofundador e CEO da OpenAI, rebateu os comentários. Ele reconheceu que a empresa precisa e pode fazer mais para proteger seus usuários, especialmente aqueles em estados mentais frágeis. Altman também destacou a complexidade do desafio.
Ao mesmo tempo, Altman apontou uma contradição nas críticas de Musk. Ele lembrou que o empresário já reclamou do ChatGPT por ser restritivo demais e, em outras ocasiões, por ser permissivo em excesso. O executivo ainda citou acidentes envolvendo o sistema Autopilot da Tesla, defendendo que equilibrar inovação e segurança é um caminho delicado para todas as empresas do setor.
Os comentários estão fechados, mas trackbacks E pingbacks estão abertos.