Segundo a empresa, cerca de 0,15% dos 800 milhões de usuários semanais do chatbot apresentam sinais de planejamento suicida
A OpenAI anunciou uma nova atualização de segurança para seu popular modelo ChatGPT depois que uma análise interna descobriu que mais de um milhão de usuários admitiram tendências suicidas no chatbot. As mudanças têm como objetivo melhorar a capacidade da IA de reconhecer emergências e responder-lhes adequadamente.
Em comunicado divulgado na segunda-feira, a empresa disse que cerca de 0,15% dos usuários semanais do ChatGPT participaram de conversas que incluem: “Sinais explícitos de possível planejamento ou intenção suicida.” Outros 0,05% das mensagens também continham conteúdo “Sinais explícitos ou implícitos de pensamentos ou intenções suicidas.”
No início deste mês, o CEO da OpenAI, Sam Altman, afirmou que o ChatGPT tem mais de 800 milhões de usuários ativos semanais. Isso significa que, de acordo com os últimos números da empresa, mais de 1,2 milhão de pessoas discutiram o suicídio com o chatbot e cerca de 400 mil mostraram sinais de intenções suicidas.
A empresa disse ainda que cerca de 0,07% (560 mil) dos seus usuários semanais e 0,01% (80 mil) das mensagens relatam isso “Possíveis sinais de emergências psicológicas associadas a psicose ou mania.” Também foi descoberto que vários usuários dependem muito do ChatGPT emocionalmente, com aproximadamente 0,15% (1,2 milhão) de usuários ativos exibindo esse comportamento “Valores aumentados” a conexão emocional com o chatbot.
A OpenAI anunciou que está trabalhando com dezenas de especialistas em saúde mental de todo o mundo para atualizar o chatbot para que ele possa detectar sinais de estresse mental de maneira mais confiável, fornecer melhores respostas e direcionar os usuários para ajuda no mundo real.
Falando sobre crenças delirantes, a empresa disse que está ensinando o ChatGPT a respondê-las “seguro,” E “confidencial” evitando ao mesmo tempo confirmar crenças infundadas.
O anúncio da empresa ocorre em meio a preocupações crescentes sobre o uso crescente de chatbots de IA como o ChatGPT e seu impacto na saúde mental das pessoas. Psiquiatras e outros profissionais médicos expressaram preocupação com a tendência emergente de utilizadores desenvolverem delírios perigosos e pensamentos paranóicos após conversas prolongadas com chatbots de IA, que tendem a confirmar e reforçar as crenças dos utilizadores. O fenômeno tem sido chamado por alguns de “Psicose de IA.”
Você pode compartilhar esta história nas redes sociais:






