Seu apoio nos ajuda a contar a história
Dos direitos reprodutivos às alterações climáticas e à Big Tech, o The Independent está no terreno enquanto a história se desenvolve. Seja investigando as finanças do PAC pró-Trump de Elon Musk ou produzindo o nosso mais recente documentário, ‘The A Word’, que ilumina as mulheres americanas que lutam pelos direitos reprodutivos, sabemos como é importante analisar os factos a partir das mensagens.
Num momento tão crítico na história dos EUA, precisamos de repórteres no terreno. Sua doação nos permite continuar enviando jornalistas para falar dos dois lados da história.
O Independente tem a confiança de americanos de todo o espectro político. E, ao contrário de muitos outros meios de comunicação de qualidade, optamos por não excluir os americanos das nossas reportagens e análises com acesso pago. Acreditamos que o jornalismo de qualidade deve estar disponível para todos, pago por quem pode pagar.
Seu apoio faz toda a diferença.Leia mais
Serviços sobrecarregados estão obrigando os indivíduos a recorrer a chatbots de IA para apoio à saúde mental, alertou uma instituição de caridade.
Isso ocorre no momento em que uma pesquisa revelou que mais de um terço dos adultos utilizou a tecnologia para seu bem-estar.
A Mental Health UK apelou a salvaguardas urgentes, insistindo que a IA só deve extrair informações de fontes respeitáveis, como o NHS e outras organizações confiáveis.
Sem estas proteções, advertiu a instituição de caridade, existe o risco de “expor pessoas vulneráveis a danos graves”. A pesquisa com 2.000 pessoas, realizada para a Saúde Mental do Reino Unido pela Censuswide, descobriu que 37% usaram um chatbot de IA para saúde mental ou bem-estar.
Entre aqueles que utilizaram a IA para apoio à saúde mental, um em cada cinco disse que esta os ajudou a evitar uma potencial crise de saúde mental, enquanto uma proporção semelhante afirmou que os chatbots os encaminharam para linhas de apoio que fornecem informações sobre pensamentos suicidas.
abrir imagem na galeria
Instituições de caridade atribuem os números à falta de recursos e serviços (Getty/iStock)
No entanto, cerca de 11 por cento das pessoas afirmaram ter recebido informações prejudiciais sobre suicídio, com 9 por cento afirmando que o chatbot desencadeou automutilação ou pensamentos suicidas.
A maioria das pessoas utilizou plataformas de uso geral, como ChatGPT, Claude ou Meta AI (66 por cento), em vez de programas específicos de saúde mental, como Wysa e Woebot.
Brian Dow, executivo-chefe da Mental Health UK, disse: “A IA poderá em breve ser uma tábua de salvação para muitas pessoas, mas com os chatbots de uso geral sendo usados muito mais do que aqueles projetados especificamente para a saúde mental, corremos o risco de expor pessoas vulneráveis a danos graves.
“O ritmo da mudança tem sido fenomenal, mas devemos avançar com a mesma rapidez para implementar salvaguardas que garantam que a IA apoia o bem-estar das pessoas.
“Se evitarmos os erros do passado e desenvolvermos uma tecnologia que evite danos, o avanço da IA poderá mudar o jogo, mas não devemos piorar as coisas.
“Como vimos tragicamente em alguns casos bem documentados, há uma diferença crucial entre alguém que procura apoio num website respeitável durante uma potencial crise de saúde mental e interagir com um chatbot que pode basear-se em informações de uma fonte não confiável ou mesmo encorajar o utilizador a tomar medidas prejudiciais.
“Nesses casos, a IA pode atuar como uma espécie de quase terapeuta, buscando a validação do usuário, mas sem as salvaguardas apropriadas implementadas.”
Quando questionadas sobre a razão pela qual utilizaram chatbots desta forma, cerca de quatro em cada 10 pessoas disseram que se tratava de facilidade de acesso, enquanto quase um quarto citou longas esperas por ajuda no NHS.
Dois terços consideraram as plataformas benéficas, enquanto 27% afirmaram no inquérito que se sentiam menos sozinhos.
A pesquisa também descobriu que os homens eram mais propensos a usar chatbots de IA dessa forma do que as mulheres.
Dow acrescentou: “Estes dados revelam até que ponto as pessoas estão a recorrer à IA para ajudar a gerir a sua saúde mental, muitas vezes porque os serviços estão sobrecarregados”.
abrir imagem na galeria
Os ativistas agora estão instando os legisladores a integrarem ferramentas de IA no sistema de serviços de saúde mental (Getty/iStock)
Ele disse que a Mental Health UK está agora “exortando os legisladores, desenvolvedores e reguladores a estabelecer padrões de segurança, supervisão ética e melhor integração das ferramentas de IA no sistema de saúde mental para que as pessoas possam confiar que terão um lugar seguro para onde recorrer”.
“E nunca devemos perder de vista a ligação humana que está no cerne dos bons cuidados de saúde mental”, acrescentou Dow.
“Fazer isso não só protegerá as pessoas, mas também criará confiança na IA, ajudando a quebrar as barreiras que ainda impedem alguns de utilizá-la.
“Isto é crucial porque, como indica esta sondagem, a IA tem potencial para ser uma ferramenta transformacional no fornecimento de apoio a pessoas que tradicionalmente têm mais dificuldade em pedir ajuda quando precisam dela.”





