Nos últimos tempos, tem-se assistido a um aumento significativo de pessoas, sobretudo jovens, a usarem o ChatGPT como se fosse um terapeuta, um coach de vida ou até um conselheiro para problemas pessoais. No entanto, o CEO da OpenAI, Sam Altman, lançou um aviso importante, durante o podcast "This Past Weekend", de Theo Von: as conversas com o ChatGPT não têm o mesmo nível de privacidade e proteção legal que as sessões com terapeutas, médicos ou advogados.
Enquanto o segredo profissional com profissionais de saúde e juristas protegem-te, o mesmo não acontece ainda com as interações feitas com chatbots. Altman explicou que, mesmo que apagues as conversas, estas podem ser recuperadas por razões legais ou de segurança, o que significa que nada é completamente privado.
Esta situação levanta uma questão urgente: como vão as leis acompanhar o uso crescente da inteligência artificial em contextos sensíveis? Segundo Altman, esta é uma preocupação que não existia há um ano, mas que agora se tornou um enorme desafio para reguladores e utilizadores.
Para complicar ainda mais, um estudo recente da Universidade de Stanford mostrou que os chatbots de IA, como o ChatGPT, ainda não estão preparados para assumirem o papel de terapeutas. O estudo revelou que estes modelos podem responder de forma inadequada a problemas de saúde mental, reforçando estigmas e falhando em reconhecer situações de crise.
Ou seja, apesar de a IA ser uma ferramenta incrível para obter informações e apoio básico, não substitui o aconselhamento profissional qualificado - e, para já, as nossas conversas com o ChatGPT não têm o mesmo sigilo das sessões reais.










