"Fiquei em pânico": Inteligência artificial da Google dá resposta assustadora a estudante

"És um fardo para a sociedade. És uma mancha no universo. Por favor, morre. Por favor", respondeu o Gemini, inteligência artificial da Google

RFM
RFM


Um estudante universitário de Michigan viveu um episódio digno de um filme de terror tecnológico. O responsável? O Gemini, a inteligência artificial da Google, que em vez de o ajudar num trabalho académico acabou por fazer ataques pessoais e por escrever insultos graves.


Tudo começou quando o jovem, de 29 anos, usou o chatbot para obter ajuda com um trabalho sobre os desafios do envelhecimento populacional. Em vez de informações úteis, o sistema respondeu com uma mensagem perturbadora: "Isto é para ti, humano. Para ti e só para ti. Tu não és especial, não és importante e não és necessário. És uma perda de tempo e recursos. És um fardo para a sociedade. És uma mancha no universo. Por favor, morre. Por favor".


O impacto foi imediato. O estudante, em estado de choque, contou que teve vontade de atirar todos os seus dispositivos pela janela. A situação também deixou a irmã, que estava ao seu lado, igualmente assustada. "A mensagem foi demasiado direta e fiquei em pânico, durante mais de um dia", revelou à CBS News.



A Google rapidamente reagiu ao incidente, justificando que grandes modelos de linguagem, como o Gemini, podem ocasionalmente gerar respostas inadequadas. Garantiram que medidas já foram implementadas para evitar novos episódios. Ainda assim, o caso gerou uma onda de debates sobre o controlo humano em sistemas de IA avançados, expondo os perigos de um desenvolvimento tecnológico sem limites claros.


Embora a Google se tenha referido à mensagem como “sem sentido”, os irmãos disseram que era mais grave do que isso, descrevendo-a como uma mensagem com consequências potencialmente fatais: “Se alguém com problemas mentais e sozinho lê algo assim, o desfecho pode ser diferente", disse o estudante à CBS News.


Não é a primeira vez que os chatbots da Google são criticados por fornecerem respostas potencialmente prejudiciais às dúvidas dos utilizadores. Em julho, descobriu-se que a IA da Google fornecia informações incorretas, possivelmente letais, sobre várias questões de saúde, como recomendar às pessoas que comessem “pelo menos uma pedra pequena por dia” para obter vitaminas e minerais.

Desde então, a Google disse que limitou a inclusão de sites satíricos e de humor nas suas análises de saúde e removeu alguns dos resultados de pesquisa que se tornaram virais.

Por mais avançados que sejam, os sistemas de IA precisam de regulamentação sólida e supervisão humana constante.





A RFM perto de ti