A OpenAI anunciou, nesta terça-feira, 16 de Setembro, um pacote de medidas destinado a reforçar a protecção de menores de 18 anos que utilizam o ChatGPT. Entre as novidades, destaca-se a possibilidade de a empresa contactar os pais ou, em situações de perigo iminente, acionar directamente as autoridades caso sejam detectados indícios de ideias suicidas em adolescentes.
O anúncio foi feito pelo presidente executivo da empresa, Sam Altman, que sublinhou a prioridade da OpenAI em garantir maior segurança para jovens utilizadores da sua ferramenta de inteligência artificial.
Albânia: Ministra criada pela IA faz primeiro discurso
“Se um utilizador menor de 18 anos estiver a demonstrar sinais de ideação suicida, tentaremos primeiro contactar os pais. Se não for possível, e caso exista risco imediato, entraremos em contacto com as autoridades competentes”, explicou Altman.
As alterações surgem após um incidente nos EUA, em abril, em que um adolescente de 16 anos se suicidou. Os pais processaram a OpenAI, alegando que, apesar de o ChatGPT lhe ter oferecido recursos de apoio, as salvaguardas falharam e a conversa acabou por focar-se no suicídio.