OpenAI pretende melhorar segurança dos futuros modelos de IA
Existem sérias dúvidas na forma como a OpenAI se encontra a trabalhar para garantir a segurança das suas tecnologias de IA. O ChatGPT tem sido alvo de algumas críticas, em parte devido à forma como pode ser abusado para as mais variadas práticas.
No entanto, Sam Altman veio recentemente deixar alguns comentários sobre essa ideia. O co-fundador da OpenAI veio recentemente anunciar alguns dos planos da empresa para o futuro, que envolvem melhorias a nível da segurança dos seus modelos de IA. A partir da sua conta na X, Sam Altman refere que a OpenAI encontra-se a trabalhar com a Artificial Intelligence Safety Institute nos EUA, de forma a garantir que os futuros modelos GPT contam com todas as funções focadas em segurança.
Altman afirma que as duas entidades encontram-se a trabalhar em conjunto para garantir a segurança do modelo, sendo que a Artificial Intelligence Safety Institute vai ter acesso antecipado ao futuro modelo GPT para analisar tais medidas, e realizar as adaptações que sejam consideradas necessárias. O mesmo afirma ainda que a ideia será ajudar a evoluir as tecnologias de IA existente, e criar um modelo de IA que seja não apenas avançado, mas também seguro para uso no dia a dia.
Altman não deixou detalhes sobre o acordo estabelecido diretamente com a Artificial Intelligence Safety Institute, tendo apenas confirmado que o mesmo existe. Portanto, ainda existem algumas questões que podem ser levantadas. Ainda assim, será um avanço para a ideia e objetivo da empresa de fornecer os seus modelos de forma consciente.
De relembrar que a OpenAI tem sido criticada por pensar mais em lançar os modelos de IA o mais rapidamente possível, por vezes ignorando algumas medidas de segurança para a comunidade em geral e a própria tecnologia.