Google Deepmind forma novo grupo focado em segurança na IA
Numa altura em que a IA encontra-se presente em várias áreas, a Google tem vindo também a realizar alguns avanços neste campo. Depois de revelar os modelos Gemini, e de mais recentemente ter revelado os novos modelos Gemma de formato aberto, a empresa foca-se agora em criar medidas para garantir mais segurança no uso da tecnologia.
Os modelos da empresa são ainda conhecidos por criarem algumas histórias fabricadas sobre temas da atualidade, e até alguns eventos tanto atuais como futuros. A tecnologia da empresa tem vindo a melhorar, mas as ferramentas de IA ainda são propicias a propagarem informações falsas ou incorretas.
A pensar nisso, a Google DeepMind, departamento da Google focado ao desenvolvimento de tecnologias de IA, vai agora começar a investir consideravelmente em melhorias na secção de segurança da plataforma. A ideia será criar um centro de segurança na empresa, que possa ser usado para garantir o uso mais seguro e fiável das tecnologias de IA.
Atualmente a empresa ainda se encontra a formar as equipas que farão parte da AI Safety and Alignment. Neste momento, a confirmação de tal divisão encontra-se apenas nas ofertas de trabalho da empresa, onde a mesma é citada. A empresa encontra-se à procura de engenheiros capazes de criarem soluções para garantir o uso seguro e responsável das tecnologias de IA.
Esta medida é algo parecido com o que a OpenAI já tinha criado em Julho do ano passado, com foco em evitar que os modelos da empresa sejam usados para propagar desinformação ou conteúdos enganadores que possam colocar em risco os seus utilizadores e comunidade em geral.
Esta medida será ainda mais importante numa altura em que se preparam as eleições presidenciais nos EUA, e onde existe um elevado receio que as tecnologias de IA possam ser usadas para a criação de campanhas de desinformação ou para propagação de conteúdos enganadores.