Samsung impede funcionários de usarem chatbots de IA por questões de segurança

Samsung impede funcionários de usarem chatbots de IA por questões de segurança

Existem cada vez mais empresas que se encontram a adotar Inteligência Artificial para as suas tarefas do dia a dia, e certamente que isso possui as suas vantagens. No entanto, ferramentas como o Google Bard e o ChatGPT também recolhem tudo o que é dito, para melhorar os seus modelos.

Isto pode ser um problema, quando são os funcionários das empresas a usarem as ferramentas para colocarem questões ou pedidos que envolvam temas sensíveis ou secretos das entidades. Por isso mesmo, a Samsung é uma das primeiras empresas que se encontra a aplicar medidas para evitar tais situações.

De acordo com o portal Bloomberg, a Samsung enviou durante a semana passada uma mensagem interna para os seus funcionários, de forma que os mesmos não usem plataformas como o ChatGPT em dispositivos do trabalho ou durante as horas de expediente.

Um dos motivos para esta decisão terá sido o facto da Samsung ter verificado que alguns funcionários terão enviado, para o ChatGPT, informação potencialmente sensível da empresa, como esquemas e dados internos.

Os funcionários podem continuar a usar chatbots de IA fora do trabalho, e nos seus dispositivos pessoais, no entanto a Samsung pede para que os mesmos não enviem dados sensíveis da empresa para essas plataformas.

Algumas fontes apontam que a Samsung encontra-se a estudar a possibilidade de criar o seu próprio chatbot, baseado em IA, que poderia ser usado para questões internas da empresa, mas teria foco em garantir a privacidade das informações partilhadas no mesmo. Este chatbot poderia ser usado pelos funcionários para as mais variadas questões, mas com mais privacidade para os conteúdos partilhados do que o existente em plataformas como o ChatGPT e Bing Chat.