Meta revela novo modelo Llama 3.2 para processamento de texto e imagens
A Meta acaba de confirmar o seu mais recente modelo dentro da família Llama, que vai trazer algumas novidades importantes para o mesmo.
O novo Llama 3.2 encontra-se agora disponível como um modelo capaz de processar tanto texto como imagens. Este novo modelo abre novas possibilidades para quem pretenda usar o modelo aberto da Meta para os seus projetos.
A capacidade de interpretação das imagens permite abrir novas possibilidades para diferentes projetos, como motores de pesquisa e para conteúdos visuais. O Llama 3.2 conta ainda com melhorias a nível da compreensão de vídeo em tempo real, sendo capaz de separar os frames do mesmo para interpretar os conteúdos.
O modelo inclui dois modelos de visão com 11 mil milhões e 90 mil milhões de parâmetros e dois modelos leves somente de texto com mil milhões e 3 mil milhões de parâmetros, projetados para hardware móvel e de menor potência.
O Llama 3.2 vai começar a ser usado em alguns produtos e serviços da Meta, como é o caso dos novos Ray-Ban Meta. A Meta pretende ainda que estes modelos fiquem adaptados para dispositivos móveis no futuro, e para sistemas baseados em arquitetura ARM.
O Llama 3.1 ainda se encontra disponível para quem pretenda um modelo consideravelmente mais avançado, mas focado apenas para a criação de texto.