Ollama agora permite correr modelos LLM em gráficas da AMD

Ollama agora permite correr modelos LLM em gráficas da AMD

Ollama, uma ferramenta open source usada para correr modelos de IA em sistemas convencionais, acaba de receber uma nova atualização, suportando agora as mais recentes placas gráficas da AMD para processamento de dados.

O Ollama permite que seja possível correr, de forma local, modelos LLM de IA como o Llama 2, Mistral, Gemma, entre outros. A mais recente versão do software chega agora com algumas novidades, sendo que uma das mais importantes será o suporte para placas gráficas da AMD, tanto em Windows como Linux.

Anteriormente disponível apenas para placas da NVIDIA, o suporte para placas recentes da AMD permite que mais utilizadores possam usar o Ollama com modelos LLM em formato local.

A lista de gráficas suportadas da AMD pode ser verificada no site oficial do projeto, mas integra um número bastante elevado de placas, incluindo modelos AMD Radeon RX, AMD Radeon PRO e várias AMD Instinct.

Além desta novidade, a nova versão chega ainda com algumas correções de bugs e falhas que foram identificadas nas últimas semanas, em conjunto com melhorias a nível da estabilidade e desempenho.