AI e aprendizado de máquina estão redefinindo os limites do possível. Recentemente, a Mistral AI e a NVIDIA anunciaram o lançamento de um novo modelo de linguagem de 12 bilhões de parâmetros, o NeMo. Esse impressionante avanço na tecnologia de IA promete impulsionar ainda mais a inovação em uma ampla gama de aplicações.
Destaques-chave
- O novo modelo NeMo, desenvolvido em parceria entre a Mistral AI e a NVIDIA, possui um contexto de até 128.000 tokens e alcança desempenho de ponta em raciocínio, conhecimento do mundo e precisão de codificação.
- O NeMo foi projetado para ser uma substituição perfeita para os sistemas atuais que utilizam o modelo Mistral 7B, graças à sua arquitetura padrão.
- A Mistral AI disponibilizou os pesos do modelo pré-treinado e sintonizado por instrução sob a licença Apache 2.0, o que deve acelerar a adoção do NeMo em diversas aplicações.
Desempenho Impressionante e Recursos Avançados
O NeMo da Mistral AI é um modelo de linguagem de última geração que redefine os padrões de desempenho. Uma de suas características-chave é a capacidade de quantização durante o treinamento, permitindo inferência em FP8 sem comprometer o desempenho. Isso pode ser crucial para organizações que buscam implantar modelos de linguagem de grande porte de forma eficiente.
Além disso, o NeMo introduz o Tekken, um novo tokenizador baseado no Tiktoken. Treinado em mais de 100 idiomas, o Tekken oferece uma eficiência de compressão aprimorada tanto para texto em linguagem natural quanto para código-fonte, em comparação com o tokenizador SentencePiece usado em modelos Mistral anteriores. A empresa afirma que o Tekken é aproximadamente 30% mais eficiente na compressão de código-fonte e de vários idiomas principais, com ganhos ainda mais significativos para o coreano e o árabe.
Acessibilidade e Integração
Uma das características mais atraentes do NeMo da Mistral AI é sua disponibilidade em código aberto e sua facilidade de integração. Os pesos do modelo estão agora disponíveis no HuggingFace, tanto para a versão base quanto para a versão instruída. Isso permite que os desenvolvedores comecem a experimentar o NeMo da Mistral usando a ferramenta mistral-inference e adaptá-lo com o mistral-finetune.
Além disso, o NeMo da Mistral também está disponível como um microserviço de inferência NVIDIA NIM, integrando-se perfeitamente no ecossistema de IA da NVIDIA. Essa integração pode simplificar significativamente a implantação do modelo para organizações que já utilizam a infraestrutura da NVIDIA.
Conclusão
O lançamento do NeMo da Mistral AI e da NVIDIA representa um marco significativo na democratização de modelos de IA avançados. Ao combinar alto desempenho, capacidades multilíngues e disponibilidade de código aberto, essa parceria está posicionando o NeMo como uma ferramenta versátil para uma ampla gama de aplicações de IA em diferentes indústrias e campos de pesquisa.