Como a IA Mistral e a NVIDIA revolucionam a linguagem com um modelo de 12B.

AI e aprendizado de máquina estão redefinindo os limites do possível. Recentemente, a Mistral AI e a NVIDIA anunciaram o lançamento de um novo modelo de linguagem de 12 bilhões de parâmetros, o NeMo. Esse impressionante avanço na tecnologia de IA promete impulsionar ainda mais a inovação em uma ampla gama de aplicações.

Destaques-chave

  • O novo modelo NeMo, desenvolvido em parceria entre a Mistral AI e a NVIDIA, possui um contexto de até 128.000 tokens e alcança desempenho de ponta em raciocínio, conhecimento do mundo e precisão de codificação.
  • O NeMo foi projetado para ser uma substituição perfeita para os sistemas atuais que utilizam o modelo Mistral 7B, graças à sua arquitetura padrão.
  • A Mistral AI disponibilizou os pesos do modelo pré-treinado e sintonizado por instrução sob a licença Apache 2.0, o que deve acelerar a adoção do NeMo em diversas aplicações.

Desempenho Impressionante e Recursos Avançados

O NeMo da Mistral AI é um modelo de linguagem de última geração que redefine os padrões de desempenho. Uma de suas características-chave é a capacidade de quantização durante o treinamento, permitindo inferência em FP8 sem comprometer o desempenho. Isso pode ser crucial para organizações que buscam implantar modelos de linguagem de grande porte de forma eficiente.

Além disso, o NeMo introduz o Tekken, um novo tokenizador baseado no Tiktoken. Treinado em mais de 100 idiomas, o Tekken oferece uma eficiência de compressão aprimorada tanto para texto em linguagem natural quanto para código-fonte, em comparação com o tokenizador SentencePiece usado em modelos Mistral anteriores. A empresa afirma que o Tekken é aproximadamente 30% mais eficiente na compressão de código-fonte e de vários idiomas principais, com ganhos ainda mais significativos para o coreano e o árabe.

Acessibilidade e Integração

Uma das características mais atraentes do NeMo da Mistral AI é sua disponibilidade em código aberto e sua facilidade de integração. Os pesos do modelo estão agora disponíveis no HuggingFace, tanto para a versão base quanto para a versão instruída. Isso permite que os desenvolvedores comecem a experimentar o NeMo da Mistral usando a ferramenta mistral-inference e adaptá-lo com o mistral-finetune.

Além disso, o NeMo da Mistral também está disponível como um microserviço de inferência NVIDIA NIM, integrando-se perfeitamente no ecossistema de IA da NVIDIA. Essa integração pode simplificar significativamente a implantação do modelo para organizações que já utilizam a infraestrutura da NVIDIA.

Conclusão

O lançamento do NeMo da Mistral AI e da NVIDIA representa um marco significativo na democratização de modelos de IA avançados. Ao combinar alto desempenho, capacidades multilíngues e disponibilidade de código aberto, essa parceria está posicionando o NeMo como uma ferramenta versátil para uma ampla gama de aplicações de IA em diferentes indústrias e campos de pesquisa.

Como a IA Mistral e a NVIDIA revolucionam a linguagem com um modelo de 12B.
Source: artificialintelligence-news.com


Leia mais: