Modelo UnTO: Um Família de Modelos de Linguagem
O modelo UnTO é uma família de modelos de linguagem desenvolvidos pela empresa Alibaba, disponíveis em diferentes tamanhos (0,5 bilhões, 1,5 bilhões e 72 bilhões). Nesse vídeo, vamos usar um modelo menor para acelerar o processo de fine-tuning.
Fine-Tuning com LAURA
A técnica de adaptação de baixo posto (LAURA) é usada para fine-tuning do modelo em relação a um conjunto de dados específico. Essa técnica é mais eficiente, pois adiciona uma matriz de baixo posto às pesos do modelo, permitindo que ele se adapte a um novo conjunto de dados sem exigir muitos parâmetros adicionais.
Configuração do Modelo e Treinamento
O modelo é configurado com parâmetros de adaptação de baixa ordem (LAURA) e projeções de camadas. O hyperparâmetro alpha é definido como 16, o que escalona a taxa de aprendizado. O conjunto de dados escolhido é o “Alpaca”, um conjunto de dados padrão. O treinamento é realizado em um GPU gratuito usando o Supervised Fine-Tuning Trainer da Hugging Face.
Resultados e Conclusão
O modelo é treinado em cerca de 7 minutos, e o loss de treinamento diminui ao longo do tempo, o que indica que o modelo está sendo ajustado corretamente. Com essa abordagem, você pode fine-tunar modelos de linguagem em conjuntos de dados personalizados com facilidade e eficiência.
Recomendação
Para um entendimento completo do que foi apresentado, recomendamos assistir ao vídeo original e experimentar o código para fine-tunar modelos de linguagem em conjuntos de dados personalizados.