O modelo de código aberto Code Llama, desenvolvido pela Meta, superou o modelo GPT-4 em um desafio de codificação. Code Llama é um modelo treinado para codificação e está disponível gratuitamente para uso comercial e de pesquisa. Com 34 bilhões de parâmetros, além de versões quantizadas menores com 7 bilhões e 13 bilhões de parâmetros, Code Llama foi ajustado com 500 bilhões de tokens de código e dados relacionados a código.

Em um vídeo, o apresentador testa Code Llama e GPT-4 em várias tarefas de codificação, incluindo escrever código Python para imprimir números de 1 a 100, criar um jogo de snake usando Pygame e resolver desafios de programação. Os resultados mostraram que Code Llama superou GPT-4 em várias tarefas, incluindo escrever uma função que verifica se todos os elementos em uma lista são iguais.

No entanto, em outras tarefas, como criar um jogo de snake com lógica de jogo completa, GPT-4 superou Code Llama. Ambos os modelos tiveram dificuldades em resolver desafios mais complexos, como encontrar a subsequência mais longa alternada de dígitos ímpares e pares em uma string.

O vídeo destaca as impressionantes habilidades de Code Llama em gerar código e resolver desafios de programação, muitas vezes superando GPT-4 em certas tarefas. Isso demonstra o poder do código aberto e a potencialidade de modelos treinados para codificação para melhorar a eficiência e a precisão na programação.

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *