No vídeo, o palestrante apresenta uma melhoria no programa de detecção de faces criado anteriormente, substituindo o método FaceDetection pelo algoritmo FaceMesh, que reconhece estruturas faciais. A modificação do código inclui a substituição de FaceDetection por FaceMesh, além de ajustes nos argumentos, como a configuração de MaxNumFaces para 1, RefineLandmarks para True e Confiança para 0,4.

Para processar a imagem, o palestrante utiliza um método diferente, convertendo a imagem de BGR para RGB utilizando o método CV2.cvtColor. O resultado é uma lista de landmarks, que são pontos que indicam a localização de recursos faciais na imagem. Além disso, o palestrante não utiliza o parâmetro de profundidade, mas sim a altura e a largura da imagem.

O algoritmo FaceMesh é implementado utilizando Python e OpenCV. O palestrante importa a biblioteca NumPy e cria uma imagem preta como plano de fundo. Em seguida, explica como acessar os landmarks e desenhá-los na imagem utilizando a função `drawing.drawLandmarks`. O código é executado após a correção de um erro que ocorre durante a execução.

O palestrante destaca a importância de entender o algoritmo e solucionar erros. Além disso, demonstra como utilizar a biblioteca MediaPipe para obter dados de FaceMesh e criar uma comparação lado a lado da imagem original com a imagem processada utilizando a função `np.hstack`. O exemplo demonstra que a tecnologia pode ser usada em diversas aplicações, como animar VTubers.

Em resumo, o vídeo apresenta uma melhoria no programa de detecção de faces, substituindo FaceDetection por FaceMesh e implementando o algoritmo com Python e OpenCV. O palestrante fornece uma explicação clara e detalhada do código e destaca a importância de entender o algoritmo e solucionar erros.

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *