O time de startup da Microsoft organizou uma webinar sobre “Desenvolvendo Soluções de IA Responsável” com o objetivo de discutir a construção e utilização de inteligência artificial geradora de forma responsável com a plataforma Microsoft Azure.

Abordagem da Microsoft para IA Responsável

A palestrante Deb Adiogba destacou a abordagem da Microsoft para construir aplicações de IA geradora de forma responsável. Ela mencionou os padrões publicados pela Microsoft em 2019 e 2021 e ressaltou a importância de três tipos de justiça em sistemas de IA:

1. Justiça de Qualidade de Serviço: garantir que os sistemas de IA sejam igualmente precisos para diferentes grupos de pessoas.
2. Justiça de Alocação: enfocar nos resultados dos sistemas de IA, como a alocação de empréstimos ou a decisão de quem deve receber crédito.
3. Justiça de Representação: garantir que os sistemas de IA não produzam representações de pessoas que sejam estereotipadas, degradantes ou sobre/ou sub-representem certos grupos.

Ferramentas e Recursos para IA Responsável

A Microsoft também desenvolveu um padrão para o desenvolvimento de IA, permitindo inovação enquanto assegura accountability e transparência. Foram mencionadas ferramentas como Azure OpenAI e Content Safety para construir aplicações de IA responsável.

Práticas de IA Responsável

A webinar enfatizou a importância de práticas de IA responsável, incluindo justiça, accountability, transparência, segurança, confiabilidade e segurança. Foi discutida a importância de projetar sistemas de IA que incluem testes manuais e automáticos para identificar e mitigar riscos e danos potenciais.

Recursos para Início

Foram mencionados recursos disponíveis para clientes que desejam começar a utilizar IA geradora, incluindo Azure AI Content Safety, Azure OpenAI Service e Azure Machine Learning. Além disso, cursos online e laboratórios práticos estão disponíveis para fornecer experiência prática com o desenvolvimento de IA.

Avaliação de Modelos de Aprendizado de Máquina

Finalmente, a webinar abordou a avaliação de modelos de aprendizado de máquina, especialmente no contexto de IA geradora e modelos de linguagem grande. Áreas-chave para se concentrar quando se avaliam modelos incluem segurança de conteúdo, precisão, inclusividade e transparência. Ferramentas como o Prompt Flow e o painel de IA responsável podem ajudar na avaliação de modelos e mitigação de problemas.

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *