Skip
BI4ALL BI4ALL
  • Expertise
    • Data Strategy & Governance
    • Data Visualisation
    • Inteligência Artificial
    • Low Code & Automation
    • Modern BI & Big Data
    • R&D Software Engineering
    • PMO, BA & UX/ UI Design
  • Knowledge Centre
    • Blog
    • Setores
    • Customer Success
  • Sobre Nós
    • História
    • Board
    • Sustentabilidade
    • Parceiros BI4ALL
    • Prémios
    • Media Centre
  • Carreiras
  • Contactos
Português
InglêsAlemão
Página Anterior:
    Knowledge Center
  • Potencializar a Inteligência Artificial Responsável através da biblioteca SHAP

Potencializar a Inteligência Artificial Responsável através da biblioteca SHAP

Página Anterior: Blog
  • Knowledge Center
  • Blog
  • Fabric: nova plataforma de análise de dados
1 Junho 2023

Fabric: nova plataforma de análise de dados

Placeholder Image Alt
  • Knowledge Centre
  • Potencializar a Inteligência Artificial Responsável através da biblioteca SHAP
8 Março 2024

Potencializar a Inteligência Artificial Responsável através da biblioteca SHAP

Potencializar a Inteligência Artificial Responsável através da biblioteca SHAP

Key takeways

Equidade nos Modelos de IA e ML

Responsabilidade e Fiscalização

A explicabilidade dos modelos de IA e ML

Com o crescente uso de sistemas de Inteligência Artificial (IA) e de modelos de Machine Learning (ML) no quotidiano, é crucial garantir que estes sejam usados de forma responsável. É verdade que estas tecnologias apresentam um enorme potencial para revolucionar diversas indústrias e têm a capacidade de melhorar a vida da sociedade, mas com todos estes benefícios chegam também desafios significativos.

À medida que se deposita mais confiança nos sistemas de IA e modelos de ML para tomar decisões que afetam as pessoas e a sociedade, é essencial entender como estes preveem determinados outcomes. No entanto, a falta de transparência nestes modelos, também chamados de “black box models”, pode dificultar a compreensão do seu processo de tomada de decisão, levando ao ceticismo sobre o seu comportamento e a tecnologia em geral. Compreender como os modelos tomam as suas decisões é essencial em áreas vitais como a saúde, a banca e a segurança.

De modo a dar resposta aos desafios que vão surgindo, devem ser incorporadas considerações éticas para garantir o uso de modelos de IA e ML de forma responsável e sustentável. Este artigo irá explorar a importância da IA responsável e o papel que as considerações éticas podem desempenhar na abordagem de alguns dos problemas mais significativos da IA. Também será apresentado o SHAP, uma biblioteca que auxilia no aumento da explicabilidade de projetos nesta área.

Para assegurar que os modelos de IA e ML são éticos e responsáveis, é importante considerar vários princípios-chave:

Equidade – Compreender o viés que os dados introduzem é o primeiro passo para garantir que as previsões realizadas pelo modelo são justas para todos os grupos demográficos. É crucial analisar a equidade durante todo o processo de ML, garantindo uma reavaliação regular dos modelos na perspetiva da justiça e inclusão, ao invés de pensar na equidade como um ponto em separado. Esta é uma preocupação particularmente relevante quando se fala de atividades com uma diversidade elevada de clientes, como é o caso dos pedidos de crédito e diagnósticos médicos. Atualmente, já existem algumas ferramentas que podem ajudar na monitorização da equidade como é o caso da “Performance & Fairness tab” da Google Cloud.

Ética Social – As aplicações de IA devem estar ao serviço de toda a população e os dados que são utilizados devem refletir a diversidade e inclusão. Para garantir que as novas tecnologias de ponta chegam a todas as pessoas como um todo é necessário que as entidades nacionais e internacionais forneçam estruturas regulatórias, uma vez que a IA deve ser usada para melhorar a qualidade de vida de todos e não para proporcionar mais comportamentos erráticos.

Responsabilidade e fiscalização – Deve ser implementado um modelo operacional nas iniciativas de IA de modo a definir os papéis e responsabilidades dos diferentes stakeholders que são responsáveis pela supervisão, responsabilidade, diligências e verificação nas diversas etapas de implementação de projetos de IA. Para manter a responsabilidade será necessário fazer a avaliação dos modelos caso estes estejam a funcionar conforme o esperado, mas também se estes não funcionarem adequadamente. Esta avaliação deve ocorrer em todas as fases do ciclo de vida de um projeto, ajudando a identificar problemas que sejam difíceis de detetar com avaliações pontuais. A responsabilidade e a fiscalização são essenciais para criar modelos de IA e ML confiáveis e seguros.

Transparência – Deve ser adotada uma visão completa dos dados e do ciclo de vida de um projeto de IA, incluindo todas as suposições realizadas assim como operações, atualizações e consentimentos fornecidos pelos utilizadores. O grau de transparência deve ser ajustado à posição e ao interesse de cada parte envolvida no projeto. Recentemente têm sido levantados vários problemas relacionados com a justiça: o preconceito e a confiança. A transparência nos projetos pode ajudar a diminuir estes problemas, no entanto é necessário ter atenção uma vez que a partilha de informação sobre os modelos também apresenta desafios, nomeadamente ciberataques e exposição da empresa a processos judiciais ou atividades regulatórias. Com esta dualidade surgiu o conceito de “paradoxo da transparência”, ou seja, apesar da transparência nesta área apresentar inúmeras vantagens, o seu uso apresenta também alguns perigos. Contudo, a transparência é fundamental para fomentar a confiança na IA e nos modelos de ML.

Governança dos dados e da IA – A capacidade de liderar, supervisionar e monitorizar os projetos de IA tem o nome de governança. Esta técnica deve incluir todos os processos que rastreiam e registam fontes de dados, modelos com metadados e pipelines de auditoria. Na documentação devem ser incluídos os métodos usados para treinar o modelo, os hiperparâmetros utilizados e as métricas obtidas nas fases de teste.  Ao ter uma documentação completa existirá uma maior transparência no comportamento do modelo ao longo do seu ciclo de vida bem como nos dados que influenciaram a sua construção e quaisquer riscos que possam vir a surgir. A governança deve incluir a gestão de riscos e a conformidade com a lei, regulamentos e padrões corporativos.

Explicabilidade – A falta de explicabilidade pode ter efeitos negativos sobre as pessoas e a sociedade ao reforçar preconceitos e discriminação. A explicabilidade é a capacidade de compreender de forma concisa as decisões e as escolhas do modelo implementado. Isto permite verificar o comportamento do mesmo, aprimorando as suas funcionalidades e aumentando a confiança dos stakeholders. A explicabilidade vem ajudar os stakeholders, reguladores, auditores e utilizadores finais a entender como os projetos funcionam e a avaliar a sua eficácia. Outra vantagem passa pelo aumento da facilidade com que se podem detetar e corrigir preconceitos, erros e outras consequências não intencionais. Assim, alcançar a explicabilidade dos modelos de IA e ML é essencial para fomentar a confiança na tecnologia e garantir o seu uso ético. Atualmente, existem bibliotecas como a SHAP e LIME que podem ser usadas em python para reduzir o efeito de “caixa negra” nos modelos.

SHAP é uma biblioteca que pode ser usada para melhorar o nível de explicabilidade de modo a desenvolver projetos de IA e ML mais responsáveis.

Se estiver perante um modelo complexo e quiser perceber as escolhas que o modelo realizou, usar os valores de SHAP pode ajudar nesta tarefa. Os modelos preditivos ajudam a responder à pergunta “Quanto?”, mas os valores de SHAP permitem saber o “Porquê”.

 

Um caso prático:

Imagine-se que se quer construir um modelo que prevê se um paciente tem elevado risco de vir a sofrer um ataque cardíaco. O modelo vai fazer esta previsão, mas sem os valores de SHAP não é possível perceber o porquê de determinado doente ter um risco elevado. Com os seus valores, a SHAP auxilia a identificar as variáveis mais importantes para as previsões e permite não só conhecer o modelo a nível global, como também perceber as previsões para cada indivíduo em particular.

Na biblioteca SHAP encontra-se uma variedade de gráficos que ajuda a interpretar os modelos contruídos. Na imagem seguinte, encontram-se alguns destes gráficos e a explicação de como é possível interpretá-los.

 

Mean Plot

Podemos ver neste gráfico a importância de cada variável. A ordem em que aparecem as variáveis é determinada pelos valores médios absolutos de shap para o dataset completo. Os valores médios absolutos do SHAP, representam, em média o quanto cada variável afeta o outcome, na direção positiva ou negativa.

 

Beeswarm

Cada indivíduo é exibido com um ponto para cada variável. De acordo com o seu valor SHAP, os pontos são distribuídos horizontalmente no eixo do x e empilhados verticalmente em áreas com elevada densidade de valores SHAP. Ao examinarmos a distribuição dos valores podemos perceber como uma variável influencia o modelo. Valores altos nas variáveis aparecem a vermelho, e baixos a azul.

 

Decision plot

Agrega múltiplos valores de SHAP de várias variáveis, permitindo perceber como o modelo faz predições. O movimento das linhas pelo eixo do x deve-se ao valor de SHAP para cada variável. Este gráfico fornece informação idêntica ao waterfall plot, mas permite analisar o comportamento para vários indivíduos. Com dez observações é possível ver algumas tendências. Um valor de shap positivo aumenta o outcome, enquanto um valor negativo diminui.

 

Waterfall plot

Ilustra o contributo de cada variável para o outcome de um indivíduo. As variáveis aparecem ordenadas pela influência que têm no outcome. O impacto e a direção da variável no outcome é dado pelos valores de SHAP. Setas vermelhas “empurram” o modelo para valores mais altos e setas azuis para valores mais baixos. O outcome previsto é a soma de todos os valores de SHAP mais o base value.

 

Force plot

O force plot é usado para analisar um indivíduo de cada vez. As variáveis que influenciam o outcome de forma positiva aparecem a vermelho e as que influenciam de forma negativa aparecem a azul. As setas compridas apresentam as variáveis com maiores valores de SHAP. Se f(x) é menor que o base value, sabemos que é mais provável este individuo pertencer à classe negativa. O base value é a média do outcome do dataset.

 

Os valores de SHAP são muito úteis, uma vez que podem ser aplicados numa grande variedade de problemas, alguns dos quais apresentamos na tabela abaixo.

 

Os modelos de ML e IA têm o potencial para alterar fundamentalmente a maneira como vivemos, trabalhamos e interagimos uns com os outros, estando rapidamente a difundir-se por todos os aspetos do quotidiano. Ao incorporar considerações éticas no design, desenvolvimento e implementação de sistemas, podemos garantir que estas tecnologias são usadas para melhorar vidas de maneira responsável e sustentável.

À medida que a IA e o ML se vão desenvolvendo e moldam o mundo, devemos permanecer cautelosos e incutir esforços para promover práticas morais e responsáveis.

Com estas informações, esperamos ter despertado o seu interesse pela inteligência artificial e o seu uso responsável, assim como para o SHAP, uma ferramenta especialmente útil para melhorar a explicabilidade dos modelos de ML!

Se estiver interessado em desenvolver o seu projeto, envie-nos um emaile conheça os nossos Casos de Sucesso.

 

Referências:

  • Burt, A. (13, December, 2019). The AI Transparency Paradox. Harvard Business Review Home: https://hbr.org/2019/12/the-ai-transparency-paradox
  • Cooper, A. (1, November, 2021). Explaining Machine Learning Models: A Non-Technical Guide to Interpreting SHAP Analyses. Aidan Cooper’s Blog: https://www.aidancooper.co.uk/a-non-technical-guide-to-interpreting-shap-analyses/
  • Ethics of Artificial Intelligence. (s.d.). UNESCO: https://www.unesco.org/en/artificial-intelligence/recommendation-ethics
  • Hollander, W. (22, December, 2020). What is explainability of ML and what we can do? Medium: https://medium.com/ubiops-tech/what-is-explainability-of-ml-and-what-we-can-do-d326d42f8c38
  • Kuo, C. (14, September, 2019). Explain Your Model with the SHAP Values. Medium: https://medium.com/dataman-in-ai/explain-your-model-with-the-shap-values-bc36aac4de3d
  • Lundberg, S. (2018). SHAP. SHAP documentation: https://shap.readthedocs.io/en/latest/
  • mazzanti, S. (4, January, 2020). SHAP Values Explained Exactly How You Wished Someone Explained to You. Medium: https://towardsdatascience.com/shap-explained-the-way-i-wish-someone-explained-it-to-me-ab81cc69ef30#:~:text=In%20a%20nutshell%2C%20SHAP%20values%20are%20used%20whenever,answer%20the%20%E2%80%9Chow%20much%E2%80%9D.%20SHAP%20answers%20the%20%E2%80%9Cwhy%E2
  • Radecic, D. (9, November, 2020). SHAP: How to Interpret Machine Learning Models With Python. better data science: https://betterdatascience.com/shap/
  • Randall, L. (27, August, 2021). 6 Key Principles for Responsible AI. Informatica: https://www.informatica.com/blogs/6-key-principles-for-responsible-ai.html
  • Robinson, S. (26, September, 2019). Building ML models for everyone: Understanding fairness in machine learning. Google Cloud: https://cloud.google.com/blog/products/ai-machine-learning/building-ml-models-for-everyone-understanding-fairness-in-machine-learning
  • Sanford, S. (11, August, 2021). How to Build Accountability into Your AI. Harvard Business Review: https://hbr.org/2021/08/how-to-build-accountability-into-your-ai
  • Trevisan, V. (17, January, 2022). Using SHAP Values to Explain How Your Machine Learning Model Works. Medium: https://towardsdatascience.com/using-shap-values-to-explain-how-your-machine-learning-model-works-732b3f40e137
  • What is AI governance? (s.d.). IBM: https://www.ibm.com/analytics/common/smartpapers/ai-governance-smartpaper/#ai-governance-delivers

Autor

Marta Carreira

Marta Carreira

Associate Consultant

Partilhar

Conteúdos relacionados

O Modelo de Power BI está pronto, mas e a documentação? Blog

O Modelo de Power BI está pronto, mas e a documentação?

Documentar modelos de Power BI é crucial para garantir clareza, manutenção e confiança nos dados — e com as funções INFO.VIEW, essa tarefa torna-se mais simples, automática e acessível.

Modelos Multimodais: O futuro da IA integrada Blog

Modelos Multimodais: O futuro da IA integrada

Os modelos de IA multimodal integram vários tipos de dados, como texto, voz e imagens, melhorando a precisão, a robustez e a experiência do utilizador ao permitir que a IA processe a informação de forma mais semelhante à dos seres humanos.

O poder da IA: Tendências para 2025 Blog

O poder da IA: Tendências para 2025

Em 2025, a IA impulsionará inovação e eficiência, exigindo regulamentação ética, segurança reforçada e avanços sustentáveis.

As abordagens estratégicas para implementar IA com sucesso Blog

As abordagens estratégicas para implementar IA com sucesso

A inteligência artificial deve ser integrada de forma estratégica e colaborativa, promovendo inovação sem comprometer a adaptação das organizações.

Finsolutia Casos de Sucesso

Finsolutia

Com uma experiência comprovada em diversos setores nos mercados de crédito e imobiliário, a Finsolutia foi fundada em 2007. Atualmente, a empresa mantém uma forte presença em Portugal e em Espanha, contando com cerca de 400 colaboradores distribuídos pelos escritórios de Lisboa, Porto e Madrid.  

PowerBI e Fabric SQL Database: Guia para uma solução end-to-end Blog

PowerBI e Fabric SQL Database: Guia para uma solução end-to-end

A nova atualização do Fabric permite criar uma solução end-to-end no PowerBI, integrando armazenamento, processamento e visualização de dados num único ambiente.

video title

Vamos começar

Tem uma questão? Quer iniciar um novo projeto?
Contacte-nos

Menu

  • Expertise
  • Knowledge Centre
  • Sobre Nós
  • Carreiras
  • Contactos

Mantenha-se atualizado e impulsione o sucesso com inovação

Newsletter

2025 Todos os direitos reservados

Política de Privacidade e Proteção de Dados Política de Segurança de Informação
URS - ISO 27001
URS - ISO 27701
Cookies Settings

BI4ALL may use cookies to memorise your login data, collect statistics to optimise the functionality of the website and to carry out marketing actions based on your interests.
You can customise the cookies used in .

Opções para ativar ou desativar cookies por preferência.

Estes cookies são essenciais para fornecer serviços disponíveis no nosso site e permitir que possa usar determinados recursos no nosso site. Sem estes cookies, não podemos fornecer certos serviços no nosso site.

Estes cookies são usados para fornecer uma experiência mais personalizada no nosso site e para lembrar as escolhas que faz ao usar o nosso site.

Estes cookies são usados para reconhecer visitantes quando voltam ao nosso site. Isto permite-nos personalizar o conteúdo do site para si, cumprimentá-lo pelo nome e lembrar as suas preferências (por exemplo, a sua escolha de idioma ou região).

Estes cookies são usados para proteger a segurança do nosso site e dos seus dados. Isto inclui cookies que são usados para permitir que faça login em áreas seguras do nosso site.

Estes cookies são usados para coletar informações para analisar o tráfego no nosso site e entender como é que os visitantes estão a usar o nosso site. Por exemplo, estes cookies podem medir fatores como o tempo despendido no site ou as páginas visitadas, isto vai permitir entender como podemos melhorar o nosso site para os utilizadores. As informações coletadas por meio destes cookies de medição e desempenho não identificam nenhum visitante individual.

Estes cookies são usados para fornecer anúncios mais relevantes para si e para os seus interesses. Também são usados para limitar o número de vezes que vê um anúncio e para ajudar a medir a eficácia de uma campanha publicitária. Podem ser colocados por nós ou por terceiros com a nossa permissão. Lembram que já visitou um site e estas informações são partilhadas com outras organizações, como anunciantes.

Política de Privacidade