8 Março 2024
Potencializar a Inteligência Artificial Responsável através da biblioteca SHAP

Com o crescente uso de sistemas de Inteligência Artificial (IA) e de modelos de Machine Learning (ML) no quotidiano, é crucial garantir que estes sejam usados de forma responsável. É verdade que estas tecnologias apresentam um enorme potencial para revolucionar diversas indústrias e têm a capacidade de melhorar a vida da sociedade, mas com todos estes benefícios chegam também desafios significativos.
À medida que se deposita mais confiança nos sistemas de IA e modelos de ML para tomar decisões que afetam as pessoas e a sociedade, é essencial entender como estes preveem determinados outcomes. No entanto, a falta de transparência nestes modelos, também chamados de “black box models”, pode dificultar a compreensão do seu processo de tomada de decisão, levando ao ceticismo sobre o seu comportamento e a tecnologia em geral. Compreender como os modelos tomam as suas decisões é essencial em áreas vitais como a saúde, a banca e a segurança.
De modo a dar resposta aos desafios que vão surgindo, devem ser incorporadas considerações éticas para garantir o uso de modelos de IA e ML de forma responsável e sustentável. Este artigo irá explorar a importância da IA responsável e o papel que as considerações éticas podem desempenhar na abordagem de alguns dos problemas mais significativos da IA. Também será apresentado o SHAP, uma biblioteca que auxilia no aumento da explicabilidade de projetos nesta área.
Para assegurar que os modelos de IA e ML são éticos e responsáveis, é importante considerar vários princípios-chave:
Equidade – Compreender o viés que os dados introduzem é o primeiro passo para garantir que as previsões realizadas pelo modelo são justas para todos os grupos demográficos. É crucial analisar a equidade durante todo o processo de ML, garantindo uma reavaliação regular dos modelos na perspetiva da justiça e inclusão, ao invés de pensar na equidade como um ponto em separado. Esta é uma preocupação particularmente relevante quando se fala de atividades com uma diversidade elevada de clientes, como é o caso dos pedidos de crédito e diagnósticos médicos. Atualmente, já existem algumas ferramentas que podem ajudar na monitorização da equidade como é o caso da “Performance & Fairness tab” da Google Cloud.
Ética Social – As aplicações de IA devem estar ao serviço de toda a população e os dados que são utilizados devem refletir a diversidade e inclusão. Para garantir que as novas tecnologias de ponta chegam a todas as pessoas como um todo é necessário que as entidades nacionais e internacionais forneçam estruturas regulatórias, uma vez que a IA deve ser usada para melhorar a qualidade de vida de todos e não para proporcionar mais comportamentos erráticos.
Responsabilidade e fiscalização – Deve ser implementado um modelo operacional nas iniciativas de IA de modo a definir os papéis e responsabilidades dos diferentes stakeholders que são responsáveis pela supervisão, responsabilidade, diligências e verificação nas diversas etapas de implementação de projetos de IA. Para manter a responsabilidade será necessário fazer a avaliação dos modelos caso estes estejam a funcionar conforme o esperado, mas também se estes não funcionarem adequadamente. Esta avaliação deve ocorrer em todas as fases do ciclo de vida de um projeto, ajudando a identificar problemas que sejam difíceis de detetar com avaliações pontuais. A responsabilidade e a fiscalização são essenciais para criar modelos de IA e ML confiáveis e seguros.
Transparência – Deve ser adotada uma visão completa dos dados e do ciclo de vida de um projeto de IA, incluindo todas as suposições realizadas assim como operações, atualizações e consentimentos fornecidos pelos utilizadores. O grau de transparência deve ser ajustado à posição e ao interesse de cada parte envolvida no projeto. Recentemente têm sido levantados vários problemas relacionados com a justiça: o preconceito e a confiança. A transparência nos projetos pode ajudar a diminuir estes problemas, no entanto é necessário ter atenção uma vez que a partilha de informação sobre os modelos também apresenta desafios, nomeadamente ciberataques e exposição da empresa a processos judiciais ou atividades regulatórias. Com esta dualidade surgiu o conceito de “paradoxo da transparência”, ou seja, apesar da transparência nesta área apresentar inúmeras vantagens, o seu uso apresenta também alguns perigos. Contudo, a transparência é fundamental para fomentar a confiança na IA e nos modelos de ML.
Governança dos dados e da IA – A capacidade de liderar, supervisionar e monitorizar os projetos de IA tem o nome de governança. Esta técnica deve incluir todos os processos que rastreiam e registam fontes de dados, modelos com metadados e pipelines de auditoria. Na documentação devem ser incluídos os métodos usados para treinar o modelo, os hiperparâmetros utilizados e as métricas obtidas nas fases de teste. Ao ter uma documentação completa existirá uma maior transparência no comportamento do modelo ao longo do seu ciclo de vida bem como nos dados que influenciaram a sua construção e quaisquer riscos que possam vir a surgir. A governança deve incluir a gestão de riscos e a conformidade com a lei, regulamentos e padrões corporativos.
Explicabilidade – A falta de explicabilidade pode ter efeitos negativos sobre as pessoas e a sociedade ao reforçar preconceitos e discriminação. A explicabilidade é a capacidade de compreender de forma concisa as decisões e as escolhas do modelo implementado. Isto permite verificar o comportamento do mesmo, aprimorando as suas funcionalidades e aumentando a confiança dos stakeholders. A explicabilidade vem ajudar os stakeholders, reguladores, auditores e utilizadores finais a entender como os projetos funcionam e a avaliar a sua eficácia. Outra vantagem passa pelo aumento da facilidade com que se podem detetar e corrigir preconceitos, erros e outras consequências não intencionais. Assim, alcançar a explicabilidade dos modelos de IA e ML é essencial para fomentar a confiança na tecnologia e garantir o seu uso ético. Atualmente, existem bibliotecas como a SHAP e LIME que podem ser usadas em python para reduzir o efeito de “caixa negra” nos modelos.
SHAP é uma biblioteca que pode ser usada para melhorar o nível de explicabilidade de modo a desenvolver projetos de IA e ML mais responsáveis.
Se estiver perante um modelo complexo e quiser perceber as escolhas que o modelo realizou, usar os valores de SHAP pode ajudar nesta tarefa. Os modelos preditivos ajudam a responder à pergunta “Quanto?”, mas os valores de SHAP permitem saber o “Porquê”.
Imagine-se que se quer construir um modelo que prevê se um paciente tem elevado risco de vir a sofrer um ataque cardíaco. O modelo vai fazer esta previsão, mas sem os valores de SHAP não é possível perceber o porquê de determinado doente ter um risco elevado. Com os seus valores, a SHAP auxilia a identificar as variáveis mais importantes para as previsões e permite não só conhecer o modelo a nível global, como também perceber as previsões para cada indivíduo em particular.
Na biblioteca SHAP encontra-se uma variedade de gráficos que ajuda a interpretar os modelos contruídos. Na imagem seguinte, encontram-se alguns destes gráficos e a explicação de como é possível interpretá-los.
Mean Plot
Podemos ver neste gráfico a importância de cada variável. A ordem em que aparecem as variáveis é determinada pelos valores médios absolutos de shap para o dataset completo. Os valores médios absolutos do SHAP, representam, em média o quanto cada variável afeta o outcome, na direção positiva ou negativa.
Beeswarm
Cada indivíduo é exibido com um ponto para cada variável. De acordo com o seu valor SHAP, os pontos são distribuídos horizontalmente no eixo do x e empilhados verticalmente em áreas com elevada densidade de valores SHAP. Ao examinarmos a distribuição dos valores podemos perceber como uma variável influencia o modelo. Valores altos nas variáveis aparecem a vermelho, e baixos a azul.
Decision plot
Agrega múltiplos valores de SHAP de várias variáveis, permitindo perceber como o modelo faz predições. O movimento das linhas pelo eixo do x deve-se ao valor de SHAP para cada variável. Este gráfico fornece informação idêntica ao waterfall plot, mas permite analisar o comportamento para vários indivíduos. Com dez observações é possível ver algumas tendências. Um valor de shap positivo aumenta o outcome, enquanto um valor negativo diminui.
Waterfall plot
Ilustra o contributo de cada variável para o outcome de um indivíduo. As variáveis aparecem ordenadas pela influência que têm no outcome. O impacto e a direção da variável no outcome é dado pelos valores de SHAP. Setas vermelhas “empurram” o modelo para valores mais altos e setas azuis para valores mais baixos. O outcome previsto é a soma de todos os valores de SHAP mais o base value.
Force plot
O force plot é usado para analisar um indivíduo de cada vez. As variáveis que influenciam o outcome de forma positiva aparecem a vermelho e as que influenciam de forma negativa aparecem a azul. As setas compridas apresentam as variáveis com maiores valores de SHAP. Se f(x) é menor que o base value, sabemos que é mais provável este individuo pertencer à classe negativa. O base value é a média do outcome do dataset.
Os valores de SHAP são muito úteis, uma vez que podem ser aplicados numa grande variedade de problemas, alguns dos quais apresentamos na tabela abaixo.
Os modelos de ML e IA têm o potencial para alterar fundamentalmente a maneira como vivemos, trabalhamos e interagimos uns com os outros, estando rapidamente a difundir-se por todos os aspetos do quotidiano. Ao incorporar considerações éticas no design, desenvolvimento e implementação de sistemas, podemos garantir que estas tecnologias são usadas para melhorar vidas de maneira responsável e sustentável.
À medida que a IA e o ML se vão desenvolvendo e moldam o mundo, devemos permanecer cautelosos e incutir esforços para promover práticas morais e responsáveis.
Com estas informações, esperamos ter despertado o seu interesse pela inteligência artificial e o seu uso responsável, assim como para o SHAP, uma ferramenta especialmente útil para melhorar a explicabilidade dos modelos de ML!
Se estiver interessado em desenvolver o seu projeto, envie-nos um emaile conheça os nossos Casos de Sucesso.
Referências: