Edit Content

Menu

1428 (1)

Quatro fatores que definem uma IA responsável

Quatro fatores que definem uma IA responsável

Compartilhar:

Share on facebook
Share on twitter
Share on linkedin
Share on email
Share on whatsapp

Os métodos usados para aplicar uma tecnologia como essa são tão importantes quanto os objetivos pelo qual se está empregando-as



*Por Ram Bala

Durante anos, os líderes empresariais sonharam em como a inteligência artificial (IA) um dia transformaria suas operações para serem mais inteligentes e eficientes. Agora que a adoção da IA finalmente se tornou mainstream, esses líderes também devem estar cientes das implicações mais amplas dessa mudança fundamental.
 

Especificamente, as empresas agora estão compartilhando os resultados de seus modelos de IA com parceiros de negócios e clientes. Como resultado, devem estender o mesmo cuidado e consideração a esses resultados que teriam com qualquer outro produto ou serviço que oferecessem. Eles têm a responsabilidade de fazer IA da maneira certa, em nome de qualquer pessoa que possa ser impactada por seus modelos, direta ou indiretamente.
 

Acredito que uma abordagem responsável à IA deve levar em conta cada um desses quatro fatores: Segurança; Governança de dados; Valor comercial; Inclusão.
 

Garantir a segurança e a integridade dos conjuntos e modelos de dados de IA

A IA é o melhor esporte em equipe. Seja aproveitando os pacotes de código aberto para o desenvolvimento de modelos ou alimentando conjuntos de dados multifuncionais e externos nesses modelos, nenhum negócio é uma ilha quando se trata de IA.
 

Para garantir a integridade de seus resultados de IA, as empresas devem verificar se nenhuma dessas informações foi corrompida e implementar verificações rigorosas para garantir a segurança e a integridade dos dados. O chamado envenenamento de dados pode acontecer intencionalmente ou não.

Ou seja, pode ser o resultado de um terceiro mal-intencionado adulterando deliberadamente informações comerciais importantes ou apenas uma pessoa descuidada apertando a tecla errada durante o registro manual de dados.
 

As implicações são claras: Os modelos de IA que usam os dados errados inevitavelmente chegarão às conclusões erradas. Quando essas conclusões são passadas para os usuários finais, eles podem usá-las para tomar decisões erradas, potencialmente lhes custando milhões de dólares e causando danos irreparáveis à reputação de seus negócios.
 

Ser um bom administrador para dados de parceiros

Em cada parceria de compartilhamento de dados, há dois lados: Você depende de seus parceiros, internos e externos, para garantir que todos os dados relevantes sejam coletados para criar modelos de IA eficazes, mas eles também dependem de você para garantir que suas informações sejam corretamente protegidas. Proteger dados de terceiros contra acesso não autorizado não é apenas a coisa responsável a fazer, mas pode ser explicitamente exigido pelos termos do contrato.

Além disso, os regulamentos de privacidade de dados em muitas jurisdições destacam a necessidade de uma boa governança de dados. O não cumprimento desses regulamentos pode levar a duras penalidades financeiras e outros problemas jurídicos. O desenvolvimento e a manutenção de catálogos de dados de atributos e recursos que alimentam modelos de IA podem melhorar a transparência das fontes de dados para conjuntos de dados internos e externos, facilitando assim o caminho para a conformidade e a governança.
 

A governança de dados eficaz começa com controles de acesso cuidadosamente considerados, com base no princípio do menor privilégio: As partes interessadas internas devem ter acesso aos dados de que precisam para cumprir suas funções de trabalho específicas e nada mais. Além de proteger a integridade dos dados, a governança de dados também é essencial para fornecer o contexto que acompanha os resultados da IA.

Ser capaz de fornecer um bom contexto para seus modelos de IA, ou seja, quais dados e suposições entraram nos modelos e como os usuários empresariais devem interpretar os resultados, é tão importante quanto a qualidade dos próprios modelos.
 

Criar modelos de IA para se alinhar aos resultados de negócios

O valor comercial não é algo que as pessoas normalmente associam à IA responsável; no entanto, um olhar mais atento revela por que deveriam. Se seus parceiros e clientes estão usando seus modelos de IA de uma maneira que afeta diretamente seus resultados, você tem a responsabilidade de alinhar esses modelos aos seus objetivos e principais resultados, além de fornecer o contexto que ajuda os líderes corporativos a buscar esses resultados.
 

Além disso, você tem a responsabilidade para com suas próprias partes interessadas internas de usar os recursos da organização de uma maneira que maximize o valor dos negócios. Se você está orçando recursos para criar modelos de IA, é essencial que esses modelos apoiem iniciativas que são importantes para os negócios.

Identificar e revisitar periodicamente os Indicadores-Chave de Desempenho (KPIs, na sigla em inglês) e os critérios de sucesso do modelo para a possível adoção de modelos de IA ajudam a ampliar o valor dos negócios.

 

Contabilizar a inclusão e a justiça em todo o ciclo de vida da IA

Como os modelos de IA são cada vez mais usados para tomar decisões que afetam a vida de pessoas reais, é sua responsabilidade garantir que esses modelos não sejam tendenciosos em relação a determinados grupos ou subconjuntos de dados. Os modelos de IA devem ser justos para serem precisos e a justiça começa com os dados que você alimenta em seus modelos. Se diferentes subconjuntos estiverem super-representados ou sub-representados, os resultados de seus modelos de IA serão contaminados.
 

Qualquer equipe que adotar modelos de IA também adotará o risco de IA. Antes de disponibilizar qualquer um dos resultados do seu modelo para consumo, seja por clientes, parceiros ou equipes internas, você deve passar as informações e os resultados do modelo por testes rigorosos para garantir que se sinta confiante em compartilhá-los.

Além disso, deve fazer tudo o que puder para lidar com o risco em todas as etapas do ciclo de vida da IA. Se você está desenvolvendo novos modelos de IA, coletando dados para alimentar os modelos ou realizando operações e manutenção contínuas ao longo do tempo, não garantir adequadamente a justiça e a transparência em qualquer estágio criará riscos que reverberarão ao longo de todo o ciclo de vida.
 

Nas empresas, nossa responsabilidade final é com nossos clientes, atuais e futuros.

*Ram Bala é cientista-chefe sênior de dados da Equinix