Criação de sistemas responsáveis de IA

On By Chris Rowen8 Min Read
Responsible AI
  • Um sistema automatizado usado para aprovar ou rejeitar solicitações de crédito imobiliário pode ser acusado de preconceito racial?
  • É aceitável que a polícia use sistemas de reconhecimento facial para prender suspeitos de crimes?
  • Os desenvolvedores podem coletar dados de usuários para treinar sistemas de reconhecimento de fala em videoconferências?
A comunidade científica e de engenharia sempre se encontrou em posição delicada para questões de ética e responsabilidade social em relação à IA. Por um lado, é razoável argumentar que as leis da física ou equações matemáticas por si mesmas são neutras em valores — não são afetadas por questões morais humanas. Por outro lado, nem a ciência nem a engenharia, certamente, poderia operar em um mundo abstrato e estéril, separado das aplicações do conhecimento científico e técnico às atividades humanas. Todas as atividades humanas têm ramificações morais e éticas. Portanto, faz sentido que os engenheiros tenham responsabilidades morais e éticas. Mas não podemos ser engenheiros responsáveis sem considerar como nossos sistemas irão apoiar ou prejudicar direitos humanos fundamentais quanto à privacidade, segurança, ao livre arbítrio e à equidade. O surgimento do aprendizado de máquina e inteligência artificial controlados por dados apenas exacerbou as amplas preocupações sobre o papel da tecnologia na sociedade.

Como podemos manter questões éticas de IA no primeiro plano e escolher um caminho responsável para criar sistemas de aprendizado de máquina?

Devemos começar com uma compreensão básica do que o projeto baseado em aprendizado de máquina envolve e por que pode causar controvérsias. A ideia central do aprendizado de máquina é que a função detalhada não é descrita por um trecho de código de software, mas aprendida a partir de generalização de diversos exemplos de comportamentos esperados. Esses dados de treinamento podem ser explicitamente preparados pela combinação de uma gama de entradas com saídas-alvo (aprendizado supervisionado) ou o treinamento pode ser implícito ou contínuo com resultados esperados implícitos nos dados de entrada (aprendizado não supervisionado) ou por uma métrica de recompensa por série de saídas bem sucedidas (aprendizado por reforço). Normalmente, o modelo comportamental aprendido no treinamento é então implementado como uma função de bloco de construção dentro de um sistema implementado por “inferência”, no qual as entradas reais do usuário fluem para o modelo, de forma que o sistema possa computar um resultado que corresponda fielmente aos padrões de comportamento aprendidos no treinamento. Quais os tipos de questões éticas de IA encontradas nas funções baseadas em aprendizado de máquina que devem ser consideradas ao pensar em uma IA responsável? Em algum nível, um software baseado em aprendizado de máquina não é significativamente diferente de um desenvolvido por métodos tradicionais de programação processual. Nós nos preocupamos com vieses, privacidade, imparcialidade, transparência e proteção de dados em todos os softwares, mas os métodos de aprendizado de máquina são menos amplamente compreendidos, requerem grandes quantidades de dados de treinamento, e algumas vezes, devem ser facilmente explicáveis. Essas características requerem que prestemos mais atenção ao papel da ética na IA neste cenário.

Principais perguntas a fazer ao criar princípios de design para uma IA responsável

Veja algumas das questões de importância central em ética de IA. Essas questões possivelmente se sobrepõem, mas não custa examinar o design responsável sob diversos ângulos:
  • Viés: Essa função implementa vieses injustos, não intencionais ou inapropriados no tratamento de diferentes indivíduos? O sistema é projetado e treinado para a distribuição de usuários no qual realmente será aplicado? O design, a implementação e o teste evita vieses com base em características de indivíduos legalmente protegidas?
  • Privacidade: O treinamento e a operação desta função exige que um indivíduo divulgue mais informações pessoais do que o necessário, e oferece proteção total para essas informações privadas contra divulgação não autorizada ou inapropriada?
  • Transparência: O comportamento da função é suficientemente bem compreendido, testado e documentado de forma que os desenvolvedores dos sistemas integrando esta função, os usuários e outros examinadores adequados entendam? O comportamento da função implementada é essencialmente determinístico de forma que repetir as mesmas entradas produz os mesmos resultados?
  • Segurança: O treinamento e a implementação da função protege quaisquer dados coletados ou produtos de transferência, utilização ou divulgação indevidas? Esses dados podem incluir informações pessoais que também estão sujeitas a questões de privacidade e dados não pessoais que podem estar sujeitos à propriedade e a questões de utilização admissíveis contratualmente acordadas.
  • Impacto na sociedade: Para além das questões específicas em relação a vieses, privacidade, transparência e segurança, qual é o impacto direto e indireto na sociedade se esta tecnologia for amplamente implantada? Ajuda ou dificulta a troca de ideias? Aumenta a probabilidade de violência ou abuso? É prejudicial para o meio ambiente? Esta categoria de ética da IA é intencionalmente aberta, de forma que não podemos esperar que qualquer equipe de concepção e implantação compreenda plenamente todos os efeitos indiretos do seu trabalho, especialmente para implantação ao longo de anos e em todo o mundo. No entanto, o esforço para prever os efeitos negativos a longo prazo pode incentivar as equipes a projetar mitigações em seu trabalho ou mudar a estratégia tecnológica para alternativas com menos desvantagens aparentes para a sociedade.
Essa lista de questões éticas relacionados à IA pode inicialmente parecer muito confusa e abstrata para ser prática, mas o setor implantou diretrizes de desenvolvimento de forma bem sucedida, especialmente para segurança de sistemas e privacidade de dados que podem servir como um modelo útil. A duradoura liderança da Cisco no projeto de sistemas para segurança de dados faz dessa estrutura o ponto de partida natural para o trabalho da Webex com sistemas responsáveis de aprendizado de máquina. A estrutura para o Regulamento Geral de Proteção de Dados da Europa (GDPR) também oferece uma estrutura para proteger “direitos e liberdades fundamentais das pessoas físicas” que pode fornecer alguns princípios úteis a serem aplicados aos sistemas baseados no aprendizado de máquina. Cidade holográfica sendo observada por desenvolvedores

Outras considerações que suportam a IA e a ética

Pensando no projeto consciente e responsável de sistemas de IA, encontrei três conceitos especialmente úteis ao procurar entender as responsabilidades sociais e éticas dos engenheiros:
  1. Um processo para o desenvolvimento responsável de aprendizado da máquina. As aplicações potenciais para aprendizado de máquinas são tão vastas que não podemos estabelecer um fluxo de desenvolvimento universal. A velocidade de inovação em tipos de modelos, sistemas de treinamento, métricas de avaliação e metas de implantação é tão grande que qualquer receita limitada se torna instantaneamente obsoleta. Em vez disso, esperamos construir diretrizes éticas de IA com pontos de verificação explícitos nos quais tanto os próprios desenvolvedores quanto outros indivíduos examinem seu trabalho para verificar se as principais questões foram consideradas e se as principais escolhas de projeto estão documentadas. Isso também pode envolver testes específicos que os sistemas devem passar antes de prosseguir para a implantação.
  2. Consideração de consequencialidade. Os projetistas e implementadores precisam ter uma compreensão clara da ética da IA e do impacto das decisões aprendidas de seus sistemas treinados. Devem incorporar a noção de que suas funções de aprendizado de máquina frequentemente tomam decisões com impacto real sobre os usuários ou outros indivíduos posteriores. Algumas vezes as decisões são grandes e explícitas — uma solicitação de crédito imobiliário é aceita ou rejeitada? Em outros casos, as decisões são mais sutis, mas ainda assim com grande impacto. Por exemplo, se uma função aprendida para melhoria da fala em um sistema de videoconferência reduzisse o volume da mulher média em 2% comparado aos seus colegas homens, poderia ter o efeito cumulativo subliminar de reduzir o impacto e a contribuição da mulher no local de trabalho.
  3. Variação estatística nos dados de treinamento e nos dados de uso esperado. O aprendizado de máquina deve usar uma gama diversificada de dados de entrada para treinar o sistema a lidar com todas as condições esperadas. O projeto estatístico do conjunto de treinamento é o maior determinante do comportamento estatístico do sistema final. Para sistemas de fala, por exemplo, essa distribuição especificada pode incluir uma porcentagem-alvo para falantes de inglês americanos, britânicos, australianos, hispânicos, do sul da Ásia, da China, Europa continental e outras regiões. Pode também incluir uma porcentagem-alvo para vozes de tons altos e baixos, de falantes de diferentes idades, fala em salas com diferentes níveis de reverberação e diferentes tipos e amplitude relativa de ruído. Os desenvolvedores devem ter um entendimento explícito e documentado da distribuição do usuário-alvo e devem construir treinamento e testes que correspondam a esse usos-alvo. Além disso, os desenvolvedores devem considerar o que pode estar faltando na especificação do usuário-alvo, por exemplo, cobertura de características legalmente protegidas (raça, nacionalidade, sexo, religião e assim por diante). Esse não é um problema fácil, pois há tantos aspectos potenciais de variação relevante nas condições de uso. Os desenvolvedores devem testar uma gama maior de características do que inicialmente treinado, com a expectativa de que possam descobrir sensibilidade a algumas variações que exigirão adição de novos dados ou o deslocamento de distribuições para desempenho adequado em todas as condições de uso-alvo.
O projeto para IA responsável ainda está em seus primórdios. Ainda temos muito a compreender sobre quais armadilhas existem na proteção contra vieses, comprometimento da privacidade, transparência, perda de dados e impacto social grave. No entanto, a atenção consciente à ética da IA na discussão, especificação, no treinamento, na implantação e manutenção pode começar a fazer uma grande diferença em como esses métodos de poder podem se tornar confiáveis.
Inscreva-se para uma avaliação grátis e permita uma melhor colaboração de equipe e experiência tecnológica de videoconferência hoje mesmo.
Saiba mais Os recursos de IA mais recentes da Webex fortalecendo o futuro do trabalho Novidades na colaboração com IA: Potencializando o futuro do trabalho híbrido Impulsionando o trabalho e a experiência do cliente no trabalho híbrido

About The Author

Chris Rowen
Chris Rowen VP of Engineering Cisco
Chris is a Silicon Valley entrepreneur and technologist known for his groundbreaking work developing RISC microprocessors, domain-specific architectures and deep learning-based software.
Learn more

Topics


More like this