A Inteligência Artificial (IA) não é mais um conceito de tecnologia futurista a ser aproveitado em um futuro distante. Já é uma realidade, sendo usada por milhares de empresas e aplicativos voltados ao consumidor. Nós apenas começamos a lidar superficialmente com as capacidades da IA. De acordo com a Statista, a indústria de IA está crescendo 54% em relação ao ano anterior, trazendo a próxima grande mudança tecnológica. Para a indústria de colaboração, seu uso fornece conexões descomplicadas e continuará a tornar as comunicações remotas ainda melhores de maneiras que até então só sonhávamos. Embora o uso universal da IA para melhorar as interações nos negócios e na vida cotidiana seja empolgante, ele tem lá suas justificativas por trás. Muitas pessoas estão cansadas da IA, com medo de que o viés não intencional entre algoritmos ou a privacidade de dados seja comprometida. Confira abaixo as três principais áreas de foco que as organizações precisam estar cientes para projetar IA responsiva. Se você quiser uma conta mais detalhada sobre o assunto, leia Projetando sistemas IA responsivos pelo VP de IA de Colaboração do Webex, Chris Rowen.
Ganhando confiança em IA com uma abordagem imparcial
De acordo com um relatório de Stanford , em 2019 os investimentos privados em IA aumentaram 9,3% com relação ao ano anterior. As empresas reconhecem que a IA tem a chave para oferecer às pessoas uma variedade de experiências que acrescentem mais conveniência, produtividade e realismo no mundo agora mais virtual e elas estão confiando no desenvolvimento de tecnologias com inteligência artificial, aprendizado de máquina e algoritmos de aprendizagem profunda. Mas, para alcançar todo o potencial da IA, os usuários também devem confiar nela e isso começa com a demonstração de IA ética com algoritmos que produzam resultados imparciais. Projetar IA responsiva inclui um processo bem pensado que leve as organizações patrocinadoras a conseguirem respostas a diversas perguntas importantes, como:- Qual é o raciocínio por trás da razão do algoritmo apresentar determinada previsão/resultado?
- O algoritmo pode ser adotado em várias plataformas e ecossistemas complexos?
- Existe alguém que atualiza e corrige os algoritmos continuamente quando necessário?
Fiscalização e proteção dos dados desde o início
Outra consideração importante na jornada da IA é garantir que os dados coletados sejam privados, seguros e regulamentados, com métodos e ferramentas para garantir a transparência com a IA. Nos últimos anos, clientes e stakeholders mostraram preocupação sobre como e onde seus dados e informações estavam sendo usados. Isso levou à criação do GDPR e das diretrizes da UE sobre como usar a IA em segurança. Saiba mais aqui. Para as organizações que desenvolvem sua própria tecnologia de IA, as medidas de segurança, privacidade e conformidade devem ser as principais considerações, não uma reflexão posterior. Se as organizações não tiverem medidas rigorosas de segurança em vigor — medidas que podem ser compartilhadas com os usuários –, será difícil ganhar a confiança e, acima de tudo, lançar a tecnologia no mercado. As organizações devem ser capazes de aceitar as consequências de suas decisões e ter a certeza de que a avaliação das decisões foi feita com precisão na primeira vez.Lançamento e aperfeiçoamento da tecnologia de IA
Lançar IA responsiva inclui avaliação e aperfeiçoamento constantes da tecnologia após a implementação. É preciso fazer uma avaliação constante dos resultados para se certificar de que a tecnologia está fazendo o que deve fazer e corrigir quando necessário. Também é preciso ter monitoramento constante para garantir que não surjam riscos, viés e questões éticas. Para o lançamento bem-sucedido da tecnologia de IA, é necessário criar estruturas que ajudem a:- Projetar e implementar um modelo de controle de governança
- Treinar e desenvolver continuamente o pessoal que vai trabalhar com a IA
- Verificar a precisão e corrigir, quando necessário
- Avaliar eventuais lacunas que possam ocorrer
- Criar um protocolo de gestão de riscos
Como o Webex lida com a IA
Na Cisco, compreendemos a importância de construir e manter a confiança na nossa tecnologia. Estamos agindo de forma ativa e consistente para identificar a maneira mais responsável de desenvolver e realizar o potencial da IA e construir fortes salvaguardas sobre segurança, direitos humanos e privacidade em todas as fases do desenvolvimento e operação da nossa tecnologia. O Webex implementou diretrizes e tomou medidas para garantir que nossa tecnologia de IA seja devidamente gerida e protegida, e tenha ética e confiança incorporadas na solução. Nossos recursos são projetados com a privacidade em mente e com a plataforma de segurança líder da Cisco por trás disso. Nossas iniciativas de IA e aprendizado de máquina são guiadas por alguns princípios básicos:- Explicação a nível do cliente da eficácia/precisão, riscos, resultados desejados, finalidade, contribuições e limitações
- Proteção contra o envenenamento de dados
- Consequência das decisões tomadas
- Evidência de validação
- Prováveis riscos, vieses e questões éticas
Para obter uma visão mais detalhada, saiba como a Cisco processa os dados que coleta em nosso artigo Processamento e privacidade de dados na colaboração cognitiva. Além disso, esta Folha de Dados de Privacidade descreve o processamento de dados pessoais (ou informações de identificação pessoal) pelo Cisco Webex Meetings.Saiba mais Projetando sistemas IA responsivos Os recursos de IA mais recentes do Webex que fortalecem o futuro do trabalho Novidades em IA de colaboração: potencializando o futuro do trabalho híbrido