La inteligencia artificial (IA) ha dejado de ser un concepto tecnológico futurista que hay que aprovechar en la lejanía. Ya está aquí, se utiliza en miles de empresas y aplicaciones de los consumidores. Pero solo hemos comenzado a rozar la superficie de las funcionalidades de la IA. Según Statista, la industria de la IA está creciendo un 54% año tras año, lo que nos trae el próximo gran cambio tecnológico. Para el sector de la colaboración, su uso está proporcionando conexiones sin complicaciones y seguirá mejorando las comunicaciones remotas de formas que antes solo soñábamos. Aunque el uso habitual de la IA para mejorar las interacciones en los negocios y la vida cotidiana es emocionante, no está exento de problemas. Mucha gente muestra desinterés por la IA, por temor a que se introduzcan sesgos involuntarios en los algoritmos o a que se ponga en peligro la privacidad de los datos. A continuación, se exponen tres áreas de enfoque clave que las organizaciones deben tener en cuenta para diseñar una IA responsable. Si desea una explicación más detallada sobre el tema, lea Designing Responsible AI Systems (Diseño de sistemas de IA responsables) de Chris Rowen, vicepresidente de IA colaborativa de Webex.
Ganar su confianza en la IA con un enfoque imparcial
Según un informe de Stanford, en 2019 la inversión privada en IA subió un 9,3% respecto al año anterior. Las empresas reconocen que la IA tiene la clave para ofrecer a las personas una variedad de experiencias que aporten más comodidad, productividad y realismo en un mundo ahora mayoritariamente virtual, y están depositando su confianza en el desarrollo de tecnología con algoritmos de inteligencia artificial, aprendizaje mecanizado y aprendizaje profundo. Pero para aprovechar todo el potencial de la IA, los usuarios también deben confiar en ella, y eso empieza por demostrar una IA ética, con algoritmos que produzcan resultados imparciales. El diseño de la IA responsable incluye un proceso bien pensado que lleva a las organizaciones patrocinadoras a ser capaces de responder a varias preguntas clave, entre ellas:- ¿Cuál es el razonamiento detrás de por qué un algoritmo hizo una determinada predicción/dio un determinado resultado?
- ¿Se puede adoptar el algoritmo en varias plataformas y ecosistemas complejos?
- ¿Hay alguien que actualice y corrija continuamente los algoritmos cuando sea necesario?
Regular y asegurar los datos desde el principio
Otra consideración importante en el viaje de la IA es asegurarse de que los datos recopilados sean privados, seguros y estén regulados, con métodos y herramientas que garanticen la transparencia con la IA. En los últimos años, los clientes y las partes interesadas han expresado su preocupación por la manera y el lugar en que se utilizan sus datos e información. Esto ha llevado a la creación del RGPD y a las pautas de la UE sobre cómo utilizar la IA de forma segura. Obtenga más información aquí. Para las organizaciones que desarrollan su propia tecnología de IA, las medidas de seguridad, privacidad y cumplimiento deben ser consideraciones primordiales, no una idea de última hora. Si las organizaciones no cuentan con medidas de seguridad rigurosas, que puedan compartirse con los usuarios, será difícil ganarse la confianza y, en última instancia, llevar la tecnología al mercado. Las organizaciones deben ser capaces de aceptar las consecuencias de sus decisiones y asegurarse de que las evalúan con precisión la primera vez.Lanzamiento y puesta a punto de la tecnología de IA
El lanzamiento responsable de la IA incluye la evaluación constante de la tecnología y la puesta a punto después de su implementación. Debe haber una evaluación constante del resultado a fin de asegurarse de que está haciendo lo que se supone que debe hacer y corregirlo cuando sea necesario. También debe haber un monitoreo constante para garantizar que no surjan riesgos, sesgos o problemas éticos. Para que el lanzamiento de la tecnología de IA sea un éxito, es necesario establecer marcos de trabajo que ayuden a realizar lo siguiente:- Diseñar y aplicar un modelo de control para la gestión
- Formar y desarrollar continuamente al personal que trabajará con la IA
- Comprobar la exactitud y corregir cuando sea necesario
- Evaluar las lagunas que puedan producirse
- Crear un protocolo de administración de riesgos
Cómo aborda Webex la IA
En Cisco, entendemos lo importante que es construir y mantener la confianza en nuestra tecnología. Trabajamos de manera activa y sistemática para determinar la forma más responsable de desarrollar y aprovechar el potencial de la IA e incorporar sólidas salvaguardas en materia de seguridad, derechos humanos y privacidad en todas las fases de desarrollo y funcionamiento de nuestra tecnología. Webex ha implementado pautas y ha tomado medidas para asegurar que nuestra tecnología de IA esté adecuadamente regida, asegurada y tenga ética y confianza incorporada en la solución. Nuestras características están diseñadas teniendo en cuenta la privacidad y con el respaldo de la plataforma de seguridad líder de Cisco. Nuestras iniciativas de IA y el aprendizaje mecanizado se guían por algunos principios básicos:- Explicación a nivel de cliente de la eficacia/precisión, los riesgos, los resultados deseados, el propósito, las entradas y las limitaciones
- Protección contra el envenenamiento de datos
- Consecuencias de las decisiones
- Pruebas de validación
- Posibles riesgos, sesgos y cuestiones éticas
Para obtener una visión más detallada, consulte cómo trata Cisco los datos que recopila en nuestro informe técnico, Data Handling and Privacy for Cognitive Collaboration (Tratamiento de datos y privacidad para la colaboración cognitiva). Asimismo, esta Ficha técnica de datos de privacidad describe el tratamiento de datos personales (o información de identificación personal) por parte de Cisco Webex Meetings.Más información Diseño de sistemas de IA responsables Las últimas características de IA de Webex que potencian el futuro del trabajo Las novedades de la colaboración con la IA: Impulsar el futuro del trabajo híbrido