- ¿Un sistema automatizado que se utiliza para aprobar o rechazar solicitudes de préstamo hipotecario puede ser responsable de prejuicios raciales?
- ¿Es razonable que la policía utilice sistemas de reconocimiento facial para atrapar a presuntos delincuentes?
- ¿Los desarrolladores pueden aprovechar los datos de los usuarios para entrenar mejores sistemas de reconocimiento del habla en las videoconferencias?
La comunidad científica y de ingeniería siempre se ha encontrado en una posición delicada respecto de las cuestiones de ética y responsabilidad social de la IA. Por un lado, es razonable argumentar que las leyes de la física o las ecuaciones matemáticas en sí mismas son neutrales en cuanto a los valores: no se pronuncian sobre cuestiones morales humanas. Por otro lado, la ciencia no opera, y la ingeniería ciertamente no puede hacerlo, en un mundo abstracto y estéril, separado de la aplicación de los conocimientos científicos y técnicos a la actividad humana. Toda actividad humana tiene ramificaciones morales y éticas. Por tanto, es lógico que los ingenieros tengan responsabilidades sociales y éticas. Pero no podemos ser ingenieros responsables sin tener en cuenta cómo nuestros sistemas apoyarán o socavarán los derechos humanos fundamentales de privacidad, seguridad, representación y equidad. La aparición del aprendizaje automático y de la inteligencia artificial impulsada por datos no ha hecho más que exacerbar la preocupación generalizada por el papel de la tecnología en la sociedad.
¿Cómo podemos mantener las cuestiones éticas de la IA en primer plano y elegir un camino responsable para crear sistemas de aprendizaje automático?
Deberíamos empezar con una comprensión básica de lo que implica el diseño basado en el aprendizaje automático y por qué puede ser motivo de controversia. La idea central del aprendizaje automático es que la función detallada no se describe mediante un fragmento de código de software, sino que se aprende generalizando a partir de una serie de ejemplos de comportamiento esperado. Esos datos de entrenamiento se pueden preparar de forma explícita combinando una serie de entradas con salidas objetivo (aprendizaje supervisado) o bien el entrenamiento puede ser implícito o continuo con resultados esperados implícitos en los datos de entrada (aprendizaje no supervisado) o mediante una métrica de recompensa por series de salidas exitosas (aprendizaje de refuerzo). Por lo general, el modelo de comportamiento que se aprende en el entrenamiento se implementa como una función de bloque de construcción dentro de un sistema de “inferencia” implementado, en el que las entradas reales del usuario fluyen hacia el modelo, de modo que el sistema pueda calcular un resultado que se acerque a los patrones de comportamiento aprendidos en el entrenamiento.
¿Qué tipo de cuestiones éticas de la IA que se encuentran en las funciones basadas en el aprendizaje automático merecen ser consideradas cuando se piensa en la IA responsable? En cierto nivel, el software basado en el aprendizaje automático no es muy diferente del software desarrollado con métodos tradicionales de programación procedimental. Nos preocupamos por los prejuicios, la privacidad, la equidad, la transparencia y la protección de los datos en todo el software, pero los métodos de aprendizaje automático son menos conocidos, requieren grandes cantidades de datos de entrenamiento y, a veces, son fáciles de explicar. Estas características exigen que examinemos más de cerca el papel que debe desempeñar la ética de la IA en este juego.
Preguntas clave que deben hacerse al crear principios de diseño de IA responsables
Estas son algunas cuestiones éticas fundamentales de la IA. Podría decirse que estas cuestiones suelen superponerse, pero no está de más considerar el diseño responsable desde varios ángulos:
- Prejuicios: ¿La función implementa un prejuicio injusto, involuntario o inapropiado en la forma en que trata a las diferentes personas? ¿El sistema está diseñado y entrenado para la distribución de usuarios sobre la que se aplica en realidad? ¿El diseño, la implementación y las pruebas evitan los prejuicios contra las características legalmente protegidas de las personas?
- Privacidad: ¿El entrenamiento y la operación de esta función exigen que una persona revele más información personal de la requerida, y protege por completo esa información privada de una divulgación no autorizada o inapropiada?
- Transparencia: ¿Se entiende, prueba y documenta suficientemente bien el comportamiento de la función para que los desarrolladores de sistemas que la integran, los usuarios y otros examinadores apropiados puedan entenderla? ¿El comportamiento de la función implementada es básicamente determinista, de modo que la repetición de las mismas entradas produzca los mismos resultados?
- Seguridad: ¿El entrenamiento y la implementación de la función protegen los datos capturados o los productos de la transferencia, el uso indebido o la divulgación inapropiados? Estos datos pueden incluir información personal que también está sujeta a cuestiones de privacidad y datos no personales que pueden estar sujetos a cuestiones de propiedad y uso permisible acordado de manera contractual.
- Impacto social: Más allá de las preocupaciones específicas en materia de prejuicios, privacidad, transparencia y seguridad, ¿cuál es el impacto directo e indirecto en la sociedad si esta tecnología se implementa ampliamente? ¿Ayuda o dificulta el intercambio de ideas? ¿Aumenta la probabilidad de violencia o abuso? ¿Es perjudicial para el medio ambiente? Esta categoría de ética de la IA es intencionadamente abierta, de modo que no podemos esperar que ningún equipo de diseño e implementación comprenda plenamente todos los efectos indirectos de su trabajo, en particular, cuando se implementa durante años y en todo el mundo. Sin embargo, el esfuerzo por anticipar los efectos negativos a largo plazo puede animar a los equipos a diseñar mitigaciones en su trabajo, o a cambiar la estrategia tecnológica hacia alternativas con menos desventajas sociales aparentes.
Esta lista de cuestiones éticas de la IA inicialmente puede parecer demasiado difusa y abstracta para ser procesable, pero la industria ha implementado con éxito pautas de desarrollo, en particular, en la seguridad del sistema y la privacidad de los datos que pueden servir como una plantilla útil. El liderazgo de larga data de Cisco en el diseño de sistemas para la seguridad de los datos hace que ese marco sea el punto de partida natural para el trabajo de Webex en sistemas de aprendizaje automático responsables. El marco para el Reglamento general de protección de datos (RGPD) de Europa también proporciona un marco para proteger los “derechos y libertades fundamentales de las personas físicas” que puede brindar algunos principios útiles para aplicar a los sistemas basados en el aprendizaje automático.
Otras consideraciones que respaldan la IA y la ética
Al reflexionar sobre el diseño consciente y responsable de sistemas de IA, he encontrado tres conceptos particularmente útiles para tener en cuenta cuando se trata de entender las responsabilidades sociales y éticas de los ingenieros:
- Un proceso para el desarrollo responsable del aprendizaje automático. Las posibles aplicaciones del aprendizaje automático son tan amplias que no podemos pretender prescribir un flujo de desarrollo universal. El ritmo de innovación en los tipos de modelos, los sistemas de entrenamiento, las métricas de evaluación y los objetivos de implementación es tan grande que cualquier receta limitada quedará obsoleta al instante. En cambio, esperamos elaborar pautas éticas de IA con puntos de control explícitos en los que tanto los propios desarrolladores como otras personas examinen su trabajo para verificar que se hayan tenido en cuenta las cuestiones clave y que se hayan documentado las principales opciones de diseño. Esto también puede implicar pruebas específicas que los sistemas deben superar antes de proceder con su implementación.
- Consideración de las consecuencias. Los diseñadores y los implementadores deben tener una clara comprensión de la ética de la IA y del impacto de las decisiones aprendidas de sus sistemas entrenados. Deben aceptar la noción de que sus funciones de aprendizaje automático suelen tomar decisiones con un impacto real en los usuarios o en otras personas. A veces, las decisiones son bastante grandes y explícitas: ¿se acepta o se rechaza una solicitud de préstamo hipotecario? En otros casos, las decisiones son más sutiles, pero siguen teniendo un impacto generalizado. Por ejemplo, si una función de mejora del habla aprendida en un sistema de videoconferencias disminuye el volumen de la mujer promedio en un 2% en relación con sus colegas masculinos, podría tener el insidioso efecto acumulativo de reducir el impacto y la contribución de las mujeres en el lugar de trabajo.
- Variación estadística en los datos de entrenamiento y de uso previsto. El aprendizaje automático debe utilizar una gama diversa de datos de entrada para entrenar al sistema a manejar todas las condiciones esperadas. El diseño estadístico del conjunto de entrenamiento es el mayor determinante del comportamiento estadístico del sistema final. En el caso de los sistemas de voz, por ejemplo, esta distribución especificada podría incluir un porcentaje objetivo para hablantes de inglés estadounidense, inglés británico, inglés australiano, inglés hispano, hablantes del sur de Asia, China, Europa continental y otras regiones. También podría incluir un porcentaje objetivo para voces agudas y graves, voces de oradores de diferentes edades, habla en salas con diferentes niveles de reverberación, así como distintos tipos y amplitudes relativas de ruido. Los desarrolladores deben tener un conocimiento explícito y documentado de la distribución de los usuarios a los que va dirigido el programa y deben crear el entrenamiento y las pruebas para que se ajusten a ese uso. Además, los desarrolladores deben tener en cuenta lo que puede faltar en la especificación del usuario objetivo, por ejemplo, la cobertura de las características legalmente protegidas (raza, origen nacional, sexo, religión, etc.). No es un problema fácil porque hay muchas posibles dimensiones de variación relevante en las condiciones de uso. Los desarrolladores deben realizar pruebas para una gama más amplia de características que para las que se entrenan inicialmente, con la expectativa de que pueden descubrir sensibilidad a algunas variaciones que requerirán la adición de nuevos datos o el cambio de las distribuciones para lograr un rendimiento adecuado en todas las condiciones de uso previsto.
El diseño de la IA responsable aún es incipiente. Todavía nos queda mucho por entender sobre los obstáculos que existen para la protección contra los prejuicios, el hecho de que se ponga en peligro la privacidad, la transparencia, la pérdida de datos y el grave impacto social. Sin embargo, la atención consciente a la ética de la IA en el debate, la especificación, el entrenamiento, la implementación y el mantenimiento puede empezar a marcar una gran diferencia en la forma en que estos métodos de poder pueden llegar a ser fiables y de confianza.
Inscríbase para obtener una prueba gratuita de Webex y permita una mejor experiencia de colaboración en equipo y tecnología de videoconferencia hoy mismo.
Más información
Las últimas características de IA de Webex que potencian el futuro del trabajo
Las novedades de Collaboration AI: Impulsar el futuro del trabajo híbrido
Potenciar la experiencia del trabajo y del cliente en un trabajo híbrido