책임 있는 AI 시스템 설계

On By Chris Rowen1 Min Read
Responsible AI
  • 주택자금 대출 신청의 승인 여부를 결정하는 데 사용되는 자동화된 시스템이 인종에 따른 편향성을 가질 수 있을까요?
  • 경찰이 용의자를 찾기 위해 안면 인식 시스템을 사용하는 것은 타당할까요?
  • 개발자가 비디오 회의의 첨단 음성 인식 시스템을 학습시키기 위해 사용자 데이터를 수집해도 될까요?
과학 및 공학 커뮤니티는 항상 AI 윤리와 사회적 책임에 대한 질문에 미묘한 입장을 취해왔습니다. 한편으로는 물리학 또는 수학 공식의 법칙 그 자체가 가치 중립적이라는 주장도 타당하다고 볼 수 있습니다. 이러한 법칙은 인간의 도덕적인 문제에 개입하지 않기 때문입니다. 반면 과학과 공학은 인간 활동에 대한 과학기술 지식의 응용과 동떨어진 추상적인 불모지에서 작동하는 것이 아닙니다. 모든 인간 활동은 도덕적, 윤리적 영향력을 가지고 있습니다. 따라서 엔지니어에게도 사회적, 윤리적 책임이 있다고 할 수 있습니다. 하지만 시스템이 개인정보, 안전, 대행 서비스, 공정성에 대한 핵심적인 인권을 지원하는지 저해하는지를 고려하지 않고는 책임 있는 엔지니어가 될 수 없습니다. 머신 러닝과 데이터 기반 인공 지능의 등장으로 사회에서 기술이 수행하는 역할에 대해 팽배한 우려가 더욱 커졌습니다.

AI의 윤리적 문제를 고려하고 책임 있는 머신 러닝 시스템 구축 방안을 선택하려면 어떻게 해야 할까요?

우선 머신 러닝 기반 설계에 필요한 요소와 머신 러닝으로 인해 논란이 발생할 수 있는 이유에 관한 기본적인 내용을 이해해야 합니다. 머신 러닝은 세부적인 기능이 소프트웨어 코드를 통해 설명되는 것이 아니라 의도한 동작의 다양한 예시로부터 일반화함으로써 학습된다는 개념을 핵심으로 합니다. 이러한 데이터는 다양한 입력과 목표로 하는 출력을 조합하여 명시적으로 구축되기도 하고, 입력 데이터에 내재된 예상되는 결과(비지도 학습) 또는 연속적으로 성공적인 출력이 발생하는 경우 보상 메트릭(강화 학습)을 통해 암시적 또는 지속적인 학습이 이루어질 수 있습니다. 일반적으로 교육을 통해 학습된 행동 모델은 구축된 ‘추론’ 시스템의 기본 토대로 구축되고, 이 시스템에서는 사용자의 실제 입력이 이 모델을 거쳐 시스템이 교육을 통해 학습한 동작 패턴에 가까이 일치하는 결과를 계산할 수 있습니다. 책임 있는 AI를 생각할 때, 머신 러닝 기반 기능으로 인해 발생하는 AI의 윤리적 문제 중 어떤 문제를 고려해야 할까요? 어느 정도까지는 머신 러닝 기반 소프트웨어가 기존의 절차적 프로그래밍 방식으로 개발된 소프트웨어와 크게 다르지 않습니다. 모든 소프트웨어에서 편향성, 개인정보, 공정성, 투명성, 데이터 보호를 중요하게 생각하지만 머신 러닝 방식의 경우 인식이 비교적 부족하고, 방대한 양의 교육 데이터와 때로는 이해하기 쉬운 설명이 필요합니다. 이러한 특성이 있으므로 AI 윤리가 여기에서 수행하는 역할을 자세히 살펴보아야 합니다.

책임 있는 AI 설계 원칙 수립 시 고려해야 할 핵심 질문

AI 윤리에 대한 중요한 질문은 다음과 같습니다. 중첩되는 문제들도 있지만 책임 있는 설계를 여러 관점에서 살펴보는 것이 좋습니다.
  • 편향성: 기능이 개인에 따라 불공정하거나, 의도하지 않았거나, 혹은 부적절한 편향성을 보입니까? 시스템이 실제로 적용되는 사용자 분포에 적합하도록 설계 및 교육되었습니까? 설계, 구현, 테스트를 통해 법을 통해 보호되는 개인의 특성에 대한 편향성이 방지됩니까?
  • 개인정보: 해당 기능을 교육하고 운영하기 위해 개인이 필수 개인정보보다 많은 정보를 공개해야 합니까? 개인 정보가 무단 또는 부적절한 공개로부터 완벽히 보호됩니까?
  • 투명성: 해당 기능을 통합하는 시스템 개발자, 사용자, 기타 적합한 검사자가 기능의 동작을 이해할 수 있도록 이러한 동작이 충분히 이해되었으며, 테스트와 문서화가 이루어졌습니까? 동일한 입력을 반복하는 경우 동일한 출력이 도출되도록 구현된 기능의 동작이 기본적으로 결정론적입니까?
  • 보안: 해당 기능의 교육과 구현 시 수집된 모든 데이터 또는 제품이 부적절한 전송, 도용 또는 공개로부터 보호됩니까? 이러한 데이터에는 유출이 우려되는 개인정보와 소유권이 적용되고 계약을 통해 합의된 허용되는 용도에 대한 우려가 발생할 수 있는 비개인 정보가 포함될 수 있습니다.
  • 사회적 영향: 편향성, 개인정보 보호, 투명성, 보안에 대한 특정한 우려 외에, 해당 기술이 널리 구축되는 경우 사회에 미치는 직접적, 간접적 영향은 무엇입니까? 아이디어 교환을 지원합니까, 아니면 저해합니까? 폭력 또는 학대의 발생 가능성을 증가시킵니까? 환경에 유해합니까? 설계 및 구축 팀의 작업이 특히 수 년에 걸쳐 전 세계에 구축되는 경우 모든 간접적 영향을 완전히 파악할 수 없기 때문에 해당 AI 윤리 범주에는 제약을 두지 않았습니다. 하지만 장기적인 부정적 영향을 예측하려는 노력을 통해 팀이 작업에 이러한 영향을 완화할 수 있는 설계를 적용하거나 기술 전략을 명백한 부정적인 사회적 영향을 최소화하는 대안으로 전환할 수 있습니다.
본 AI 윤리 질문 목록이 처음에는 모호하고 추상적이어서 실행하기 어렵게 보일 수 있지만 업계에서 특히 시스템 보안과 개인정보 보호에 관련한 효과적인 개발 지침이 수립되어 있어 유용한 템플릿으로 활용할 수 있습니다. 시스코는 데이터 보안을 위한 시스템 설계 분야에서 오랜 시간 동안 선두를 지켜 왔으므로 시스코 프레임워크는 책임 있는 머신 러닝 시스템에서 Webex 작업을 시작하기에 적합합니다. 유럽 GDPR(Europe’s General Data Protection Regulation)에서도 머신 러닝 기반 시스템에 적용할 수 있는 유용한 원칙을 제시하는 ‘자연인의 기본적인 권리 및 자유(fundamental rights and freedoms of natural persons)’를 보호하기 위한 체계를 제공합니다. 도시 개발자들이 방관하고 있는 홀로그램 씨티

AI와 윤리를 지원하는 기타 고려사항

의식적이며 책임 있는 AI 시스템 설계에 대해 숙고하면서 엔지니어의 사회적, 윤리적 책임을 이해하는 데 특히 도움이 되는 3가지 개념을 발견했습니다.
  1. 책임 있는 머신 러닝 개발 프로세스. 머신 러닝의 잠재적인 응용 분야는 매우 다양하기 때문에 일괄적인 개발 플로우를 규정하는 것은 불가능합니다. 모델 유형, 교육 시스템, 평가 메트릭, 구축 목표의 혁신 속도가 매우 빨라 범위가 좁은 방식은 바로 구식이 되어 버립니다. 그 대신 개발자 자신과 다른 사람들이 핵심적인 의문이 고려되고 핵심적인 설계 옵션이 문서화되었는지 작업을 점검하는 명시적인 체크포인트가 포함된 윤리적인 AI 지침을 수립해야 합니다. 이를 위해서는 시스템 구축에 착수하기 전에 통과해야 하는 구체적인 테스트도 필요합니다.
  2. 영향에 대한 고려. 설계 담당자와 구현 담당자는 AI 윤리와 교육된 시스템의 학습된 의사 결정이 미치는 영향을 명확하게 이해해야 합니다. 이들은 머신 러닝 기능의 의사 결정이 사용자 또는 관련된 다른 사람들에게 실질적인 영향을 주는 경우가 많다는 개념을 받아들여야 합니다. 때로는 이러한 의사 결정의 규모가 매우 크고 명시적입니다. 예를 들어 주택자금 대출 신청의 승인 여부를 결정하기도 합니다. 의사 결정이 비교적 직접적이지 않은 경우에도 폭넓은 영향을 미칩니다. 예를 들어 비디오 회의 시스템의 학습된 음성 조정 기능이 여성의 음량을 남성의 음량보다 2% 낮추는 경우, 반복되는 무의식적인 영향으로 직장에서 여성의 영향력과 기여도가 낮아지게 됩니다.
  3. 교육 데이터 및 예상 용도 데이터의 통계적 편차. 시스템이 예측되는 모든 조건을 충족하도록 교육하기 위해서는 머신 러닝이 다양한 입력 데이터를 사용해야 합니다. 교육의 통계적인 설계는 최종 시스템의 통계적 동작을 결정하는 데 가장 큰 역할을 합니다. 예를 들어 음성 시스템의 경우, 지정된 배포에 미국 영어 사용자, 영국 영어 사용자, 호주 영어 사용자, 히스패닉계 영어 사용자, 남아시아, 중국, 유럽 대륙, 기타 지역 사용자의 목표 비율이 포함될 수 있습니다. 고음과 저음의 목소리, 다양한 연령의 사용자 음성, 반향 수준이 서로 다른 공간에서의 음성, 소음의 다양한 유형과 상대적인 진폭의 목표 비율도 포함될 수 있습니다. 개발자는 명시적인 문서를 통해 대상 사용자 분포를 이해하고 대상 용도에 적합한 교육과 테스트를 구성해야 합니다. 또한 법으로 보호되는 특성(인종, 출생 국가, 성별, 종교 등)의 범위와 같은 대상 사용자 특성에서 누락될 수 있는 요소를 고려해야 합니다. 사용 조건의 상대적인 차이에는 매우 다양한 잠재적인 측면이 있기 때문에 쉬운 문제가 아닙니다. 모든 대상 사용 조건에 걸쳐 우수한 성능을 확보하려면 새로운 데이터를 추가하거나 분포를 전환해야 하는 편차에 대한 민감도를 개발자가 발견해야 하기 때문에, 개발자는 처음에 교육 받은 것보다 다양한 특성을 테스트해야 합니다.
책임 있는 AI를 위한 설계는 아직 걸음마 단계에 있습니다. 편향성, 개인정보 유출, 투명성, 데이터 손실, 중대한 사회적 영향으로부터 보호하는 데 있어 어떤 함정이 존재하는지에 대해 파악해야 하는 것이 아직도 많이 있습니다. 하지만 논의, 사양, 교육, 구축, 유지관리에 있어 AI 윤리 인식을 통해 이러한 방식의 신뢰도에 큰 변화를 만들어갈 수 있습니다.
Webex 무료 체험에 등록하고 지금 바로 팀 협업과 비디오 회의 기술 경험을 향상해 보세요.
자세히 알아보기 업무의 미래를 강화하는 최신 Webex AI 기능 협업 AI의 새로운 소식: 하이브리드 업무의 미래를 이끄는 동력 하이브리드 세상에서 업무와 고객 경험을 향상하는 방법

About The Author

Chris Rowen
Chris Rowen VP of Engineering Cisco
Chris is a Silicon Valley entrepreneur and technologist known for his groundbreaking work developing RISC microprocessors, domain-specific architectures and deep learning-based software.
Learn more

Topics


More like this