책임감 있는 AI 기술을 출시하기 위해 고려해야 할 3가지 주요 요인

On By Emmy Chen1 Min Read
Why transition to cloud calling? Tips for scaling team communication in the hybrid workplace
AI는 이제 더 이상 먼 미래에서나 활용될 것 같은 초현대적인 기술이 아닙니다. 이 시대의 수많은 비즈니스 및 소비자 애플리케이션에서 사용되고 있습니다. 하지만 지금은 AI 기능을 지극히 표면적인 수준에서 다루기 시작한 상태입니다. Statista에 따르면, AI 산업은 매년 54% 성장하고 있으며 이다음에 다가올 커다란 기술적 변화를 견인하고 있습니다. 협업 산업의 경우, AI 사용 시 원활한 연결이 가능할 뿐만 아니라 지금까지 우리가 꿈꿔오기만 했던 방식으로 원격 커뮤니케이션을 향상할 것으로 보입니다. AI 사용이 어디서든 보편화되면 비즈니스 및 일상생활의 상호작용 수준이 향상되겠지만, 고민할 문제가 없는 건 아닙니다. 많은 사람이 AI라면 손사래를 칩니다. 의도하지 않은 편향이 알고리즘에 유입되거나 데이터 개인정보가 침해되지 않을까 두려워합니다. 조직이 책임감 있는 AI를 설계하기 위해 알아두어야 할 세 가지 주요 영역을 아래에서 살펴보겠습니다. 이 주제에 대한 자세한 내용은 Designing Responsible AI Systems(저자: Collaboration AI의 Webex VP, Chris Rowen)를 참조하세요.

편향되지 않은 접근 방식으로 AI에 대한 신뢰 얻기

Stanford 보고서에 따르면, 2019년에 민간에서 AI에 투자한 비율이 전년 대비 9.3% 증가한 것으로 나타났습니다. 기업은 현재 대부분 가상 환경화가 이루어진 이 시대에 편리함, 생산성, 사실성을 향상해주는 다양한 경험을 사람들에게 제공하기 위한 열쇠가 AI에 있다는 것을 인식하고 있습니다. 그리고 그러한 판단은 기업에서 인공 지능, 머신러닝, 딥러닝 알고리즘을 활용한 기술 개발로 나타나고 있습니다. 하지만 AI의 완전한 잠재력을 실현하려면 사용자가 AI를 신뢰해야 합니다. 그리고 그 과정은 편향되지 않은 결과를 생성하는 알고리즘을 갖춘 윤리적인 AI를 선보이는 데서 시작됩니다. 책임감 있는 AI 설계에는 심사숙고하여 만든 프로세스가 포함됩니다. 이러한 프로세스는 조직이 다음을 비롯한 몇 가지 중요한 질문에 답할 수 있도록 뒷받침하는 역할을 해야 합니다.
  • 알고리즘이 특정한 예측/결과를 생성한 이유는 무엇인가?
  • 알고리즘을 여러 플랫폼과 복잡한 에코시스템 전체에서 도입할 수 있는가?
  • 필요한 경우 누군가가 알고리즘을 지속적으로 업데이트 및 수정하는가?
이러한 질문을 해결할 수 있게 되면 그때가 바로 AI 기술에 대한 신뢰를 쌓고 사용자의 신뢰를 얻기 시작하는 때입니다.

처음 시작 단계부터 데이터 통제 및 보호

AI 여정의 또 다른 중요한 고려 사항은 AI의 투명성을 보장할 수 있는 방법과 툴을 활용하여 수집한 데이터의 기밀을 지키고, 안전하게 보호하고, 통제하는 것입니다. 지난 몇 년 동안 고객 및 관계자는 자신의 데이터 및 정보가 어디서 어떻게 사용되는지에 대한 우려를 표해왔습니다. 이러한 우려로 인해 GDPR 및 AI의 안전한 사용에 대한 EU 지침이 만들어지게 되었습니다. 자세한 내용은 여기를 참조하세요. 독자적인 AI 기술을 개발하고 있는 조직의 경우 보안, 개인정보 보호, 컴플라이언스 조치는 나중에 생각할 문제가 아닌 기본적인 고려 사항이어야 합니다. 조직에 엄격한 보안 조치, 즉 사용자와 공유할 수 있는 조치가 마련되어 있지 않으면 신뢰를 얻기 어려우며 결과적으로 기술을 출시하기가 어려워집니다. 조직은 그들의 결정으로 인해 일어나는 결과를 받아들여야 하며 처음부터 결과를 정확하게 계산해야 합니다.

AI 기술 출시 및 세부 조정

책임감 있는 AI를 출시하는 것에는 배포 후 기술을 지속적으로 평가하고 세부 조정하는 일이 포함됩니다. 결과를 끊임없이 평가하여 예상대로 정상적인 작업이 이루어지고 있는지 확인하고 필요하다면 수정해야 합니다. 또한 지속적인 모니터링으로 위험, 편향, 윤리적 문제가 발생하지 않도록 해야 합니다. AI 기술을 성공적으로 출시하려면 다음에 도움이 되는 프레임워크를 마련해야 합니다.
  • 거버넌스를 위한 제어 모델 설계 및 구현
  • AI 작업을 수행할 담당자의 지속적인 교육 및 개발
  • 정확도 확인 및 필요한 경우 수정
  • 발생 가능한 모든 격차 평가
  • 위험 관리 프로토콜 만들기
책임감 있는 AI 전략을 도입하는 데에는 시간이 걸리는 일이며, 이러한 전략 구현을 신중하게 평가하고 측정하여 데이터 개인정보 보호 및 보안을 보장해야 한다는 점을 아는 것이 중요합니다.

Webex의 AI 접근 방식

시스코에서는 기술에 대한 신뢰를 쌓고 이를 유지하는 게 얼마나 중요한지 잘 알고 있습니다. 따라서 AI의 잠재력을 개발 및 실현하고 기술 개발 및 운영의 모든 단계에서 보안, 인권, 개인정보 보호에 대한 강력한 안전조치를 구축하기 위한 가장 책임감 있는 방식을 찾아내기 위해 적극적이고 지속적으로 조치를 취하고 있습니다. Webex는 AI 기술을 올바르게 관리하고 보호하기 위한 지침을 구현하고 관련 조치를 취해왔으며 윤리와 신뢰에 기반한 솔루션을 만들고 있습니다. Webex의 기능은 보안을 염두에 두고 설계되며 시스코 최고의 보안 플랫폼을 기반으로 합니다. 시스코의 AI 및 머신러닝 이니셔티브는 다음과 같은 몇 가지 핵심 원칙을 기준으로 합니다.
  • 효용성/정확도, 위험, 원하는 결과, 목적, 투입하는 노력, 한계를 고객 눈높이에서 설명
  • 데이터 중독으로부터 보호
  • 결정이 미치는 결과
  • 검증 근거
  • 발생 가능한 위험, 편향, 윤리적 문제
자세한 내용을 보려면 시스코 백서 Data Handling and Privacy for Cognitive Collaboration(인지적 협업을 위한 데이터 처리 및 개인정보 보호)에서 시스코의 데이터 수집 방식을 알아보세요.  그리고 이 개인정보 보호 데이터시트에서는 Cisco Webex Meetings의 개인 데이터(또는 개인 식별 가능한 정보) 처리에 대해 설명합니다.
자세히 알아보기 책임감 있는 AI 시스템 설계 업무의 미래를 강화하는 최신 Webex AI 기능 협업 AI의 새로운 소식: 하이브리드 업무의 미래를 이끄는 동력

About The Author

Emmy Chen
Emmy Chen Product Marketing Manager Cisco
Emmy Chen is a product marketing manager at Webex for Collaboration AI.
Learn more

Topics


More like this