人工智能 (AI) 已不再是遥不可及的未来技术概念,而是现实存在的技术,并且用于大量企业和客户应用中。但是,我们只是刚开始触及 AI 功能的皮毛。Statista 的统计数据显示,人工智能行业的年增长率达 54%,这为我们带来新一轮重大技术变革。 在协作行业中,人工智能用于提供顺畅的互联,并将继续助力实现我们曾经梦寐以求的更优远程通信。 虽然普遍采用人工智能来改善商业和日常生活中的互动令人兴奋,但这一切并非毫无顾虑。许多人对人工智能失去热情,担心意想不到的偏见会对算法造成影响,或者担心数据隐私会受到损害。 在设计可靠的人工智能技术时,企业需要关注以下所述的三个重要方面。如需了解更多有关此主题的详细内容,请阅读 Webex AI 协作副总裁 Chris Rowen 撰写的设计可靠的 AI 系统一文。
通过公正的途径建立用户对人工智能的信任
根据斯坦福大学发布的一项报告,在 2019 年,私人对人工智能技术的投资比上一年增长了 9.3%。企业认识到,人工智能是为人们提供各种体验(这些体验可以在如今高度虚拟化的世界中提供更多便利、提高工作效率和增强真实感)的关键,并且企业在开发含有人工智能、机器学习和深度学习算法的技术的过程中实现可靠性。 但要充分实现人工智能技术的全部潜力,用户也必须信任此技术。为此,首先需要展示人工智能技术合乎道德规范的一面,并确保其算法能产生公正的结果。在设计可靠的人工智技术时,需要深思熟虑,使发起的企业必须能够回答几个重要问题,包括:- 算法得出特定预测/输出的原因是什么?
- 是否可以跨多个平台和复杂生态系统采用算法?
- 在必要时是否有人持续更新和纠正算法?
从源头监管和保护数据
在人工智能之旅中,另一个需要考虑的重要因素是确保所收集的数据具有私密性、安全性并受到监管,并且采用适当的方法和工具来确保人工智能技术公开透明。 在过去几年里,客户和利益相关者对其数据和信息的使用方式和地点表示担忧。由此,推出了《通用数据保护条例》(GDPR) 和关于安全使用人工智能技术的欧盟指导方针。点击此处了解详情。 对于自主开发人工智能技术的企业而言,必须首要考虑安全、隐私和合规措施,而不能事后再考虑。如果企业未准备好严格的安全措施(即,可以与用户共享的措施),则很难获得用户信任并最终将技术推向市场。企业必须能够接受其决策所产生的后果,并确保在第一时间进行准确评估。推出并优化人工智能技术
在推出可靠人工智能技术的过程中,需要持续对此技术进行评估并在部署后进行优化。为此,需要持续评估输出结果,确保此技术符合要求,并在需要时进行纠正。此外,还需要持续进行监测,确保不会出现任何风险、偏见和道德问题。 为了成功推出人工智能技术,需要建立一些相关框架,以便协助:- 设计和实施用于管理的控制模型
- 持续培训和培养未来将使用人工智能的人员
- 检查准确性并在必要时进行纠正
- 评估可能存在的差距
- 创建风险管理协议
Webex 如何处理人工智能
思科深知,在开发技术时必须考虑如何建立和维持用户信任。我们正在积极持续地采取行动,以最负责任的方式来开发和实现人工智能技术的潜力,并在技术开发和运营的各个阶段中建立强有力的安全、人权和隐私保护措施。 Webex 已实施相应指导方针并采取措施来确保人工智能技术得到妥善管理和保护,并且在制定解决方案时即已考虑到道德规范和用户信任。我们在设计各种功能时十分注重保护隐私,并以思科领先的安全平台为强大后盾。 我们的人工智能和机器学习计划将遵循以下几个核心原则:- 关于有效性/准确性、风险、预期结果、目标、输入信息和限制条件的客户级别解释信息
- 防止数据中毒
- 决策所产生的后果
- 验证程序依据
- 可能出现的风险、偏见和道德问题
如需了解更多信息,请阅读我们编写的白皮书《认知协作的数据处理和隐私》,了解思科如何处理其收集的数据。 此外,此隐私数据表中描述了 Cisco Webex Meetings 对个人数据(或个人身份信息)的处理过程。更多相关文章 设计可靠的人工智能系统 最新 Webex AI 功能,赋能未来办公模式 AI 协作新动态:赋能未来的混合办公时代