如何减少AI中的偏见

推特
推特
LinkedIn
分享
脸谱网
fb-share-icon

克服和防止AI偏见的8种方法

人工智能中的算法偏差是一个普遍存在的问题。你可能还记得新闻中有偏见的算法例子,比如语音识别不能识别代词“她的”,但能够识别“他的”,或者面部识别软件不太可能识别有色人种。虽然完全消除人工智能中的偏见是不可能的,但我们不仅要知道如何减少人工智能中的偏见,还要积极地预防它。了解如何减轻人工智能系统中的偏差源自理解用于生成和发展模型的训练数据集。bob体育手机下载

在我们的2020年人工智能和机器学习现状报告在美国,只有15%的公司称其人工智能的数据多样性、偏见减少和全球规模“不重要”。虽然这很好,但只有24%的人认为公正、多样化、全球性的AI是关键任务。这意味着许多公司仍然需要真正致力于克服人工智能方面的偏见,这不仅是成功的象征,而且在今天的背景下至关重要。

因为人工智能算法是为了干预存在人类偏见的地方,它们通常被认为是无偏见的。重要的是要记住,这些机器学习模型是由人编写的,并根据社会生成的数据进行培训。这就带来了挑战和风险,即在模型中引入并放大现有的人类偏见,从而阻止人工智能真正为每个人服务。

负责任和成功的公司必须知道如何减少人工智能方面的偏见,并主动利用他们的培训数据来做到这一点。bob体育手机下载为了最小化偏差,通过应用统计和数据探索来监测离群值。在基本水平上,通过比较和验证不同样本的训练数据的代表性,减少和防止AI偏差。bob体育手机下载没有这种偏见管理,任何人工智能计划最终都会失败。

以下是防止AI偏见渗入模型的8种方法。

人工智能的偏见

减少AI偏见的8个步骤

  1. 定义并缩小您正在解决的业务问题
    试图解决太多的场景通常意味着您将需要跨越难以管理的大量类的大量标签。首先,狭义地定义一个问题,将帮助您确保您的模型在构建它的确切原因上运行良好。
  2. 结构化数据收集,允许不同的意见
    对于单个数据点,通常有多个有效的观点或标签。收集这些意见,并对合法的、通常是主观的分歧进行解释,将使你的模型更加灵活
  3. 理解你的培训数据bob体育手机下载
    学术数据集和商业数据集都可以有类别和标签,这会给你的算法带来偏见。你对自己的数据了解得越多、拥有得越多,你就越不可能对那些令人反感的标签感到惊讶。
  4. 组建一个多样化的ML团队,问不同的问题
    我们都将不同的经历和想法带到工作场所。来自不同背景的人——种族、性别、年龄、经验、文化等等——天生会问不同的问题,并以不同的方式与你的模型互动。这可以帮助您在模型投入生产之前发现问题。
  5. 考虑所有的最终用户
    同样,你要明白,你的最终用户不会简单地像你或你的团队一样。善解人意。学会预测与你不同的人将如何与你的技术互动,以及他们这样做可能会出现什么问题,从而避免人工智能偏见。
  6. 注释与多样性
    人类注释者的范围越广,您的观点就越多样化。这真的可以帮助减少偏见在最初的发布和你继续培训你的模型。
  7. 记住反馈进行测试和部署
    模型很少在其整个生命周期中是静态的。一个常见但主要的错误是,在部署模型时,没有给最终用户提供关于模型如何在现实世界中应用的反馈。打开一个讨论和论坛来获取反馈将继续确保您的模型为每个人保持最佳性能水平。
  8. 有一个具体的计划来改进你的模型的反馈
    你不仅要使用客户反馈,还要使用独立的人来审核你可能忽略的变化、边缘情况、偏见实例等等。确保你从你的模型中得到反馈,并给它你自己的反馈,以改进它的性能,不断迭代,以达到更高的精度。

如何用Appen减少AI中的偏见

在Appen,我们花了20多年的时间注释数据,利用我们多样化的人群来帮助确保您可以自信地部署您的AI模型。我们可以帮助你避免AI偏见,让你在有偏见的算法例子的列表上,不仅为你提供一个平台我们有来自130个国家的超过100万名会员,但我们也可以为您设置我们的管理服务的专家团队为你的AI模型生成最佳的训练数据。bob体育手机下载

使用世界级的训练数据部署人工智能的网站bob体育手机下载
语言