《AI伦理:构建负责任的AI指南

推特
鸣叫
linkedin.
分享
脸谱网
fb-share-icon

道德AI技术,以最大限度地减少整个模型构建过程的偏差

人工智能伦理通常是在模型本身的背景下考虑的。也就是说,重点是模型的预测和结果的伦理质量,以及它的影响。尽管大多数公司关注减少偏见在他们的模型中,这还不足以说道德AI技术已经到位。当涉及负责任的AI时,我们需要整体上的生态系统。

当涉及到执行道德AI时,我们必须考虑整个过程:AI模型是基于什么,AI模型会做什么,以及这种模型会产生什么影响?这些只是公司需要问的一些大问题。现实是,这些问题的答案并不局限于人工智能,而是优秀企业公民负责任的行为。

尽管存在这些棘手的问题,但也有好消息。现实世界中人工智能那是负责任的建立往往更成功。

4个关键的AI伦理考虑

道德AI技术,以最大限度地减少整个模型构建过程的偏差

致力于建立道德AI的公司需要探讨其AI旅程中的所有方面的道德问题 - 从模型偏见,以解释数据安全性。最后,他们必须考虑他们打算做些什么以及模型的行为的影响是什么类型的行为,而且也可能是他们的业务而且的社会。

偏见

“脱结人类比脱叠AI系统更难。”- 奥尔加·卢萨科夫斯基,普林斯顿。

偏见是AI领域的一大挑战。从人工智能之旅的一开始,企业就应该努力减少偏见。如果没有警惕的努力,它可能会出现在AI开发和生产的各个阶段,从一开始就阻碍了AI伦理的意图。

数据注释阶段尤其重要,因为你选择的数据和你选择的注释数据的人会直接影响到引入数据的偏见类型。由美国男性白人团队注释的数据与来自不同种族、性别和地域的团队注释的数据看起来会不同。各公司都急需多元化。

许多组织依赖于bob apple ,尽管众包的性质仍然可以引入偏见,如果没有正确完成。众包通常是工作请求者和贡献者之间的短期承诺。分析表明,贡献者花费大约三分之二的时间只是寻找工作,并且工作通常可以沉闷和低廉。市场的竞争导致少数贡献者提交了大部分可用工作,在数据中创造了不那么多元化的观点。

这些问题可以从Rehumanizing Crowdsourcing中受益,这是Appen最小化偏见的框架。该框架优化了机器学习(ML)和统计模型的作业启动和可用性。在每个用例中,框架将提高判断准确性,减少工作完成时间,最大限度地提高贡献者的利润和满意度,并减轻数据集偏差。

该框架提供了一个智能人群标签流程,一个是实时和按需。其实施可以为每个最适合工作的特定要求的工作创造更平衡的一组贡献者。

请记住,此偏置最小化器框架只是负责任众群的一个组成部分。看看我们的人群道德规范了解更多。

安全

数据安全和隐私是公司的另一个挑战。在开始项目之前,公司通常不会在数据策略或治理计划中犯错误。然而,数据比隐私问题更多。

通常,收集的数据作为bob网页版例如,操作包含敏感和机密数据,需要额外的安全措施。合适的数据合作伙伴将提供多种安全选项为满足您的特定需求,并拥有强大的安全标准,以确保您的客户数据适当处理。寻找符合行业特定或特定区域特定数据规则的数据合作伙伴,例如SoC2 II类,HIPAA,GDPR,CCPA,以及提供安全数据访问(对PII和PHI至关重要),安全注释和现场提供选项服务选项,私有云部署,内部部署部署和基于SAML的单点登录。

解释性

创建一个能够提供准确预测的人工智能模型只有在能够被客户解释、理解和信任的情况下才会成功。因为基于客户信息开发模型是常见的,客户将希望确保他们的个人信息被负责地收集、处理和安全地存储,有些人甚至希望了解如何使用这些信息的基础知识。

虽然最先进的AI应用程序解释起来更具挑战性,但你总是可以回到用于开发模型的训练数据,并从数据结构、输入和输出中提取一些可解释性。bob体育手机下载验证和再培训过程可以更清楚地说明您的模型如何做出预测并取悦您的客户。

影响

在追求任何AI努力之前,团队应该向围绕影响的关键AI道德问题提出:我的模型是什么?我的模型的创作会对我的业务有什么影响,建立我的模型的人,我的最终用户,社会?当我的模型做出错误的决定时会发生什么?

这些类型的问题将使您在最佳情况下开发对所有相关利益相关者的净积极影响的模型。但是,如果您避免这些问题或者不要以准确性回答它们,则可能面临意外后果。一种表现不佳的模型可能做出歧视性决定 - 例如,AI动力招聘工具,展示了对妇女或面部识别软件的偏见,这些工具难以识别较暗皮肤的面孔。

这些结果不仅对生产该模型的公司来说是有问题的,可能会面临声誉和收入的削弱,而且对最终用户和整个bob外围怎么样社会来说也是。在部署之前和之后检查模型的影响将确保你的AI模型能够成功地实现它们的目的。

ai伦理从数据开始

回答负责任的AI呼叫需要从头到尾都运用AI伦理视角。最重要的是,人工智能模型需要高质量的训练数据,这些数据负责地来自不同的贡献者群体,以便有效地bob体育手机下载工作。在整个模型构建过程中,甚至在部署之后,当模型漂移可能发生时,应该首先考虑最小化偏差。定期用新数据对模型进行再训练,有助于捕捉或防止偏差,并随着时间的推移保持模型的准确性。它确保模型继续按照预期的方式工作,避免引入对业务或消费者不必要的影响。

负责任的人工智能不仅仅是一个哲学概念,而是人工智能领域的每一家公司都必须采用的方法。bob外围怎么样当负责任地构建时,人工智能会更成功,并以一种让所有人受益的方式工作,无论他们的种族、性别、地理位置或背景如何。在Appen,我们致力于负责任的人工智能,与世界经济论坛合作,并拥有与多样化人群合作的悠久历史。在我们的从飞行员到生产电子书的责任ai

使用世界级的训练数据部署人工智能的网站bob体育手机下载
语言