当前位置:新励学网 > 秒知问答 > 2月25日算法偏差是当代人工智能技术众所周知的争议之一

2月25日算法偏差是当代人工智能技术众所周知的争议之一

发表时间:2024-05-26 10:17:31 来源:网友投稿

长期以来,我们认为人工智能不会基于偏见做出主观决定。但是机器学习算法从训练数据中发展出它们的行为,它们反映并放大了这些数据集中包含的任何偏差。

有很多算法偏差的例子,比如本文开头列出的例子。其他案例包括一项研究,该研究表明流行的基于人工智能的面部分析服务对浅色皮肤的男性更准确,而对深色皮肤的女性错误更多。

为了防止对某些群体的不公平偏见,EC 的指导方针建议 AI 开发人员确保其 AI 系统的数据集具有包容性。

问题是,AI 模型通常在公开可用的数据上进行训练,而这些数据通常包含社会中已经存在的隐藏偏见。

例如,波士顿大学的一组研究人员发现,对在线文章进行训练的词嵌入算法(用于机器翻译和在线文本搜索等任务的 AI 模型)产生了隐藏的偏见,例如将编程与男性联系起来,将家庭主妇与女性联系起来。同样,如果一家公司使用其当前员工的个人资料来训练其基于人工智能的招聘工具,它可能会无意中推动其人工智能复制其当前招聘人员的隐藏偏见和偏好。

为了解决隐藏的偏见,EC 建议开发人工智能系统的公司雇用来自不同背景、文化和学科的人员。

然而,需要注意的一个考虑因素是公平和歧视通常取决于领域。例如,在招聘时,组织必须确保他们的人工智能系统不会做出决定。但在医疗保健等另一个领域,在诊断患者时必须考虑性别和种族等参数。

免责声明:本站发布的教育资讯(图片、视频和文字)以本站原创、转载和分享为主,文章观点不代表本网站立场。

如果本文侵犯了您的权益,请联系底部站长邮箱进行举报反馈,一经查实,我们将在第一时间处理,感谢您对本站的关注!