性别歧视
-
一文教你使用python+Keras检测年龄和性别
目标本文的主要目的是通过给定的数据集检测年龄和性别。我们将使用简单的 python 和 Keras 方法来检测年龄和性别。介绍将摄像头、卫星、飞机以及日常生活中所拍摄的图像进行升级,称为图像处理。基于分析的图像处理经历了许多不同的技术和计算
-
Facebook搞种族歧视?其AI将黑人标记为灵长类动物
Facebook的人工智能在一段有关黑人的视频上误贴“灵长类”标签。据《纽约时报》报道,Facebook用户称其最近观看了一个来自英国小报的黑人视频,然而却收到了一个自动提示,询问他们是否愿意继续观看关于灵长类动物的视频
-
当年轻人开始谈论AI伦理:无处不在的算法歧视
赛博朋克的电影里,常常可以看到这样的构想:社会已经被财阀集团所控制,人工智能充当了统治的工具,所有人的行为都要遵循机器的逻辑、服从算法的规则。然后生活在社会最底层的主角,找到了其中的漏洞并尝试走出被操控的宿命
-
为什么不能是「她」?AI也要反性别偏见
提到性别偏见,别以为只有人才会产生偏见,事实上作为非生命体的AI系统,也可能因为设计者的疏忽,或者社会语料库本身的性别不公因素,而流露出性别偏见倾向。这当然不是设计者的本意,可是这种现象无可避免地会对部分用户造成观感不适。
-
美国五大科技巨头语音识别系统歧视黑人?网友给出新视角
近年来,随着人工智能概念的走红和落地,全球掀起了一股智能化风潮,为生物识别、机器视觉等产业的发展带来了巨大利好。目前,以语音识别、人脸识别为代表的生物识别技术在世界各国得到了广泛应用,并加速实现规模化商用
-
AI性别歧视有救,MIT研究人员给出减少AI预测偏差新方法
在社交媒体的应用场景中,人工智能算法模型的偏差导致搜索结果或用户体验不佳常常出现,甚至可以说是无法规避,如人们熟知的大数据杀熟等。
-
深度学习中存在的偏见和歧视问题,不容忽视
在人工智能上,一直存在“黑匣子”问题,深度网络具有高预测能力但可解释性不足的特点。在用大量数据“教导”机器学习的同时,研究者发现机器学习也会产生不可预测性的“偏见”。
-
AI也会性别歧视吗?
对于一直寻求智能化的亚马逊而言,仅在仓储和物流管理上使用AI技术是远远不能满足的,因此这项2014年启动的AI招聘原本是亚马逊探寻进一步智能化的实验,却偏偏出了篓子。
-
人工智能也有性别喜好?对女性有偏见?
近日,亚马逊人工智能招聘软件因收到大多简历来自男性,而做出了对男性候选人的偏好选择,据说它曾接受了十年的人工智能算法的数据训练。
最新活动更多 >
-
5月14日火热报名>> “大航海时代”,车企如何优化创新竞争力?
-
5月16日火热报名>>> OFweek锂电/半导体行业数字化转型在线研讨会
-
5月22日立即观看>> 蔡司-“质”敬明天线上峰会-电子行业主题日
-
5月22日火热报名中 >> 瓦楞行业张力控制解决方案在线研讨会
-
5月22日立即报名>>> OFweek 2024新周期显示技术趋势研讨会
-
限时免费下载立即下载>> OFweek 2024锂电产业高质量发展蓝皮书