订阅
纠错
加入自媒体

当AI开始保护她

当AI被把握在女性手中

AI不能理解语境吗?显然不是,大量涉及到长本文语义理解的算法就是干这个的。只不过面对性别侮辱这类相对复杂的语境,需要大量的训练样本和反复调试。

当得不到Twitter的支持时,大赦国际做了两件事:

第一是找了6500位志愿者,在推特上分别寻找收集那些侮辱女性的言论和正常言论,作为标注数据累积,建立起了全世界最大的“仇女言论”数据集。

第二是找到Element AI,一家提供AI既服务的创业企业,利用数据进行训练和分析,最终得出了上述完整的数据,并且训练出了一个可以判断女性侮辱言论的神经网络模型。大赦国际在报告中提出,目前这一模型的准确度已经达到了50%,并且还在不断提高中。

当然最后的结局没有人们想象中那么美好,Twitter并没有直接采用模型,借此保护平台上的女性用户。但通过这两件事,大赦国际明确了自己的需求,给Twitter提了很多富有价值的意见,例如Twitter应该改进举报机制,让关于女性侮辱的举报可以得到更多重视;Twitter应该更加清晰的解释平台过滤算法如何运行,如何识别那些针对女性的语言暴力;Twitter应该加强对女性用户的教育,提醒她们如何保护自己;更重要的是,Twitter应该更多的公开相关数据,让更多人知道女性正在社交媒体上承受着更多压力。

打破技术即权力:保护她和他们的AI

这件事情其实带来了一个非常有趣的思考:当AI发展的愈发成熟,技术即权力的魔咒是不是正在被默默打破?

女性如今之所以处在一个让她们略感不适的地位之中,很大一部分原因在于对技术的掌控不如男性,所以她们不能创造和男性一样多的价值。千百年前女性不知道如何开垦更多土地种植粮食;几十年前女性不知道如何使用电脑;到今年女性不知道Twitter的算法为什么不能过滤掉那些仇恨言论。

而随着科技的发展,阻碍女性获取技术的门槛正在逐渐被磨平。从生理结构上天然的体力差别,到社会和家庭身份对于时间的占用,直到今天。

我们发现,号召志愿者收集数据,加上一家愿意帮忙的AI服务企业,女性可以轻易打破Twitter的“男权谎言”——你说算法做不到?她们就去证明算法可以做到。

当AI模型的开发越来越走向低门槛,当谷歌和百度都在推出小孩子都能使用的模型训练平台,这便意味着(综合来看)开发经验更少的女性群体也可以创造和利用AI的技术能力。

这也是AI作为工具而言最重要的价值,将以往高密度的经验与智慧集成为人人可以利用的算法,让马路杀手像老司机一样行驶在路上,让分不清PS和Photoshop的人也能拍出好照片。如今对于算法开发过程的简易化,更加提升了AI的工具价值。让我们感到欣慰的,不仅仅是女性开始利用AI的力量保护自己、为自己发声,而是大赦国际的成功是可以复制的,除了那些在社交媒体上被辱骂的女性,其他的弱势群体其实也可以利用类似的方式发出声响和自我拯救。

AI正在保护她,并且还可以保护他们。(作者:脑极体)

<上一页  1  2  
声明: 本文系OFweek根据授权转载自其它媒体或授权刊载,目的在于信息传递,并不代表本站赞同其观点和对其真实性负责,如有新闻稿件和图片作品的内容、版权以及其它问题的,请联系我们。

发表评论

0条评论,0人参与

请输入评论内容...

请输入评论/评论长度6~500个字

您提交的评论过于频繁,请输入验证码继续

暂无评论

暂无评论

人工智能 猎头职位 更多
扫码关注公众号
OFweek人工智能网
获取更多精彩内容
文章纠错
x
*文字标题:
*纠错内容:
联系邮箱:
*验 证 码:

粤公网安备 44030502002758号