滚动
财经>财经要闻

基于人工智能的LGBTQ群体性倾向检测

2019-08-28

基于人工智能的LGBTQ群体性倾向检测

Artificial Intelligence
2017年6月7日,在瑞士日内瓦国际电信联盟(ITU)举行的“AI for Good”全球峰会上,Sophia是一个整合了Hanson Robotics开发的最新技术和人工智能的机器人。 路透社/ Denis Balibouse

根据上周发表的一项研究,在涉及人工智能(AI)时,检测性取向可能不是一个相关的问题,但科学家正在研究它。 自从这项研究脱颖而出以来,它一直面临着LGBTQ团体的强烈反对。

该研究表明,它可以准确地区分同性恋和异性恋男性的81%的时间,以及同性恋和异性恋女性之间74%的时间。

该研究引起了LGBTQ倡导团体的骚动,如同性恋反诽谤联盟(GLAAD)和人权运动(HRC)。

这些研究小组称这项研究为“一项危险且有缺陷的研究,可能对世界各地的LGBTQ人造成伤害。”

,研究人员从美国交友网站上选择了这些 。 研究人员使用一种称为逻辑回归的技术,该技术使用因变量来预测结果。 它不仅使用发型和穿孔等瞬态功能,还使用鼻子形状等固定功能。 这种方法似乎存在争议,因为这种固定特征的分析已被证明远非准确。

但是,当研究人员使用一组新图像测试人工智能时,它能够在61%的时间内为男性预测正确的结果,并为女性预测54%的时间。 当它被呈现出同一个人的不同图像时,研究人员声称它能够在男性的91%的时间和女性的83%的时间内获得正确的结果。

该方法还存在其他缺陷,因为从约会网站中挑选图像并不能保证准确性,因为大多数人只会在这些平台上放置最好的图像。

但也有更大的问题,因为这项研究实际上可以很容易地用于歧视。

“技术无法识别某人的性取向。 他们的技术可以识别的是一种模式,在约会网站上发现了一小部分白人同性恋者,他们看起来很相似......这项研究不是科学或新闻,而是对约会网站上忽视大片段的美容标准的描述LADAQ社区,包括有色人种,变性人,老年人和其他不想在约会网站上发布照片的LGBTQ人,“GLAAD首席数字官Jim Halloran在一份 。

GLAAD和HRC也称这项研究不准确,因为它只承认两种性取向。

与此同时,研究人员发表了一份作者的说明,称他们的研究已经过 。 他们认为LGBTQ群体正在沉迷于对该研究的“诽谤运动”。 虽然说他们也承认他们的研究是有限的 - 它只关注自我报告为同性恋或直接的白人 - 他们还说任何解雇研究的人都应该在这样做之前考虑证据。


载入中...

责任编辑:单薨