首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往
您找到你想要的搜索结果了吗?
是的
没有找到

机器学习—通过 APP 预测用户性别

大意是根据用户所安装的 APP (加密)预测用户的性别,训练数据标记 label (性别),典型的监督学习方案。 数据描述 下载之后,解压成为文本文件。...第一列是用户编号(已经脱敏,转化成1 ~1,200,000的编号) 第二列是用户的性别 (male/female) 第三列是用户的移动设备类型 第四列是用户的 APP 列表,每个 APP 已经脱敏...性别是结果数据。 方案 首先分析数据,一共有机型、APP、区域三个维度。...性别可能对 APP 和机型有偏好,但是不能对区域有偏好,而是不同的区域可能对 APP 有不同的偏好,比如某省用户偏爱直播,某省用户偏爱交友等等。...技术方案:Python + scikit-learn + pandas + numpy 环境搭建使用 Anaconda 代码地址 项目难点 项目困难主要出现在 APP 降维,也就是判断哪些 APP 与性别相关

1.8K30

人工智能的“性别”研究

如果人工智能是人类智能的模拟,那么它模拟的是谁,它有性别吗?...无论你认为性别是由一个人所处环境和所受文化构成的社会结构,还是从本质论角度来看的生物性决定因素,亦或者,是坚持个体差异理论决定的,怎样都好,不可否认的是,性别很重要。...从事某一职业的机会,我们的汽车导航系统是否识别或忽略我们的语音命令,性别都占据着一定的影响。在人工智能研究领域,女性化身最常用来扮演虚拟助手。这使得一种观点永久化,即帮助类角色最好由女性来扮演。...但是,鉴于目前的性别差距,这并不是一个简单的轻松任务。 在全球范围内,女性在工程和信息技术教室和工作场所的比例偏低,在印度约为30%,在其他国家则明显更低;这导致产品和技术的设计大多以男人为本。

75220

AI也会性别歧视吗?

一向被认为最客观的技术,竟然也发生了性别歧视。 策划&撰写:巫盼 申小姐 AI不乖了。 今天路透社踢爆了亚马逊用AI进行招聘,进而引发的可能歧视女性的新闻。...在这项工具使用不长时间后,亚马逊发现他们使用AI系统的时候并未对软件开发人员和其他技术职位求职者进行性别中立的评估。 这里面就存在两个可能性问题,一是样本问题,二则是AI系统有极大的BUG。...其次,在被提交的样本中,亚马逊的系统采用了特别标志,会特别标志出“女性”,这在不经意间已经对样本有了“性别歧视”。 最后,虽然亚马逊对AI招聘的程序进行了修正,试图确保对特定术语保持中立。...可能是性别、也有可能是学校、甚至可能是个人兴趣和生活习惯。 WHATEVER,这个锅,AI逃不掉。 这不是AI第一次陷入“性别歧视”的风波中。...这显然不是程序的BUG,而是AI算法本身的问题,它自动的将女性和某些特定的元素联系在一起,比如站在厨房烧饭的就一定是女性,最终形成了关于女性的“刻板成见”,甚至是某种性别歧视。

53720
领券