首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往
  • 您找到你想要的搜索结果了吗?
    是的
    没有找到

    【KDD2022教程】图算法公平性:方法与趋势

    来源:专知本文为教程介绍,建议阅读5分钟算法公平性是一个有吸引力但又具有挑战性的研究课题。 图是一种普遍存在的数据类型,出现在许多现实世界的应用中,包括社会网络分析、建议和财务安全。尽管这很重要,但几十年的研究已经发展出了丰富的计算模型来挖掘图表。尽管它很繁荣,但最近对潜在的算法歧视的担忧有所增长。图上的算法公平性是一个有吸引力但又具有挑战性的研究课题,它旨在减轻图挖掘过程中引入或放大的偏差。第一个挑战对应于理论挑战,图数据的非IID性质不仅可能使许多现有公平机器学习研究背后的基本假设失效,而且还可能基于

    03

    面对人工智能发展的伦理挑战:应对策略与未来方向

    人工智能飞速发展的同时,也逐渐暴露出侵犯数据隐私、制造“信息茧房”等种种伦理风险。随着AI技术在社会各个领域的广泛应用,关于AI伦理和隐私保护问题日趋凸显。尽管国外已出台系列法规来规范AI的使用,保护个人隐私和数据安全,但如用户被区别对待的“大数据杀熟”现象、AI在辅助医疗诊断和就业筛选中表现出的歧视、基于深度伪造技术制作假信息等引发的社会问题仍层出不穷。这些事件引发了公众对于AI决策透明度、算法公平性和个人隐私权的重大关注。面对AI发展下的这些伦理挑战,我们应当如何应对呢?在推动AI技术发展的同时,制定AI治理框架,建立有效的隐私保护机制是当前亟需解决的重要议题。对此你有什么想法?

    01

    当谈论机器学习中的公平公正时,我们该谈论些什么?

    随着人工智能系统和应用程序在我们日常生活中的广泛应用,人工智能已经成为了辅助人们决策的重要工具,例如,使用推荐系统算法做出电影推荐、购买产品推荐等,使用预测和分析系统用于贷款申请、约会和雇佣等高风险决策。美国法院使用了一款人工智能软件—「选择性制裁罪犯管理档案」(Correctional Offender Management Profiling for Alternative Sanctions,COMPAS),用于预测一个人再次犯罪的风险,辅助法官决定是释放罪犯,还是把罪犯关进监狱。对该软件的一项调查发现了对非洲裔美国人的一种偏见:相较于白人罪犯,COMPAS 更有可能给非洲裔美国人罪犯打出较高的潜在风险分数,从而不予以释放 [1]。

    02
    领券