快速发布求购 登录 注册
行业资讯行业财报市场标准研发新品会议盘点政策本站速递

AI也会“偏心”?人工智能还需和社会一同进步

仪表下游 2021年06月23日 15:15:12来源:仪表网 26121
摘要AI技术发展中出现的诸多公平性问题,其实是映射了人类社会中本已存在的歧视和偏见。

  【仪表网 仪表下游】导读:AI技术发展中出现的诸多公平性问题,其实是映射了人类社会中本已存在的歧视和偏见。
 
  2014年,亚马逊公司启动了一个通过AI技术开展自动化招聘的项目。这个项目完全基于求职者简历提供的信息,通过AI算法进行评级。然而,第二年亚马逊便意识到这个机器脑瓜并不像想象中那样公平公正——它似乎在歧视女性!当一份简历中出现“women”等字眼时,在打分上就会吃亏。
 
  AI的公平性问题,本质上并非来源于技术本身,而是来自人心,也就是说,其本源是社会的公平性。AI技术从算法和系统的设计,走向社会的应用实践,这个过程涉及方方面面的人,在很多环节,都有可能有意或无意地引入歧视和偏见。
 
  除了不同人群间的公平问题,AI公平还涉及到开发者和使用者之间的不平等问题。大量APP在使用时会出现一个“知情同意”的选项,这个知情同意书往往少则上千字,多则上万字,大量的信息让消费者无力长时间阅读,只好选择同意,否则只能退出。
 
  总体来讲,AI技术的高度发展对公平性的提升是有利的。首先在技术的加持下,教育、医疗等重大领域在资源供给的数量和质量上都会有极大提升,供给侧的繁荣有助于缓解社会资源分配不均;其次,随着大数据的连接,人们有机会在全局层面上提炼主要矛盾,探讨公平问题,进而达成社会共识。
 
  人工智能是研究、开发用于模拟、延伸和扩展人的智能的理论、方法、技术及应用系统的一门新的技术科学。人工智能是计算机科学的一个分支,它企图了解智能的实质,并生产出一种新的能以人类智能相似的方式做出反应的智能机器,该领域的研究包括机器人、语言识别、图像识别、自然语言处理和专家系统等。人工智能从诞生以来,理论和技术日益成熟,应用领域也不断扩大,可以设想,未来人工智能带来的科技产品,将会是人类智慧的“容器”。人工智能可以对人的意识、思维的信息过程的模拟。人工智能不是人的智能,但能像人那样思考、也可能超过人的智能。
 
  作为AI从业者、开发者、运营者的我们,一定要意识到:我们所开发的AI既可能被用来促进社会公平和消除歧视,也有可能被滥用,甚至助纣为虐。
 
  人们开发了很多工具,包括分析数据集形态和质量的工具,能让开发者、工程师清楚地看到他们用于训练的数据特征的分布,比如性别、年龄等等,至少要满足统计学意义上的合理分布,从而减少潜在的偏见;还有分析算法模型的工具,可以对模型的公平性进行评估,并做出相应纠偏和优化;此外还有帮助开发者对决定模型输出的关键数据特征进行探索的工具;以及公平性约束条件下的算法训练工具等。
 
  AI公平性的一个重要方向是数据的可获得性和可使用性。就AI技术立法问题而言,法律既要解决形式上的公平、机会上的公平和程序上的公平,还要实现形式公平和实质公平的统一。应在时机成熟的时候推出综合立法。在这个过程中,既要考虑对个人数据的保护,也要考虑保护和创新之间如何形成平衡。
 
  资料来源:百科、中国科学报

我要评论
文明上网,理性发言。(您还可以输入200个字符)

所有评论仅代表网友意见,与本站立场无关。

版权与免责声明
  • 凡本网注明"来源:仪表网"的所有作品,版权均属于仪表网,未经本网授权不得转载、摘编或利用其它方式使用上述作品。已经本网授权使用作品的,应在授权范围内使用,并注明"来源:仪表网"。违反上述声明者,本网将追究其相关法律责任。
  • 本网转载并注明自其它来源的作品,目的在于传递更多信息,并不代表本网赞同其观点或证实其内容的真实性,不承担此类作品侵权行为的直接责任及连带责任。其他媒体、网站或个人从本网转载时,必须保留本网注明的作品来源,并自负版权等法律责任。
  • 如涉及作品内容、版权等问题,请在作品发表之日起一周内与本网联系,否则视为放弃相关权利。
  • 合作、投稿、转载授权等相关事宜,请联系本网。联系电话:0571-87759945,QQ:1103027433。
广告招商
今日换一换
新发产品更多+

客服热线:0571-87759942

采购热线:0571-87759942

媒体合作:0571-87759945

  • 仪表站APP
  • 微信公众号
  • 仪表网小程序
  • 仪表网抖音号
Copyright ybzhan.cn    All Rights Reserved   法律顾问:浙江天册律师事务所 贾熙明律师   仪表网-仪器仪表行业“互联网+”服务平台
意见反馈
我知道了