您好,欢迎来到三六零分类信息网!老站,搜索引擎当天收录,欢迎发信息
免费发信息
三六零分类信息网 > 黄冈分类信息网,免费分类信息发布

在企业中推动文明人工智能的六个建议

2019/6/18 9:42:55发布105次查看

由于“文明人工智能”尘嚣甚上,顾问们建议人们采取各种步骤,以创建公平和公正的算法。这暗地里说明世上没有什么灵丹妙药。
人工智能(ai)可能是数字时代最具颠覆性的技术,因为企业正在研究如何利用机器学习(ml)和其它人工智能工具来挖掘客户洞察,发现人才和保护企业网络。虽然it部门可以快速推出大量技术并从中受益,但有证据表明,首席信息官在实施人工智能时应该格外小心,包括采用涉及到浓厚道德因素的技术。
为什么呢?因为人工智能颇受偏见问题的困扰。有这样一个例子,亚马逊废弃了一个招聘工具,因为它未能对从事软件开发工作和其它岗位的女性做出公正的评价。还有一个例子,麻省理工学院和多伦多大学的研究人员发现,亚马逊的面部识别软件将女性(尤其是皮肤黝黑的女性)误认为男性。
人工智能中存在很多偏见
亚马逊并不是唯一的例子,因为人工智能问题已经出现在其它公司和其它高风险领域。脸书的程序经理在测试公司的portal视频聊天设备时遇到了算法歧视。propublica表明,美国各地用来预测未来罪犯的软件对非洲裔美国人存在偏见。加州大学伯克利分校对金融科技所做的研究发现,拉丁美洲和/或非洲裔美国人在使用了面对面决策和算法的抵押贷款中要支付更高的利息。
同样值得关注的是与边缘情况有关的歧视,这种偏见十分隐秘。在“替代性歧视”中,邮政编码可能会成为种族的替代品;词语的选择则可能成为性别的替代品;如果你加入一个讨论基因突变的脸书小组,那么你的健康保险成本很可能会增加,即便这样的信号尚未明确编入算法中。
很明显,人工智能受到能对物理世界产生影响的数字化偏见的困扰。毕竟,算法是“人类设计的产物”,它继承了人类的偏见,纽约大学ai now研究所的联合创始人kate crawford这样说道。ieee spectrum称,这种偏见可以持续数十年。
因此,it领导者越来越关注“可解释的”人工智能。他们渴望得到能明确表达结果的算法,这些算法在理想情况下能满足监管机构和企业高管的需求。但由于存在固有的偏见,也许他们真正需要的是“文明人工智能”,或者完全不偏不倚地运作的算法。
使用伦理学消除人工智能偏见:六个建议
随着首席信息官加快对人工智能的采用,采取小心谨慎的方法至关重要。gartner于2019年对3,000名首席信息官所做的调查显示,采用人工智能的企业数量从4年前的10%上升至37%。短期内,公司应该尝试基于其对人工智能的使用制定道德规范。德勤、简柏特(genpact)和峡湾(fjord)的专家讨论了企业应该如何合理地推进人工智能的部署。
董事会和利益相关者都参与进来
由于与人工智能相关的道德问题可能对公司的声誉、财务和战略带来巨大且长期的风险,因此首席信息官应与董事会合作,以减轻与人工智能相关的风险,德勤美国的创新团队的董事总经理david schatsky如是说。如果要将道德规范融入人工智能,首先要确定这对利益相关者(包括客户、员工、监管机构和公众)有何重大意义。schatsky说:“组织必须参与其中并公开利益相关者的身份。”
成立“数字伦理”小组委员会
董事会已经有审计委员会,风险委员会和技术委员会,但现在也许该增加一个致力于人工智能事务的委员会,为企业设计和实施各种技术的简柏特的首席数字官sanjay srivastava如是说。这样一个“数字伦理”委员会必须由跨职能领导者组成,因为他们可以与利益相关者合作,从而帮忙设计和管理人工智能解决方案。该委员会还必须熟悉与人工智能相关的法规。在接受简柏特调研的公司中,95%表示,它们希望为消除人工智能偏见而努力,但只有34%采取了治理和控制措施。srivastava说:“我们建议客户尽快行动。他们虽然有这样的意识,也明白其中的道理,但他们没有实施治理和控制。”
利用设计思维
埃森哲峡湾设计咨询公司的董事总经理shelley evenson表示,无论公司是在内部创建人工智能还是购买商业工具,它们都应该使用设计思维来打造解决方案,因为这有助于解决算法中可能存在的偏差。虽然使用天气和社交媒体方面的征兆来预测销量或产品需求的内部应用程序没什么危害,至少没有那些能对员工和客户产生直接影响的征兆危害那么大,为设计技术的过程着想是一个很好的方法。
利用技术消除偏见
企业人工智能开发人员还必须接受培训,以测试和修复无意中将夹带了偏见的系统,这些偏见使用户或其他受影响的各方受到不公平的待遇。公司还可以利用各种工具来检测数据变量与敏感变量(如年龄、性别或种族)相关联的工具,以及评估和解释机器学习算法是如何生成输出结果的方法。例如,srivistava表示公司可以将数字“面包屑”插入算法中,从而跟踪决策过程。
对人工智能的使用保持透明
只要对人工智能的使用持公开透明的态度,公司就可以与利益相关者建立互信的关系。例如,schatsky说,智能体应该将自身当成人类,不是伪装成人类(如今很多聊天机器人仍在模仿人类)。公司还应披露对客户造成影响的自动决策系统的使用。在可能的情况下,公司应该清楚地对这一切做出解释:它们收集哪些数据,他们使用这些数据来干什么,以及这些用法会对客户形成怎样的影响?。
缓解员工对失业的焦虑
人工智能将在多大程度上引发失业或改变工作,这目前尚不清楚,但公司应该开始对员工展开教育,让他们知道自己的工作可能会发生怎样的变化,并建议他们采取各种提升技能的方法,从而与时俱进。这包括对工人进行再培训,因为他们的所做的事情将被自动化——或给他们时间寻找新的工作。例如,由于机器人过程自动化(rpa)渐渐开始处理低级的任务,保险公司state auto正在训练员工处理更复杂的理赔工作。
最重要的因素
schatsky说,这一切都不容易,主要是因为人们没有在某些情况下或与某些利益相关者就道德标准达成充分的共识。schatsky说,无论采用何种方法,企业要采取行动而不是“等待人工智能相关法规出台”,这才是明智之举。
政府正朝着这个方向努力。欧盟委员会于4月就组织应如何开发人工智能(ai)的道德应用发布了一系列指导方针。两天后,美国政府提出了《2019年的算法责任法案(algorithmic accountability act)》,以处理高风险的人工智能系统,例如能根据敏感的个人数据检测人脸或做出重要决策的技术。
无论监管在未来会是什么样子,首席信息官尚有时间来解决问题。目前,由于数据匮乏,而且数据质量有问题,企业人工智能的采用受到阻碍;机器学习建模师、数据科学家和其它领域的人工智能专家十分稀缺;结果十分不确定;当然,o’reilly的一项调查指出,还有各种道德问题和偏见。
o'reilly发现,金融服务、医疗和教育部门占采用人工智能的企业的58%,而电信、媒体以及娱乐业、政府机构、制造业和零售企业各占4%。

黄冈分类信息网,免费分类信息发布

VIP推荐

免费发布信息,免费发布B2B信息网站平台 - 三六零分类信息网 沪ICP备09012988号-2
企业名录