您的位置首页 >互联网资讯 >

关于机器学习中的人为偏见我们可以做一些事情

凭借其科学的算法,我们相信机器人能够提供中立,公正,公正的答案。由于他们应该摆脱不公正的人类偏见和过去经验的过滤,因此我们认为,就像2 + 2 = 4一样,数学公式是黑白的。相反,我们发现创建这些算法的数据科学家具有自己的潜意识偏见,这些偏见被巧妙地过滤掉在算法内部并根据这些易感性采取行动。更令人振奋的是,即使在发展阶段没有偏见,机器也正在从他们对我们社会的歧视性底色中学习。

当我们使用Google搜索CEO的图片时,我们会看到这种偏见在起作用,白人男性的出现明显多于女性或少数族裔,而高薪工作的搜索结果在男性看来比女性更多。一种旨在预测某人未来犯罪可能性的算法变得不公平地种族主义。波士顿大学和微软新英格兰大学的研究人员发现,机器将“程序员”一词与“男人”一词联系起来,而不是“女人”一词,而与“女人”一词最相似的词是“家庭主妇”。

人工智能的预测能力创造了解决方案。

人工智能(AI)迫在眉睫。麦肯锡的研究反映了人工智能的重要性,该研究发现,2016年人工智能的年度外部总投资在80亿美元至120亿美元之间。随着其收集海量数据的能力不断增强,人工智能迅速将这些信息转化为可操作的见解,从而提供了重要的信息战略优势。聊天机器人可以比人类更快地找到客户查询的答案,诊断疾病并做出可以推动产品创新的准确预测。预测数据可用于检测欺诈或将失业者与利用其技能的可用工作进行匹配,并解决复杂的交通问题。

聊天机器人是否反映了有偏见的世界?

看来,最直接的解决方案是培训程序员,使他们不要无意间编写代码或使用有偏见的数据。正如Beauty.AI所了解的那样,在开发阶段很难分辨出中立性,因为它的第一台机器判断选美比赛的结果导致所有人都拥有白皙的皮肤。开发人员意识到机器没有被教给识别皮肤黝黑的人之后才意识到。

开明的开发人员还不够。

创建公平,平衡的算法至关重要且必不可少,但仅反映了解决方案的一部分。机器可能具有隐藏的偏见,无论它们是否源自设计师的任何倾向。机器不断从外部数据中学习以更好地完成任务。我们正在设计思考和学习的机器。持续改进的极端例子是埃隆·马斯克(Elon Musk)的场景,受过训练以消除垃圾邮件的机器人最终可能会学会消灭创建垃圾邮件的人。尽管我们离极端还很远,但重要的是要了解AI使用的算法取决于使用神经网络的深度学习。无论原始代码是多么纯净,这些机器将总是容易复制与世界交往时所看到的偏见。

在微软的Tay聊天机器人模仿了它在Twitter上阅读的内容之后,无论这种行为多么恶毒,这种学习方式都是显而易见的。Tay受到种族主义推文的影响不到24小时。随着Tay通过对话和对话的学习和参与,它很快学会了使用这些陈述来操纵自己的种族主义推文。

人工智能可以永久并加强已经存在的偏见。例如,如果一个组织传统上聘用了男性CEO,那么经过训练以寻找未来CEO的机器人将根据表明以前的CEO是男性的真实数据,回顾过去寻找可能的候选人。该机器将使用男性应聘者作为有资格工作的人的预测指标。

正如我们在没有冲突观点的新闻提要中所经历的那样,仅提供与之前数据“相似”的结果的算法会产生自己的泡沫。没有对立的观点,我们缺乏必要的见识,无法做出能够促进创造力和创新的重大决策。

价值调整是一项可教导的技能。

佐治亚理工学院交互式计算学院计算学院副教授Mark O. Riedl提出了一种有吸引力的解决方案Quixote,该方案涉及将机器人浸入文学中。在他的论文,他提出了在人工智能AAAI会议,他解释说,强有力的价值观,可以得知,和“,即人工智能,可以阅读和理解的故事可以学习文化默认保存的值从故事起源。”他解释说,故事是用隐性和显性的社会文化知识编码的,这些知识可以在机器人中建立道德基础,并可以教会机器人如何解决问题而又不伤害人类。

文学可能是模棱两可和深奥的,有史以来一些最伟大的书籍曾经被学校董事会认为是邪恶的,呼吁禁止使用。更为重要的问题是,作为一个社会,我们将如何就机器人的社会责任文献阅读材料达成共识?

人工智能不能代替人。

AI的目标从来没有取代人类,而是支持,扩大和启发。至少,AI开发人员可以扮演更积极的角色,以确保不会无意间产生偏差。在所有发展水平上仍然需要进行人为监督,并确保存在反对意见的健康组合,以鼓励多样性。另外,必须为每个人开发这些系统提供平等的机会。

郑重声明:本文版权归原作者所有,转载文章仅为传播更多信息之目的,如作者信息标记有误,请第一时间联系我们修改或删除,多谢。