<kbd id="sbw59nnw"></kbd><address id="z156t2l4"><style id="5rb0uz5s"></style></address><button id="vyft8aif"></button>

          校友蕾妮卡明斯'06进步社会正义与人工智能的眼睛

          校友蕾妮卡明斯'06进步社会正义与人工智能的眼睛

          校友蕾妮卡明斯'06进步社会正义与人工智能的眼睛

          校友蕾妮卡明斯'06通过最前沿的方式可能一个向前推进的社会公正问题的针,研究人工智能(活性成分)技术,以促进问责制,透明度,安全和人权的刑事司法系统。度过了她的生活工作的最后十年如在刑事司法和执法领域的国际顾问后,卡明斯现在是在犯罪的世界作出新的进展作为活性成分伦理学家。 “当涉及到刑事司法,我们在人工智能的时代,”卡明斯说。 “为社区了解人工智能和刑事司法系统,以及您的数据可能对你进行武器化之间的关系是很重要的。”

          “当涉及到刑事司法,我们在人工智能的时代。”-renée卡明斯

          成为社会正义的倡导者
          在特立尼达和多巴哥长大,卡明斯找到了灵感,她的母亲,谁曾担任特立尼达和多巴哥外交官,和她的父亲,一个公众人物和著名国际足球运动员。 “我来自一个家庭中,教育是非常重要的。不仅是学者,但教育,你给自己,比如你的意识,意识,和你的地方的理解和在世界上的定位,”她说。 “当我23岁来到美国,我在想新的方法来重塑自己。”

          她赢得的学士学位,硕士学位和亨特学院药物滥用辅导度后,卡明斯发现自己吸引到物质滥用和刑事司法系统之间的连接。 “我想知道什么会导致人们对刑事司法系统,以及是否刑事司法系统是在对待谁曾成瘾者的公平。导致我og游戏官网平台,”卡明斯说。在og游戏官网平台,她发现了一个激情的刑事司法,犯罪学,和少年司法。但它是帮派类和社会学教授戴维·布拉泽博士教社区,这将改变她的人生轨迹。 “博士。布拉泽是谁深深从事他所从事的工作,并在建立他的作品影响了社区的教授。他走进那个类的第一天,他刚刚翻剧本上的一切,我们认为我们知道团伙。这更让我体会到了社区的在社区帮派和帮派的作用,说:”卡明斯。 “我走进og游戏官网平台了解刑事司法系统和我来到og游戏官网平台出作为社会正义的倡导者。”卡明斯获得了硕士学位,刑事司法与恐怖主义研究研究生证书,让og游戏官网平台与奉献给保护人权。

          “我走进og游戏官网平台了解刑事司法系统和我来到og游戏官网平台出作为社会正义的倡导者。”-renée卡明斯

          进入活性成分的领域伦理
          在她作为一个国际顾问工作,卡明斯训练的警察,执法人员,法官,刑事司法从业人员,以及许多其他官员的刑事司法系统。 “我的专长是凶杀案的调查重点是减少杀人和枪支和帮派暴力。”而与警察在试图创建干预和解决方案,以减少犯罪和犯罪的合作,卡明斯看到短语“算法决策系统”和“人工智能”多次在报告和调查研究。钻研更深,她发现算法的决策系统是用于制造系统,影响人们的生活决定临时代办注入风险评估工具。 “因为我离开og游戏官网平台是这个人致力于社会正义,我意识到,这些算法和他们是如何在维持治安,判决和校正被高估再犯风险和拒绝假释的人所使用。有没有办法,这些人谁面临刑事司法系统了解种,正在对他们作出的决定。”

          卡明斯了解,收集和使用的有关人的行为和所使用的高科技企业创造算法信息大数据大集系统,应该要求的道德准则,特别是保障系统影响的人群和有色人种社区。 “的活性成分伦理学家是一个人的时候应用到社会谁在人工智能的伦理样子。一些我都集中在东西都是隐私问题,当它涉及到使用您的数据和问责制。如何交代是这些活性成分解决方案,工具和技术,当涉及到使用您的数据?如何这些活性成分系统决策?什么我们看到的是,这些系统有这样的被歧视有色人种的偏见“。致力于为社会和种族正义,卡明斯感到不得不采取行动。 “这些算法是服事正义真的需要被审问。这就是我开始做“。

          “怎么交代是这些活性成分解决方案,工具和技术,当涉及到使用您的数据?如何这些活性成分系统决策?”-renée卡明斯

          理解的透明度活性成分的重要性
          “透明度和问责制是至关重要的,”卡明斯说,扩大对算法的决策系统是如何在真实的方式影响生活。 “在编码过程中,有隐藏的偏差,例如全身种族主义,全身歧视,体制歧视,被烘焙到数据集。例如,当我们听说在美国“福利妈妈”时,图像变出是一个非洲裔或latinx女人谁住在纽约市的项目建设,是谁在橘滋天鹅绒西装搭配大打扮华丽的珠宝,织物以及假睫毛。但是,当你看看统计数据,有更多的白人妇女在美国农村的福利比黑色和latinx妇女。这些预制的概念渗透到数据,解释说:”卡明斯。 “什么我们看到的是活性成分编纂无意识的偏见和种族主义的系统性。 racializing通过这些风险评估系统的预测。该技术是创造一种新型的制度歧视“。她认为,如果正在使用这些系统,以维护法律的不同数据集和透明度,应符合规定。 “算法决策系统需要给的一份报告说,“这就是为什么作出决定。这些都是我们用来拿出这一决定的变量。”我们现在看到的,在脆弱的,边缘化和欠发达社区使用这些技术相关的危险。高科技公司正在重新思考监视技术和全身种族主义的背景下其对色彩的社区的影响“。

          “我们现在看到的,在脆弱的使用这些技术,被边缘化和欠发达社区相关的危险。”-renée卡明斯

          赋予社区
          认识到数据的固有特权和权力,卡明斯说,“你在如何收集的数据一定要看看。如果你认为美国与针对有色人种的种族主义历史的国家,你会觉得出来的刑事司法系统的数据自然会反对有色人种的偏见。我已经看到了监控技术在色彩和其影响的社区的部署。头号一直面部识别技术,”卡明斯说,钻研技术如何目前无法准确评估有色人种和妇女进一步创建伤害这些人群的偏见。 “色彩的社区仍然是最被这种监管干预的影响。”卡明斯认为,知识是在这种情况下键。 “这些社区需要建立自己的理解,他们需要被教育,和社区需要得到授权,当涉及到数字化监管。因为这种技术太新,我们不知道的一切,我们需要了解的活性成分我们必须确保有在警察的道德地使用数据,以及如果需要推回保护公众利益,那么它需要实时发生的。”

           

           

              <kbd id="z2uho429"></kbd><address id="f4lhrlt9"><style id="a7wa0yz4"></style></address><button id="v4iw7lry"></button>