您现在的位置是:首页 > 科技 > 正文

学生小组探讨了人工智能的伦理维度

发布时间:2024-06-29 07:30:04来源:

导读 多年来,科技行业采取了一种快速和突破性的方法,很少有人会想到市场上出现了一波惊人的通信和导航世界的新工具。 现在,随着对假新闻传

多年来,科技行业采取了一种快速和突破性的方法,很少有人会想到市场上出现了一波惊人的通信和导航世界的新工具。

现在,随着对假新闻传播,个人数据滥用以及机器学习算法大规模歧视的可能性日益增加的担忧,人们正在评估该行业的破产情况。三个麻省理工学院的学生,Irene Chen, Leilani Gilpin和 Harini Suresh,他们是新麻省理工学院人工智能伦理阅读小组的创始人, 进入这个清算时刻 。

这三个人都是电气工程和计算机科学系(EECS)的研究生,他们在硅谷工作过,他们亲眼目睹了如何以良好的意愿开发技术可能会出现严重错误。

“人工智能很酷,”陈在最近一个早晨在大堂7聊天时说。“它太强大了。但有时它会吓到我。“

创始人曾在课堂上和朋友之间就人工智能的承诺和风险进行了辩论,但他们在9月份 在剑桥机器学习研讨会上获得了谷歌赞助的 公平性。在那里,麻省理工学院的一位教授提出了一个伦理论坛的想法,并让这三个女人保持联系。

当麻省理工学院上个月宣布计划创建麻省理工学院斯蒂芬A.施瓦茨曼计算机学院时,他们启动了 麻省理工学院人工智能伦理阅读组。在施瓦茨曼宣布之后的热情中,超过60人参加了他们的第一次会面。

其中一位是麻省理工学院斯隆管理学院硕士生Sacha Ghebali 。他在麻省理工学院的金融课程中参加了必修的道德课程,并渴望了解更多信息。

“我们正在构建具有很大杠杆作用的工具,”他说。“如果你没有正确地构建它们,你可能会造成很大的伤害。你需要不断思考道德。“

在最近的一个晚上,Ghebali回到了第二晚的讨论之中。他们在空荡荡的教室里围着一堆披萨盒聚集在一起,因为吉尔平在去年春天重新开始致命的撞车事件而开始了会议,其中一辆自驾车的优步撞上了行人。吉尔平问道,谁应该承担责任,编程汽车的工程师或车轮后面的人?

随后进行了热烈的辩论 然后,当谈话转向道德应该如何教授时,学生们分成小组:要么作为一个独立的课程,要么整合到整个课程中。他们考虑了两种模式:哈佛,它将哲学和道德推理融入其计算机科学课程,以及硅谷的圣克拉拉大学,它在其入门数据科学课程中提供基于案例研究的伦理学模块。

“在CS课程中教授道德很难,所以也许应该有单独的课程,”一名学生提出。其他人认为道德应该整合到每个技术培训层面。

“当你学习编码时,你将学习一个设计过程,”EECS研究生Natalie Lao说,他帮助为K-12学生开发人工智能课程。“如果你将道德规范纳入你的设计实践,你就会学会将道德规范内化为你工作流程的一部分。”

学生们还讨论了是否应考虑最终用户以外的利益相关者。Suresh告诉小组说:“当我正在建立与所有会影响的人交谈时,我从未接受过教育。” “这可能非常有用。”

1922年的计算机科学与电子工程教授Abelson说,该研究所应该如何在麻省理工学院施瓦茨曼计算机学院教授伦理学,他帮助启动了该小组并参加了两次会议。“这真的只是一个开始,”他说。“五年前,我们甚至没有谈论人们关闭汽车的方向盘。”

随着人工智能的不断发展,安全和公平问题仍将是最重要的问题。在麻省理工学院的研究中,伦理阅读小组的创始人同时开发工具来解决小组中提出的困境。

吉尔平正在创建方法和工具,以帮助自动驾驶汽车和其他自动机器解释自己。她说,要让这些机器真正安全且受到广泛信任,他们需要能够解释自己的行为并从错误中吸取教训。

Suresh正在开发算法,使人们更容易负责任地使用数据。在与Google的暑期实习期间,她研究了在Google新闻和其他基于文本的数据集上训练的算法是如何学习某些功能以学习偏见的关联的。她说,识别数据管道中的偏见来源是避免下游应用程序中更严重问题的关键。

Chen,以前是DropBox的数据科学家和参谋长,负责开发用于医疗保健的机器学习工具。在一篇新论文“ 为什么我的分类器歧视”中,她认为AI预测的公平性应该通过收集更多数据来衡量和纠正,而不仅仅是通过调整模型。她下个月在世界上最大的机器学习会议神经信息处理系统上发表论文。

“Dropbox的许多问题,以及现在我在麻省理工学院的研究,都是全新的,”她说。“没有剧本。处理人工智能的一部分乐趣和挑战是你随时都在努力。“

人工智能小组于11月28日和12月12日举行了本学期的最后两次会议。

标签:

上一篇
下一篇