与人工智能的好处一样强大,使用偏差数据和有缺陷的AI模型可能会造成很多损害。
斯坦福大学高级研究学者兼数字公民社会实验室主任露西·伯恩霍尔兹(图)表示,为了解决这一日益严重的问题,必须将人的价值观纳入整个数据科学过程。
她说:“ [价值观]不应成为单独的讨论主题。” “我们需要就以下内容进行对话:我们要为什么而努力,我们要保护谁,如何试图识别个人的人为因素,而这必须贯穿于整个数据科学之中。”
伯恩霍尔兹与之交谈索尼娅Tagare,theCUBE,SiliconANGLE Media的移动即时串流工作室主持人的女性数据科学大会在斯坦福大学,加州期间,。他们讨论了价值在数据科学中的重要性,为什么必须要有一个多元化的团队来构建和分析算法以及数字公民社会实验室正在开展的工作。
根据伯恩霍尔茨的说法,所有数据都是有偏见的,因为是人们在收集数据。她强调说:“而且我们正在将偏见建立到数据科学中,然后将这些工具导出到偏见系统中。” “你猜怎么着?问题变得越来越严重。因此,让我们停止这样做。”
Bernholz解释说,在创建算法并进行分析时,数据科学家需要确保他们正在考虑数据集中所有不同类型的人,并在上下文中了解这些人。
“我们非常清楚,有色女性与白人男性面临的环境不同;他们不会以同样的方式走遍世界。”她解释说。“而且认为您的购物算法不会影响他们在现实世界中所经历的差异是荒谬的。”
-
算法
+关注
关注
23文章
4612浏览量
92887 -
人工智能
+关注
关注
1791文章
47274浏览量
238474 -
数据科学
+关注
关注
0文章
165浏览量
10059
发布评论请先 登录
相关推荐
评论