如果算法“有偏差”
时间:2022-06-16 来源: 作者:[db:作者]  浏览次数:
当互联网时代到来的时候,无数人预言互联网会让获取知识变得更加容易,打破偏见和壁垒,让世界更加平等。然而,随着互联网和人工智能的快速发展,人与人之间的极端观点和隔阂正在借助网络力量而愈演愈烈。这是为什么呢?
生活中,人们会发现,使用百度搜索引擎搜索关键词,搜索结果页面的前几个链接会把搜索者引向百度自己的“百家号”;出差订酒店,不同的人用不同的手机打开同一个App,看到的价格大概是不一样的;我一个朋友在腾讯工作,晚上加班打车回家。如果起点设在公司门口,价格会比公司旁边100米左右的便利店高出20%。这些现象说明了一个问题:与日常生活息息相关的互联网算法,本身并不是很“精确”,算法存在一定的“偏差”。
什么是算法?这个词诞生的时候,并没有什么宏大的内涵。公元820年,阿拉伯数学家提出了“算法”。当时的意思是“解决具体问题的方法”。随着纯数学理论向应用数学理论的转移,算法进入了应用数学的各个领域,后来又被计算机科学、社会学、法律、政策等领域借鉴,逐渐开始指向一些复杂的社会技术系统。这几年算法被大家熟知,可能是因为它指向了一个更具体的内容:算法决策服务。比如浏览网站时,它会向我们推荐各种商品;打开资讯App,会推荐新闻或者短视频;打开地图软件,它会规划出到达目的地的路线.算法完成了一个闭环,将信息、算法和人联系在一起。
这个闭环的最终目标是帮助人们从海量信息中打捞出最有意义、最有用的内容。与人做决策相比,算法更客观、更公正、更高效。但如果算法出了问题,就可能引发风险。而且很多时候,我们在使用各种app的时候,并不知道算法在偷偷帮我们做决策。这种隐蔽性意味着一旦它在重要领域犯了错误,人们往往来不及补救。
那么算法有什么隐患呢?首先,技术层面存在代码错误。当时,计算机科学的先驱格雷斯霍珀在使用机电计算机马克2号时发生了设备故障。导致这次失败的原因其实是继电器卡了一个bug。从此,“bug”成为计算机领域的一个技术术语,意为漏洞。生活中,程序员之间互相调侃。比如程序员A看到B写代码,可能会走过去说:“又写bug了。”这是因为人和技术的磨合始终处于探索阶段,程序出现错误是很常见的,所以无法保证。
第二个隐患是算法偏差。当你浏览网站、观看视频、使用各种应用时,你会发现这些网站似乎很“了解”自己,推荐的内容恰好是你喜欢的。这其实是一个概率问题。想象这样一个场景:有一个不透明的袋子,里面有很多小球,总数未知,颜色未知。如何弄清楚这个不透明袋子里球的颜色分布?就算法而言,我们是不透明的袋子,我们的各种爱好都是袋子里的球。算法可以根据“已知球”做一个模型来猜测我们感兴趣的是什么。已知条件越多,算法的精度越高,但不能保证一切都是对的。
第三个隐患是技术偏差。我们现在使用的移动电话设备和社交网络已经取代了许多以前的媒体形式。加拿大媒体理论家马歇尔麦克卢汉(Marshall mcluhan)认为,人类经历了口语、文字和电子媒体时代。口语时代,人是部落生活状态,都是互相认识的。在写作的时候,人们在空间上彼此分离。现在,在电子媒体时代,尤其是算法与社交媒体、互联网、移动互联网相结合的时代,人们虽然在现实空间中相距甚远,但在互联网的虚拟空间中却紧密相连,很容易沉浸在自己选择和构建的小世界中。这种情况也更容易滋生极端的情绪和想法。
第四个隐患是社会偏见。微软已经推出了一款AI聊天机器人Tay,在Twitter推出仅一天后就被下架。因为在上架之前,微软的程序员希望Tay能够在开放的交互中产生自己的观点和愿望,不限制它的语言模式和交流方式。结果这个机器人很快就“学会”在与人对话的过程中辱骂人类,发表种族歧视的言论。从这个案例可以看出,开放环境下的数据存在大量的偏见和误解。如果允许机器学习这样的数据,我们不能保证它会变得更明智、更客观。吊诡的是,由于大多数人信任科学技术,当算法给出一个看似科学的结果,而这个结论恰好符合固有的偏见时,我们不会质疑算法有没有问题,反而会用这个结果来巩固偏见。
面对算法“偏差”,人类该怎么办?学术界对AI技术价值观的讨论,总的结论是应该纠正偏差,让算法更人性化。也有学者提出,当人们认为算法应该去除“偏见”的时候,应该问问什么是人性。这个问题会触动更深层次的思考。社会心理学中有这样一个量表。
,它的纵坐标是experience(代表人类对于外部世界的感知和体验),横坐标是agency(代表的是控制、把握,一些更加机械化的具有指标性质的东西)。人类处于这张坐标图的右上角,机器人处于中间偏下的位置,由此可以看出,人类对experience的要求非常高,人性处于一种不完备、不完美的状态。那么,既然我们自己本身存在着许多不完美之处,为什么还要要求算法变得和我们一样?
这个问题也许不会有答案,算法的“偏见”不仅是技术的问题,更是社会的、历史的问题。可以确定的是,在未来,算法和人类势必处于一种共栖共生的关系当中。也许,我们要问的,不是“算法有偏见吗”,而是如何定义“偏见”。判断“偏见”的标准从何而来?对人性是不是应该有一些反思?既然没有办法一劳永逸地解决问题,那么我们的思考方式可能需要一些转变。