糟糕的人工智能
时间:2022-06-21 来源: 作者:[db:作者]  浏览次数:
微软在2016年3月推出Tay的时候,就非常看好这款人工智能聊天机器人。Tay不仅可以回答事实性问题,还可以进行更复杂的交流。——Tay可以表现出幽默感,像朋友一样和用户开玩笑。宣传资料中提到:和Tay聊得越多,她就越聪明,她的经历就越个人化。然而,当人们发现Tay会学着模仿交流对象的话语时,一些心怀不轨的人在与Tay聊天时故意说一些侮辱性、攻击性的话。几个小时后,Tay满嘴脏话。上线不到24小时,微软就公布了其下线产品,并公开道歉。
Tay项目失败后,微软人工智能项目总监Eric Huo Weici迅速要求技术团队研究“自然语言处理”项目,寻找问题根源。团队成员很快发现,与聊天程序相关的最佳基本行为被忽略了。在Tay之前的软件基础版本中,经常会有阻止不良表达的协议,但这次没有保护措施来限制Tay可能学习的数据。
如今,微软已经在全球推出了更成熟的聊天机器人,包括印度的Ruuh、日本的Rinna和印度尼西亚。在美国市场,微软推出了Tay的姐妹聊天机器人Zo。中国市场上的聊天机器人萧冰已经开始主持电视节目,并为便利店顾客提供购物建议。
然而这一次,微软显然要谨慎得多。霍伟慈表示,现在机器人的引入速度较慢,公司会在软件开发过程中仔细观察与公众的互动。然而,微软也清醒地认识到,即使人工智能技术能在两年内取得巨大进步,管理机器人行为的工作也永远不会结束。微软员工一直在监控导致聊天机器人行为变化的对话。
从聊天机器人的上述缺陷可以看出,即使人工智能只是部分应用,潜在的灾难也会被放大。虽然商业界已经准备更广泛地使用人工智能,但这项技术的问题让技术人员寝食难安。
所有人都相信,我们正处于企业人工智能爆发的前夜。研究公司IDC预测,到2021年,企业每年将在人工智能相关产品上花费522亿美元。经济学家和分析师认为,相关投资届时可以实现数十亿美元的成本节约和效益。收益一部分会来自于岗位压缩,更多的来自于产品与客户、药物与患者、解决方案与问题等的高效匹配。
人工智能技术的普及主要得益于深度学习系统的不断发展。有了深度学习,企业可以把大量的信息输入计算机,让深度学习系统对数据进行整理和分析。在不久的将来,各种规模的公司都可以利用深度学习系统挖掘数据,找到人们仅凭经验找不到的最佳商机和决策核心。在技术专家的视野中,公司可以利用人工智能整合过去几年的数据,更好地预测下一次大买卖的机会。制药巨头可以削减开发畅销药物的时间,汽车保险公司可以通过输入数万亿字节的事故报告自动进行理赔。
人工智能系统虽然潜力巨大,但也有阴暗面。首先,系统的决策水平受限于人类提供的数据。虽然用于训练深度学习系统的数据在不断改进,但并不是中性的。一个成熟的算法扫描历史数据库,可能会得出白人男性最有可能成为CEO的结论。忽视偏见是人工智能系统的根本缺陷。
加州大学伯克利分校技术伦理学教授迪尔德丽穆里根(deirdre Mulligan)说,目前强大的算法“没有为了公平而优化数据”。“只有优化才能完成某项任务。”人工智能以前所未有的速度将数据转化为决策,但穆里根表示,科学家和伦理学家发现,在很多情况下,“数据是不公平的”。
让问题更复杂的是,人工智能系统比以前使用的传统算法更复杂,即使是最有经验的程序员也很难理解一个人工智能系统做出某个决定的逻辑。再者,由于系统的开发者拼命保护数据和算法,害怕专利技术泄露导致利益受损,外部的监控机构很难发现系统存在什么问题。
近年来,人工智能失控最典型的案例是,2016年美国大选初期,脸书的新闻推送中出现了假新闻。
社交媒体巨头脸书并非有意传播假新闻,而是因为新闻信息流的推送机制不区分“真”与“假”,只根据用户的个人兴趣推送个性化内容。脸书没有透露算法的具体信息(涉及专利问题),但承认在计算时会参考其他有类似兴趣的用户阅读和分享的内容。结果假新闻一出现,就引起了网友的关注。于是,假新闻从一个字传到另一个字,出现在百万人的新闻信息流中。
脸书的例子是个人选择和人工智能之间恶性互动的例子,但研究人员更担心人工智能误读了整体数据。Timmy Gerbru在微软等公司研究过算法伦理。她担心人工智能影响保险市场的方式,因为人工智能和数据在保险市场的结合可能会导致少数群体受到不公平的待遇。我们假设一组汽车事故理赔数据显示,市中心的交通事故发生率相对较高,而居住在市中心的少数民族人数相对较多。如果人工智能系统获得相关数据,可能会认为少数族裔和车祸有联系,也可能会给少数族裔司机贴标签。简单来说,人工智能可能存在种族偏见。如果我们进一步查看市中心附近车祸现场的照片和视频,人工智能系统
更有可能认为,在涉及多名司机的事故中,少数族裔司机肇事的可能性更大。系统还可能建议向少数族裔司机收取更高保费,不管他之前的驾驶记录如何。
随着科技巨头们准备将人工智能系统嵌入其客户商业软件,上述问题便从学术界所讨论的“假如”命题变成急需考虑的事情。这一挑战的关键之处在于,科技公司所面临的两难境地并不在于创建算法或聘请员工来监视整个过程,而是在于人性本身。真正的问题并不在于技术或管理,而是关乎哲学。
技术伦理学教授迪尔德丽·穆里根指出,计算机科学家很难将“公平”编入程序,因为公平的意义会因人群的不同而发生变化。穆里根还指出,社会对于公平的认知会随着时间的变化而改变。而且对于大家广泛接受的理想状态的“公平”理念,也就是社会决策应体现社会每位成员的意志,历史数据存在缺陷和缺失的可能性尤为突出。