布兰妮斯皮尔斯,人工智能和自动化
最近,“小甜甜”布兰妮因2008年精神崩溃而被法院强制接管而上了新闻。随着故事的细节浮出水面,公众对这种设置感到震惊,因为这种设置基本上限制了她做出自己的选择,从而限制了她按照自己认为合适的方式生活的自由。她的保管员代表她做出的一些关键决定包括决定她是否可以工作,她什么时候可以离开她的房子,甚至她如何花自己的钱。
大多数人都以怀疑和震惊为这个新闻作出反应,部分地在措施本身,也在他们已经到位了多久,她受到了多久。人们抓住了她个别选择的削减,本质上是不公平和不公正的。那是因为它对一个人的个人自主权或机构罢工;能够做出对自己生活的选择,这是正确被认为是一个基本的人权的东西。
同样,关于人工智能(AI)的故事也层出不穷,既强调了它的前景,也强调了它带来的危险。人们早就知道,与人工智能某些用途相关的最令人不安的道德问题围绕着隐私、偏见和歧视,以及人类判断的作用。也许最常被引用的人工智能偏见的例子涉及名为COMPAS的算法(用于替代制裁的惩教罪犯管理分析);它在一些美国法庭系统中被用来帮助预测被告的累犯率。
AI软件的这种用途,在那里它基本上决定了个体人类生活的命运或未来方向,如果所使用的方法和算法的任何透明度很少,则被认为是道德上的问题。这是因为最终,我们认识到它是一个侵犯个人自主权,以权力引人注目来为自己决定。这与人们在布兰妮斯皮尔案件中承认的个人机构相同的侵犯感;在她的案例中,它是一个法庭指定的保守党,在Compas案例中,它基本上是AI软件做出决定。
然而,AI的用途可能是无限的。制造和自动化中的AI越来越多的合法用途。AI软件可以帮助识别人类无法看到或分析大规模数据集的模式,有助于改善许多制造和工业过程。例如,AI通过更好的数据收集和分析帮助机器人系统,这可以提高生产力和性能。
最后,由人类设计师和工程师和其他利益相关者弄清楚AI的适当用途,以及那些不是。为此,行业团体,如对自主和与人相处智能系统的伦理IEEE全球倡议一直在做解决这些问题和涉及AI系统的设计和实施等伦理方面的考虑的工作。
这些工作对于指导未来的设计是必要的,这样我们就可以识别和避免使用具有有害社会影响的人工智能,比如面部识别软件产生的影响,或者包含胁迫或操纵因素的影响人类自主性的使用。
归根结底,人工智能就像火一样,是一种工具。因此,如何最好地利用它,以及在什么情况下利用它,就取决于我们作为它的人类守护者,做出明智的决定。以及不该用它做什么。
提交:数字问题