关于布兰妮·斯皮尔斯,人工智能和自动化
最近,“小甜甜”布兰妮因2008年精神崩溃而被法院强制接管而上了新闻。随着故事的细节浮出水面,公众对这种设置感到震惊,因为这种设置基本上限制了她做出自己的选择,从而限制了她按照自己认为合适的方式生活的自由。她的保管员代表她做出的一些关键决定包括决定她是否可以工作,她什么时候可以离开她的房子,甚至她如何花自己的钱。
大多数人对这个消息的反应是难以置信和震惊,部分是因为这些措施本身,但也因为这些措施实施了多长时间,以及她经受了多长时间。人们认为限制她的个人选择从本质上来说是不公平和不公平的。这是因为它打击了一个人的个人自治或代理;对自己的生活做出选择的能力,被正确地认为是一项基本人权。
同样,关于人工智能(AI)的故事也层出不穷,既强调了它的前景,也强调了它带来的危险。人们早就知道,与人工智能某些用途相关的最令人不安的道德问题围绕着隐私、偏见和歧视,以及人类判断的作用。也许最常被引用的人工智能偏见的例子涉及名为COMPAS的算法(用于替代制裁的惩教罪犯管理分析);它在一些美国法庭系统中被用来帮助预测被告的累犯率。
人工智能软件本质上决定着人类个体的命运或未来的方向,其使用方法和算法几乎没有任何透明度,这种使用被认为在道德上存在问题。这是因为最终我们承认这是对个人自主权的侵犯,打击了我们自己做决定的权力。这与人们在布兰妮·斯皮尔斯的案例中所意识到的个体行为被侵犯的感觉是一样的;在她的案例中,它是法院指定的保管人,而在COMPAS的案例中,它基本上是由人工智能软件做出决定。
然而,人工智能的用途可能是无限的。人工智能在制造业和自动化领域的合法用途越来越多。人工智能软件可以帮助识别人类无法看到或分析大量数据集的模式,帮助改善许多制造和工业流程。例如,人工智能正在通过更好的数据收集和分析帮助机器人系统,这可以提高生产率和性能。
最终,由人类设计师、工程师和其他利益相关者来确定人工智能的正确用途,以及不正确的用途。为此,IEEE自主和智能系统伦理全球倡议等行业组织一直在努力解决这些问题,以及涉及人工智能系统设计和实施的其他伦理问题。
这些工作对于指导未来的设计是必要的,这样我们就可以识别和避免使用具有有害社会影响的人工智能,比如面部识别软件产生的影响,或者包含胁迫或操纵因素的影响人类自主性的使用。
归根结底,人工智能就像火一样,是一种工具。因此,如何最好地利用它,以及在什么情况下利用它,就取决于我们作为它的人类守护者,做出明智的决定。以及不该用它做什么。
了下:数字问题




