“可怕”是当今技术专家和政府在讨论人工智能 (AI) 的未来及其对人类的潜在影响时经常使用的一个词。
他们描绘了一幅未来的图景,人工智能偷走了工作,导致更多的不平等,并用错误的算法不公正地给我们的学童打分。
几个月前,当白宫的科技咨询机构公布了一项人工智能权利法案时,人工智能政策和伦理专家对这一消息的反应是“关于该死的时间”。
该文件是拜登总统关于美国政府、科技公司和公民应如何共同努力让人工智能和人工智能行业对未来负责的愿景。
虽然我们必须考虑并计划 AI 可能造成的潜在危害,但一些人认为讨论不能就此停止。
随着人工智能变得越来越先进,可以变得有意识,甚至自主,在什么时候有道德要求至少考虑人工智能的人权延伸?
也许这是一个愚蠢的想法。确实,像这样的问题属于哲学范畴,但将来可能会成为公共政策问题。
最近,我读完了石黑一雄的《克拉拉与太阳》,这是一部未来主义小说,讲述了一位母亲为身患绝症的女儿乔西购买了一个非常聪明的“人工智能朋友”(AF)。
这本书发生在未来许多年,我们了解到人工智能对人类的生存产生了负面影响。在新世界中,儿童在出生时就经过基因改造以与人工智能竞争,导致其中一些儿童患上无法解释的危重疾病。
AF 克拉拉似乎是一个有意识、会思考的实体,具有学习和感受情感的能力。在我看来,这本书的关键主题之一是人工智能是否可以在没有编程的情况下自行学会爱。
在整篇文章中,读者对克拉拉产生了一种依恋,因为她对乔西的健康和幸福深表关切。最后,由每个读者自己决定 Klara 是喜欢 Josie 还是只是在实现她的编程目标。很难辨别。
乔西奇迹般地康复并继续她的生活。然而,克拉拉和其他被遗弃的 AF 一起被丢弃并在垃圾场等待她的命运。在小说的结尾,我们看到了克拉拉 (Klara) 凝视着太阳的画面,回忆着她与乔西 (Josie) 在一起的时光,以及她与她一起创造的快乐回忆。
由于 AF 对 Josie 的明显爱,这张照片令人难以忘怀;克拉拉对这个十几岁的女孩产生了浓厚的兴趣并建立了联系,在很大程度上将乔西的利益置于自己的利益之上。
我认为,在整部小说中对 Klara 的使用和滥用提出了一个哲学问题,即未来是否需要考虑人工智能的人权,从而导致关于人类意味着什么的严肃的伦理和哲学问题。
随着 AI 技术变得越来越复杂,许多专家预计 AI 的智能有一天会与我们的智能相媲美。虽然关于这个话题的讨论很少,但被迫为人类服务的机器人技术可以被视为一种新形式的奴隶制。像 Klara 这样的机器人可能被用作达到目的的手段(例如,暂时的友谊)并被丢弃。
这场辩论的反对者可能会争辩说,人类奴隶和机器人奴隶之间的区别在于服务的愿望或开放程度。其他人可能会争辩说,使用、滥用或丢弃 AI 对人和社会结构影响不大,但我们在哪里划清界限?
道德哲学家使用许多哲学思想实验和测试来确定一个实体是否具有自由意志和/或代理来建立建立权利的理由。
回想多年前我作为哲学专业选修的心灵哲学课程,我记得有一个关键的讨论是感受痛苦(身体或心理)的能力是否是确立人权的基础。
如果所讨论的实体可以感受到身体或心理上的痛苦(并希望自己摆脱痛苦),他们的想法是这些事实可能会带来某些权利。一个实体不一定需要像人类一样体验意识(和世界)以保证权利,相反,承受痛苦的能力本身包含或产生这些权利。
这一观点是动物伦理学家提出的,也是第十八位英国哲学家杰里米·边沁的立场,他认为关于动物的重要问题不是“它们能推理吗?他们也不会说话吗?但他们能受苦吗?
当然,有反对虐待动物的权利;当孩子们去上大学并且对家里的狗不感兴趣时,它不会像 Klara 那样被拖到废品场。
事实上,法律承认必须保护家养动物,因为它们可能会受苦,如果允许虐待它们,社会的道德结构就会被削弱。
如果有一天人工智能能够思考、感受和受苦,可能会提出类似的论点来保护它。然而,在这一点上,人工智能还远未达到这些精神和身体状态中的任何一种,也许正如一些专家所说,永远不会。
尽管如此,如果满足某些要求,我们是否应该将人权扩展到人工智能这一哲学问题仍然是一个有趣的问题。
不过,首要的事情是:保护我们自己免受人工智能可能对人类和社会造成的伤害,然后再考虑其他关键问题。在可预见的未来,人工智能将继续成为政策制定者面临的紧迫问题,随着对话的发展,关于人工智能权利的思考也必须如此。
也发布在这里。