ChatGPT 和其他聊天机器人重新构想了我们对人工智能 (AI) 工具的理解和交互,这已不再是新闻。去年 11 月 ChatGPT 发布时互联网风靡一时,许多人第一次了解了人工智能。
在不忽视与 OpenAI 的聊天机器人相关的兴奋的情况下,我们每天都会接触到 AI 工具和操作。举个例子,谷歌的搜索引擎和地图依靠人工智能来处理查询并在几秒钟内做出响应。
ChatGPT 和其他 AI 工具所带来的无限可能让人们兴奋不已。在某些情况下,这些工具会创建专门为专业人士保留的内容和技术文档。
ChatGPT 已被用于编写代码、开发恶意软件、产生想法、翻译语言等等。 2022 年,Midjourney 的使用增长了超过
这些工具的能力也引入了对世界末日的恐惧。有人担心
2023 年 1 月 13 日提起诉讼,指控 Stability AI、Midjourney 和 DeviantArt
人工智能是未来。我们必须学会拥抱好的一面,并采取措施将坏的影响降到最低。然而,毫无疑问,人工智能将继续扰乱现代社会。
最近的一项调查
人工智能全球市场收入预计将从 2022 年的 1360 亿美元增长到超过
人工智能的好处包括工作自动化 (30%)、成本节约 (54%)、IT 性能 (53%) 和更好的客户体验 (48%)。
鉴于 ChatGPT 和其他工具的众多奇迹,人们很容易认为人工智能工具是魔法与科学的融合。幸运的是,他们不是。
AI 是基于数据的、实验室生成的数学模型,旨在执行需要人类智能的任务,例如识别模式、从经验中学习、解决问题和做出有效决策。
人工智能的发展是由计算机科学、神经科学和心理学等领域的进步推动的。它基于人类智能可以由机器建模和模拟的想法。
人工智能中使用的一些关键技术和技术包括机器学习、自然语言处理和机器人技术。
“垃圾输入,垃圾输出”的概念对于 AI 来说非常正确。随着我们继续开发并越来越依赖人工智能系统,我们还必须意识到这些系统中存在偏见的可能性。
虽然很容易将矛头指向人工智能本身的问题,但事实是,真正令人担忧的是那些开发和训练这些系统的人的偏见。 AI 系统的行为方式与开发人员希望它们的行为方式完全一致。
69% 的人工智能研究人员认为
AI 中的人为偏见可以通过多种方式表现出来,从用于训练 AI 的数据到系统本身的决策过程。
例如,如果 AI 系统是在一个不成比例地由一组特定人群组成的数据集上进行训练的,它可能无法准确地理解其他人群并为其他人群做出决策。
同样,如果人工智能系统旨在根据某些假设或刻板印象做出决策,它可能会在社会中延续有害的偏见。
人工智能最大的问题之一是,它所训练的数据可以反映出收集和管理这些数据的人的偏见。
例如,如果用于训练面部识别系统的数据集主要由浅肤色人的图像组成,则该系统在尝试识别肤色较深的人的面部时可能会表现不佳。
这是一种可能会在现实世界中产生后果的偏见,例如
但不仅仅是数据会产生偏见,创建和训练这些系统的人也会通过自己无意识的偏见引入偏见。
例如,一个
由于 74% 的组织尚未采取措施确保其 AI 值得信赖和负责任,因此迫切需要开发对社会负责的 AI 工具是一项集体责任。首先要确定潜在的偏见并积极努力减轻偏见。
这意味着使从事 AI 工作的人员团队多样化,并确保代表广泛的观点和经验。
重要的是要确保用于训练 AI 的数据是多样化的,并且能够代表它所服务的人群。这涉及仔细选择和整理数据,以确保它不会延续现有的偏见或刻板印象。
此外,重要的是要考虑数据对不同人群的潜在影响,并从不同的角度获取输入,以确保数据的包容性和公平性。
人工智能系统设计应该是透明和可解释的。这意味着人工智能系统的决策过程应该清晰且易于人类理解,以便识别和解决任何潜在的偏见或问题。
必须定期评估和监控人工智能系统的性能,以确保它们按预期运行,而不是使有害偏见长期存在。这包括定期分析用于训练人工智能系统的数据,以及人工智能模型的决策和行动。
政府应该制定法律法规,在不扼杀增长和发展的情况下,强制执行对社会负责的人工智能开发和使用。
人工智能有可能彻底改变我们的生活、工作和社交方式。但随着我们继续开发和依赖人工智能系统,我们也必须解决潜在的偏见问题。我们必须认识到,真正令人担忧的不是人工智能本身,而是开发和训练它的人的偏见。
通过意识到这个问题并采取措施缓解它,我们可以确保 AI 的未来是一个惠及所有人的未来。
目标应该是为了社会的利益而发展人工智能。这样的目标需要政府、开发商和用户共同承担责任。政府应执行法规,确保以对社会负责的方式开发人工智能系统。
开发人员应通过采用多样性、透明度和问责制来防止偏见。他们应该定期评估和监控人工智能系统的性能,以防止意外的偏见和滥用。
公众还应该明白,他们应对自己使用人工智能的方式负责。所有人都应该劝阻对社会不负责任地使用人工智能。