各位,请做好准备,人工智能正在统治世界!
好吧,也许还没有完全实现。但您仍然不能否认它在过去 12 个月中所产生的影响程度。
最奇怪的是,“人工智能”作为一个概念和一个研究领域并不是那么新,但今年出现的所有聊天机器人和人工智能工具都“感觉”很新。
比这更重要的是,到去年这个时候,唯一广为人知的人工智能工具是 GPT-3,然后是 ChatGPT。但现在,您可能很难跟踪所有可用的不同人工智能工具、聊天机器人和法学硕士。
所有这些都分为两类:
闭源(如 ChatGPT 和 Claude)
开源(如 Falcon 或 Mistral)
这就是有趣的地方。
尽管专有人工智能模型非常受欢迎和高度完善,但开源模型在人工智能领域掀起了波澜,并超越了它们的重量级。
这就是我们将在本文中讨论的内容。对于像人工智能这样革命性的技术,专有的、类似黑匣子的软件是正确的选择,还是开源是更好的选择?
这个问题和其他问题将在今天的节目中得到解答。
首先,整个科学过程都建立在诚实、正直和透明的原则之上。它涉及开放、协作和同行评审以验证研究结果。
世界上许多最伟大的科学进步,如巴氏灭菌、青霉素和肥料,都是由于许多科学家多年来的合作而得以实现的。
通常,他们解决了当时缺乏资源的大问题。他们发表了他们的发现,多年后,科学家们以此为基础,为最初的问题找到了解决方案,造福人类。
这也适用于开源技术。当计算机从占据整个房间的巨型机器变成每个家庭都可以拥有的设备时,世界发生了变化。
之后出现了互联网,这又向前迈出了一步,让许多人而不是少数特权人士能够接触到技术。
蒂姆·伯纳斯·李 (Tim Berners-Lee) 于 1989 年发明了万维网,并将其免费提供给所有人,无需任何专利或版税。这推动了互联网的快速发展以及未来十年出现的许多创新。
类似的情况也发生在操作系统上,例如 Windows 与 Linux。网络技术也发生了同样的情况。
有了前面的所有这些例子,理所当然的是,像人工智能这样具有变革性的技术可以(或应该)遵循类似的道路。
那么,让我们看看双方(封闭和开源人工智能)今年的进展如何。
到目前为止, ChatGPT去年 11 月发布时所产生的影响对于任何人来说都已经不是什么新闻了。在这一年余下的时间里,专有人工智能成为人们谈论的话题。
2023 年 3 月,GPT-3 的后继者 GPT-4 发布。那次事件引发了人工智能竞赛。
很快,谷歌加入了与巴德的竞争。然后由前 OpenAI 研究人员创立的 Anthropic 发布了Claude ,这是流行的 ChatGPT 的竞争者。
截至目前,OpenAI 是市场上“热门”最多的公司。
这些是 GPT 型号、不同的 Dall-E 版本和 Whisper。微软还推出了新的和改进的 Bing Chat(基于 OpenAI 的技术)和即将推出的无处不在的 Copilot。
谷歌通过早期研究项目 Bard 加入了这场竞争,该项目一开始并没有给所有人留下深刻的印象,而是让我们更加关注微软及其举措。但在“科学博览会”项目之后,谷歌加大了力度,发布了 Vertex AI、PaLM(和 PaLM2)、Imagen 和 Codey 等产品。
然后是 Anthropic 及其强大的 Claude 的不同版本(Claude-instant、Claude 2)。有趣的是他们用来训练克劳德的方法,他们称之为“宪法人工智能”。这种方法将安全放在首位,有助于创建符合人类利益和价值观的人工智能。
这些都是人工智能领域的巨大进步,并且由于它们是由拥有多名员工、广泛资源和强大营销部门的公司开发的,因此更加广为人知。
现在,让我们看看硬币的另一面。
自GPT-4发布以来,不仅科技巨头纷纷加入AI竞赛,其他独立项目也纷纷涌现。 TensorFlow 和 PyTorch 等开源 ML 框架使之成为可能。
Stability AI 发布了Stable Diffusion ,这是 Dall-E 的替代品,许多技术爱好者对其功能进行了广泛的实验,以至于它引发了关于艺术和创造力本质的道德担忧。
Meta 宣布发布一个名为LLaMA的准开放大型语言模型(有多个模型大小,然后是第二个版本)。
该模型与 Hugging Face 服务(如 Gradio、Spaces、Transformers)一起引发了一场革命,因为世界各地的人们第一次可以使用可与 ChatGPT 或 PaLM 等技术相媲美的开源技术。
你知道当一群技术人员、黑客和技术爱好者有足够的时间和资源时会发生什么吗?是的,他们可以疯狂地建造东西。
随着互联网的出现,90 年代的小众互联网论坛和 IRC 频道被 Hugging Face 讨论、GitHub 问题和 Discord 服务器所取代。
促进开源增长的另一个因素是 EleutherAI 的 Pile 数据集。这一举措有助于推进无监督和自监督学习,减少对大型标记数据集的需求。
随着大型语言模型、训练/微调它们的数据集以及计算需求的降低,整个产品和服务生态系统很快就出现了。
(当我说减少计算要求时,我的意思是法学硕士不需要大量参数来产生专有模型生成的结果质量,这一点由LLaMA 13B和Mistral 7B等模型证明)
这个领域有大量的项目、预训练和微调的模型、数据集和工具,可供每个想要参与其中并与他人协作的人使用。
我们现在有不同类型的聊天机器人,它们不依赖于 GPT-3/GPT-4 来工作,例如 Zephyr-chat、LLaMA2-chat、Mistral-instruct 和 Falcon-chat。
LLM 针对代码生成和辅助进行了微调,例如Code-LLaMA 、 CodeGen和StarCoder 。
一种名为Bloom的开放访问多语言语言模型。
多模式法学硕士(不仅仅是文本),例如LLaVA和Fuyu 。
Hugging Face 排行榜,对所有现有开源模型进行评估和排名。
用于预训练和微调 LLM 的多个数据集,例如RedPajama或OpenOrca 。
最近,我们有了更多的自主模型,称为“人工智能代理”。
最流行的由 GPT-3.5 提供支持,但还有其他基于 LLaMA 的。
看来我们正在竞相构建不会陷入循环或能够独立完成任务的代理,而不会吐出一堆看起来令人信服的文本,但它要么不准确,要么完全错误。
仅在过去 6 个月内就取得了巨大进展,您可以确信没有任何一个方面显示出放缓的迹象。
尽管我们在过去一年中看到了令人头晕的快节奏进展,但我们仍处于人工智能发展的早期阶段。我们需要弄清楚很多事情,需要考虑不同的方面,比如人工智能隐私、道德、内在偏见等等。
就像生活中的一切一样,没有哪一方是完全错误的,而另一方则是完全正确的。专有人工智能和开源人工智能都有其优点和缺点。
专有人工智能可以利用更多资源来训练新的、更强大的模型,同时为更广泛的人群提供访问机会。但他们的运作方式就像一个黑匣子,缺乏可观察性,而且他们的利益可能更倾向于有钱的大玩家,而不是普通消费者。
另一方面,开源人工智能受益于全球协作、透明度和开放创新。但它缺乏组织和资源来实施更雄心勃勃的举措,如果制定更严格的法规,它就会面临风险。
现在的问题是我们如何以混合方式保持人工智能的进步。
通过这种方式,我们可以与该领域一些最聪明的人共同合作,并利用必要的资源,以负责任的方式推动这一创新,将安全和隐私放在首位。
少数人的利益和利益不会凌驾于我们其他人的利益之上。通过这种方式,像人工智能这样的革命性技术不会被私有化、限制或武器化,以对抗那些被视为大国“敌人”的群体。
我们正处于历史上一个独特的时刻,我们所做的决定和我们处理技术的方式将决定未来将如何形成,无论是好是坏。
谢谢阅读。
别忘了