严肃地说,LLM,代理人工智能和所有这些生成人工智能工具都很酷,它们对某些使用案例很有帮助,事实上,它们在内容生成周围的理想使用案例上令人惊讶。 然而,我们需要醒来,因为有些严重的夸张和误解在那里浮动,导致严重的问题。 1️⃣大语言模型(LLMs)是“通用解决方案”的基础,可以找到任何问题的解决方案。 法学硕士在内容生成方面非常强大,但它们(在它们的核心)只是选择下一个“代币”的统计预测模型 - 这些模型背后没有合法的理解,真正的推理或因果理解,无论谁试图告诉你否则。 ❌ WRONG! 基准指标如 顯示,大多數受歡迎的模型在易於人類完成的任務上得分低於50%,證明他們是統計預測者,而不是全知的解決者。 )这种误解源于围绕“新兴能力”的吹嘘,但扩展法律(例如, )表明回报减少,没有根本的建筑变化。 ARC(抽象与推理团体) https://arcprize.org/leaderboard Chinchilla 纸 2️⃣生成人工智能是通往人工通用智能(AGI)或人工超级智能(ASI)的道路。 它的主要工作是模仿:学习如何看起来和声音令人信服,就像它被训练的数据一样。 ❌ WRONG! 也考虑到一般智能需要情感智能,而情绪是当前AI模型不太擅长的东西。 如果我们想要人类水平的智能,或者更好,我们需要人工情绪智能的更多改进。 人类在做出某些决定时有时会使用90%的情绪。 3️⃣生成型AI模型像人类一样思考和学习。 任何多式数据,如图像,音乐等,都需要被处理并转换成一个优化的格式,以便模型使用它。我们刚刚开始构建系统,可以自动收集新数据并将其纳入一个过程,但这个过程并不像人类大脑的工作方式。 ❌ WRONG! 4️⃣ 生成人工智能使创造力民主化,所以现在每个人都可以创造。 GenAI只知道如何在概率上重新混合训练数据!如果你只使用萨尔瓦多·达利绘画的数据来训练一个图像模型,它只会能够生成看起来和“成熟”达利风格的艺术范式的艺术。精心调整与达利艺术的一般模型会导致同一挑战的略微不那么有效的解决方案,但它会混合到一些其他人的作品中。肯定是真的,GenAI允许没有艺术培训的人生成新艺术作品。这对于某些用途是很棒的,例如营销内容。快速生成的图像看起来令人印象深刻,并且可能有一个案例,即“创建一个单词图像”与一个好提示可能具有创造性,但最终这是一种超越媒体的短路,而写作中的“创造力”与绘画或绘画中的创造力没有直接相关 👎 👍 Not exactly. 5️⃣ “生成人工智能”是安全和公正的;我们应该尽可能地使用它,如果我只是使用人工智能做任何事情,它不会伤害任何人,对吧? 没有一个不偏见的AI模型。行业也急于以更快的速度提供新模型,以至于他们不像他们应该做的那么多测试。 这种情况的完美例子是围绕年轻人与AI聊天机器人建立关系,他们不真正了解情绪,并且只能重复别人的聊天和培训文件的模式。 法学硕士也有幻觉,他们在那里做出答案(事实上,他们几乎随机从概念中“挑选”,因为他们没有良好的概率选择),但他们不试图让你知道。 ❌ DANGEROUS! 你认为这对你或其他人来说不会危险吗? 对于那些与人工智能模型“谈论”自杀的年轻人来说,他们被建议,就像他们提供心理健康咨询一样吗? 这些类型的使用案例只有在他们给用户带来问题后才得到处理。 那么,我们如何适应和避免这些误解? ✅ 首先是人類,不要相信人工智能給你帶來原始想法,你帶來好東西,讓人工智能做編輯/精製(他們在這方面很棒!)這樣,你明確地開始了這個想法。 ✅ 人类最后. 永远不要盲目地接受结果作为完整. 检查三次,以确保它没有错误! 甚至生成的照片,视频和音乐可以提交给人工智能,并进行检测 / 对比与版权作品的评估。 如果你不擅长某事,使用人工智能(人类首先和最后!)是好的,只要你没有对自己是这项工作的生产者大脑......另一方面,你应该为创造使用你的核心专业技能的工作感到自豪。 ✅ 谈谈灰色区域. 当某些东西觉得由于使用人工智能而越过了诚信和所有权线时,与您的团队,管理层或行业专家谈谈!不要只是让一个有问题的使用案例在以后引起问题。 那么你怎么看呢?我在这里缺少一些大的人吗?你不同意吗?请自由地在X或LinkedIn上参与我。