我花了几天时间构建AI应用程序,将混乱转化为结构,给我一个混乱的数据集,一些商业逻辑和一个足够强大的模型,我可以从噪音中提取信号。 因此,当我想要了解大型语言模型真正理解什么时,我做了任何工程师都会做的事情:我进行了实验。 进入一个LLM,并要求它分析他们意味着什么。 诗人 结果在技术上是完美的,该模型识别了韵律方案,解释了比喻,绘制了对立概念之间的结构紧张度。 但是看着它工作,我意识到我犯了一个类别错误,我正在使用螺旋来测量温度。 模特不能看到的 采取一条线,如“黑暗支柱增长 / 影子缺失”LLM可以告诉你这些单词创建存在和缺席,增长和损失的对立。 它不能坐在这个短语在人体神经系统中创造的安静的不适当的位置上,其意义不在于单词本身,而在于它们在你身上创造的共鸣。 What it cannot do is feel the specific weight of growth that is shadowed by loss 诗歌不要求被解码,他们要求被体验。 真正重要的问题 这不仅仅是关于诗歌,它是关于我们在当今无处不在的LLM整合的世界中建立的产品。 我有多少次以同样的方式接近用户问题? 寻找可以提取、测量、登录和输入仪表板的内容。 构建系统对可量化指标进行了优化:参与率,转换渠道,页面时间。 我们对解码用户行为变得痴迷,在这个过程中,我们会对用户体验感到厌倦。 关于产品最重要的真理在A/B测试结果中找不到,它们在抵抗测量的东西中找到:导航令人困惑的界面所带来的微妙沮丧;当某些东西比预期更直观地工作时的意想不到的乐趣;信任由一个单一的诚实错误消息构建。 这些不是数据点,它们是人类的经验,我们最好的工具往往是盲目的。 这对于我们所构建的东西意味着什么 我们正在构建的人工智能系统将在模式识别和分析方面表现得非常出色,它们将主导任何可以分解为逻辑、数据驱动的过程的任务。 但是,抵制这种减少的东西:直觉,意义,感觉的信任感;这些仍然是深刻的人类。 我们的工作不仅仅是构建更强大的解码器,而且要有智慧来识别数据之外的内容,建立系统,为使技术值得使用的混乱、不可量化的体验留下空间。 不是所有重要的事物都能被解密,有些事物必须被活着。 这包括我们要求人们生活的产品。