E-mel yang mengganggu pengeluaran Syarikat teknologi undang-undang Seri B meletakkan seorang ejen AI untuk menangani eskalasi tinjauan kontrak. ejen ini mempunyai akses kepada setiap tiket sokongan, setiap thread e-mel pelanggan, dan pangkalan pengetahuan 200 halaman. Agen itu menangkap kes edge, menandakan risiko, memberikan arahan yang tepat. Day one: Agen mula bertentangan dengan diri sendiri melalui thread. Day three: dengan yakin memberitahu pelanggan perkara-perkara yang secara langsung bertentangan dengan keputusan yang dibuat dua minggu sebelumnya dalam pertukaran e-mel yang tidak boleh diselesaikan. Day seven: Masalahnya bukan model. GPT-5 sangat baik dalam analisis kontrak apabila anda memberi ia kontrak yang bersih. Masalahnya ialah bahawa agen tidak mempunyai idea apa yang sebenarnya berlaku. Ia tidak boleh membina semula sejarah perbualan. Ia tidak boleh mengatakan bahawa apabila VP Produk berkata "kita akan menahan ini" dalam mesej 6 daripada benang e-mel 18, keputusan itu menggantikan segala-galanya yang datang sebelum. Ia tidak dapat mendeteksi bahawa tiga hari diam selepas "Saya akan melihat ke dalam ini" bermakna masalah itu telah ditinggalkan, tidak diselesaikan. Agen itu cemerlang dalam isolasi dan benar-benar hilang dalam konteks. Paradoks yang membunuh Enterprise AI Berikut ialah apa yang memecahkan kebanyakan projek AI syarikat sebelum mereka bahkan menghantar: CRM anda terstruktur. papan panduan anda terstruktur. senarai tugas anda terstruktur. Tiada apa-apa daripada itu di mana keputusan sebenar sebenarnya berlaku. Keputusan sebenar berlaku dalam thread e-mel di mana kesimpulan berkembang melalui 47 jawapan, dalam perdebatan Slack di mana seseorang berkata "nvm" dan membalikkan tiga hari perancangan, dalam Google Docs dengan perang komen dikebumikan di tepi, dalam rantaian yang dipindahkan di mana keputusan sebenar adalah dalam mesej 3 daripada 11 dan segala-galanya yang lain hanyalah konteks yang perlu anda faham mengapa. Ini berantakan, berulang, penuh dengan makna tersirat dan niat yang tidak dinyatakan. Manusia menavigasi dengan baik kerana kita menjejaki kesinambungan naratif secara automatik.Kami tahu bahawa apabila Sarah berkata "Saya akan menangani ini" dalam satu benang dan kemudian diam selama tiga minggu dalam benang yang berkaitan, terdapat penghalang yang kita perlu permukaan. AI melihat token, bukan narasi.Ia melihat teks, bukan cerita. E-mel ialah di mana AI akan mati E-mel adalah brutal sukar untuk alasan yang sama ia brutal berharga: Jawapan termasuk bahagian-bahagian setengah kutipan, mewujudkan rekursif struktur yang diikat. Forwards mewujudkan fork thread di mana perbualan bercabang ke dalam garis masa paralel. Peserta menyertai tengah-tengah konteks, jadi "kami memutuskan" bermaksud kumpulan yang berbeza pada titik yang berbeza. Tone shifts isyarat risiko, tiga "dengar baik" jawapan yang diikuti oleh "sebenarnya, soalan cepat" biasanya bermakna perjanjian sedang dibubarkan. lampiran membawa logik perniagaan tetapi merujuk secara tidak langsung. Orang berkata "Saya akan menghantarnya pada hari Jumaat" bukannya "tugas yang ditugaskan dengan tarikh tamat pada 22 November." E-mel ialah arsitektur perbualan yang dibungkus di sekeliling teks. Memahami ia memerlukan membina semula logik perbualan, bukan hanya memproses ayat. Jadi semua orang cuba empat penyelesaian yang sama.Mereka semua gagal untuk sebab yang sama. Penyelesaian Yang Salah Semua Mencuba Pertama Mengelakkan segala-galanya dalam prompt Teori: beri LLM semua konteks dan biarkan ia mengira. Hasilnya: lambat, mahal, rapuh, terdedah kepada halusinasi. LLM tidak menjadi lebih baik dengan lebih banyak token - mereka tenggelam. Pita e-mel 50 mungkin mempunyai 3 e-mel yang penting dan 47 yang merupakan perbualan perbualan. Model ini tidak boleh memberitahu perbezaan. Ia menimbang segala-galanya sama-sama, menjadi bingung oleh kontradiksi, dan mencipta kesimpulan yang terdengar boleh dipercayai tetapi tidak mencerminkan apa-apa yang sebenarnya berlaku. Generasi RAG (Retrieval Augmented Generation) Teori: dapatkan e-mel yang berkaitan, biarkan carian semantik menangani sisanya. Hasilnya: hebat untuk dokumen, mengerikan untuk perbualan. RAG boleh mendapatkan lima e-mel yang paling relevan. tetapi ia tidak boleh memberitahu anda bahawa jawapan pada baris 47 bertentangan dengan kesimpulan di atas. Ia tidak boleh mendeteksi bahawa "dengar baik" daripada CFO bermaksud kelulusan manakala "dengar baik" daripada seorang jurulatih tidak bermaksud apa-apa. RAG memberi anda potongan-potongan. anda memerlukan narasi. Mereka bukan perkara yang sama. Tuning yang baik Teori: Latih model pada corak komunikasi anda. Hasilnya: burung merpati yang lebih bijak, bukan ahli sejarah yang lebih baik. Fine-tuning boleh menjadikan LLM lebih baik dalam mengekstrak item tindakan daripada frasa pasukan anda. tetapi ia tidak akan membantu model memahami bahawa apabila Sarah berkomitmen kepada sesuatu dalam Thread A dan kemudian diam dalam Thread B mengenai topik yang sama selama tiga minggu, terdapat penghalang yang perlu anda ketahui. Anda tidak boleh menyesuaikan cara anda untuk memahami perbualan hidup, sentiasa berubah, pelbagai peserta yang merangkumi minggu-minggu dan merangkumi alat-alat. Kategori Custom Kami telah mencuba ini. semua orang mencuba ini. Anda akhirnya membina zoo mikro-detektor yang lemah: klasifikator perasaan, pengekstrak tugas, penanda keputusan, pengenal pemilik, penapis tarikh tamat, isyarat risiko, analisis nada. Mereka secara individu baik-baik sahaja. Bersama-sama mereka rapuh, bertentangan, dan mereka memecahkan saat seseorang menulis "Tentu, itu berfungsi" alih-alih "disetujui" atau "tidak pasti tentang ini" alih-alih "Saya mempunyai kebimbangan." Mereka tidak berkongsi konteks. mereka tidak faham bahawa frasa yang sama bermakna perkara yang berbeza bergantung kepada siapa yang mengatakannya dan bila. anda menghabiskan enam bulan membina dan menyesuaikan mereka, dan mereka masih kehilangan perkara yang penting: arc naratif perbualan. Tiada satu pun daripada penyelesaian ini menangani masalah sebenar. komunikasi manusia tidak eksplisit. ia mesti dibina semula. AI tidak gagal dalam jawapan, ia gagal dalam asumsi. Tanya LLM apa pasukan anda memutuskan minggu lepas. ia tidak boleh memberitahu anda. bukan kerana ia buruk dalam ringkasan, tetapi kerana ia tidak mempunyai asumsi yang diperlukan untuk menafsirkan apa yang berlaku. Apabila anda kekurangan asumsi yang betul, e-mel yang tidak berbahaya kelihatan marah. Rutin "mengikuti ini" ditandai sebagai mendesak apabila tidak. Komitmen utama terlepas kerana mereka dinyatakan sebagai perjanjian kebetulan. Tugas menggelonggarkan diam-diam kerana "Saya akan melihat" tidak dikenali sebagai komitmen lembut yang perlu diikuti. Perjanjian terhenti kerana agen tidak mendeteksi bahawa tiga e-mel sopan berturut-turut tanpa langkah seterusnya yang konkret bermakna prospek itu hantu. Manusia menjejaki latar belakang secara semulajadi. kita tahu hubungan. kita tahu sejarah. kita tahu bahawa orang ini sentiasa berkata "biarkan saya berfikir tentang itu" apabila mereka bermaksud tidak, dan orang itu berkata "ya mungkin" apabila mereka bermaksud ya. kita menimbang kebelakangan ini terhadap kontradiksi. kita perhatikan apabila seseorang yang biasanya responsif diam. Mesin memerlukan bantuan. secara khusus, mereka memerlukan struktur. Apa yang Kami Bangun: Enjin Konteks Sebagai gantinya, kami membina enjin yang mengubah komunikasi tidak terstruktur menjadi kecerdasan terstruktur sebelum ia pernah menyentuh model. Pikirkan ia sebagai preprocessor untuk perbualan manusia. Parsing yang mendalam dan alasan Lapisan pertama menangani penyegerakan OAuth, tarik masa nyata, pautan lampiran, normalisasi mesej. Lapisan kedua ialah di mana ia menjadi sukar: memaparkan jawapan-jawaban yang tertanam, ke hadapan, kutipan dalam baris, perubahan peserta, kesenjangan masa, resolusi rujukan. Apabila seseorang berkata "lihat dilampirkan," sistem perlu tahu mana-mana lampiran dari mana mesej yang dihantar oleh mana-mana orang pada mana-mana titik. Lapisan alasan memodelkan perbualan sebagai grafik, bukan senarai. Setiap mesej adalah node. Tanggapan mencipta tepi. Langkah ke hadapan mencipta subgraph baru. Sistem menjejaki perasaan sewaktu-waktu sebagai trend, bukan label statis. Ia menjejaki komitmen dan sama ada mereka diikuti. Ia mendeteksi apabila nada berubah daripada kolaboratif kepada pertahanan. Ia menandakan apabila seseorang membuat keputusan dan kemudian bertentangan dengannya tiga hari kemudian. Ia memperhatikan apabila tugas ditugaskan dan kemudian secara diam-diam ditinggalkan. Ia mengekstrak tugas-tugas seperti komitmen dengan pemilik, tarikh tertakluk, dan konteks. ia mengekstrak keputusan sebagai hasil dengan sejarah, perbezaan dilacak, tindak lanjut dipantau. Ia memahami bahawa "Saya tidak pasti ini betul" bermakna perkara yang berbeza bergantung kepada siapa yang bercakap dan bila. Daripada jurutera junior dua hari sebelum pelancaran, ia adalah bendera untuk tinjauan. Daripada CTO tiga minggu ke dalam projek, ia berhenti-dan-pikir semula. Sistem perlu mengetahui kedua-dua peranan dan masa untuk menafsirkan dengan betul. Produksi Struktural Enjin mengembalikan JSON yang bersih dan boleh diprediksi: keputusan dengan timestamp dan peserta, tugas dengan pemilik dan tarikh tamat, risiko dengan skor keparahan dan trend, analisis mood menunjukkan bagaimana perbincangan berkembang, penghalang apabila komitmen diam. Alih-alih cuba menafsirkan "kita akan kembali minggu depan," mereka mendapat tugas terstruktur dengan tarikh tamat tempoh yang tersirat dan bendera bahawa ini adalah penundaan lembut, bukan komitmen yang sukar. Apa yang kita pelajari untuk membina Orang Tidak Bercakap Dalam Pattern yang Boleh Dibaca Mesin Separuh komunikasi perniagaan adalah ambiguity sopan. "Got it." "Bekerja untuk saya." "Marilah kita lihat semula ini." Tiada komitmen eksplisit. Semua menyiratkan sesuatu, tetapi apa yang mereka menyiratkan bergantung kepada konteks yang anda tidak boleh mendapatkan daripada teks sahaja. Penyelesaian tidak lebih baik pattern matching.Ia adalah membina sistem yang membina semula konteks terlebih dahulu, kemudian menafsirkan corak dalam konteks itu. Perbincangan Bukan Linear, Mereka Adalah Pokok Mencipta garis masa alternatif.Seseorang CCs orang baru, dan kini terdapat dua perbincangan paralel dalam apa yang kelihatan seperti satu thread. Anda perlu membina semula keseluruhan grafik, bukan membaca secara berurutan. anda tidak boleh memproses e-mel sebagai senarai. anda perlu memprosesnya sebagai grafik aciklik yang diarahkan dengan pelbagai akar, menjejaki cabang yang aktif dan yang ditinggalkan. Struktur thread email (apa yang AI sebenarnya lihat) Message 1 ─┐ ├─ Reply 2 ── Reply 4 ── Reply 7 └─ Reply 3 ──┐ ├─ Forwarded Chain → Reply 5 └─ Reply 6 (new participant) ── Reply 8 Bahagian Aktiviti : 7, 8 Ditinggalkan : 5 Keputusan yang dibuat dalam: 7 (pertentangan perbincangan dalam cawangan 3→6) Perasaan tidak statik Satu e-mel yang tenang tidak bermakna apa-apa. trend turun sepanjang minggu bermakna segala-galanya. Isyarat itu bukan dalam mesej individu - ia berada dalam laluan. tiga e-mel "dengar baik" diikuti oleh "sebenarnya, soalan cepat" adalah penunjuk utama bahawa kesepakatan sedang dibubarkan. Agen gagal kerana mereka kekurangan kesinambungan cerita Itulah sebabnya copilot AI merasa pintar pada hari pertama dan bodoh pada hari kesepuluh.Mereka tidak ingat apa yang berlaku.Mereka tidak menjejaki bagaimana keputusan berkembang.Mereka memperlakukan setiap perbualan sebagai terpencil, apabila setiap perbualan adalah sebahagian daripada cerita yang lebih besar. Penyelesaian itu ialah membina ingatan yang berterusan di seluruh perbualan dan alat. bukan sahaja "ini ialah apa yang kami bicarakan," tetapi "ini ialah apa yang kami memutuskan, siapa yang berkomitmen kepada apa, apa yang masih terbuka, apa yang berubah, apa yang ditinggalkan." Kontinuiti cerita ialah perbezaan antara AI yang membantu dan AI yang membingungkan. Pengembang Takeaways Anda tidak boleh membina semula pemaparan e-mel dengan regex. Struktur perbualan terlalu kompleks, terlalu recursive, terlalu kontekstual untuk mencocokkan corak. Kontinuiti naratif lebih penting daripada bilangan token.Mengisi 50 e-mel ke dalam prompt memberi model bunyi, bukan konteks.Ia perlu tahu apa yang berlaku, dalam urutan apa, dan mengapa ia penting. Mereka akan cemerlang pada hari pertama dan tidak konsisten pada hari kesepuluh kerana mereka tidak mempunyai memori keputusan, tiada penjejakan komitmen, tiada kesedaran tentang bagaimana perbualan berkembang. GPT-5 sangat baik dalam berfikir apabila anda memberikannya input yang bersih dan terstruktur. Lapisan ini mesti wujud di suatu tempat.Anda sama ada membina sendiri (bulan kerja, penyelenggaraan berterusan, kes tepi yang tidak berkesudahan) atau anda menggunakan infrastruktur yang sudah mengendalikannya. Mengapa Pengembang Perlu Memperhatikan Jika anda membina dengan LangChain, LangGraph, LlamaIndex, atau kerangka kerja agensi tersuai, anda akhirnya menjatuhkan dinding batu bata yang sama: model ini memerlukan konteks terstruktur, bukan teks mentah. Setiap produk AI yang menyentuh komunikasi manusia memerlukan ini. pelanggan menyokong AI yang tidak boleh menjejaki sejarah eskalasi tidak berguna. AI undang-undang yang tidak boleh membina semula sejarah negosiasi kontrak tidak boleh menilai risiko. Segala-galanya pecah tanpa konteks terstruktur.Ini ialah lapisan yang hilang. Kami menghabiskan tiga tahun membina ia kerana e-mel adalah produk teras kami. Kebanyakan pengembang tidak mempunyai tiga tahun. mereka memerlukan lapisan ini untuk wujud supaya mereka boleh membina di atasnya. Perkhidmatan Email Intelligence API Sistem yang kami bina boleh didapati sebagai Email Intelligence API. Ia mengambil e-mel mentah dan mengembalikan isyarat yang berstruktur, bersedia untuk berfikir. Anda mendapatkan kembali tugas dengan pemilik dan tarikh tamat, keputusan dengan peserta dan sejarah, risiko dicetak dan dilacak dari masa ke masa, trend perasaan, penghalang diidentifikasi apabila komitmen terdiam. Tiada rantai segera. Tiada hasil RAG yang mengikat. Tiada pembinaan klasifikator tersuai selama enam bulan. Kami telah menjalankan ini dalam pengeluaran selama dua tahun. pemaju mengintegrasikannya dalam kurang daripada satu hari. Ia memproses berjuta-juta e-mel setiap bulan dengan ketepatan 90%+ pada pengeluaran keputusan dan pengenalan tugas. Jika anda membina alat AI yang menyentuh e-mel, chat, atau dokumen, ini adalah lapisan yang anda tidak mahu membina sendiri. Perubahan yang lebih besar Gelombang AI seterusnya tidak akan bercakap tentang model yang lebih besar, ia akan bercakap tentang konteks yang lebih baik. Kebanyakan pasukan masih cuba untuk meningkatkan prompts, cuba untuk mendapatkan GPT-5 menjadi 5% lebih baik dalam meringkaskan thread e-mel yang kacau. Botol kunci bukan model. botol kunci ialah bahawa model tidak mempunyai idea apa yang sedang berlaku. ia buta kepada sejarah anda, hubungan anda, keputusan anda, komitmen anda. ia menganalisis teks apabila apa yang ia perlukan ialah cerita. Konteks tidak datang dari web. Konteks tidak datang daripada model yang lebih besar. Konteks datang daripada kerja anda - dan kerja anda terperangkap dalam komunikasi yang tidak berstruktur yang AI tidak boleh menganalisa tanpa bantuan. Perbaiki itu, dan AI berhenti terdengar pintar dan mula berguna. Email Intelligence API adalah sebahagian daripada enjin konteks iGPT untuk pengembang AI.Jika ini adalah masalah yang anda menyelesaikan, kami telah membina infrastruktur.