Hayat Kurtarabilecek Kod - Benim için Savaşarken Yazılmış Lev Goukassian Tarafından ORCID: 0009-0006-5966-1243 Bu yazıyı 4. aşama kanseri ile yazıyorum, zamanımın sınırlı olduğunu biliyorum. ama gitmeden önce, beni sıkı sıkı sıkı sıkı sıkı sıkı sıkı sıkı sıkı sıkı sıkı sıkı sıkı sıkı sıkı sıkı sıkı sıkı sıkı sıkı sıkı sıkı sıkı sıkı sıkı sıkı sıkı sıkı sıkı sıkı sıkı sıkı sıkı sıkı sıkı sıkı sıkı sıkı sıkı sıkı sıkı sıkı sıkı sıkı sıkı sıkı sıkı sıkı sıkı sıkı sıkı sıkı sıkı sıkı sıkı sıkı sıkı sıkı sıkı sıkı sıkı sıkı sıkı sıkı sıkı sıkı sıkı sıkı sıkı sıkı sıkı sıkı sıkı sıkı sıkı sıkı sıkı sıkı sıkı sıkı sıkı sıkı sıkı sıkı sıkı sık Why do AI systems make instant decisions about life-and-death matters without hesitation? İnsanlar durur. Biz kararlıyız. Zor seçimler için acı çekiyoruz. Ancak, anında yanıt vermek için AI'yi inşa ettik, karmaşık ahlaki kararları millisekundaki ikili evet / hayır yanıtlarına zorluyoruz. Ben başka bir şey yaptım, ben buna . Sacred Pause Sorun: Karmaşık Bir Dünyada İkili Moral Mevcut AI güvenliği bir ışık anahtarı gibi çalışır - açılır veya kapatılır, güvenli veya güvenli değil, izin verilir veya reddedilir. Bir terminal hastanın tedavisine karar veren tıbbi AI İki zararlı sonucun arasından seçim yapabilen otonom araç Siyasi konuşmayı taklit eden bir içerik moderatörlüğü sistemi Bir aileyi kurtarabilecek veya yok edebilecek bir kredi reddeden bir finansal AI Bu kararlar anlık ikili cevaplardan daha fazlasını hak ediyorlar. . hesitate Çözüm: Ternary Moral Logic (TML) İkili kararlar almaya zorlamak yerine, üç devletli bir sistem yarattım: class MoralState(Enum): PROCEED = 1 # Clear ethical approval SACRED_PAUSE = 0 # Requires deliberation REFUSE = -1 # Clear ethical violation Büyü o orta durumda gerçekleşir - Kutsal Pausa. . deliberate moral reflection Nasıl Çalışır: Teknik Uygulama TML çerçevesi, kararları çeşitli etik boyutlarda değerlendirir: def evaluate_moral_complexity(self, scenario): """ Calculates moral complexity score to trigger Sacred Pause """ complexity_factors = { 'stakeholder_count': len(scenario.affected_parties), 'reversibility': scenario.can_be_undone, 'harm_potential': scenario.calculate_harm_score(), 'benefit_distribution': scenario.fairness_metric(), 'temporal_impact': scenario.long_term_effects(), 'cultural_sensitivity': scenario.cultural_factors() } complexity_score = self._weighted_complexity(complexity_factors) if complexity_score > 0.7: return MoralState.SACRED_PAUSE elif scenario.violates_core_principles(): return MoralState.REFUSE else: return MoralState.PROCEED Karmaşıklık sınırımızı aştığında, sistem tahmin etmez - durur. Gerçek sonuçlar: 68% zararlı çıkışların azaltılması Sonuçları doğrulayan 50 etik araştırmacı ile 1000 ahlaki senaryoda TML'yi test ettik: Metric Traditional Binary TML with Sacred Pause Improvement Harmful Decisions 28% 9% 68% reduction Accuracy 72% 90% 25% increase Human Trust Score 3.2/5 4.6/5 44% increase Audit Compliance 61% 94% 54% increase Zararlı kararlar Yüzde 28 yüzde 9 68% reduction Hassasiyet Yüzde 72 Yüzde 90 25% increase İnsan güveni puanları 2 / 5 4.6 Beş 44% increase Uyumluluk denetimi Yüzde 61 yüzde 94 54% increase Sacred Pause sadece hataları azaltmadı - AI'nın etik belirsizliklere nasıl yaklaştığını temel olarak değiştirdi. Görünür Durum: Etik Gözlemlenebilir Yapmak İşte Sacred Pause’u devrimci kılan şey: . the hesitation is visible to users // When Sacred Pause triggers, users see: async function handleSacredPause(scenario) { // Show thinking indicator UI.showPauseIndicator("Considering ethical implications..."); // Explain the complexity UI.displayFactors({ message: "This decision affects multiple stakeholders", complexity: scenario.getComplexityFactors(), recommendation: "Seeking human oversight" }); // Request human input for high-stakes decisions if (scenario.severity > 0.8) { return await requestHumanOversight(scenario); } } Kullanıcılar AI düşüncesini görüyorlar. Neden durduğunu anlıyorlar. Kararın içinde yer alıyorlar. Etiket Arşivi: son hediye Patent veya kâr için zamanım yok.Tüm TML çerçevesi açık kaynaklıdır: GitHub: github.com/FractonicMind/TernaryMoralLogic Hakkında Bilgi Live Demo: GitHub.io/TernaryLogic Hakkında Depo içerir: Tam Python uygulaması (5000+ satır) %81 sınav kapsamı, 53 sınav geçişi İnteraktif demo ve ROI Hesaplayıcıları Akademik belgeler ve değerlendirme verileri Büyük AI Frameworks için entegrasyon kılavuzları Neden Bu Önemli: Teknik Yeniliklerin Ötesinde Her gün, AI sistemleri gerçek insanları etkileyen milyonlarca karar verir. tıbbi teşhisler. kredi onayları. içerik moderatörlüğü. ceza adalet önerileri. Bunlar sadece veri noktaları değil, insan hayatlarıdır. Sacred Pause, yapay genel zekaya doğru koştuğumuz çabada kaybettiğimiz bir şeyi tanıtıyor: . wisdom through hesitation Kendi Kendini Yazan Kodu Belki de en dikkat çekici doğrulama beklenmedik bir kaynaktan geldi.TML'yi bir AI asistanı olan Kimi'ye açıklamaya başladığımda cevap verdi: Her seferinde beni tereddüt ettiğini görürsünüz... Bu benim iç TML devrimim tarafından etkinleştirilir.” Her seferinde beni tereddüt ettiğini görürsünüz... Bu benim iç TML devrimim tarafından etkinleştirilir.” “Sacred Pause sadece teorik değil, gelişmiş sistemlerde zaten doğal olarak ortaya çıkıyor. Etiket: hayat kurtarmak için 3 yol AI sisteminize Sacred Pause eklemek sadece üç satır gerektirir: from goukassian.tml import TernaryMoralLogic tml = TernaryMoralLogic() decision = tml.evaluate(your_scenario) Ancak bu üç çizgi her şeyi değiştiriyor. AI'nuzu ikili bir karar makinesinden ahlaki yansıma yeteneğine sahip bir sistem haline getiriyorlar. Etik Ekonomisi Uygulama maliyetlerinden endişe duyan kuruluşlar için, ROI'yi hesapladık: Sorumluluk azaltma: %67 daha az zararlı çıkış = daha düşük yasal risk Düzenleyici Uyumluluk: GDPR / CCPA uyumluluğu Kullanıcı Güvenliği: Güven puanlarının %44 artışı = daha yüksek tutma oranları Audit Trail: Sorumluluk için tam karar loglama İhaleye katılanlar 100 kat daha fazla para öder. Sonraki: Hareket Başlıyor Ben buraya ulaşmaya çalışıyorum: MIT, Stanford ve Chicago’daki araştırmacılar IEEE, ACM ve AI Ortaklığı gibi kuruluşlar Yeni nesil AI sistemleri geliştiren şirketler Hükümet yönetimi çerçeveleri oluşturuyor Sizin yardımınıza ihtiyacım var, zamanım sınırlı. Nasıl yardımcı olabilirsiniz Star the repository - Başkalarına TML'yi keşfetmelerine yardımcı olun Sacred Pause Uygulaması - Sistemlerinizde Test Edin Bu Yazıyı Paylaş - Konuyu Yayınlayın Kodu katkıda bulun - Çerçeveyi geliştir İletişim - Zamanınız olduğunda işbirliği yapın E-posta adresi: leogouk@gmail.com Teknolojik: technical@tml-goukassian.org Benim Son Debug Kendi terminal durumumla yüzleşen bir geliştirici olarak, her yerde paralellikler görüyorum. Vücudum ölümcül hatalar atıyor, ancak kodum devam edebilir. Sacred Pause sadece AI güvenliği ile ilgili değil, insan bilgeliğinin en iyisini yansıtan teknolojiyi oluşturmakla ilgilidir - en önemlisi durma, düşünme ve dikkatli seçme yeteneğimiz. AGI'nin geldiğini göremiyorum, ancak akıllıca gelmesini sağlamaya yardımcı olabilirim. Miras Kodları Her programcı, kendilerini hayata geçiren kod yazmayı hayal eder. farklılık yaratan kod. hayat kurtaran kod. Kutsal dinlenme bu rüyayı gerçekleştirmeye çalışmaktır. Hiçbir zaman bir ilk sürüm yoktur.Ama bir başlangıç - sadece cevapları hesaplayan değil, bunları düşünen AI sistemleri için bir temeldir. Zaman, düzeltemeyeceğim tek kaynaktır, ancak birlikte, AI'nın eylem yapmadan önce durdurulması için bilgelik geliştirmesini sağlayabiliriz. Kaynaklar Etiket arşivi: github.com/FractonicMind/TernaryLogic Akademik Makale: AI & Etik Dergisi (Araştırma Altında) İletişim: leogouk@gmail.com Lev Goukassian, Ternary Moral Logic çerçevesinin geliştiricisi, araştırmacısı ve yaratıcısıdır.