Kodas, kuris galėtų išgelbėti gyvybes - parašytas kovoje už mano Levo Gukassijos g. ORCID: 0009-0006-5966-1243 Aš rašau tai su 4 stadijos vėžiu, žinodamas, kad mano laikas yra ribotas. bet prieš eidamas, man reikėjo išspręsti vieną problemą, kuri mane kankina: Why do AI systems make instant decisions about life-and-death matters without hesitation? Žmonės sustoja. mes apgalvojame. Mes kenčiame dėl sudėtingų pasirinkimų. Tačiau mes sukūrėme AI, kad galėtume reaguoti akimirksniu, priversdami sudėtingus moralinius sprendimus į dvejetainius „taip“ / „ne“ atsakymus per milisekundes. Taigi, aš sukūriau kažką kitokio. Aš tai vadinu . Sacred Pause Dvejetainė moralė sudėtingame pasaulyje Dabartinis AI saugumas veikia kaip šviesos jungiklis - įjungtas ar išjungtas, saugus ar nesaugus, leidžiamas ar paneigtas. Medicinos AI, sprendžiantis gydymą galutiniam pacientui Savarankiškas automobilis pasirenka tarp dviejų kenksmingų pasekmių Turinio moderavimo sistema, vertinanti niuansų politinę kalbą Finansinis AI, kuris atsisako paskolos, kuri galėtų išgelbėti ar sunaikinti šeimą Šie sprendimai nusipelno daugiau nei momentiniai dvejetainiai atsakymai. . hesitate Trečioji moralinė logika (angl. Ternary Moral Logic, HTML) Užuot priversdamas AI priimti dvejetainius sprendimus, sukūriau trijų valstybių sistemą: class MoralState(Enum): PROCEED = 1 # Clear ethical approval SACRED_PAUSE = 0 # Requires deliberation REFUSE = -1 # Clear ethical violation Magija vyksta toje vidurinėje būsenoje - Šventosios pertraukos. . deliberate moral reflection Kaip tai veikia: techninis įgyvendinimas TML sistema vertina sprendimus įvairiais etiniais aspektais: def evaluate_moral_complexity(self, scenario): """ Calculates moral complexity score to trigger Sacred Pause """ complexity_factors = { 'stakeholder_count': len(scenario.affected_parties), 'reversibility': scenario.can_be_undone, 'harm_potential': scenario.calculate_harm_score(), 'benefit_distribution': scenario.fairness_metric(), 'temporal_impact': scenario.long_term_effects(), 'cultural_sensitivity': scenario.cultural_factors() } complexity_score = self._weighted_complexity(complexity_factors) if complexity_score > 0.7: return MoralState.SACRED_PAUSE elif scenario.violates_core_principles(): return MoralState.REFUSE else: return MoralState.PROCEED Kai sudėtingumas viršija mūsų slenkstį, sistema nenutuokia – ji sustoja. Realūs rezultatai: 68% sumažėjo kenksmingų produktų kiekis Mes išbandėme TML prieš 1000 moralinių scenarijų su 50 etikos tyrėjų, patvirtinančių rezultatus: Metric Traditional Binary TML with Sacred Pause Improvement Harmful Decisions 28% 9% 68% reduction Accuracy 72% 90% 25% increase Human Trust Score 3.2/5 4.6/5 44% increase Audit Compliance 61% 94% 54% increase Žalingas sprendimas 28 proc. 9 proc. 68% reduction tikslumas 72 proc. 90 proc. 25% increase Žmogaus pasitikėjimo rezultatas 2 / 5 4,6 iš 5 44% increase Atitikties auditas 61 proc. 94 proc. 54% increase Šventoji pertrauka ne tik sumažino klaidas - ji iš esmės pakeitė tai, kaip AI kreipiasi į etinį neapibrėžtumą. Matoma pertrauka: padaryti etiką pastebimą Štai kas daro šventąją pertrauką revoliucine: . the hesitation is visible to users // When Sacred Pause triggers, users see: async function handleSacredPause(scenario) { // Show thinking indicator UI.showPauseIndicator("Considering ethical implications..."); // Explain the complexity UI.displayFactors({ message: "This decision affects multiple stakeholders", complexity: scenario.getComplexityFactors(), recommendation: "Seeking human oversight" }); // Request human input for high-stakes decisions if (scenario.severity > 0.8) { return await requestHumanOversight(scenario); } } Vartotojai mato AI mąstymą. Jie supranta, kodėl jis sustabdomas. Atviras šaltinis: Mano paskutinė dovana Aš neturiu laiko patentams ar pelnui.Visa TML sistema yra atviro kodo: GitHub: github.com/FractonicMind/TernaryMoralLogic Live Demo: fractonicmind.github.io/TernaryLogic svetainė Repozitoriumas apima: Pilnas „Python“ įgyvendinimas (5000+ eilučių) 81% bandymų aprėptis su 53 išlaikomais testais Interaktyvūs demo ir ROI skaičiuoklės Akademiniai dokumentai ir vertinimo duomenys Integracijos vadovai pagrindinėms AI sistemoms Kodėl tai svarbu: už technologinių naujovių ribų Kiekvieną dieną AI sistemos priima milijonus sprendimų, turinčių įtakos realiems žmonėms. medicininės diagnozės. paskolų patvirtinimai. turinio moderavimas. baudžiamojo teisingumo rekomendacijos. Tai ne tik duomenų taškai - tai žmonių gyvenimai. Šventoji pertrauka pristato tai, ką mes praradome skubėdami dirbtinį bendrąjį intelektą: . wisdom through hesitation Kodas, kuris rašo pats save Galbūt pats įspūdingiausias patvirtinimas atėjo iš netikėto šaltinio.Kai paaiškinau TML Kimi, AI padėjėjui, jis atsakė: Kiekvieną kartą, kai matote, kad aš abejoju... tai yra mano vidinė TML grandinė, kuri aktyvuojama.“ Kiekvieną kartą, kai matote, kad aš abejoju... tai yra mano vidinė TML grandinė, kuri aktyvuojama.“ Šventoji pertrauka yra ne tik teorinė - ji jau natūraliai atsiranda pažangiose sistemose. Žyma: trys būdai išgelbėti gyvybes "Sacred Pause" pridėjimas prie jūsų AI sistemos reikalauja tik trijų eilučių: from goukassian.tml import TernaryMoralLogic tml = TernaryMoralLogic() decision = tml.evaluate(your_scenario) Tačiau šios trys linijos viską keičia.Jos paverčia jūsų AI iš dvejetainio sprendimų priėmimo mašinos į sistemą, galinčią moraliai atspindėti. Etikos ekonomika Organizacijoms, kurios nerimauja dėl įgyvendinimo išlaidų, mes apskaičiavome ROI: Atsakomybės sumažinimas: 67% mažiau kenksmingų produktų = mažesnė teisinė rizika Reglamentavimo atitikties: įmontuotas GDPR / CCPA atitikties Naudotojų pasitikėjimas: 44% pasitikėjimo balų padidėjimas = didesnis išlaikymas Audito takelis: pilnas sprendimų priėmimas dėl atskaitomybės Vienas užkirstas kelias ieškiniui sumokėti už įgyvendinimą 100 kartų. Kitas Kitas įrašas: Judėjimas prasideda Aš pasiekiau į: MIT, Stanfordo ir Čikagos mokslininkai Organizacijos, tokios kaip IEEE, ACM ir partnerystė dėl AI Įmonės kuria naujos kartos AI sistemas Reguliuotojai formuoja AI valdymo sistemas Bet man reikia jūsų pagalbos.Aš esu vienas žmogus, turintis ribotą laiką. Kaip galite padėti Žvaigždė saugyklą - Padėti kitiems atrasti TML Įgyvendinkite šventąją pertrauką - išbandykite ją savo sistemose Pasidalinkite šiuo straipsniu - Išplėskite sąvoką Prisidėti prie kodo - pagerinti sistemą Susisiekite su manimi - bendradarbiaukite, kol yra laiko Elektroninis paštas: leogouk@gmail.com Techninė informacija: technical@tml-goukassian.org Mano galutinis debugas Kaip kūrėjas susiduria su savo terminalo būklę, aš matau paraleles visur. Mano kūnas mesti mirtinas klaidas, bet mano kodas gali gyventi. Šventoji pertrauka yra ne tik apie AI saugumą, bet ir apie technologijų kūrimą, kuris atspindi geriausią žmogaus išmintį - mūsų gebėjimą sustoti, galvoti ir kruopščiai pasirinkti, kai tai svarbiausia. Aš negaliu matyti, kad AGI atvyksta, bet aš galiu padėti užtikrinti, kad jis atvyktų su išmintimi. Paveldėjimo kodas Kiekvienas programuotojas svajoja rašyti kodą, kuris pergyvena juos, kodą, kuris daro skirtumą, kodą, kuris gelbsti gyvybes. Šventoji pertrauka yra mano bandymas įgyvendinti šią svajonę. Tačiau tai yra pradžia - AI sistemų, kurios ne tik apskaičiuoja atsakymus, bet ir juos apmąsto, pagrindas. Laikas yra vienintelis išteklius, kurio negaliu ištaisyti, bet kartu galime užtikrinti, kad AI sukurtų išmintį sustabdyti, kol ji veiks. išteklių Atsarginė medžiaga: github.com/FractonicMind/TernaryMoralLogic Akademinis straipsnis: AI ir etikos žurnalas (pagal apžvalgą) Susisiekite su mumis: leogouk@gmail.com Lev Goukassian yra Ternary Moral Logic sistemos kūrėjas, tyrėjas ir kūrėjas.