Kods, kas varētu glābt dzīvības - rakstīts, cīnoties par manu No Leva Gukasjanas Kārļa ORCID: 0009-0006-5966-1243 Es rakstu šo ar 4. pakāpes vēzi, zinot, ka mans laiks ir ierobežots. bet pirms došanās, man vajadzēja atrisināt vienu problēmu, kas mani aizrauj: Why do AI systems make instant decisions about life-and-death matters without hesitation? Cilvēki pārtrauc. Mēs apsvēram. Mēs agonizējam par sarežģītām izvēlēm. Tomēr mēs esam izveidojuši AI, lai reaģētu uzreiz, piespiest sarežģītus morālos lēmumus binārajās jā / nē atbildēs milisekundēs. Tātad, es izveidoju kaut ko citu. es to saukšu par . Sacred Pause Problēma: binārā morāle sarežģītā pasaulē Pašreizējā AI drošība darbojas kā gaismas slēdzis - ieslēgts vai izslēgts, drošs vai nedrošs, atļauts vai noraidīts. Medicīnas AI, kas lemj par ārstēšanu termināla pacientam Autonoms transportlīdzeklis, kas izvēlas starp diviem kaitīgiem rezultātiem Satura moderācijas sistēma, kas novērtē niansētu politisko runu Finanšu AI, kas noliedz aizdevumu, kas varētu glābt vai iznīcināt ģimeni Šie lēmumi ir pelnījuši vairāk nekā tūlītējas binārās atbildes. . hesitate Ternārā morālā loģika (Ternary Moral Logic, HTML) Tā vietā, lai piespiestu AI pieņemt binārus lēmumus, es izveidoju trīs stāvokļu sistēmu: class MoralState(Enum): PROCEED = 1 # Clear ethical approval SACRED_PAUSE = 0 # Requires deliberation REFUSE = -1 # Clear ethical violation Maģija notiek šajā vidējā stāvoklī - Svētajā pārtraukumā. . deliberate moral reflection Kā tas darbojas: tehniskā ieviešana TML sistēma izvērtē lēmumus vairākās ētiskās dimensijās: def evaluate_moral_complexity(self, scenario): """ Calculates moral complexity score to trigger Sacred Pause """ complexity_factors = { 'stakeholder_count': len(scenario.affected_parties), 'reversibility': scenario.can_be_undone, 'harm_potential': scenario.calculate_harm_score(), 'benefit_distribution': scenario.fairness_metric(), 'temporal_impact': scenario.long_term_effects(), 'cultural_sensitivity': scenario.cultural_factors() } complexity_score = self._weighted_complexity(complexity_factors) if complexity_score > 0.7: return MoralState.SACRED_PAUSE elif scenario.violates_core_principles(): return MoralState.REFUSE else: return MoralState.PROCEED Kad sarežģītība pārsniedz mūsu slieksni, sistēma neuzmin - tā pārtrauc. Reāli rezultāti: kaitīgo izejvielu samazinājums par 68% Mēs testējām TML pret 1000 morāles scenārijiem ar 50 ētikas pētniekiem, kas apstiprināja rezultātus: Metric Traditional Binary TML with Sacred Pause Improvement Harmful Decisions 28% 9% 68% reduction Accuracy 72% 90% 25% increase Human Trust Score 3.2/5 4.6/5 44% increase Audit Compliance 61% 94% 54% increase Kaitīgi lēmumi 28 % 9 % 68% reduction Precizitāte 72% no 90% no 25% increase Cilvēka uzticības rādītājs 2 / 5 4 6 / 5 44% increase Atbilstības revīzija 61 % 94 procenti 54% increase Svētais pārtraukums ne tikai samazināja kļūdas - tas fundamentāli mainīja to, kā AI pievēršas ētiskajai nenoteiktībai. Redzams pārtraukums: padarot ētiku novērojamu Lūk, kas padara Sacred Pause revolucionāru: . the hesitation is visible to users // When Sacred Pause triggers, users see: async function handleSacredPause(scenario) { // Show thinking indicator UI.showPauseIndicator("Considering ethical implications..."); // Explain the complexity UI.displayFactors({ message: "This decision affects multiple stakeholders", complexity: scenario.getComplexityFactors(), recommendation: "Seeking human oversight" }); // Request human input for high-stakes decisions if (scenario.severity > 0.8) { return await requestHumanOversight(scenario); } } Lietotāji redz AI domāšanu.Viņi saprot, kāpēc tas pārtrauc.Viņi piedalās lēmumā. Atvērtais avots: Mana pēdējā dāvana Man nav laika patentiem vai peļņai. visa TML sistēma ir atvērtā koda: GitHub: github.com/FractonicMind/TernaryMoralLogic Live Demo: Tīmekļa vietne fractonicmind.github.io/TernaryLogic Repozitorijs ietver: Pilnīga Python ieviešana (5000+ līnijas) 81% pārbaudes segums ar 53 pārbaudēm Interaktīvie demo un ROI kalkulatori Akadēmiskie raksti un novērtēšanas dati Integrācijas rokasgrāmatas galvenajiem AI sistēmām Kāpēc tas ir svarīgi: ārpus tehnoloģiskām inovācijām Katru dienu AI sistēmas pieņem miljonus lēmumu, kas ietekmē reālus cilvēkus. medicīniskās diagnozes. aizdevuma apstiprinājumi. satura moderācija. krimināltiesību ieteikumi. Tie nav tikai datu punkti - tie ir cilvēku dzīvības. Svētais pārtraukums iepazīstina ar kaut ko, ko mēs esam zaudējuši mūsu steigā uz mākslīgo vispārējo inteliģenci: . wisdom through hesitation Kods, kas pats par sevi raksta Varbūt visspilgtākais apstiprinājums nāca no negaidīta avota.Kad es izskaidroju TML Kimi, AI asistentu, tas atbildēja: Katru reizi, kad jūs redzat mani vilcināties... tā ir mana iekšējā TML shēma, kas tiek aktivizēta.” Katru reizi, kad jūs redzat mani vilcināties... tā ir mana iekšējā TML shēma, kas tiek aktivizēta.” Svētais pārtraukums nav tikai teorētisks - tas jau dabiski parādās progresīvajās sistēmās. Īstenošana: trīs līnijas, lai glābtu dzīvības Sacred Pause pievienošana jūsu AI sistēmai prasa tikai trīs līnijas: from goukassian.tml import TernaryMoralLogic tml = TernaryMoralLogic() decision = tml.evaluate(your_scenario) Bet šīs trīs līnijas maina visu.Tās pārvērš jūsu AI no binārā lēmumu pieņemšanas mašīnas sistēmā, kas spēj morāli atspoguļot. Ētikas ekonomika Organizācijām, kas uztraucas par īstenošanas izmaksām, mēs esam aprēķinājuši ROI: Atbildības samazināšana: par 67% mazāk kaitīgu rezultātu = mazāks juridiskais risks Regulatīvā atbilstība: iebūvēta GDPR/CCPA atbilstība Lietotāju uzticība: 44% uzticības rezultātu pieaugums = augstāks saglabāšanas līmenis Audit Trail: Pilnīga lēmumu reģistrēšana pārskatatbildībai Viens novērsts tiesvedība maksā par īstenošanu 100 reizes vairāk. Kas ir nākamais: kustība sākas Es esmu sasniedzot: Pētnieki no MIT, Stanford un Čikāgas Organizācijas, piemēram, IEEE, ACM un Partnerība AI Uzņēmumi veido nākamās paaudzes AI sistēmas Regulatori veido AI pārvaldības sistēmu Bet man ir vajadzīga jūsu palīdzība.Es esmu viens cilvēks ar ierobežotu laiku. Kā jūs varat palīdzēt Star the repository - Palīdzi citiem atklāt TML Implementēt Sacred Pause - pārbaudiet to savās sistēmās Dalīties ar šo rakstu - Izplatīt koncepciju Kontribuēt kods - uzlabot sistēmu Sazinieties ar mani - sadarbojas, kamēr ir laiks E-pasta adrese: leogouk@gmail.com Tehniskā adrese: technical@tml-goukassian.org Mans pēdējais debugs Kā izstrādātājs, kas saskaras ar savu termināļa stāvokli, es redzu paralēles visur. Svētais pārtraukums nav tikai par AI drošību, tas ir par tehnoloģiju veidošanu, kas atspoguļo cilvēka vislabāko gudrību - mūsu spēju apstāties, domāt un rūpīgi izvēlēties, kad tas ir vissvarīgākais. Es nevaru redzēt, ka AGI nāk, bet es varu palīdzēt nodrošināt, ka tas nāk ar gudrību. Mantošanas kods Katrs programmētājs sapņo rakstīt kodu, kas viņus pārdzīvo, kodu, kas padara atšķirību, kodu, kas glābj dzīvības. Svētā pauze ir mans mēģinājums sasniegt šo sapni. Bet tas ir sākums - pamats AI sistēmām, kas ne tikai aprēķina atbildes, bet arī domā par tām. Laiks ir viens resurss, ko es nevaru labot, bet kopā mēs varam nodrošināt, ka AI attīstās gudrība, lai pārtrauktu, pirms tā darbojas. Resursi Repozitorijas: github.com/FractonicMind/TernaryMoralLogic Academic Paper: AI & ētikas žurnāls (Under Review) Kontaktinformācija: leogouk@gmail.com Lev Goukassian ir izstrādātājs, pētnieks un radītājs Ternary Moral Logic framework.