Forfattere af: Yichen Zhang Han har Lei Ma Xiaofei Liu af J.J. Johannes Hjorth Alexander Kozlov Yutao han Shenjian Zhang Jeanette Hellgren Kotaleski Yonghong Tian Sten Griller Når du Tiejun Huang Forfattere af: Jæger Zhang Han har Læge Ma Xiaofei Liu af J.J. Johannes Hjorth Alexander Kozlov Yutao han af Shenjian Zhang af Jeanette Hellgren Kotaleski af Yonghong Tian Sten Griller Når du Tejun Huang Abstrakte Biophysisk detaljerede multi-division modeller er kraftfulde værktøjer til at udforske beregningsmæssige principper i hjernen og også tjene som en teoretisk ramme for at generere algoritmer til kunstige intelligens (AI) systemer. Men de dyre beregningsmæssige omkostninger alvorligt begrænser applikationer i både neurovidenskab og AI felter. Den største flaskehalse under simulering af detaljerede afdeling modeller er en simulator evne til at løse store systemer af lineære ligninger. Endritisk Hierarkisk cheduling (DHS) metode til markant at fremskynde en sådan proces. Vi teoretisk bevise, at implementeringen af DHS er beregningsmæssigt optimal og nøjagtig. Denne GPU-baserede metode udfører med 2-3 størrelsesordrer højere hastighed end den klassiske serielle Hines metode i den konventionelle CPU-platform. Vi opbygger en DeepDendrite ramme, der integrerer DHS-metoden og GPU computing engine af NEURON simulator og demonstrere applikationer af DeepDendrite i neurovidenskabelige opgaver. Vi undersøger, hvordan rumlige mønstre af spine input påvirker neuronal excitabilitet i en detaljeret human pyramid neuron model med 25.000 spines. Desuden giver vi en kort diskussion om potentialet for DeepDendrite for AI, specifikt fremhæ D H S Introduktion Beskrivelse af kodning og beregningsprincipperne for neuroner er afgørende for neurovidenskaben. Pattedyrs hjerner består af mere end tusindvis af forskellige typer af neuroner med unikke morfologiske og biophysiske egenskaber. I de seneste år har moderne kunstig intelligens (AI) udnyttet dette princip og udviklet kraftfulde værktøjer, såsom kunstige neurale netværk (ANN). Men ud over omfattende beregninger på det enkelt neuron niveau, subcellulære afdelinger, såsom neuronale dendriter, kan også udføre ikke-lineære operationer som uafhængige beregningsenheder. , , , , Desuden kan dendritiske rygsøjler, små fremspring, der tæt dækker dendriter i spinal neuroner, compartmentalisere synaptiske signaler, så de kan adskilles fra deres forældre dendriter ex vivo og in vivo. , , , . 1 2 3 4 5 6 7 8 9 10 11 Simulationer ved hjælp af biologisk detaljerede neuroner giver en teoretisk ramme for at forbinde biologiske detaljer til beregningsprincipper. , giver os mulighed for at modellere neuroner med realistiske dendritiske morfologier, intrinsic ionisk ledningsevne og extrinsic synaptiske input. , som modellerer de biophysiske membranegenskaber af dendritter som passive kabler, der giver en matematisk beskrivelse af, hvordan elektroniske signaler invaderer og spreder sig gennem komplekse neuronale processer.Ved at indarbejde kabelteori med aktive biophysiske mekanismer som ionkanaler, excitatoriske og hæmmende synaptiske strømninger osv., kan en detaljeret multi-compartment model opnå cellulære og subcellulære neuronale beregninger ud over eksperimentelle begrænsninger , . 12 13 12 4 7 Ud over sin dybe indflydelse på neurovidenskaben blev biologisk detaljerede neuronmodeller for nylig brugt til at overbryde kløften mellem neuronale strukturelle og biophysiske detaljer og AI. Den dominerende teknik i det moderne AI-felt er ANN'er bestående af punktneuroner, en analog til biologiske neurale netværk. Selvom ANN'er med "backpropagation-of-error" (backprop) algoritme opnåede bemærkelsesværdig ydeevne i specialiserede applikationer, endda slå top menneskelige professionelle spillere i spil af Go og skak , Den menneskelige hjerne overgår stadig ANN'er i domæner, der involverer mere dynamiske og støjende miljøer. , Nylige teoretiske undersøgelser tyder på, at dendritisk integration er afgørende for at generere effektive læringsalgoritmer, der potentielt overstiger backprop i parallel informationsbehandling. , , Desuden kan en enkelt detaljeret multi-division model lære netværksniveau ikke-lineære beregninger for punkt neuroner ved at justere kun den synaptiske styrke , Det er derfor af høj prioritet at udvide paradigmer i hjerne-lignende AI fra enkelt detaljerede neuronmodeller til store biologisk detaljerede netværk. 14 15 16 17 18 19 20 21 22 En langvarig udfordring ved den detaljerede simuleringstilgang ligger i dens ekstremt høje beregningsomkostninger, som har begrænset dens anvendelse til neurovidenskab og AI. Den største flaskehalse i simulationen er at løse lineære ligninger baseret på grundlæggende teorier om detaljeret modellering. , , For at forbedre effektiviteten reducerer den klassiske Hines-metode tidskompleksiteten for at løse ligninger fra O(n3) til O(n), som er blevet anvendt som kernealgoritmen i populære simulatorer som NEURON. af Genesis Men denne metode bruger en seriel tilgang til at behandle hver afdeling sekventielt.Når en simulering involverer flere biophysisk detaljerede dendriter med dendritiske spin, skaleres den lineære ligningsmatrix ("Hines Matrix") i overensstemmelse hermed med et stigende antal dendriter eller spin (Fig. ), hvilket gør Hines metode ikke længere praktisk, da det udgør en meget tung byrde på hele simuleringen. 12 23 24 25 26 1e En rekonstrueret lag-5 pyramidale neuron model og den matematiske formel anvendes med detaljerede neuron modeller. Arbejdsproces ved numerisk simulering af detaljerede neuronmodeller. Ligningsløsningsfasen er flaskehalsen i simuleringen. Et eksempel på lineære ligninger i simuleringen. Dataafhængighed af Hines-metoden ved løsning af lineære ligninger i af . Størrelsen af Hines matrix skalaer med model kompleksitet. antallet af lineære ligninger system, der skal løses gennemgår en betydelig stigning, når modeller vokser mere detaljeret. Beregningsomkostninger (trin taget i ligningsopløsningsfasen) af den serielle Hines-metode på forskellige typer neuronmodeller. Illustration af forskellige løsningsmetoder. Forskellige dele af en neuron er tildelt flere behandlingsenheder i parallelle metoder (midten, højre), vist med forskellige farver. Beregning af omkostningerne ved tre metoder Løsning af en pyramidemodel med spin. Run tid af forskellige metoder på at løse ligninger for 500 pyramidale modeller med spin. Run tid angiver tidsforbruget af 1 s simulering (løser ligningen 40.000 gange med et tidsskridt på 0,025 ms). p-Hines parallel metode i CoreNEURON (på GPU), Branch-baseret branch-baseret parallel metode (på GPU), DHS Dendritic hierarkisk planlægningsmetode (på GPU). a b c d c e f g h g i I løbet af de seneste årtier er der opnået enorme fremskridt for at fremskynde Hines-metoden ved at bruge parallelle metoder på cellulært plan, som gør det muligt at parallelisere beregningen af forskellige dele i hver celle. , , , , , Men nuværende parallelle metoder på cellulært niveau mangler ofte en effektiv paralleliseringsstrategi eller mangler tilstrækkelig numerisk nøjagtighed i forhold til den oprindelige Hines-metode. 27 28 29 30 31 32 Her udvikler vi et fuldt automatiseret, numerisk nøjagtigt og optimeret simuleringsværktøj, der kan fremskynde beregningseffektiviteten betydeligt og reducere beregningsomkostningerne.Derudover kan dette simuleringsværktøj sømløst anvendes til etablering og test af neurale netværk med biologiske detaljer til maskinlæring og AI-applikationer. Parallel computing teori Vi demonstrerer, at vores algoritme giver optimal planlægning uden tab af præcision. Desuden har vi optimeret DHS til den mest avancerede GPU-chip i øjeblikket ved at udnytte GPU-hukommelseshierarkiet og hukommelsesadgangsmekanismer. ) sammenlignet med den klassiske simulator NEURON med samme nøjagtighed. 33 34 1 25 For at muliggøre detaljerede dendritiske simulationer til brug i AI etablerer vi herefter DeepDendrite-rammen ved at integrere den DHS-embedded CoreNEURON-platform (en optimeret beregningsmotor til NEURON). som simuleringsmotoren og to hjælpemoduler (I/O-modul og læringsmodul), der understøtter dendritiske læringsalgoritmer under simuleringer. DeepDendrite kører på GPU-hardwareplatformen, der understøtter både regelmæssige simuleringsopgaver i neurovidenskab og læringsopgaver i AI. 35 Sidst men ikke mindst præsenterer vi også flere applikationer ved hjælp af DeepDendrite, der tager sigte på nogle kritiske udfordringer inden for neurovidenskab og AI: (1) Vi demonstrerer, hvordan rumlige mønstre af dendritiske spinal input påvirker neuronal aktivitet med neuroner indeholdende spinaler i hele dendritiske træer (full-spinal modeller). DeepDendrite giver os mulighed for at udforske neuronal beregning i en simuleret human pyramidal neuron model med ~25.000 dendritiske spinaler. (2) I diskussionen overvejer vi også potentialet for DeepDendrite i forbindelse med AI, specifikt i at skabe ANN'er med morfologisk detaljerede menneskelige pyramidale neuroner. Alle kildekoder til DeepDendrite, fuldspin-modellerne og den detaljerede dendritiske netværksmodel er offentligt tilgængelige online (se Code Availability).Vores open-source læringsramme kan nemt integreres med andre dendritiske læringsregler, såsom læringsregler for ikke-lineære (fuldt aktive) dendriter Burst-afhængig synaptisk plasticitet , og lære med spike forudsigelse Samlet set giver vores undersøgelse et komplet sæt værktøjer, der har potentiale til at ændre det nuværende økosystem for computational neurovidenskab.Ved at udnytte kraften i GPU-computing forudser vi, at disse værktøjer vil lette system-niveau udforskninger af computationsprincipper for hjernens fine strukturer, samt fremme samspillet mellem neurovidenskab og moderne AI. 21 20 36 Resultater Dendritisk Hierarkisk Planlægning (DHS) Beregning af ionstrømme og løsning af lineære ligninger er to kritiske faser, når man simulerer biophysisk detaljerede neuroner, som er tidskrævende og udgør alvorlige beregningsbelastninger. Som følge heraf bliver løsning af lineære ligninger den resterende flaskehal for paralleliseringsprocessen (Fig. ) af 37 1a F For at imødegå denne flaskehalse er der udviklet parallelle metoder på cellulært niveau, som fremskynder enkeltcelleberegning ved at "splitte" en enkelt celle i flere afdelinger, der kan beregnes parallelt. , , Men sådanne metoder er stærkt afhængige af forudgående viden til at generere praktiske strategier om, hvordan man opdeler en enkelt neuron i afdelinger (Fig. Det supplerende Fig. Derfor bliver det mindre effektivt for neuroner med asymmetriske morfologier, f.eks. pyramidale neuroner og Purkinje neuroner. 27 28 38 1 g i 1 Vi sigter mod at udvikle en mere effektiv og præcis parallel metode til simulering af biologisk detaljerede neurale netværk. Først, vi fastlægge kriterierne for nøjagtigheden af en cellulær-niveau parallel metode. , foreslår vi tre betingelser for at sikre, at en parallel metode vil give identiske løsninger som seriel beregning Hines-metoden i henhold til dataafhængigheden i Hines-metoden (se Metoder). 34 Baseret på simuleringsnøjagtigheden og beregningsomkostningerne formulerer vi paralleliseringsproblemet som et matematisk tidsplanlægningsproblem (se Metoder). Parallelle tråde, kan vi beregne på højst Vi har brug for at sikre, at en node kun beregnes, hvis alle dens børneknuder er blevet behandlet; vores mål er at finde en strategi med det mindste antal trin for hele proceduren. k k For at generere en optimal partition, foreslår vi en metode kaldet Dendritic Hierarchical Scheduling (DHS) (teoretisk bevis er præsenteret i metoderne). DHS-metoden omfatter to trin: analyse dendritisk topologi og finde den bedste partition: (1) Givet en detaljeret model, får vi først dens tilsvarende afhængighed træ og beregne dybden af hver node (dybden af en node er antallet af dens forfædre knuder) på træet (Fig. 2) Efter topologianalyse søger vi efter kandidaterne og vælger højst Den dybeste kandidatknuder (en node er en kandidat kun, hvis alle sine børn knuder er blevet behandlet). ) af 2a 2B og C k 2D DHS arbejdsprocesser, DHS arbejdsprocesser Den dybeste kandidat knude hver iteration. Illustration af beregning af knudedybde af en afdelingsmodel. Modellen konverteres først til en træstruktur, hvorefter dybden af hver knude beregnes. Topologi analyse på forskellige neuron modeller. Seks neuroner med forskellige morfologier er vist her. For hver model, soma er valgt som rod af træet, så dybden af knuden øges fra soma (0) til de distale dendriter. Illustration af at udføre DHS på modellen i med fire tråde. Kandidater: knuder, der kan behandles. Udvalgte kandidater: knuder, der vælges af DHS, dvs. Forarbejdede knuder: knuder, der er blevet behandlet før. Paralleliseringsstrategi opnået af DHS efter processen i Hver node er tildelt en af de fire parallelle tråde. DHS reducerer trinene i seriel knudeproduktion fra 14 til 5 ved at distribuere knudepunkter til flere tråde. Relative omkostninger, dvs. forholdet mellem beregningsomkostningerne for DHS og den serielle Hines-metode, når DHS anvendes med forskellige tal af tråde på forskellige typer modeller. a k b c d b k e d f Tag en forenklet model med 15 afdelinger som eksempel, ved hjælp af seriel beregning Hines metode, det tager 14 trin til at behandle alle noder, mens ved hjælp af DHS med fire parallelle enheder kan dele sine noder i fem delsæt (Fig. Fordi noder i samme undergruppe kan behandles parallelt, tager det kun fem trin at behandle alle noder ved hjælp af DHS (Fig. ) af 2D 2e Dernæst anvender vi DHS-metoden på seks repræsentative detaljerede neuronmodeller (valgte fra ModelDB). ) med forskellige tal af tråde (Fig. ): herunder cortical og hippocampal pyramidale neuroner , , Cerebellære Purkinje neuroner Striatale projektionsneuroner (SPN) ), og olfactory pære mitral celler , der dækker de vigtigste primære neuroner i sensoriske, kortikale og subkortikale områder. Vi målte derefter beregningsomkostningerne. Den relative beregningsomkostning her er defineret af andelen af beregningsomkostningerne for DHS til den serielle Hines-metode. De beregningsomkostninger, dvs. antallet af trin, der tages i løsning af ligninger, falder dramatisk med stigende trådtal. For eksempel med 16 tråde er beregningsomkostningerne for DHS 7%-10% i forhold til seriel Hines-metoden. Interessant nok når DHS-metoden de lavere grænser for deres beregningsomkostninger for præsenterede neuroner, når der gives 16 eller endda 8 parallelle tråde (figur. ), foreslår at tilføje flere tråde forbedrer ikke ydeevnen yderligere på grund af afhængighederne mellem afdelinger. 39 2F 40 41 42 43 44 45 2F Sammen genererer vi en DHS-metode, der muliggør automatiseret analyse af den dendritiske topologi og optimal partition til parallel beregning. Det er værd at bemærke, at DHS finder den optimale partition, før simuleringen begynder, og ingen ekstra beregning er nødvendig for at løse ligninger. Hurtigere DHS ved at øge GPU-hukommelsen DHS beregner hver neuron med flere tråde, som forbruger en stor mængde tråde, når der kører neurale netværkssimulationer. til parallel computing I teorien bør mange SP'er på GPU'en understøtte effektiv simulering for store neurale netværk (Fig. Vi observerede dog konsekvent, at effektiviteten af DHS faldt betydeligt, da netværksstørrelsen voksede, hvilket kan skyldes spredt dataopbevaring eller ekstra hukommelsestilgang forårsaget af indlæsning og skrivning af mellemliggende resultater (Fig. til venstre) 3a og b 46 3c 3d GPU-arkitektur og dens hukommelseshierarki. Hver GPU indeholder massive processorenheder (stream processorer). Forskellige typer hukommelse har forskellig gennemsnit. Hver SM indeholder flere streamingprocessorer, registre og L1-cache. Anvendelse af DHS på to neuroner, hver med fire tråde. Memory optimalisering strategi på GPU. Top panel, tråd tildeling og data lagring af DHS, før (venstre) og efter (højre) hukommelse boost. Bottom, et eksempel på et enkelt trin i triangularisering, når man simulerer to neuroner i Processorer sender en dataforespørgsel for at indlæse data for hver tråd fra global hukommelse.Uden hukommelsesboosting (venstre), tager det syv transaktioner at indlæse alle anmodningsdata og nogle ekstra transaktioner for mellemliggende resultater.Med hukommelsesboosting (højre) tager det kun to transaktioner at indlæse alle anmodningsdata, registre bruges til mellemliggende resultater, som yderligere forbedrer hukommelsespredning. Køretid af DHS (32 tråde hver celle) med og uden hukommelse boosting på flere lag 5 pyramidemodeller med spin. Fremskyndelse af hukommelsesforstærkning på multi-layer 5-pyramidemodeller med spin. a b c d d e f Vi løser dette problem ved hjælp af GPU-hukommelsesboosting, en metode til at øge hukommelsesgennemstrømningen ved at udnytte GPU'ens hukommelseshierarki og adgangsmekanisme.Baseret på GPU'ens hukommelsesloading-mekanisme fører efterfølgende tråde ved indlæsning af justerede og successivt lagrede data til en høj hukommelsesgennemstrømning sammenlignet med adgang til scatter-lagrede data, hvilket reducerer hukommelsesgennemstrømningen. , For at opnå høj gennemstrømning justerer vi først nodens beregningsordrer og omarrangerer trådene i henhold til antallet af noder på dem. Derefter permuterer vi dataopbevaring i globalt hukommelse, der er i overensstemmelse med beregningsordrer, dvs. noder, der behandles på samme trin, gemmes successivt i globalt hukommelse. Desuden bruger vi GPU-registre til at gemme mellemliggende resultater, hvilket yderligere styrker hukommelsespredning. Eksemplet viser, at hukommelsesforstærkning kun tager to hukommelsetransaktioner til at indlæse otte anmodningsdata (figur. Desuden eksperimenter på flere tal af pyramidale neuroner med rygsøjler og de typiske neuron modeller (Fig. Det supplerende Fig. ) viser, at hukommelsesforstærkning opnår en 1,2-3,8 gange acceleration i forhold til den naive DHS. 46 47 3d 3e og f 2 For omfattende at teste ydeevnen af DHS med GPU hukommelse boost, vi vælge seks typiske neuron modeller og evaluere løbetiden for at løse kabel ligninger på massive tal af hver model (Fig. Vi undersøgte DHS med fire tråde (DHS-4) og seksten tråde (DHS-16) for hver neuron, henholdsvis. Desuden, sammenlignet med den konventionelle serielle Hines metode i NEURON kører med en enkelt tråd af CPU, DHS accelererer simuleringen med 2-3 størrelsesordener (Supplementary Fig. ), samtidig med at den identiske numeriske nøjagtighed bevares i nærvær af tætte spindler (supplementære fig. og ), aktive dendriter (Supplementary Fig. ) og forskellige segmenteringsstrategier (Supplementary Fig. ) af 4 4a 3 4 8 7 7 Runtime af løsning af ligninger for en 1 s simulering på GPU (dt = 0,025 ms, 40.000 iterationer i alt). CoreNEURON: den parallelle metode, der anvendes i CoreNEURON; DHS-4: DHS med fire tråde for hver neuron; DHS-16: DHS med 16 tråde for hver neuron. , der Visualisering af partitionen af DHS-4 og DHS-16, hver farve angiver en enkelt tråd. a b c DHS skaber celletype-specifik optimal partitionering For at få indsigt i arbejdsmekanismen i DHS-metoden visualiserede vi partitioneringsprocessen ved at kortlægge afdelinger til hver tråd (hver farve præsenterer en enkelt tråd i figur. Visualiseringen viser, at en enkelt tråd ofte skifter mellem forskellige grene (Fig. Interessant, DHS genererer justerede partitioner i morfologisk symmetriske neuroner såsom den striatale projektionsneuron (SPN) og mitralcellen (Fig. I modsætning hertil genererer det fragmenterede partitioner af morfologisk asymmetriske neuroner som pyramidale neuroner og Purkinje-cellen (Fig. ), hvilket indikerer, at DHS opdeler det neurale træ på individuel afdeling skala (dvs. træ knude) i stedet for gren skala. 4B og C 4B og C 4B og C 4B og C Sammenfattende genererer DHS og hukommelsesforstærkning en teoretisk bevist optimal løsning til løsning af lineære ligninger parallelt med hidtil uset effektivitet. Ved hjælp af dette princip har vi bygget den åbne adgangsplatform DeepDendrite, som neurovidenskabsfolk kan bruge til at implementere modeller uden nogen specifik GPU-programmeringskendskab. Nedenfor viser vi, hvordan vi kan bruge DeepDendrite i neurovidenskabelige opgaver. DHS muliggør spinal-niveau modellering Da dendritiske rygsøjler modtager størstedelen af den excitatoriske input til kortikale og hippocampale pyramidale neuroner, striatale projektionsneuroner osv., er deres morfologier og plasticitet afgørende for regulering af neuronal excitabilitet. , , , , Spine er dog for små ( ~ 1 μm længde) til at måles direkte eksperimentelt med hensyn til spændingsafhængige processer. 10 48 49 50 51 Vi kan modellere en enkelt rygsøjle med to afdelinger: ryghovedet, hvor synapserne er placeret, og rygsøjlen, der forbinder ryghovedet med dendritter Teorien forudsiger, at den meget tynde rygsøjle (0,1-0,5 um i diameter) elektronisk isolerer ryghovedet fra sin forældre dendrit, og dermed compartmentaliserer de signaler, der genereres ved ryghovedet. Imidlertid er den detaljerede model med fuldt distribuerede spindler på dendriter ("full-spine model") beregningsmæssigt meget dyr. Spin faktor , i stedet for at modelere alle spirer udtrykkeligt. her, den rygsøjlefaktoren sigter mod at tilnærme rygsøjleeffekten på cellemembranens biophysiske egenskaber . 52 53 F 54 F 54 Inspireret af tidligere arbejde af Eyal et al. , we investigated how different spatial patterns of excitatory inputs formed on dendritic spines shape neuronal activities in a human pyramidal neuron model with explicitly modeled spines (Fig. ). Noticeably, Eyal et al. employed the spine factor to incorporate spines into dendrites while only a few activated spines were explicitly attached to dendrites (“few-spine model” in Fig. 2) Værdien af spine in their model was computed from the dendritic area and spine area in the reconstructed data. Accordingly, we calculated the spine density from their reconstructed data to make our full-spine model more consistent with Eyal’s few-spine model. With the spine density set to 1.3 μm-1, the pyramidal neuron model contained about 25,000 spines without altering the model’s original morphological and biophysical properties. Further, we repeated the previous experiment protocols with both full-spine and few-spine models. We use the same synaptic input as in Eyal’s work but attach extra background noise to each sample. By comparing the somatic traces (Fig. ) and spike probability (Fig. ) in full-spine and few-spine models, we found that the full-spine model is much leakier than the few-spine model. In addition, the spike probability triggered by the activation of clustered spines appeared to be more nonlinear in the full-spine model (the solid blue line in Fig. ) than in the few-spine model (the dashed blue line in Fig. Disse resultater indikerer, at den konventionelle F-faktormetode kan undervurdere virkningen af tæt rygsøjle på beregningerne af dendritisk excitabilitet og ikke-linearitet. 51 5a F 5a F 5 B og C 5d 5d 5d Experiment setup. We examine two major types of models: few-spine models and full-spine models. Few-spine models (two on the left) are the models that incorporated spine area globally into dendrites and only attach individual spines together with activated synapses. In full-spine models (two on the right), all spines are explicitly attached over whole dendrites. We explore the effects of clustered and randomly distributed synaptic inputs on the few-spine models and the full-spine models, respectively. Somatic voltages recorded for cases in . Colors of the voltage curves correspond to Skala bar: 20 ms og 20 mV. Color-coded voltages during the simulation in at specific times. Colors indicate the magnitude of voltage. Somatic spike probability as a function of the number of simultaneously activated synapses (as in Eyal et al.’s work) for four cases in . Background noise is attached. Run time of experiments in med forskellige simuleringsmetoder. NEURON: konventionel NEURON-simulator, der kører på en enkelt CPU-core. CoreNEURON: CoreNEURON-simulator på en enkelt GPU. DeepDendrite: DeepDendrite på en enkelt GPU. a b a a c b d a e d In the DeepDendrite platform, both full-spine and few-spine models achieved 8 times speedup compared to CoreNEURON on the GPU platform and 100 times speedup compared to serial NEURON on the CPU platform (Fig. ; Supplementary Table ) while keeping the identical simulation results (Supplementary Figs. and ). Therefore, the DHS method enables explorations of dendritic excitability under more realistic anatomic conditions. 5e 1 4 8 Discussion I dette arbejde foreslår vi DHS-metoden til parallel beregning af Hines-metoden and we mathematically demonstrate that the DHS provides an optimal solution without any loss of precision. Next, we implement DHS on the GPU hardware platform and use GPU memory boosting techniques to refine the DHS (Fig. ). When simulating a large number of neurons with complex morphologies, DHS with memory boosting achieves a 15-fold speedup (Supplementary Table i forhold til GPU-metoden, der anvendes i CoreNEURON, og op til 1.500 gange hurtigere end seriel Hines-metoden i CPU-platformen (Fig. ; Supplementary Fig. and Supplementary Table Desuden udvikler vi GPU-baseret DeepDendrite-rammeværktøj ved at integrere DHS i CoreNEURON. Endelig præsenterer vi som en demonstration af DeepDendrites kapacitet en repræsentativ applikation: undersøge rygsøjleberegninger i en detaljeret pyramidaleuronmodel med 25.000 spindler. Yderligere i dette afsnit uddyber vi, hvordan vi har udvidet DeepDendrite-rammen for at muliggøre effektiv træning af biophysisk detaljerede neurale netværk. For at udforske hypotesen om, at dendriter forbedrer robustheden mod modstandsangreb Vi viser, at DeepDendrite kan understøtte både neurovidenskabssimuleringer og AI-relaterede detaljerede neurale netværksopgaver med hidtil uset hastighed, og dermed væsentligt fremme detaljerede neurovidenskabssimuleringer og potentielt for fremtidige AI-udforskninger. 55 3 1 4 3 1 56 Decades of efforts have been invested in speeding up the Hines method with parallel methods. Early work mainly focuses on network-level parallelization. In network simulations, each cell independently solves its corresponding linear equations with the Hines method. Network-level parallel methods distribute a network on multiple threads and parallelize the computation of each cell group with each thread , . With network-level methods, we can simulate detailed networks on clusters or supercomputers . In recent years, GPU has been used for detailed network simulation. Because the GPU contains massive computing units, one thread is usually assigned one cell rather than a cell group , , Med yderligere optimering opnår GPU-baserede metoder meget højere effektivitet i netværkssimulering. Men beregningen inde i cellerne er stadig seriel i netværksniveaumetoder, så de stadig ikke kan håndtere problemet, når "Hines-matrisen" af hver celle skalaer stor. 57 58 59 35 60 61 Cellular-level parallel methods further parallelize the computation inside each cell. The main idea of cellular-level parallel methods is to split each cell into several sub-blocks and parallelize the computation of those sub-blocks , . However, typical cellular-level methods (e.g., the “multi-split” method ) pay less attention to the parallelization strategy. The lack of a fine parallelization strategy results in unsatisfactory performance. To achieve higher efficiency, some studies try to obtain finer-grained parallelization by introducing extra computation operations , , or making approximations on some crucial compartments, while solving linear equations , . These finer-grained parallelization strategies can get higher efficiency but lack sufficient numerical accuracy as in the original Hines method. 27 28 28 29 38 62 63 64 Unlike previous methods, DHS adopts the finest-grained parallelization strategy, i.e., compartment-level parallelization. By modeling the problem of “how to parallelize” as a combinatorial optimization problem, DHS provides an optimal compartment-level parallelization strategy. Moreover, DHS does not introduce any extra operation or value approximation, so it achieves the lowest computational cost and retains sufficient numerical accuracy as in the original Hines method at the same time. Dendritiske rygsøjler er de mest rigelige mikrostrukturer i hjernen for projektionsneuroner i cortex, hippocampus, cerebellum og basal ganglia. Da rygsøjler modtager de fleste af de excitatoriske input i centralnervesystemet, elektriske signaler genereret af rygsøjler er den vigtigste drivkraft for storskala neuronale aktiviteter i forhuden og cerebellum , Strukturen af rygsøjlen, med en forstørret rygsøjle og en meget tynd rygsøjle - fører til overraskende høj input impedans på rygsøjlen, som kunne være op til 500 MΩ, kombinerer eksperimentelle data og den detaljerede afdeling modellering tilgang , . Due to such high input impedance, a single synaptic input can evoke a “gigantic” EPSP ( ~ 20 mV) at the spine-head level , , thereby boosting NMDA currents and ion channel currents in the spine . However, in the classic single detailed compartment models, all spines are replaced by the coefficient modifying the dendritic cable geometries Denne fremgangsmåde kan kompensere for lækagestrømme og kapacitationsstrømme for spindler. Alligevel kan den ikke reproducere den høje indgangsimpedans ved ryghovedet, hvilket kan svække excitatoriske synaptiske indgange, især NMDA-strømme, og dermed reducere ikke-lineariteten i neurons indgangs-udgangskurve. 10 11 48 65 48 66 11 F 54 On the other hand, the spine’s electrical compartmentalization is always accompanied by the biochemical compartmentalization , , , resulting in a drastic increase of internal [Ca2+], within the spine and a cascade of molecular processes involving synaptic plasticity of importance for learning and memory. Intriguingly, the biochemical process triggered by learning, in turn, remodels the spine’s morphology, enlarging (or shrinking) the spine head, or elongating (or shortening) the spine neck, which significantly alters the spine’s electrical capacity , , , . Such experience-dependent changes in spine morphology also referred to as “structural plasticity”, have been widely observed in the visual cortex , , somatosensory cortex , , motor cortex , hippocampus , and the basal ganglia In vivo. De spiller en kritisk rolle i motor og rumlig læring samt hukommelsesdannelse. Men på grund af de beregningsmæssige omkostninger udnytter næsten alle detaljerede netværksmodeller "F-faktor" -tilgangen til at erstatte faktiske spin, og er således ikke i stand til at udforske rygsøjlefunktionerne på systemniveau.Ved at drage fordel af vores ramme og GPU-platformen kan vi køre et par tusinde detaljerede neuronmodeller, hver med titusindvis af spin på en enkelt GPU, mens vi opretholder ~100 gange hurtigere end den traditionelle seriemetode på en enkelt CPU (figur. ). Therefore, it enables us to explore of structural plasticity in large-scale circuit models across diverse brain regions. 8 52 67 67 68 69 70 71 72 73 74 75 9 76 5e Et andet kritisk spørgsmål er, hvordan man forbinder dendritter til hjernefunktioner på system/netværksniveau.Det er veletableret, at dendritter kan udføre omfattende beregninger på synaptiske input på grund af berigede ionkanaler og lokale biophysiske membranegenskaber , , . For example, cortical pyramidal neurons can carry out sublinear synaptic integration at the proximal dendrite but progressively shift to supralinear integration at the distal dendrite Desuden kan distale dendriter producere regenerative begivenheder som dendritisk natriumspikes, calciumspikes og NMDA spikes/plateau potentialer. , . Such dendritic events are widely observed in mice eller endda menneskelige kortikale neuroner in vitro, which may offer various logical operations , eller gating funktioner , . Recently, in vivo recordings in awake or behaving mice provide strong evidence that dendritic spikes/plateau potentials are crucial for orientation selectivity in the visual cortex , sensory-motor integration in the whisker system , , og rumnavigation i hippocampal CA1 regionen . 5 6 7 77 6 78 6 79 6 79 80 81 82 83 84 85 To establish the causal link between dendrites and animal (including human) patterns of behavior, large-scale biophysically detailed neural circuit models are a powerful computational tool to realize this mission. However, running a large-scale detailed circuit model of 10,000-100,000 neurons generally requires the computing power of supercomputers. It is even more challenging to optimize such models for in vivo data, as it needs iterative simulations of the models. The DeepDendrite framework can directly support many state-of-the-art large-scale circuit models , , Desuden kan et enkelt GPU-kort som Tesla A100 nemt understøtte driften af detaljerede kredsløbsmodeller på op til 10.000 neuroner, hvilket giver kulstoføkonomiske og overkommelige planer for almindelige laboratorier til at udvikle og optimere deres egne detaljerede modeller i stor skala. 86 87 88 Det seneste arbejde med at afdække dendritiske roller i opgave-specifik læring har opnået bemærkelsesværdige resultater i to retninger, dvs. at løse udfordrende opgaver som billedklassificeringsdatasæt ImageNet med forenklede dendritiske netværk. , and exploring full learning potentials on more realistic neuron , . However, there lies a trade-off between model size and biological detail, as the increase in network scale is often sacrificed for neuron-level complexity , , Desuden er mere detaljerede neuronmodeller mindre matematisk håndterbare og beregningsmæssigt dyre . 20 21 22 19 20 89 21 There has also been progress in the role of active dendrites in ANNs for computer vision tasks. Iyer et al. . proposed a novel ANN architecture with active dendrites, demonstrating competitive results in multi-task and continual learning. Jones and Kording used a binary tree to approximate dendrite branching and provided valuable insights into the influence of tree structure on single neurons’ computational capacity. Bird et al. . proposed a dendritic normalization rule based on biophysical behavior, offering an interesting perspective on the contribution of dendritic arbor structure to computation. While these studies offer valuable insights, they primarily rely on abstractions derived from spatially extended neurons, and do not fully exploit the detailed biological properties and spatial information of dendrites. Further investigation is needed to unveil the potential of leveraging more realistic neuron models for understanding the shared mechanisms underlying brain computation and deep learning. 90 91 92 Som reaktion på disse udfordringer udviklede vi DeepDendrite, et værktøj, der bruger Dendritic Hierarchical Scheduling (DHS) metoden til at reducere beregningsomkostningerne betydeligt og indbefatter et I/O-modul og et læringsmodul til at håndtere store datasæt. Dette netværk viste effektive træningsevner i billedklassificeringsopgaver og opnåede ca. 25 gange hurtigere end træning på en traditionel CPU-baseret platform (Fig. ; Supplementary Table ). 6a, b 6f 1 The illustration of the Human Pyramidal Cell Network (HPC-Net) for image classification. Images are transformed to spike trains and fed into the network model. Learning is triggered by error signals propagated from soma to dendrites. Training with mini-batch. Multiple networks are simulated simultaneously with different images as inputs. The total weight updates ΔW are computed as the average of ΔWi from each network. Comparison of the HPC-Net before and after training. Left, the visualization of hidden neuron responses to a specific input before (top) and after (bottom) training. Right, hidden layer weights (from input to hidden layer) distribution before (top) and after (bottom) training. Workflow of the transfer adversarial attack experiment. We first generate adversarial samples of the test set on a 20-layer ResNet. Then use these adversarial samples (noisy images) to test the classification accuracy of models trained with clean images. Forudsig nøjagtigheden af hver model på modstanderprøver efter træning 30 epoker på MNIST (venstre) og Fashion-MNIST (højre) datasæt. Løbetid for træning og testning for HPC-Net. Batchstørrelsen er indstillet til 16. venstre, løbetid for træning en æra. højre, løbetid for testning. Parallel NEURON + Python: træning og testning på en enkelt CPU med flere kerner, ved hjælp af 40-procesparallel NEURON til at simulere HPC-Net og ekstra Python-kode til at understøtte mini-batch træning. DeepDendrite: træning og testning af HPC-Net på en enkelt GPU med DeepDendrite. a b c d e f Additionally, it is widely recognized that the performance of Artificial Neural Networks (ANNs) can be undermined by adversarial attacks —intentionally engineered perturbations devised to mislead ANNs. Intriguingly, an existing hypothesis suggests that dendrites and synapses may innately defend against such attacks Vores eksperimentelle resultater ved hjælp af HPC-Net understøtter denne hypotese, da vi observerede, at netværk udstyret med detaljerede dendritiske strukturer viste en vis øget modstandsdygtighed over for overførsel af modstandsangreb. compared to standard ANNs, as evident in MNIST af Fashion-MNIST datasets (Fig. ). This evidence implies that the inherent biophysical properties of dendrites could be pivotal in augmenting the robustness of ANNs against adversarial interference. Nonetheless, it is essential to conduct further studies to validate these findings using more challenging datasets such as ImageNet . 93 56 94 95 96 6D og E 97 In conclusion, DeepDendrite has shown remarkable potential in image classification tasks, opening up a world of exciting future directions and possibilities. To further advance DeepDendrite and the application of biologically detailed dendritic models in AI tasks, we may focus on developing multi-GPU systems and exploring applications in other domains, such as Natural Language Processing (NLP), where dendritic filtering properties align well with the inherently noisy and ambiguous nature of human language. Challenges include testing scalability in larger-scale problems, understanding performance across various tasks and domains, and addressing the computational complexity introduced by novel biological principles, such as active dendrites. By overcoming these limitations, we can further advance the understanding and capabilities of biophysically detailed dendritic neural networks, potentially uncovering new advantages, enhancing their robustness against adversarial attacks and noisy inputs, and ultimately bridging the gap between neuroscience and modern AI. Methods Simulation with DHS Københavns simulator ( ) uses the NEURON architecture and is optimized for both memory usage and computational speed. We implement our Dendritic Hierarchical Scheduling (DHS) method in the CoreNEURON environment by modifying its source code. All models that can be simulated on GPU with CoreNEURON can also be simulated with DHS by executing the following command: 35 https://github.com/BlueBrain/CoreNeuron 25 coreneuron_exec -d /path/to/models -e time --cell-permute 3 --cell-nthread 16 --gpu The usage options are as in Table . 1 Nøjagtighed af simuleringen ved hjælp af cellulær parallel beregning For at sikre nøjagtigheden af simuleringen skal vi først definere korrektheden af en parallelalgoritme på cellulært niveau for at bedømme, om det vil generere identiske løsninger i forhold til de dokumenterede korrekte serielle metoder, såsom Hines-metoden, der anvendes i NEURON-simulationsplatformen. , a parallel algorithm will yield an identical result as its corresponding serial algorithm, if and only if the data process order in the parallel algorithm is consistent with data dependency in the serial method. The Hines method has two symmetrical phases: triangularization and back-substitution. By analyzing the serial computing Hines method , we find that its data dependency can be formulated as a tree structure, where the nodes on the tree represent the compartments of the detailed neuron model. In the triangularization process, the value of each node depends on its children nodes. In contrast, during the back-substitution process, the value of each node is dependent on its parent node (Fig. ). Thus, we can compute nodes on different branches in parallel as their values are not dependent. 34 55 1d Baseret på dataafhængigheden af seriel computing Hines-metoden foreslår vi tre betingelser for at sikre, at en parallel metode vil give identiske løsninger som seriel computing Hines-metoden: (1) Træmorfologi og indledende værdier for alle noder er identiske med dem i seriel computing Hines-metoden; (2) I triangulariseringsfasen kan en node behandles, hvis og kun hvis alle dens børneknuder allerede er behandlet; (3) I back-substitution-fasen kan en node kun behandles, hvis dens moderknud er allerede behandlet. Computational cost of cellular-level parallel computing method To theoretically evaluate the run time, i.e., efficiency, of the serial and parallel computing methods, we introduce and formulate the concept of computational cost as follows: given a tree and threads (basic computational units) to perform triangularization, parallel triangularization equals to divide the node set of ind i subsets, i.e., = { , , … } where the size of each subset | | ≤ , i.e., at most nodes can be processed each step since there are only threads. The process of the triangularization phase follows the order: → → → → → , og noder i samme undergruppe kan behandles parallelt. Så vi definerer | (the size of set Det vil sige, here) as the computational cost of the parallel computing method. In short, we define the computational cost of a parallel method as the number of steps it takes in the triangularization phase. Because the back-substitution is symmetrical with triangularization, the total cost of the entire solving equation phase is twice that of the triangularization phase. T k V T n V V1 V2 Vn Vi k k k V1 V2 af Vn Vi V V n Matematiske planlægningsproblemer Based on the simulation accuracy and computational cost, we formulate the parallelization problem as a mathematical scheduling problem: Giv et træ = { , der En positiv helhed Hvor hvor Det er node-set og is the edge set. Define partition ( ) = { , ... ... Og så er der 1 ≤ ≤ n, where | Kardinalsæt angiver det cardinale antal af , i.e., the number of nodes in , and for each node ∈ , all its children nodes { Køge ∈children( må i en tidligere undergruppe , where 1 ≤ < . Our goal is to find an optimal partition ( ) hvis beregningsomkostninger ( Det er et minimum. T V E k V E P V V1 af V2 Vn Vi k i Vi Vi Vi v Vi c c v Vj j i P* V P* V Her er underlaget consists of all nodes that will be computed at -th step (Fig. ), so | | ≤ indicates that we can compute nodes each step at most because the number of available threads is Begrænsningen ”for hver node” ∈ , all its children nodes { Køge ∈children( må i en tidligere undergruppe hvor 1 ≤ < Det betyder, at knuden kan kun behandles, hvis alle dets børneknuder behandles. Vi i 2e Vi k k k v Vi c c v Vj j i v DHS implementation We aim to find an optimal way to parallelize the computation of solving linear equations for each neuron model by solving the mathematical scheduling problem above. To get the optimal partition, DHS first analyzes the topology and calculates the depth ( ) for all nodes ∈ . Then, the following two steps will be executed iteratively until every node ∈ is assigned to a subset: (1) find all candidate nodes and put these nodes into candidate set En node er kun en kandidat, hvis alle dens barnnoder er blevet behandlet, eller hvis den ikke har nogen barnnoder. , i.e., the number of candidate nodes is smaller or equivalent to the number of available threads, remove all nodes in and put them into , otherwise, remove deepest nodes from and add them to subset Label disse knuder som behandlede knuder (Fig. Efter at have udfyldt underordnet Gå til trin (1) for at udfylde næste undergruppe . d v v V v V Q Q k Q V*i k Q Vi 2d Vi Vi + 1 Correctness proof for DHS Efter at have anvendt DHS til et neuralt træ = { , Vi får en partition ( ) = { , , … }, | | ≤ 1 ≤ ≤ . Nodes in the same subset vil blive beregnet i parallel, idet steps to perform triangularization and back-substitution, respectively. We then demonstrate that the reordering of the computation in DHS will result in a result identical to the serial Hines method. T V E P V V1 V2 Vn Vi k i n Vi n Den partition ( ) opnået fra DHS bestemmer beregningsrækkefølgen af alle knuder i et neuralt træ. nedenfor demonstrerer vi, at beregningsrækkefølgen bestemt af ( d) opfylder betingelserne for korrekthed. ( ) er opnået fra det givne neurale træ Operationer i DHS ændrer ikke træ topologi og værdier af træ noder (svarende værdier i de lineære ligninger), så træ morfologi og indledende værdier af alle noder er ikke ændret, hvilket opfylder betingelse 1: træ morfologi og indledende værdier af alle noder er identiske med dem i serielle Hines metode. To af Som vist i implementeringen af DHS, alle noder i delsæt De er udvalgt fra kandidatsættet En node kan indsættes i Kun hvis alle sine børneknuder er blevet behandlet. De er i , , … }, meaning that a node is only computed after all its children have been processed, which satisfies condition 2: in triangularization, a node can be processed if and only if all its child nodes are already processed. In back-substitution, the computation order is the opposite of that in triangularization, i.e., from to . As shown before, the child nodes of all nodes in De er i , , … Således forældres noder af noder i are in { , , … }, which satisfies condition 3: in back-substitution, a node can be processed only if its parent node is already processed. P V P V P V T V1 af Vn Vi Q Q Vi V1 af V2 Vi1 Vn V1 Vi V1 V2 Vi1 Vi Vi+1 Vi+2 Vn Optimering af DHS Tanken med beviset er, at hvis der er en anden optimal løsning, kan den omdannes til vores DHS-løsning uden at øge antallet af trin, som algoritmen kræver, hvilket indikerer, at DHS-løsningen er optimal. For hver undergruppe i ( DHS bevæger sig (tråd nummer) dybeste knuder fra det tilsvarende kandidat sæt To af Hvis antallet af knuder i er mindre end Flyt alle noder fra To af For at gøre det nemmere, indfører vi angiver summen af dybden af De dybeste knuder i Alle underordnede i ( ) opfylde de maksimale dybde kriterier (Tilføjelsesfigur. Vi beviser derefter, at valg af de dybeste knuder i hver iteration gør Hvis der er en optimal partition Det er { , der ... ... } indeholder delsæt, der ikke opfylder kriterierne for maksimal dybde, kan vi ændre delsættene i ( Så alle delsæt består af de dybeste knuder fra og antallet af underordnede ( 2) Forbliver den samme efter ændring. Vi P V k Qi Vi Qi k Qi Vi af k Qi P V 6a P(V) af P * (V) V * 1 V * 2 V * s P * V Q P * V Without any loss of generalization, we start from the first subset not satisfying the criteria, i.e., . There are two possible cases that will make ikke opfylder kriterierne for maksimal dybde: (1) Nørre » Og der er nogle gyldige knuder i Det er ikke sat i ; (2) | | = Men noder i are not the deepest nodes in . V * I V*i V*i k Qi V*i V*i k V*i k Qi For tilfældet (1), fordi nogle kandidatnoder ikke er sat til , disse knudepunkter skal være i de efterfølgende undergrupper. Som | , we can move the corresponding nodes from the subsequent subsets to , which will not increase the number of subsets and make satisfy the criteria (Supplementary Fig. , top). For case (2), | Køge = , these deeper nodes that are not moved from the candidate set into must be added to subsequent subsets (Supplementary Fig. Disse dybere knudepunkter kan flyttes fra efterfølgende undergrupper til through the following method. Assume that after filling , er udvalgt og en af de -th deepest nodes is still in , thus will be put into a subsequent subset (Det er » Vi flytter først fra to + , then modify subset + as follows: if | + af | ≤ Ingen af knoglerne i + is the parent of node , stop modifying the latter subsets. Otherwise, modify + as follows (Supplementary Fig. Hvis forældremodtageren af is in + , move this parent node to + ; else move the node with minimum depth from + to + . After adjusting , modify subsequent subsets + , der + af , … med samme strategi. til sidst, bevæge sig from to . V * I V*i < k V*i V * I 6b V * I k Qi V*i 6b V*i V * I v k v’ Qi V’ V*j j i v V*i V * I 1 V*i 1 V * I 1 k V * I 1 v V * I 1 6c v V*i 1 V*i 2 V * I 1 V*i 2 V * I V*i 1 V*i 2 V*j-1 v’ V*j V * I Med den ændringsstrategi, der er beskrevet ovenfor, kan vi erstatte alle fladere knuder i Med den Den dybeste knude i and keep the number of subsets, i.e., | ( )| the same after modification. We can modify the nodes with the same strategy for all subsets in ( ) that do not contain the deepest nodes. Finally, all subsets ∈ ( ) can satisfy the max-depth criteria, and | ( (Dette ændrer sig ikke, når man har ændret. V*i k Qi P* V P * V V*i P * V P * V Til sidst genererer DHS en partition ( ) og alle underordnede ∈ ( ) opfylde den maksimale dybde betingelse: . for enhver anden optimal partition ( ) vi kan ændre dets delsæt for at gøre dens struktur den samme som ( ), dvs. hvert delsæt består af de dybeste knuder i kandidat-sættet, og holder ( ) the same after modification. So, the partition ( ) obtained from DHS is one of the optimal partitions. P V Vi P V P * V P V P * V | P V GPU implementering og hukommelsesforstærkning For at opnå høj hukommelsespray udnytter GPU'en hukommelseshierarkiet af (1) global hukommelse, (2) cache, (3) register, hvor global hukommelse har stor kapacitet, men lav gennemsnit, mens registre har lav kapacitet, men høj gennemsnit. GPU bruger SIMT (Single-Instruction, Multiple-Thread) arkitektur. Warps er de grundlæggende planlægningsenheder på GPU (en warp er en gruppe af 32 parallelle tråde). En warp udfører den samme instruktion med forskellige data for forskellige tråde Korrekt ordning af noderne er afgørende for denne batch af beregning i warps, for at sikre, at DHS opnår identiske resultater som den serielle Hines-metode. Når vi implementerer DHS på GPU, grupperer vi først alle celler i flere warps baseret på deres morfologier. Celler med lignende morfologier er grupperet i samme warp. Vi anvender derefter DHS på alle neuroner, der tildeler afdelingerne af hver neuron til flere tråde. Fordi neuroner er grupperet i warps, er tråde for samme neuron i samme warp. Derfor holder den intrinsiske synkronisering i warps beregningsordenen konsistent med dataafhængigheden af den serielle Hines-metode. Endelig er tråde i hver warp justeret og omarrangeret i henhold til antallet af 46 Når en warp indlæser forudindstillede og successivt lagrede data fra den globale hukommelse, kan den gøre fuld brug af cachen, hvilket fører til høj hukommelsesgennemstrømning, mens adgangen til scatter-lagrede data ville reducere hukommelsesgennemstrømningen. Efter afdeling tildeling og tråde omarrangement, vi permutere data i den globale hukommelse for at gøre det i overensstemmelse med beregningsordrer, så warps kan indlæse successivt lagrede data, når du kører programmet. Full-spine og few-spine biophysiske modeller Vi brugte den offentliggjorte menneskelige pyramidale neuron . The membrane capacitance m = 0,44 μF cm-2, membranmodstand m = 48,300 Ω cm2, and axial resistivity a = 261.97 Ω cm. In this model, all dendrites were modeled as passive cables while somas were active. The leak reversal potential l = -83.1 mV. Ion channels such as Na+ and K+ were inserted on soma and initial axon, and their reversal potentials were Na = 67,6 mV K = -102 mV respectively. All these specific parameters were set the same as in the model of Eyal, et al. , for more details please refer to the published model (ModelDB, access No. 238347). 51 c r r E E E 51 In the few-spine model, the membrane capacitance and maximum leak conductance of the dendritic cables 60 μm away from soma were multiplied by a spine factor to approximate dendritic spines. In this model, Kun de rygsøjler, der modtog synaptiske input, var udtrykkeligt knyttet til dendritter. F F In the full-spine model, all spines were explicitly attached to dendrites. We calculated the spine density with the reconstructed neuron in Eyal, et al. . The spine density was set to 1.3 μm-1, and each cell contained 24994 spines on dendrites 60 μm away from the soma. 51 The morphologies and biophysical mechanisms of spines were the same in few-spine and full-spine models. The length of the spine neck neck = 1.35 μm and the diameter hals = 0,25 μm, mens ryghovedets længde og diameter var 0,944 μm, dvs. ryghovedområdet blev indstillet til 2,8 μm2. = -86 mV. Den specifikke membrankapacitet, membranmodstand og axial resistivitet var de samme som dem for dendritter. L D El Synaptiske indgange Vi undersøgte neuronal excitabilitet for både distribuerede og klyngede synaptiske input. Alle aktiverede synapser var knyttet til ryghovedets terminal. For distribuerede input blev alle aktiverede synapser tilfældigt fordelt på alle dendriter. For klyngede input bestod hver klynge af 20 aktiverede synapser, der var jævnt fordelt på et enkelt tilfældigt udvalgt rum. Alle synapser blev aktiveret samtidig under simuleringen. AMPA-baserede og NMDA-baserede synaptiske strømninger blev simuleret som i Eyal et al.s arbejde. AMPA-ledningen blev modelleret som en dobbelt eksponentiel funktion og NMDA-ledningen som en spændingsafhængig dobbelt eksponentiel funktion. rise and nedbrydning blev indstillet til 0,3 og 1,8 ms. For NMDA-modellen, Rise og Den maksimale ledningsevne for AMPA og NMDA var 0,73 nS og 1,31 nS. τ τ τ τ Baggrundsstøj Vi tilføjede baggrundsstøj til hver celle for at simulere et mere realistisk miljø. Støjmønstre blev implementeret som Poisson spike-tog med en konstant hastighed på 1,0 Hz. Hvert mønster startede på start = 10 ms og varede indtil slutningen af simuleringen. Vi genererede 400 støjspike-tog for hver celle og knyttede dem til tilfældigt udvalgte synapser. , bortset fra at den maksimale ledningsevne af NMDA blev jævnt fordelt fra 1,57 til 3,275, hvilket resulterede i et højere AMPA til NMDA-forhold. t Synaptic Inputs Undersøgelse af neuronal excitabilitet Vi undersøgte sandsynligheden for spike, når flere synapser blev aktiveret samtidig. For distribuerede input, testede vi 14 tilfælde, fra 0 til 240 aktiverede synapser. For klusterede input, testede vi i alt 9 tilfælde, der aktiverede fra 0 til 12 cluster henholdsvis. Hver cluster bestod af 20 synapser. For hvert tilfælde i både distribuerede og klusterede input, beregnede vi sandsynligheden for spike med 50 tilfældige prøver. Spike sandsynligheden blev defineret som forholdet mellem antallet af neuroner, der blev affyret til det samlede antal prøver. Alle 1150 prøver blev simuleret samtidigt på vores DeepDendrite platform, hvilket reducerede simuleringstiden fra dage til minutter. Udførelse af AI-opgaver med platformen DeepDendrite Konventionelle detaljerede neuronsimulatorer mangler to funktionaliteter, der er vigtige for moderne AI-opgaver: (1) skiftevis udførelse af simulationer og vægtopdateringer uden tung geninitialisering og (2) samtidig behandling af flere stimulusprøver på en batchlignende måde. DeepDendrite består af tre moduler (Supplementary Fig. ): (1) et I/O-modul; (2) et DHS-baseret simuleringsmodul; (3) et læringsmodul. Når man træner en biophysisk detaljeret model til at udføre læringsopgaver, definerer brugerne først læringsreglen og fodrer derefter alle træningsprøverne til den detaljerede model til læring. I hvert trin under træningen vælger I/O-modulet et specifikt stimulus og dets tilsvarende lærer-signal (hvis det er nødvendigt) fra alle træningsprøver og vedhæfter stimulus til netværksmodellen. Derefter initialiserer den DHS-baserede simuleringsmodul modellen og starter simuleringen. Efter simuleringen opdaterer læringsmodulet alle synaptiske vægte i overensstemmelse med forskellen mellem modelresponser og lærer-signaler. 5 HPC-Net model Billedklassificering er en typisk opgave inden for AI. I denne opgave skal en model lære at genkende indholdet i et givet billede og udstede den tilsvarende label. Her præsenterer vi HPC-Net, et netværk bestående af detaljerede menneskelige pyramidale neuronmodeller, der kan lære at udføre billedklassificeringsopgaver ved hjælp af DeepDendrite-platformen. HPC-Net har tre lag, dvs. et inputlag, et skjult lag og et outputlag. Neuroner i inputlaget modtager spike-tog konverteret fra billeder som deres input. Skjulte lag neuroner modtager output af inputlag neuroner og leverer svar til neuroner i outputlaget. Svarene fra outputlag neuroner tages som den endelige output af HPC-Net. Neuroner mellem tilstødende lag er fuldt forbundet. For hver billedstimulering konverterer vi først hver normaliseret pixel til en homogen spike train. ) i billedet har det tilsvarende spike tog et konstant interspike interval Det er ( ) (in ms) which is determined by the pixel value ( ) som vist i Eq. ( ) af x og y τ x og y p x og y 1 I vores eksperiment varede simuleringen for hver stimulus 50 ms. Alle spike-tog begyndte på 9 + ISI ms og varede indtil slutningen af simuleringen. Så vi vedhæftede alle spike tog til input lag neuroner på en one-to-one måde. er givet af τ T0 where er den postsynaptiske spænding, reverseringspotentialet syn = 1 mV, the maximum synaptic conductance max = 0,05 μS, og tidskonstant Det er 0,5 ms. v E g τ Neurons in the input layer were modeled with a passive single-compartment model. The specific parameters were set as follows: membrane capacitance m = 1,0 μF cm-2, membranmodstand m = 104 Ω cm2, axial modstand a = 100 Ω cm, omvendt potentiale for passiv afdeling L = 0 mV c r r E Det skjulte lag indeholder en gruppe af menneskelige pyramidale neuron modeller, der modtager de somatiske spændinger af input lag neuroner. , og alle neuroner blev modelleret med passive kabler. m = 1.5 μF cm-2, membrane resistance m = 48,300 Ω cm2, axial modstand a = 261,97 Ω cm, og reverseringspotentialet for alle passive kabler l = 0 mV. Indtastningsneuroner kunne lave flere forbindelser til tilfældigt udvalgte steder på dendriterne af skjulte neuroner. -th synapse of the -th input neuron on neuron ’s dendrite is defined as in Eq. ( ) hvor er den synaptiske ledning, er den synaptiske vægt, er den ReLU-lignende somatiske aktiveringsfunktion, og er den somatiske spænding af -th input neuron at time . 51 c r r E k i j 4 Gijon Kvarter i t Neuroner i outputlaget blev også modelleret med en passiv single-compartment model, og hver skjult neuron kun lavet en synaptisk forbindelse til hver output neuron. ) af 4 Billedklassificering med HPC-Net For hver indgangsbilledstimulering normaliserede vi først alle pixelværdier til 0.0-1.0. Derefter konverterede vi de normaliserede pixels til spike-tog og knyttede dem til indgangsneuroner. Hvor hvor Er sandsynligheden for -th klasse forudsagt af HPC-Net, er den gennemsnitlige somatiske spænding fra 20 ms til 50 ms af udledning af neuroner, og Indikerer antallet af klasser, som svarer til antallet af output neuroner. Klassen med den maksimale forudsagte sandsynlighed er det endelige klassificeringsresultat.I dette papir byggede vi HPC-Net med 784 input neuroner, 64 skjulte neuroner og 10 output neuroner. 6 Pi er i i C Synaptic plasticitet regler for HPC-Net Inspireret af tidligere arbejde , vi bruger en gradientbaseret læringsregel til at træne vores HPC-Net til at udføre billedklassificeringsopgaven. ), where is the predicted probability for class , angiver den faktiske klasse, som stimulusbilledet tilhører, = 1 hvis indtastningsbilledet tilhører klassen , and 0 hvis ikke. 36 7 Pi er i Yi Yi i Yi When training HPC-Net, we compute the update for weight (Den synaptiske vægt af Synapse, der forbinder neuroner De to neuroner Efter simulering af hvert billede stimulus, er opdateret som vist i Eq. ( ) er: Kvarter k i j Kvarter 8 Her er læringsfrekvensen, er opdateringsværdien på tid , der , der er somatiske spændinger af neuroner og henholdsvis Er det den Synaptisk strøm aktiveret af neuroner En neuron , der sin synaptiske ledningsevne, er overførselsmodstanden mellem de Den forbundne afdeling af en neuron En neuron ’s dendrite til neuron af soma, s = 30 ms e = 50 ms er starttid og sluttid for læring henholdsvis. for output neuroner kan fejlfristen beregnes som vist i Eq. ( For skjulte neuroner beregnes fejlfristen ud fra fejlfristerne i outputlaget, givet i Eq. ( ) af t vj vi i j IJK k i j Gijon rijk k i j j t t 10 11 Da alle output neuroner er single-compartment, svarende til indgangsmodstanden i det tilsvarende rum, beregnes overførsels- og indgangsmodstanden af NEURON. Mini-batch træning er en typisk metode i dyb læring for at opnå højere forudsigelse nøjagtighed og fremskynde konvergens. DeepDendrite understøtter også mini-batch træning. Batch, vi gør batchkopier af HPC-Net. Under træningen fodres hver kopi med en anden træningsprøve fra batchen. DeepDendrite beregner først vægtopdateringen for hver kopi separat. Efter at alle kopier i den aktuelle træningsbatch er lavet, beregnes den gennemsnitlige vægtopdatering, og vægte i alle kopier opdateres med samme beløb. N N Robust mod modstanderangreb med HPC-Net For at demonstrere robustheden af HPC-Net testede vi dens forudsigelsesnøjagtighed på adversarial-prøver og sammenlignede den med en analog ANN (en med samme 784-64-10-struktur og ReLU-aktivering, for fair sammenligning i vores HPC-Net lavede hver inputneuron kun en synaptisk forbindelse til hver skjult neuron). Vi trænede først HPC-Net og ANN med det oprindelige træningssæt (original rene billeder). , at generere modstridende støj med FGSM-metoden ANN blev trænet med PyTorch , og HPC-Net blev trænet med vores DeepDendrite. For retfærdighed genererede vi modstandsdygtig støj på en væsentligt anderledes netværksmodel, en 20-lags ResNet Støjniveauet varierede fra 0,02 til 0,2.Vi eksperimenterede med to typiske datasæt, MNIST af Fashion-MNIST Resultaterne viser, at prædiktionsnøjagtigheden af HPC-Net er 19% og 16,72% højere end den analoge ANN, henholdsvis. 98 99 93 100 101 95 96 Rapportering af sammenfatning Further information on research design is available in the linket til denne artikel. Oversigt over Nature Portfolio Data tilgængelighed De data, der understøtter resultaterne af denne undersøgelse er tilgængelige i papiret, supplerende oplysninger og kildedata filer, der leveres med dette papir. – De er tilgængelige på MNIST-datasæt er offentligt tilgængeligt på Fashion-MNIST datasæt er offentligt tilgængeligt på af . Dette papir er leveret. 3 6 https://github.com/pkuzyc/DeepDendrite http://yann.lecun.com/exdb/mnist https://github.com/zalandoresearch/fashion-mnist Source data Kode tilgængelighed Kildekoden til DeepDendrite samt de modeller og koder, der bruges til at reproducere Figs. – I denne undersøgelse er de tilgængelige på . 3 6 https://github.com/pkuzyc/DeepDendrite Referencerne McCulloch, W. S. & Pitts, W. En logisk beregning af de ideer, der er immanente i nervøs aktivitet. LeCun, Y., Bengio, Y. & Hinton, G. Dyb læring. Natur 521, 436–444 (2015). Poirazi, P., Brannon, T. & Mel, B. W. Aritmetisk af undertærskel synaptisk sum i en model CA1 pyramidale celle. Neuron 37, 977–987 (2003). London, M. & Häusser, M. Dendritisk beregning. Annu. Rev. Neurosci. 28, 503-532 (2005). Branco, T. & Häusser, M. Den enkeltdendritiske gren som en grundlæggende funktionel enhed i nervesystemet. Curr. Opin. Neurobiol. 20, 494–502 (2010). Stuart, G. J. & Spruston, N. Dendritisk integration: 60 års fremskridt. Nat. Neurosci. 18, 1713–1721 (2015). Poirazi, P. & Papoutsi, A. Illuminating dendritisk funktion med beregningsmodeller. Nat. Rev. Neurosci. 21, 303-321 (2020). Yuste, R. & Denk, W. Dendritiske rygsøjler som grundlæggende funktionelle enheder af neuronal integration. Engert, F. & Bonhoeffer, T. Dendritiske ændringer i rygsøjlen forbundet med hippocampal langsigtet synaptisk plasticitet. natur 399, 66–70 (1999). Yuste, R. Dendritiske rygsøjler og distribuerede kredsløb. Neuron 71, 772–781 (2011). Yuste, R. Elektrisk compartmentalisering i dendritiske rygsøjler. Annu. Rev. Neurosci. 36, 429–449 (2013). Rall, W. Branching dendritiske træer og motoneuron membran resistivitet. Exp. Neurol. 1, 491-527 (1959). Segev, I. & Rall, W. Computational undersøgelse af en excitabel dendritisk rygsøjle. J. Neurophysiol. 60, 499-523 (1988). Silver, D. et al. Mastering spillet af gå med dybe neurale netværk og træ søgning. Nature 529, 484-489 (2016). Silver, D. et al. En generel forstærkning læringsalgoritme, der mestrer skak, shogi, og gå gennem selvspil. McCloskey, M. & Cohen, N. J. Katastrofale indblanding i forbindelsesmæssige netværk: det sekventielle læringsproblem. Fransk, R. M. Katastrofal glemsel i forbindelsesnetværk. Trends Cogn. Sci. 3, 128–135 (1999). Naud, R. & Sprekeler, H. Sparse udbrud optimerer informationsoverførsel i en multiplexed neural kode. Proc. Natl Acad. Sci. USA 115, E6329-E6338 (2018). Sacramento, J., Costa, R. P., Bengio, Y. & Senn, W. Dendritiske kortikale mikrocirkulationer tilnærme backpropagation algoritme. i Advances in Neural Information Processing Systems 31 (NeurIPS 2018) (NeurIPS*,* 2018). Payeur, A., Guerguiev, J., Zenke, F., Richards, B. A. & Naud, R. Burst-afhængig synaptisk plasticitet kan koordinere læring i hierarkiske kredsløb. Bicknell, B. A. & Häusser, M. En synaptisk læringsregel til udnyttelse af ikke-lineær dendritisk beregning. Neuron 109, 4001–4017 (2021). Moldwin, T., Kalmenson, M. & Segev, I. Den gradient clusteron: en model neuron, der lærer at løse klassificeringsopgaver via dendritiske ikke-lineariteter, strukturel plasticitet og gradient nedstigning. Hodgkin, A. L. & Huxley, A. F. En kvantitativ beskrivelse af membranstrømmen og dens anvendelse på ledning og excitation i nerven. Rall, W. Teori om fysiologiske egenskaber af dendrit. Ann. N. Y. Acad. Sci. 96, 1071-1092 (1962). Hines, M. L. og Carnevale, N. T. Neural Comput. 9, 1179-1209 (1997). Bower, J. M. & Beeman, D. i The Book of GENESIS: Exploring Realistic Neural Models with the General Neural Simulation System (eds Bower, J. M. & Beeman, D.) 17-27 (Springer New York, 1998). Hines, M. L., Eichner, H. & Schürmann, F. Neuron splittelse i computerbundne parallelle netværkssimulationer muliggør runtime skalering med dobbelt så mange processorer. Hines, M. L., Markram, H. & Schürmann, F. Helt implicit parallel simulering af enkelt neuroner. Ben-Shalom, R., Liberman, G. & Korngreen, A. Acceleration af afdelingsmodellering på en grafisk processorenhed. Tsuyuki, T., Yamamoto, Y. & Yamazaki, T. Effektiv numerisk simulering af neuronmodeller med rumlig struktur på grafiske behandlingsenheder. i Proc. 2016 International Conference on Neural Information Processing (eds Hirose894Akiraet al.) 279–285 (Springer International Publishing, 2016). Vooturi, D. T., Kothapalli, K. & Bhalla, USA Parallelizing Hines Matrix Solver i Neuron Simulations på GPU. I Proc. IEEE 24th International Conference on High Performance Computing (HiPC) 388-397 (IEEE, 2017). Huber, F. Effektiv træopløsning til hines-matricer på GPU'en. Præprint på https://arxiv.org/abs/1810.12742 (2018). Korte, B. & Vygen, J. Kombineret optimeringsteori og algoritmer 6 edn (Springer, 2018). Gebali, F. Algoritmer og parallel computing (Wiley, 2011) Kumbhar, P. et al. CoreNEURON: En optimeret beregningsmotor til NEURON-simulatoren. Front. Neuroinform. 13, 63 (2019). Urbanczik, R. & Senn, W. Læring ved den dendritiske forudsigelse af somatisk spiking. Neuron 81, 521-528 (2014). Ben-Shalom, R., Aviv, A., Razon, B. & Korngreen, A. Optimering af ionkanalmodeller ved hjælp af en parallel genetisk algoritme på grafiske processorer. Mascagni, M. En paralleliseringsalgoritme til beregning af løsninger til vilkårligt forgrenede kabelneuronmodeller. McDougal, R. A. et al. Tyve år af modelDB og videre: opbygning af væsentlige modelleringsværktøjer til fremtiden for neurovidenskab. Migliore, M., Messineo, L. & Ferrante, M. Dendritic Ih selektivt blokerer tidssummering af usynkroniserede distale input i CA1 pyramidale neuroner. Hemond, P. et al. Forskellige klasser af pyramidale celler udviser gensidigt eksklusive skydemønstre i hippocampalområdet CA3b. Hay, E., Hill, S., Schürmann, F., Markram, H. & Segev, I. Modeller af neokortikale lag 5b pyramidale celler indfanger en bred vifte af dendritiske og perisomatiske aktive egenskaber. PLoS Comput. Biol. 7, e1002107 (2011). Masoli, S., Solinas, S. & D’Angelo, E. Handlingspotentiale behandling i en detaljeret purkinje celle model afslører en kritisk rolle for axonal compartmentalization. Lindroos, R. et al. Basal ganglia neuromodulation over flere tidsmæssige og strukturelle skalaer - simuleringer af direkte vej MSN'er undersøger den hurtige begyndelse af dopaminergiske virkninger og forudsiger rollen af Kv4.2. Migliore, M. et al. Synaptic klynger fungerer som lugtoperatorer i den olfactory pære. Proc. Natl Acad. Sci. USa 112, 8499-8504 (2015). NVIDIA. CUDA C++ Programmeringsvejledning. https://docs.nvidia.com/cuda/cuda-c-programming-guide/index.html (2021). NVIDIA. CUDA C++ Best Practices Guide. https://docs.nvidia.com/cuda/cuda-c-best-practices-guide/index.html (2021). Harnett, M. T., Makara, J. K., Spruston, N., Kath, W. L. & Magee, J. C. Synaptic forstærkning af dendritiske rygsøjler forbedrer input kooperativitet. Natur 491, 599–602 (2012). Chiu, C. Q. et al. Compartmentalization af GABAergic hæmning af dendritiske rygsøjler. Videnskab 340, 759-762 (2013). Tønnesen, J., Katona, G., Rózsa, B. & Nägerl, U. V. Spine hals plasticitet regulerer compartmentalisering af synapser. Nat. Neurosci. 17, 678–685 (2014). Eyal, G. et al. Menneskelige kortikale pyramidale neuroner: fra rygsøjler til spikes via modeller. Front. Cell. Neurosci. 12, 181 (2018). Koch, C. & Zador, A. Funktionen af dendritiske spindler: apparater, der subservere biokemisk snarere end elektrisk compartmentalisering. Koch, C. Dendritiske spindler. i Biophysics of Computation (Oxford University Press, 1999). Rapp, M., Yarom, Y. & Segev, I. Virkningen af parallel fiber baggrundsaktivitet på kabelegenskaberne i cerebellar purkinje celler. Neural Comput. 4, 518-533 (1992). Hines, M. Effektiv beregning af forgrenede nerve ligninger. Int. J. Bio-Med. Comput. 15, 69-76 (1984). Nayebi, A. & Ganguli, S. Biologically inspired protection of deep networks from adversarial attacks. Preprint at (2017). https://arxiv.org/abs/1703.09202 Goddard, N. H. & Hood, G. Large-Scale Simulation Using Parallel GENESIS. i bogen Genesis: Exploring Realistic Neural Models with the General Neural Simulation System (eds Bower James M. & Beeman David) 349-379 (Springer New York, 1998). Migliore, M., Cannia, C., Lytton, W. W., Markram, H. & Hines, M. L. Parallel netværkssimulationer med NEURON. Lytton, W. W. et al. Simuleringsneuroteknologier til fremme af hjerneforskning: parallellering af store netværk i NEURON. Neural Comput. 28, 2063-2090 (2016). Valero-Lara, P. et al. cuHinesBatch: Løsning af flere Hines systemer på GPU'er menneskelige hjerne projekt. i Proc. 2017 International Conference on Computational Science 566-575 (IEEE, 2017). Akar, N. A. et al. Arbor — Et morfologisk detaljeret neuralt netværkssimuleringsbibliotek til moderne højpræstationsarkitekturer. i Proc. 27th Euromicro International Conference on Parallel, Distributed and Network-Based Processing (PDP) 274–282 (IEEE, 2019). Ben-Shalom, R. et al. NeuroGPU: Accelerating multi-compartment, biophysisk detaljerede neuron simulationer på GPU'er. Rempe, M. J. & Chopp, D. L. A predictor-corrector algorithm for reaction-diffusion equations associated with neural activity on branched structures. , 2139–2161 (2006). SIAM J. Sci. Comput. 28 Kozloski, J. & Wagner, J. En ultraskalerbar løsning til storskala neurale vævssimulering. Front. Neuroinform. 5, 15 (2011). Jayant, K. et al. Målrettede intracellulære spændingsoptagelser fra dendritiske spindler ved hjælp af quantum-dot-belagte nanopipetter. Nat. Nanotechnol. 12, 335–342 (2017). Palmer, L. M. & Stuart, G. J. Membrane potentielle ændringer i dendritiske rygsøjler under handlingspotentialer og synaptiske input. Nishiyama, J. & Yasuda, R. Biokemisk beregning for rygsøjlens strukturelle plasticitet. Neuron 87, 63–75 (2015). Yuste, R. & Bonhoeffer, T. Morfologiske ændringer i dendritiske rygsøjler forbundet med langsigtet synaptisk plasticitet. Holtmaat, A. & Svoboda, K. Erfaringsafhængig strukturel synaptisk plasticitet i pattedyrs hjerne. Nat. Rev. Neurosci. 10, 647–658 (2009). Caroni, P., Donato, F. & Muller, D. Strukturel plasticitet ved læring: regulering og funktioner. Nat. Rev. Neurosci. 13, 478-490 (2012). Keck, T. et al. Massiv omstrukturering af neurale kredsløb under funktionel omorganisering af den voksne visuelle cortex. Nat. Neurosci. 11, 1162 (2008). Hofer, S. B., Mrsic-Flogel, T. D., Bonhoeffer, T. & Hübener, M. Erfaring efterlader et varigt strukturelt spor i kortikale kredsløb. Trachtenberg, J. T. et al. Long-term in vivo imaging of experience-dependent synaptic plasticity in adult cortex. , 788–794 (2002). Nature 420 Marik, S. A., Yamahachi, H., McManus, J. N., Szabo, G. & Gilbert, C. D. Axonal dynamik af excitatoriske og hæmmende neuroner i somatosensorisk cortex. Xu, T. et al. Hurtig dannelse og selektiv stabilisering af synapser for varige motoriske minder. natur 462, 915-919 (2009). Albarran, E., Raissi, A., Jáidar, O., Shatz, C. J. & Ding, J. B. Forbedring af motorisk læring ved at øge stabiliteten af nydannede dendritiske rygsøjler i motorbarken. Neuron 109, 3298-3311 (2021). Branco, T. & Häusser, M. Synaptic integration gradienter i enkelt cortical pyramidal cell dendrites. Neuron 69, 885–892 (2011). Major, G., Larkum, M. E. & Schiller, J. Aktive egenskaber af neocortical pyramidal neuron dendrites. Annu. Rev. Neurosci. 36, 1–24 (2013). Gidon, A. et al. Dendritiske virkningspotentialer og beregning i humant lag 2/3 kortikale neuroner. videnskab 367, 83-87 (2020). Doron, M., Chindemi, G., Muller, E., Markram, H. & Segev, I. Timed synaptic inhibition shapes NMDA spikes, influencing local dendritic processing and global I/O properties of cortical neurons. , 1550–1561 (2017). Cell Rep. 21 Du, K. et al. Cell-type-specifik hæmning af dendritisk plateau potentiale i striatale spinal projektionsneuroner. Proc. Natl Acad. Sci. USA 114, E7612-E7621 (2017). Smith, S. L., Smith, I. T., Branco, T. & Häusser, M. Dendritiske spikes forbedrer stimulus selektivitet i kortikale neuroner in vivo. Natur 503, 115-120 (2013). Xu, N.-l et al. Ikke-lineær dendritisk integration af sensorisk og motorisk input under en aktiv sensorisk opgave. Takahashi, N., Oertner, T. G., Hegemann, P. & Larkum, M. E. Aktive kortikale dendriter modulere opfattelse. Videnskab 354, 1587–1590 (2016). Sheffield, M. E. & Dombeck, D. A. Calcium forbigående forekomst på tværs af den dendritiske træ forudsiger sted feltegenskaber. Markram, H. et al. Rekonstruktion og simulering af neocortical mikrocircuitry. celle 163, 456-492 (2015). Billeh, Y. N. et al. Systematisk integration af strukturelle og funktionelle data i multi-skala modeller af mus primære visuelle cortex. Neuron 106, 388–403 (2020). Hjorth, J. et al. The microcircuits of striatum in silico. , 202000671 (2020). Proc. Natl Acad. Sci. USA 117 Guerguiev, J., Lillicrap, T. P. & Richards, B. A. Mod dyb læring med adskilte dendriter. elife 6, e22901 (2017). Iyer, A. et al. Undgå katastrofe: aktive dendriter muliggør multi-task læring i dynamiske miljøer. Front. Neurorobot. 16, 846219 (2022). Jones, I. S. & Kording, K. P. Kunne en enkelt neuron løse interessante maskinlæringsproblemer gennem successive beregninger på sit dendritiske træ? Bird, A. D., Jedlicka, P. & Cuntz, H. Dendritisk normalisering forbedrer læring i sjældent forbundne kunstige neurale netværk. Goodfellow, I. J., Shlens, J. & Szegedy, C. Forklaring og udnyttelse af modstridende eksempler. i 3. international konference om læringsrepræsentationer (ICLR) (ICLR, 2015). Papernot, N., McDaniel, P. & Goodfellow, I. Overførbarhed i maskinlæring: fra fænomener til black-box-angreb ved hjælp af modstanderprøver. Præprint på https://arxiv.org/abs/1605.07277 (2016). Lecun, Y., Bottou, L., Bengio, Y. & Haffner, P. Gradientbaseret læring anvendt til dokumentgenkendelse. Proc. IEEE 86, 2278–2324 (1998). Xiao, H., Rasul, K. & Vollgraf, R. Fashion-MNIST: et nyt billeddatasæt til benchmarking af maskinlæringsalgoritmer. Præprint på http://arxiv.org/abs/1708.07747 (2017). Bartunov, S. et al. Vurdering af skalerbarheden af biologisk motiverede dyb læring algoritmer og arkitekturer. i fremskridt i Neural Information Processing Systems 31 (NeurIPS 2018) (NeurIPS, 2018). Rauber, J., Brendel, W. & Bethge, M. Foolbox: A Python toolbox to benchmark the robustness of machine learning models. In (2017). Reliable Machine Learning in the Wild Workshop, 34th International Conference on Machine Learning Rauber, J., Zimmermann, R., Bethge, M. & Brendel, W. Foolbox native: hurtige modstandsangreb for at benchmark robustheden af maskinlæringsmodeller i PyTorch, TensorFlow og JAX. Paszke, A. et al. PyTorch: En imperativ stil, højtydende dyb læring bibliotek. i fremskridt i Neural Information Processing Systems 32 (NeurIPS 2019) (NeurIPS, 2019). Han, K., Zhang, X., Ren, S. & Sun, J. Deep residual learning for billedgenkendelse. i Proc. 2016 IEEE Conference on Computer Vision and Pattern Recognition (CVPR) 770-778 (IEEE, 2016). Anerkendelser Forfatterne takker oprigtigt Dr. Rita Zhang, Daochen Shi og medlemmer af NVIDIA for den værdifulde tekniske støtte til GPU-computing. Dette arbejde blev støttet af National Key R&D Program of China (No. 2020AAA0130400) til K.D. og T.H., National Natural Science Foundation of China (No. 61825102) til Y.T., Swedish Research Council (VR-M-2020-01652), Swedish e-Science Research Centre (SeRC), EU/Horizon 2020 No. 945539 (HBP SGA3), KTH og Digital Futures til J.H.K., J.K., A.H., PDIC og Swedish til Y.T., Swedish Research Council (VR-M-2020-01652), Swedish Research Center (SeRC), EU/Hor Denne artikel er tilgængelig i naturen under CC by 4.0 Deed (Attribution 4.0 International) licens. Denne artikel er tilgængelig i naturen under CC by 4.0 Deed (Attribution 4.0 International) licens.