የቅጂ መብት: ሻጋታ ሻጋታ አግኙን Lei Ma ዚያን ዚያን J. J. Johanes Hjorth አግኙን አክሌት Kozlov Yutao He ሼንዘን ጂንግ Jeanette Hellgren Kotaleski ቻይና ቻይና ቻይና Sten Grillner አንተ Tiejun Huang የቅጂ መብት: ሻጋታ ሻጋታ አግኙን መኖሪያ ቤት ዚያን ዚያን J. J. Johanes Hjorth አግኙን አክሌት Kozlov አግኝቷል ሼንዘን ጂንግ ጄኔት Hellgren Kotaleski ቻይና ቻይና ቻይና ፎቶ ፎቶ አንተ ፎቶዎች አጠቃቀም የቢዮፊዚካል ዝርዝር multi-division ሞዴሎች በዋናነት በዋናነት የኮምፒውተር ባህሪያት ለማየት ጠንካራ መሣሪያዎች ናቸው እና ደግሞ የቴክኒካል ኢንጂነሪንግ (AI) ስርዓቶች ለአርጋሚዎች ለመፍጠር የቴክኒካል ጥቅል ሆኖ ይጠቀማሉ. ነገር ግን, የሽያጭ የኮምፒውተር ወጪ በኒውሮ ሳይንስ እና የቴክኒካል ኢንጂነሪንግ መስመሮች ውስጥ ሁለቱም መተግበሪያዎችን አስደሳች ነው. ዝርዝር የኮምፒውተር ሞዴሎች ማምረቻ ውስጥ ዋና የፋስቲክ አግኝቷል አንድ simulator የ linear equations ትልቅ ስርዓቶች ለመውሰድ ችሎታ ነው. እዚህ, እኛ አንድ አዲስ አግኝቷል መኖሪያ ቤት በይሬክ የ DHS መተግበሪያው በኮምፒውተር ስርዓቶች ላይ የተሻለ ነው. የ DHS መተግበሪያው በኮምፒውተር ስርዓቶች ላይ የተሻለ ነው. የ GPU ስርዓቶች በኮምፒውተር ስርዓቶች ላይ የተሻለ ነው. በኮምፒውተር ስርዓቶች ውስጥ በኮምፒውተር ስርዓቶች ውስጥ በኮምፒውተር ስርዓቶች ውስጥ በኮምፒውተር ስርዓቶች ላይ የተሻለ ነው. በኮምፒውተር ስርዓቶች ውስጥ በኮምፒውተር ስርዓቶች ውስጥ በኮምፒውተር ስርዓቶች ላይ የተሻለ ነው. በኮምፒውተር ስርዓቶች ላይ በኮምፒውተር ስርዓቶች ውስጥ በኮምፒውተር ስርዓቶች ላይ የተሻለ ነው. በኮምፒውተር ስርዓቶች ውስጥ በኮምፒ D H S አግኙን የኒውሮን ኮድ እና የኮምፒዩተር ባህሪያት ለመፍጠር የኒውሮን ሳይንስ ላይ አስፈላጊ ነው. የኒውሮን የኒውሮን የተለያዩ ዓይነት ከሁለቱም ከሁለቱም የኒውሮን የተለያዩ ዓይነት ከሁለቱም የኒውሮን ባህሪያት እና የኒውሮን የኒውሮን የኒውሮን የኒውሮን የኒውሮን የኒውሮን የኒውሮን የኒውሮን የኒውሮን የኒውሮን ኒውሮን የኒውሮን ኒውሮን ኒውሮን ኒውሮን ኒውሮን ኒውሮን ኒውሮን ኒውሮን ኒውሮን ኒውሮን ኒውሮን ኒውሮን ኒውሮን በይነገጽ ላይ, በይነገጽ በይነገጽ ውስጥ, በይነገጽ በይነገጽ በይነገጽ በይነገጽ በይነገጽ በይነገጽ በይነገጽ በይነገጽ በይነገጽ በይነገጽ በይነገጽ በይነገጽ በይነገጽ በይነገጽ በይነገጽ በይነገጽ በይነገጽ በይነገጽ በይነገጽ በይነገጽ በይነገጽ በይነገጽ በይነገጽ በይነገጽ በይነገጽ በይነገጽ በይነገጽ በይነገጽ በይነገጽ በይነገጽ በይነገጽ በይነገጽ በይነገጽ በይነገጽ በይነገጽ በይነገ ቢሆንም, አንድ የኒውሮን ደረጃ ላይ ሙሉ በሙሉ ትክክለኛውን ትክክለኛውን ትክክለኛውን ትክክለኛውን ትክክለኛውን ትክክለኛውን ትክክለኛውን ትክክለኛውን ትክክለኛውን ትክክለኛውን ትክክለኛውን ትክክክለኛውን ትክክለኛውን ትክክለኛውን ትክክለኛውን ትክክለኛውን ትክክለኛውን ትክክለኛውን ትክክለኛውን ትክክለኛውን ትክክለኛውን ትክክለኛውን ትክክለኛውን ትክክለኛውን ትክክለኛውን ትክክለኛውን ትክክለኛውን ትክክለኛውን ትክክለኛውን ትክክለኛውን ትክለኛውን ትክክለኛውን ትክክለኛውን ትክለኛውን ትክለኛውን ትክለኛውን ትክለኛውን ትክለኛውን , , , , በተጨማሪም, dendritic spines, በ spiny neurons ውስጥ dendrites ጋር ጥንካሬ ያካትታሉ አነስተኛ ጥንካሬዎች, sinaptic signals ማከማቻ ይችላሉ, እነርሱም ex vivo እና in vivo ከታች dendrites ይሰጣሉ. , , , . 1 2 3 4 5 6 7 8 9 10 11 የኒውሮን አጠቃቀም simulations using biologically detailed neurons provide a theoretical framework for linking biological details to computational principles.The core of the biophysically detailed multi-compartment model framework , በ Dendrites ላይ የተመሰረተ የክፍያ ሞዴል (dendrites) የኒውሮን ሞዴሎች, የ intrinsic ionic conductivity, እና extrinsic synaptic input ያደርጋል.The backbone of the detailed multi-compartment model, ie. የ Dendrites biophysical membrane properties modeling as passive cables providing a mathematical description of how electronic signals invade and propagate throughout complex neuronal processes. በ Cable theory with active biophysical mechanisms such as ion channels, excitatory and inhibitory synaptic currents, ወዘተ እንደ የአካል ብረት እና subcellular neuronal calculations ያካትታል, አንድ ዝርዝር multi-compartment model can beyond experimental limitations. , . 12 13 12 4 7 የኒውሮኒካዊ ሳይንስ ላይ አስደናቂ ውጤት ለማግኘት, የኒውሮን ሞዴሎች በኒውሮኒካዊ ንብረት እና በኒውሮኒካዊ ንብረት እና በኒውሮኒካዊ ንብረት ንብረት እና በኒውሮኒካዊ ንብረት መካከል ትብብር ለመፍጠር በአሁኑ ጊዜ ጥቅም ላይ ይውላል. በአሁኑ ጊዜ የኒውሮኒካዊ ንብረት በኒውሮኒክ ቴክኖሎጂ (ANNs) ነው, የኒውሮኒካዊ የኒውሮኒካዊ ንብረት በኒውሮኒካዊ ንብረት በኒውሮኒካዊ ንብረት በኒውሮኒካዊ ንብረት በኒውሮኒካዊ ንብረት በኒውሮኒካዊ ንብረት በኒውሮኒካዊ ንብረት (ANNs) በ "backpropagation-of-er , በአጠቃላይ, በአጠቃላይ, በአጠቃላይ, በአጠቃላይ, በአጠቃላይ, በአጠቃላይ, በአጠቃላይ, በአጠቃላይ, በአጠቃላይ, በአጠቃላይ, በአጠቃላይ, በአጠቃላይ, በአጠቃላይ, በአጠቃላይ, በአጠቃላይ, በአጠቃላይ, በአጠቃላይ, በአጠቃላይ, በአጠቃላይ, በአጠቃላይ, በአጠቃላይ, በአጠቃላይ, በአጠቃላይ, በአጠቃላይ, በአጠቃላይ, በአጠቃላይ, በአጠቃላይ, በአጠቃላይ, በአጠቃላይ, በአጠቃላይ, በአጠቃላይ, በአጠቃላይ, በአጠቃላይ. , የመጨረሻው የቴክኒካዊ ምርቶች dendritic መተግበሪያ በከፍተኛ ውጤታማ ማወቅ አግኝተዋል አግኝተዋል አግኝተዋል አግኝተዋል አግኝተዋል አግኝተዋል አግኝተዋል አግኝተዋል አግኝተዋል አግኝተዋል አግኝተዋል , , በተጨማሪም, አንድ ብቻ ዝርዝር multi-compartment ሞዴል ብቻ synaptic ጥንካሬ ለማስተካከል የኮምፒውተር ኒውሮን ለ የመስመር ላይ nonlinear ጥንካሬዎችን ማወቅ ይችላሉ. , በአጠቃላይ, የተወሰነ ሞዴሎች በጣም ጠንካራ AI ስርዓቶች ለመፍጠር ሙሉ ችሎታ ይሰጣሉ. ስለዚህ, አንድ ቀጣይ የኒውሮን ሞዴሎች ከ አንድ ቀጣይ የኒውሮን አውታረ መረብዎች ወደ የኒውሮን-ወደ-ወደ-ወደ-ወደ-ወደ-ወደ-ወደ-ወደ-ወደ-ወደ-ወደ-ወደ-ወደ-ወደ-ወደ-ወደ-ወደ-ወደ-ወደ-ወደ-ወደ-ወደ-ወደ-ወደ-ወደ-ወደ-ወደ-ወደ-ወደ-ወደ-ወደ-ወደ-ወደ-ወደ-ወደ-ወደ-ወደ-ወደ-ወደ-ወደ-ወደ-ወደ-ወደ-ወ 14 15 16 17 18 19 20 21 22 የፕላስቲክ ሲሚኒየም መተግበሪያው በጣም ከፍተኛ የኮምፒውተር ወጪዎች ውስጥ አንድ ረጅም ልምድ ነው, ይህም የኒውሮ ሳይንስ እና የቴክኒካዊ መሐንዲሶች ላይ መተግበሪያው አስደሳች ነው. የሲሚኒየም ዋና የፋስቲክ ፍጥነት የፕላስቲክ ሞዴል ለማግኘት የተመሠረተ የ linear equations መፍትሄ ነው. , , የክፍያ ውጤታማነት ለማሻሻል, የክፍያ Hines ስርዓት የ O(n3) ከ O(n) ወደ የ O(n) ስርዓቶች ለመፍጠር የጊዜ ቅርጸት ይቀንሳል, ይህም እንደ NEURON እንደ ታዋቂ ተሞክሮዎች ውስጥ የክፍያ አግኝቷል. እና Genesis ይህ ዘዴ በእያንዳንዱ ክፍሎች በመተግበሪያ ላይ አንድ ተከታታይ መተግበሪያ ይጠቀማል. አንድ simulation በ dendritic spines ጋር በርካታ biophysically ዝርዝር dendrites ያካትታሉ ጊዜ, የ linear equation matrix (“Hines Matrix”) በ dendrites ወይም spines (እር. ), Hines ቅርንጫፍ ተጨማሪ ተስማሚ አይሆንም, ምክንያቱም ይህ ሙሉ ቅርንጫፍ ላይ በጣም ጠንካራ ክብደት ያደርጋል. 12 23 24 25 26 1 እና አንድ reconstructed layer-5 pyramidal neuron ሞዴል እና ዝርዝር neuron ሞዴሎች ጋር ጥቅም ላይ የሙዚቃ ቅርጸት. የኒውሮን ሞዴሎች በኮምፒውተር ላይ ይጠቀማል ፡፡ የኒውሮን ሞዴሎች በኮምፒውተር ላይ ይጠቀማል ፡፡ በ simulation ውስጥ የ linear equations ምሳሌ ነው. የ Hines method data dependency when solving the linear equations in a linear equation ያግኙ የ Hines Matrix መጠን ሞዴል ትክክለኛነት ጋር መጠን ያካትታል. የ linear equation system መጠን በተመለከተ ሞዴሎች ይበልጥ ዝርዝር ይበልጥ ይጨምራል. የኮምፒዩተር ወጪ (የእነዚህ ደረጃዎች) በይነመረብ ሞዴሎች የተለያዩ አይነት ላይ በይነመረብ ሞዴል Hines ስርዓት. አንድ የኒውሮን የተለያዩ ክፍሎች በተመሳሳይ መንገድ (ስሜት, ደህና), የተለያዩ ቀለምዎች ጋር ይታያል. በተመሳሳይ መንገድ (ስሜት), ሁሉም ክፍሎች አንድ ክፍሎች ጋር ያካትታል. የኮምፒዩተር ክፍያዎች በ 3 ደረጃዎች አንድ ፒራሚዲል ሞዴል ጋር ተመሳሳይነት ለመውሰድ. የ 500 pyramidal ሞዴሎች በ spines ጋር ቅርንጫፍ መፍትሔ ላይ የተለያዩ ቅርንጫፍ ጊዜ ይሰራል. የ Runtime በ 1 s simulation (የ ቅርንጫፍ 40,000 ጊዜ በ 0.025 ms ጊዜ ደረጃ ጋር መፍትሔ) የጊዜ አጠቃቀም ይሰጣል. p-Hines በ CoreNEURON (በ GPU ላይ), Branch-based branch-based parallel method (በ GPU ላይ), DHS Dendritic በይራክሊክ ማረፊያ ቅርንጫፍ ቅርንጫፍ (በ GPU ላይ). a b c d c e f g h g i ከሁለቱም ዓመታት ውስጥ, በሲሜል ደረጃ ላይ ተለዋዋጭ ዘዴዎችን በመጠቀም በይነገጽ Hines ዘዴን ለማሻሻል ታላቅ ልምድ ተደርጓል, ይህም እያንዳንዱ የሲሜል ውስጥ የተለያዩ ክፍሎች ያለውን ማከማቻን ተለዋዋጭ ሊሆን ይችላል. , , , , , ቢሆንም, በአሁኑ የሲሜል-የጥፍነት-የጥፍነት-የጥፍነት-የጥፍል-የጥፍል-የጥፍል-የጥፍል-የጥፍል-የጥፍል-የጥፍል-የጥፍል-የጥፍል-የጥፍል-የጥፍል-የጥፍል-የጥፍል-የጥፍል-የጥፍል-የጥፍል-የጥፍል-የጥፍል-የጥፍል-የጥፍል-የጥፍል-የጥፍል-የጥፍል-የጥፍል-የጥፍል-የጥፍል-የጥፍል-የጥፍል-የጥፍል-የጥፍል-የጥፍል-የጥፍል-የጥፍል 27 28 29 30 31 32 እዚህ, አንድ ሙሉ በሙሉ ራስ-ተኮር, ዝርዝር ትክክለኛነት, እና የኮምፒውተር ውጤታማነት ለማሻሻል እና የኮምፒውተር ወጪ ማቀዝቀዣ ይችላሉ optimized simulation tool.In addition, this simulation tool can be seamlessly adopted for establishing and testing neural networks with biological details for machine learning and AI applications.Critically, we formulate the parallel computation of the Hines method as a mathematical scheduling problem and generate a Dendritic Hierarchical Scheduling (DHS) method based on combinatorial optimization. Parallel Computing ቴክኖሎጂ የእኛን አግኝተዋል አግኝተዋል አግኝተዋል አግኝተዋል አግኝተዋል አግኝተዋል አግኝተዋል አግኝተዋል አግኝተዋል አግኝተዋል አግኝተዋል አግኝተዋል አግኝተዋል አግኝተዋል አግኝተዋል አግኝተዋል አግኝተዋል አግኝተዋል አግኝተዋል አግኝተዋል አግኝተዋል አግኝተዋል አግኝተዋል አግኝተዋል አግኝተዋል አግኝተዋል አግኝተዋል አግኝተዋል አግኝተዋል አግኝተዋል አግኝተዋል አግኝተዋል አግኝተዋል አግኝተዋል አግኝተዋል አግኝተዋል አግኝተዋል አግኝተዋል አግኝተዋል የክሊኒካዊ simulator Neuron ጋር ተመሳሳይ ተመሳሳይ ትክክለኛነት ለመጠበቅ. 33 34 1 25 የ Dendritic Simulations (Dendritic Simulations) በ AI ውስጥ ጥቅም ላይ ይቻላል, በ DHS-embedded CoreNEURON (የኒውሮን ለ optimized compute engine) የፕላስቲክ መተግበሪያ ያካትታል. እንደ simulation engine እና ሁለት መሣሪያዎች (I/O module እና learning module) simulations ወቅት dendritic learning algorithms supporting. DeepDendrite በ GPU hardware platform ላይ ይሰራል, በኒውሮ ሳይንስ ውስጥ መደበኛ simulation tasks እና በ AI ውስጥ learning tasks ይረዳል. 35 የ DeepDendrite መተግበሪያዎች በኒውሮኒክ ሳይንስ እና የ AI ውስጥ አንዳንድ አስፈላጊ ልምዶች ለማሳየት ይሰጣሉ: (1) የ Dendritic spine input spatial patterns እንዴት የኒውሮኒክ እንቅስቃሴዎችን በ Dendritic arbres (full-spine models) ውስጥ የኒውሮኒክ እንቅስቃሴዎችን በኒውሮኒክ ሕንፃዎች (full-spine models) ውስጥ በኒውሮኒክ ሕንፃዎችን ያካትታል በኒውሮኒክ መተግበሪያዎችን በኒውሮኒክ ኒውሮኒክ ሞዴል ውስጥ በኒውሮኒክ መተግበሪያዎችን በኒውሮኒክ ኒውሮኒክ ኒውሮኒክን በኒውሮኒክ ኒውሮኒክን በኒውሮኒክ ኒውሮ የ DeepDendrite, የ full-spine ሞዴሎች እና ዝርዝር dendritic አውታረ መረብ ሞዴሎች ለሁሉም የኮድ ኮድ አግኝቷል (የኮድ አግኝቷል ይመልከቱ). የእኛ የ Open-Source Learning Framework በቀላሉ ከሌሎች dendritic Learning Rules, እንደ nonlinear (full-active) dendrites ለወንዶች አግኝቷል. የፕላስቲክ ንጥረነት (Burst-dependent synaptic plasticity) የ Spike Prediction ያግኙን በዩናይትድ ስቴትስ ውስጥ በዩናይትድ ስቴትስ ውስጥ በዩናይትድ ስቴትስ ውስጥ በዩናይትድ ስቴትስ ውስጥ በዩናይትድ ስቴትስ ውስጥ በዩናይትድ ስቴትስ ውስጥ በዩናይትድ ስቴትስ ውስጥ በዩናይትድ ስቴትስ ውስጥ በዩናይትድ ስቴትስ ውስጥ በዩናይትድ ስቴትስ ውስጥ በዩናይትድ ስቴትስ ውስጥ በዩናይትድ ስቴትስ ውስጥ በዩናይትድ ስቴትስ ውስጥ በዩናይትድ ስቴትስ ውስጥ በዩናይትድ ስቴትስ ውስጥ በዩናይትድ ስቴትስ ውስጥ በዩናይትድ ስቴትስ ውስጥ በዩናይትድ ስቴትስ ውስጥ በዩናይትድ ስቴትስ ውስጥ በዩናይትድ ስቴት 21 20 36 ውጤቶች የ Dendritic Hierarchical Scheduling (DHS) ስርዓት የኮምፒዩተር ኢዮኒክ ቮልቴጅ እና የ linear equations መፍትሔዎች ሁለት አስፈላጊ ክፍሎች ናቸው, biophysically ዝርዝር ኒውሮን ሲሚኒየም ላይ, ይህም ጊዜ-ተከማቸዋል እና ጠንካራ የኮምፒዩተር ክብደት ያካትታል. አስደናቂነት, የኮምፒዩተር ኢዮኒክ ቮልቴጅ እያንዳንዱ ክፍሎች አንድ ሙሉ በሙሉ የግል ሂደት ነው, ስለዚህ እንደ GPUs እንደ ጠንካራ የኮምፒዩተር ዩኒትዎች ጋር መሣሪያዎች ላይ በእርግጥ ተስማሚ ሊሆን ይችላል እንደ ውጤት, መስመር መለያዎች መፍትሔዎች የ parallelization ሂደት (እር. አግኙን 37 1a - f ይህ አዝማሚያ ለማስተካከል, የሲሜል ደረጃ ላይ ተለዋዋዋጭ ዘዴዎች የተገነቡ ናቸው, ይህም አንድ የሲሜል ካሜራን ከሌሎች ካሜራዎች ውስጥ "የካሜት" በካሜል ውስጥ ተለዋዋዋጭ ሊሆን ይችላል. , , ነገር ግን, እንደዚህ የሞክሮችን በዋናነት ከባድ ጥናት ላይ አንድ የኒውሮን በካርታዎች ላይ እንዴት ለመፍጠር የክክብካቤ ስቴትስዎችን ለመፍጠር ይመዝገቡ (እር. አጠቃቀም Fig. እንደዚህም, በይነገጽ morphologies, ለምሳሌ, pyramidal neurons እና Purkinje neurons ጋር በይነገጽ ሞርፎሎጂዎች ላይ ዝቅተኛ ውጤታማነት ይሆናል. 27 28 38 1 ግ 1 የእኛን መተግበሪያዎች የተሻለ እና ዝርዝር የኒውሮል አውታረ መረብዎችን ለመምረጥ በጣም ውጤታማ እና ትክክለኛ ተለዋዋጭ ዘዴ ለመፍጠር ይፈልጋሉ. የመጀመሪያው, የሲል-የተለዋጭ ደረጃ ተለዋጭ ዘዴን ትክክለኛነት መስፈርቶች ለመፍጠር ይፈልጋሉ. በኤምኤስኤምኤምኤምኤምኤምኤምኤምኤምኤምኤምኤምኤምኤምኤምኤምኤምኤምኤምኤምኤምኤምኤምኤምኤምኤምኤምኤምኤምኤምኤምኤምኤምኤምኤምኤምኤምኤምኤምኤምኤምኤምኤምኤምኤምኤምኤምኤምኤምኤምኤምኤምኤምኤምኤምኤምኤምኤምኤምኤምኤምኤምኤምኤምኤምኤምኤምኤምኤምኤምኤምኤምኤምኤምኤምኤምኤምኤምኤምኤምኤምኤምኤምኤምኤምኤምኤምኤምኤምኤምኤምኤምኤምኤምኤምኤምኤምኤ 34 የሲሜራሽን ትክክለኛነት እና የኮምፒዩተር ወጪ ላይ የተመሠረተ, የፓርላላሊያሽን ችግር እንደ የሙዚቃ የኮምፒዩተር ፍላጎት (እንዴታዎች ይመልከቱ). ቀላል ሁኔታዎች ውስጥ, አንድ የኒውሮን እንደ ብዙ የኮምፒዩተር (ኮምፒዩተር ክፍሎች) ጋር አንድ ሕንፃ ይመልከቱ. ለ የመጨረሻው ጊዜ, ከፍተኛው መጠን ማከማቻ ይችላሉ እያንዳንዱ ደረጃ ላይ አግኝተዋል, ነገር ግን አንድ አግኝተዋል ብቻ ማረጋገጥ አለብዎት, እያንዳንዱ አግኝተዋል አግኝተዋል, ሁሉም አግኝተዋል አግኝተዋል; የእኛን ፍላጎት ሙሉ ሂደት ለ አግኝተዋል አግኝተዋል አግኝተዋል ነው. k k የ Dendritic Hierarchical Scheduling (DHS) (የሞዴታዎች ውስጥ የቴክኒካዊ ትዕዛዞች ተስማሚ ነው) የሚታወቀው የሞዴታን ይሰጣል. የ DHS ስርዓት ሁለት ደረጃዎች ያካትታል: dendritic ቶፖሎሎጂን መተግበሪያ እና የተሻለ ክፍሎች ማግኘት: (1) አንድ ዝርዝር ሞዴል ለማግኘት, በመጀመሪያ እያንዳንዱ አዝራር (የ አዝራር አዝራር አዝራር አዝራር አዝራር አዝራር አዝራር አዝራር አዝራር አዝራር አዝራር አዝራር አዝራር አዝራር አዝራር አዝራር አዝራር አዝራር አዝራር አዝራር አዝራር አዝራር አዝራር አዝራር አዝራር አዝራር አዝራር አዝራር አዝራር አዝራር አዝራር አዝራር አዝራር አዝራር አዝ (2) የቶፖሎጂ ልማት በኋላ, የኮምፒውተርዎች ይመልከቱ እና በከፍተኛ ደረጃ ይመልከቱ. የኮምፒውተር ኮምፒውተር ኮምፒውተር ኮምፒውተር ኮምፒውተር ኮምፒውተር ኮምፒውተር ኮምፒውተር ኮምፒውተር ኮምፒውተር ኮምፒውተር ኮምፒውተር ኮምፒውተር ኮምፒውተር ኮምፒውተር ኮምፒውተር ኮምፒውተር ኮምፒውተር ኮምፒውተር ኮምፒውተር ኮምፒውተር ኮምፒውተር ኮምፒውተር ኮምፒውተር ኮምፒውተር ኮምፒውተር ኮምፒውተር ኮምፒውተር ኮምፒውተር ኮምፒውተር ኮምፒውተር ኮምፒውተር ኮምፒውተር ኮምፒውተር ኮምፒውተር ኮምፒውተር ኮምፒውተር ኮምፒውተር ኮምፒውተር ኮም አግኙን 2a 2B እና C k የ 2D DHS workflow. DHS ሂደቶች እያንዳንዱ የኮምፒውተር ኮምፒውተር እያንዳንዱ ኮምፒውተር የኮምፒዩተር ሞዴል በኮምፒዩተር ሞዴል በኮምፒዩተር ሞዴል በኮምፒዩተር ሞዴል በኮምፒዩተር ሞዴል በኮምፒዩተር ሞዴል በኮምፒዩተር ሞዴል በኮምፒዩተር ሞዴል በኮምፒዩተር ሞዴል በኮምፒዩተር ሞዴል በኮምፒዩተር ሞዴል በኮምፒዩተር ሞዴል በኮምፒዩተር ሞዴል በኮምፒዩተር ሞዴል በኮምፒዩተር ሞዴል በኮምፒዩተር ሞዴል በኮምፒዩተር ሞዴል በኮምፒዩተር ሞዴል በኮምፒዩተር ሞዴል የተለያዩ የኒውሮን ሞዴሎች ላይ የቶፖሎጂ ልውውጥ እዚህ የተለያየ morphologies ጋር ሦስት የኒውሮን ይሰጣሉ. እያንዳንዱ ሞዴል ለ, የ soma በድስትል dendrites ወደ የ soma (0) ከ ኒውሮን ጥንካሬ ይጨምራል. የ DHS በ ሞዴል ላይ ይሰራል በኤስኤስኤስ.ኤስ.ኤስ.ኤስ.ኤስ.ኤስ.ኤስ.ኤስ.ኤስ.ኤስ.ኤስ.ኤስ.ኤስ.ኤስ.ኤስ.ኤስ.ኤስ.ኤስ.ኤስ.ኤስ.ኤስ.ኤስ.ኤስ.ኤስ.ኤስ.ኤስ.ኤስ.ኤስ.ኤስ.ኤስ.ኤስ.ኤስ.ኤስ.ኤስ.ኤስ.ኤስ.ኤስ.ኤስ.ኤስ.ኤስ.ኤስ.ኤስ.ኤስ.ኤስ.ኤስ.ኤስ.ኤስ.ኤስ.ኤስ.ኤስ.ኤስ.ኤስ.ኤስ.ኤስ.ኤስ.ኤስ.ኤስ.ኤስ.ኤስ.ኤስ.ኤስ.ኤስ.ኤስ.ኤስ.ኤ ከባድ ከባድ ከባድ ከባድ ከባድ ከባድ ከባድ ከባድ ከባድ ከባድ ከባድ ከባድ ከባድ ከባድ ከባድ በ DHS ውስጥ የተወሰነ ሂደቱ በኋላ የተወሰነ Parallelization Strategy እያንዳንዱ ኮንዶችን ከሁለት ተለዋዋጭ ኮንዶችን መካከል አንዱ ይሰጣል. DHS ከሁለት ኮንዶችን ከሁለት ኮንዶችን ከሁለት ኮንዶችን ከሁለት ኮንዶችን ከሁለት ኮንዶችን ከሁለት ኮንዶችን ይሰጣል. Relative cost, የ DHS የኮምፒዩተር ወጪ በ DHS በ DHS በ DHS በ የተለያዩ አይነት ሞዴሎች ላይ የተለያዩ ቁጥር ጋር ይጠቀማል. a k b c d b k e d f እንደ ምሳሌ 15 ክፍሎች ጋር አንድ ቀላል ሞዴል መውሰድ, ተከታታይ የኮምፒውተር Hines ስርዓት በመጠቀም, ሁሉም የኮምፒውተርዎችን ለማከናወን 14 ደረጃዎች ይወስዳል, እና በ DHS በመጠቀም ከሁለት ተለዋዋዋጭ ዩኒት ጋር የኮምፒውተርዎችን ከሁለት የኮምፒውተር ክፍሎች ሊሆን ይችላል. (በአንድ አግኝተዋል) ከሁሉም አግኝተዋል አግኝተዋል አግኝተዋል አግኝተዋል አግኝተዋል አግኝተዋል አግኝተዋል አግኝተዋል አግኝተዋል አግኝተዋል አግኝተዋል አግኝተዋል አግኝተዋል አግኝተዋል አግኝተዋል አግኝተዋል አግኝተዋል አግኝተዋል አግኝተዋል አግኝተዋል አግኝተዋል አግኝተዋል አግኝተዋል አግኝተዋል አግኝተዋል አግኝተዋል አግኝተዋል አግኝተዋል አግኝተዋል አግኝተዋል አግኝተዋል አግኝተዋል አግኝተዋል አግኝተዋል አግኝተዋል አግኝተዋል አግኝተዋል አግኙን የ 2D 2 እና ቀጣይ, የ DHS ቅርጸት ከ ModelDB የተመሠረተ (የአይሮን ሞዴሎች ከ 6 ተሳታፊዎች) ላይ ይጠቀማል. ) ከሌሎች መጠኖች ጋር (fig. የ cortical እና hippocampal pyramidal neurons ያካትታል. , , ኒውሮን ኒውሮን ኒውሮን ኒውሮን ስሪታል ፕሮጀክሽን ኒውሮን (SPN) ) እና አሞሌ አሞሌ አሞሌ አሞሌ ከዚያም የኮምፒዩተር ወጪን ይሞክሩ. እዚህ የኮምፒዩተር ወጪው በ DHS የኮምፒዩተር ወጪን በ seri Hines ስርዓት ጋር ያለውን ወፍጮ ላይ የተመሠረተ ነው. የኮምፒዩተር ወጪው, ይህም በኮምፒዩተር ወጪዎች መፍትሄ ውስጥ የተወሰነ ደረጃዎች ቁጥር በከፍተኛ ደረጃዎች ጋር ይቀንሳል. ለምሳሌ, በ 16 ፍሬዎች ጋር, የ DHS የኮምፒዩተር ወጪ በ seri Hines ስርዓት ጋር ተመሳሳይ 7%-10% ነው. አስደናቂነት, የ DHS ስርዓት በ 16 ወይም 8 ተመሳሳይ ፍሬዎች (ፎ. ), ተጨማሪ ቁሳቁሶች ያካትታሉ, የኮምፒዩተሮች መካከል ትብብር ምክንያት ተጨማሪ አፈጻጸም ለማሻሻል አይችልም. 39 2f 40 41 42 43 44 45 2f አብዛኛውን ጊዜ, እኛ DHS ስርዓት ለመፍጠር ይችላሉ, ይህም dendritic ቶፖሎሎጂ እና የላቀ ክፍሎች ለመፍጠር ይቻላል. ይህ DHS የ simulation መጀመር በፊት የላቀ ክፍሎች ማግኘት የሚፈልጉ ነው, እና ምሳሌዎች ለመውሰድ ምንም ተጨማሪ የኮምፒዩተር ፍላጎት አይደለም. የ GPU Memory Boosting በ DHS ይጨምራል DHS እያንዳንዱ የኒውሮን ከብዙ የሽቦዎች ጋር ያካትታል, ይህም የኒውሮን አውታረ መረብ ማምረቻዎች በመጀመር አንድ ትልቅ መጠን የሽቦዎች ይጠቀማል. የ Graphics Processing Units (GPUs) ከብዙ የሽቦ ማምረቻ ዩኒትዎች (እን.ኤ.ኤ., streaming processors, SPs, Fig. Parallel Computing ላይ በእርግጥ, GPU ላይ ብዙ SPs በከፍተኛ ደረጃ የኒውሮል አውታረ መረብዎች ለ ውጤታማ simulation ለማስተናገድ አለባቸው (ፎ. ሆኖም ግን, DHS ውጤታማነት በይነገጽ በይነገጽ ውጤታማነት በይነገጽ ውጤታማነት በይነገጽ በይነገጽ ውጤታማነት በይነገጽ በይነገጽ ውጤታማነት በይነገጽ በይነገጽ በይነገጽ በይነገጽ በይነገጽ በይነገጽ በይነገጽ በይነገጽ በይነገጽ በይነገጽ በይነገጽ በይነገጽ በይነገጽ በይነገጽ በይነገጽ በይነገጽ በይነገጽ በይነገጽ በይነገጽ በይነገጽ በይነገጽ በይነገጽ በይነገጽ በይነገጽ በይነገጽ በይነገጽ በይነገጽ በይ አግኝቷል) 3A እና B 46 3 ሴ የ 3D የ GPU መዋቅር እና የሙዚቃ ቅርጽ. ሁሉም GPU የሙዚቃ አጠቃቀም አጠቃቀም አጠቃቀም አጠቃቀም አጠቃቀም. እያንዳንዱ የ SM መተግበሪያዎች, ዝርዝሮች, እና L1 ኬይ ያካትታል. የ DHS በሁለት የኒውሮን ላይ ይጠቀማል, እያንዳንዱን ከሁለት የሽቦዎች ጋር. በ simulation ውስጥ, እያንዳንዱ የሽቦ አንድ stream processor ላይ ይጠቀማል. በ GPU ላይ የሙዚቃ optimization Strategy. Top panel, thread assignment and data storage of DHS, before (left) and after (right) memory boosting. Bottom, a example of a single step in triangularization when simulating two neurons in የፕሮይዝር ለሁሉም የሙዚቃ ውሂብ ለሁሉም የሙዚቃ ውሂብ ለሙዚቃ ውሂብ ለሙዚቃ ውሂብ ለሙዚቃ ውሂብ ለሙዚቃ ውሂብ ለሙዚቃ ውሂብ ለሙዚቃ ውሂብ ለሙዚቃ ውሂብ ለሙዚቃ ውሂብ ለሙዚቃ ውሂብ ለሙዚቃ ውሂብ ለሙዚቃ ውሂብ ለሙዚቃ ውሂብ ለሙዚቃ ውሂብ ለሙዚቃ ውሂብ ለሙዚቃ ውሂብ ለሙዚቃ ውሂብ ለሙዚቃ ውሂብ ለሙዚቃ ውሂብ ለሙዚቃ ውሂብ ለሙዚቃ ውሂብ ለሙዚቃ ውሂብ ለሙዚቃ ውሂብ ለሙዚቃ ውሂብ ለሙዚቃ ውሂብ ለሙዚቃ የ DHS (32 እያንዳንዱ ኬብል) ከብዙ-ጥራት 5 ፒራሚድ ሞዴሎች ላይ የሙዚቃ አዝማሚያ ጋር እና ከብዙ-ጥራት የሙዚቃ አዝማሚያዎች ጋር ይሰራል ጊዜ. የ 5 ፒራሚዲል ሞዴሎች ላይ የሙዚቃ አዝማሚያ አዝማሚያ አዝማሚያ አዝማሚያ አዝማሚያ አዝማሚያ አዝማሚያ 1.6-2 ጊዜ አዝማሚያ አዝማሚያ አዝማሚያ አዝማሚያ አዝማሚያ አዝማሚያ አዝማሚያ አዝማሚያ አዝማሚያ አዝማሚያ አዝማሚያ አዝማሚያ አዝማሚያ አዝማሚያ አዝማሚያ. a b c d d e f የ GPU Memory Boosting (GPU Memory Boosting) የ GPU Memory Hierarchy እና Access Mechanism (GPU Memory Hierarchy እና Access Mechanism) በመጠቀም የ GPU Memory Boosting (GPU Memory Boosting) ነው. የ GPU Memory Loading Mechanism (GPU Memory Loading Mechanism) ላይ የተመሠረተ የ GPU Memory Boosting (GPU Memory Boosting) ነው. የ GPU Memory Boosting (GPU Memory Boosting) (GPU Memory Boosting) የ GPU Memory Boosting (GPU Memory Boosting) ነው. , በመጀመሪያ, የኮምፒውተር ትዕዛዞችን በኮምፒውተር ትዕዛዞችን ላይ የተወሰነ የኮምፒውተር ትዕዛዞችን በኮምፒውተር ትዕዛዞችን ላይ የተወሰነ የኮምፒውተር ትዕዛዞችን በኮምፒውተር ትዕዛዞችን ላይ የተወሰነ የኮምፒውተር ትዕዛዞችን በኮምፒውተር ትዕዛዞችን ላይ የተወሰነ የኮምፒውተር ትዕዛዞችን በኮምፒውተር ትዕዛዞችን በኮምፒውተር ትዕዛዞችን ላይ የተወሰነ የኮምፒውተር ትዕዛዞችን በኮምፒውተር ትዕዛዞችን ላይ የተወሰነ የኮምፒውተር ትዕዛዞችን በኮምፒውተር ትዕዛዞችን በኮምፒውተር በተጨማሪም, ከባድ ጋር pyramidal ኒውሮን በርካታ ቁጥር ላይ ተሞክሮዎች እና መደበኛ ኒውሮን ሞዴሎች (ፎ. አጠቃቀም Fig. ) በማሳየት ላይ የሙዚቃ ፍጥነት በ naïve DHS ጋር ተለዋዋጭ 1.2-3.8 ጊዜ ፍጥነት ያደርጋል. 46 47 የ 3D 3 እና f 2 የ DHS ን በ GPU memory boosting ጋር አፈጻጸም ሙሉ በሙሉ ማረጋገጫ ለማግኘት, ከሁለቱም ሞዴሎች ከሁለቱም ታዋቂ የኒውሮን ሞዴሎች ይምረጡ እና ከሁለቱም ሞዴሎች በከፍተኛ ቁጥር ላይ የኬብል ተለዋዋጭ ጊዜ ማረጋገጥ ይችላሉ. በ DHS-4 እና DHS-16 በ CoreNEURON ውስጥ የ GPU ስርዓት ጋር ተመሳሳይነት, respective 5 እና 15 ጊዜ ይበልጥ ፍጥነት ማግኘት ይችላሉ. በተጨማሪም, በ NEURON ውስጥ መደበኛ ተከታታይ Hines ስርዓት ጋር ተለዋዋዋጭ, DHS የሲሜራሽን በ 2-3 ትክክለኛነት ትክክለኛነት ይሰጣል (ተጨማሪ ፎቶ. ), በእርግጥ ተመሳሳይ ቁጥር ትክክለኛነት በከፍተኛ ጥንካሬ ስነቶች (ተጨማሪ ፎቶዎች. እና (የአንድ አጠቃቀም አጠቃቀም አጠቃቀም አጠቃቀም አጠቃቀም) ) እና የተለያዩ ቅርጸት ፕሮግራሞች (ተጨማሪ Fig. አግኙን 4 4a 3 4 8 7 7 በ GPU ላይ የ 1 ሰከንዶች ትክክለኛነት (dt = 0.025 ms, በአጠቃላይ 40,000 ትክክለኛነት). CoreNEURON: በ CoreNEURON ውስጥ ጥቅም ላይ የሚጠቀሙ ተለዋዋጭ መንገድ; DHS-4: DHS ለሁሉም የኒውሮን ለሁሉም አራቶች ጋር; DHS-16: DHS ለሁሉም የኒውሮን ለ 16 አራቶች ጋር. አግኙን በ DHS-4 እና በ DHS-16 የተጠቃሚ ቅርጸት ለማሳየት, እያንዳንዱ ቀለም አንድ ቀለም ይሰጣል. በኮምፒውተር ውስጥ, እያንዳንዱ ቀለም የተለያዩ ቀለም መካከል ይቀላቀሉ. a b c DHS-የኮል-የኮል-የኮል-የኮል-የኮል-የኮል-የኮል-የኮል-የኮል-የኮል-የኮል-የኮል-የኮል-የኮል የ DHS ቅርጸት የስራ ሜካኒካል ለማወቅ ለማግኘት, እያንዳንዱ ቅርጸት (እያንዳንዱ ቀለም በ Fig. 1 ውስጥ አንድ ቅርጸት ይሰጣል) ወደ ቅርጸት ክፍሎች ማተም በ Partitioning ሂደት ለማሳየት ይመልከቱ. ). የቪዛዮሊያሽን አንድ አንድ ሬይድ በቂ ጊዜ የተለያዩ ሬይቶች መካከል ተለዋዋዋጭ ይሰጣል (ፎ. አስደናቂው ነገር ነው, DHS እንደ ስሪትታል ፕሮጀክሽን ኒውሮን (SPN) እና ሚትራል ሴል (ፎ. በስተካከለኛው, እንደ pyramidal neurons እና Purkinje ሴል እንደ morphologically asymmetric ኒውሮን fragments generates (Fig. ), DHS በኮምፒውተር ስኬት (እን.ኤ.ኤ.ኤ.ኤ.ኤ.ኤ.ኤ.ኤ.ኤ.ኤ.ኤ.ኤ.ኤ.ኤ.ኤ.ኤ.ኤ.ኤ.ኤ.ኤ.ኤ.ኤ.ኤ.ኤ.ኤ.ኤ.ኤ.ኤ.ኤ.ኤ.ኤ.ኤ.ኤ.ኤ.ኤ.ኤ.ኤ.ኤ.ኤ.ኤ.ኤ.ኤ.ኤ.ኤ.ኤ.ኤ.ኤ.ኤ.ኤ.ኤ.ኤ.ኤ.ኤ.ኤ.ኤ.ኤ.ኤ.ኤ.ኤ.ኤ.ኤ.ኤ.ኤ.ኤ.ኤ.ኤ.ኤ.ኤ.ኤ.ኤ.ኤ.ኤ.ኤ.ኤ.ኤ.ኤ.ኤ.ኤ.ኤ.ኤ.ኤ.ኤ.ኤ.ኤ.ኤ.ኤ.ኤ.ኤ.ኤ.ኤ.ኤ. 4B እና C 4B እና C 4B እና C 4B እና C የ DHS እና የሙዚቃ ፍጥነት ለማሻሻል በቴክኒካዊ የተረጋገጠ ትክክለኛ መፍትሔ ያደርጋል በባቡር በባቡር በባቡር በባቡር በባቡር በባቡር በባቡር በባቡር በባቡር በባቡር በባቡር በባቡር በባቡር በባቡር በባቡር በባቡር በባቡር በባቡር በባቡር በባቡር በባቡር በባቡር በባቡር በባቡር በባቡር በባቡር በባቡር በባቡር በባቡር በባቡር በባቡር በባቡር በባቡር በባቡር በባቡር በባቡር በባቡር በባቡር በባቡር በባቡር በባቡር በ DHS በ Spine-Level ሞዴል ማግኘት ይቻላል የ Dendritic spines ወደ cortical እና hippocampal pyramidal neurons, striatal projection neurons, ወዘተ አብዛኞቹ አስደናቂ መውሰድ ያገኛሉ, እነዚህን morphologies እና plasticity የኒውሮኒክ አስደናቂነት ለመቆጣጠር አስፈላጊ ናቸው. , , , , በዓለም አቀፍ ደረጃ, የፕላስቲክ እና የፕላስቲክ ግምገማዎች (የፕላስቲክ ግምገማዎች) እና የፕላስቲክ ግምገማዎች (የፕላስቲክ ግምገማዎች) በዓለም አቀፍ ደረጃ የተወሰነ የፕላስቲክ ግምገማዎች (የፕላስቲክ ግምገማዎች) እና የፕላስቲክ ግምገማዎች (የፕላስቲክ ግምገማዎች) በዓለም አቀፍ ደረጃ (የፕላስቲክ ግምገማዎች) በዓለም አቀፍ ደረጃ (የፕላስቲክ ግምገማዎች) በዓለም አቀፍ ደረጃ (የፕላስቲክ ግምገማዎች) በዓለም አቀፍ ደረጃ (የፕላስቲክ ግምገማዎች) በዓለም አቀፍ ደረጃ (የፕላስቲክ ግም 10 48 49 50 51 እኛ ሁለት ክፍሎች ጋር አንድ ነጠላ ስቴትሪን ሞዴል ሊሆን ይችላል: ስቴትሪን ኮንፈረንስ እና ስቴትሪን ኮንፈረንስ ወደ dendrites ያካትታል. የቴሌክትሮኒካዊ ግምገማው በይነገጽ (0.1-0.5 μm) በይነገጽ በይነገጽ በይነገጽ በይነገጽ በይነገጽ በይነገጽ በይነገጽ በይነገጽ በይነገጽ በይነገጽ በይነገጽ በይነገጽ በይነገጽ በይነገጽ በይነገጽ የ Dendrites ላይ ሙሉ በሙሉ የተመሠረተ spines ጋር የተመሠረተ ሞዴል ( "full-spine model") በኮምፒውተር ላይ በጣም ደንበኞች ነው. አንድ የተመሠረተ ትክክለኛ መግቢያ መፍትሔ ነው የ membrane capacitance and resistance by a የ Spin Factor ከባድ ከባድ ከባድ ከባድ ከባድ ከባድ ከባድ ከባድ ከባድ ከባድ ከባድ ከባድ ከባድ የ Spine Factor በኮንክሪት ካሜራው biophysical ባህሪያት ላይ የኮንክሪት ውጤት ለማስተካከል ነው. . 52 53 F 54 F 54 Inspired by the previous work of Eyal et al. , we investigated how different spatial patterns of excitatory inputs formed on dendritic spines shape neuronal activities in a human pyramidal neuron model with explicitly modeled spines (Fig. ). Noticeably, Eyal et al. employed the spine factor to incorporate spines into dendrites while only a few activated spines were explicitly attached to dendrites (“few-spine model” in Fig. ). The value of spine in their model was computed from the dendritic area and spine area in the reconstructed data. Accordingly, we calculated the spine density from their reconstructed data to make our full-spine model more consistent with Eyal’s few-spine model. With the spine density set to 1.3 μm-1, the pyramidal neuron model contained about 25,000 spines without altering the model’s original morphological and biophysical properties. Further, we repeated the previous experiment protocols with both full-spine and few-spine models. We use the same synaptic input as in Eyal’s work but attach extra background noise to each sample. By comparing the somatic traces (Fig. ፎቶዎች እና ቅርጸቶች (fig. ) in full-spine and few-spine models, we found that the full-spine model is much leakier than the few-spine model. In addition, the spike probability triggered by the activation of clustered spines appeared to be more nonlinear in the full-spine model (the solid blue line in Fig. ) than in the few-spine model (the dashed blue line in Fig. ). These results indicate that the conventional F-factor method may underestimate the impact of dense spine on the computations of dendritic excitability and nonlinearity. 51 5a F 5a F 5B እና C 5d 5d 5d Experiment setup. We examine two major types of models: few-spine models and full-spine models. Few-spine models (two on the left) are the models that incorporated spine area globally into dendrites and only attach individual spines together with activated synapses. In full-spine models (two on the right), all spines are explicitly attached over whole dendrites. We explore the effects of clustered and randomly distributed synaptic inputs on the few-spine models and the full-spine models, respectively. Somatic voltages recorded for cases in . Colors of the voltage curves correspond to , scale bar: 20 ms, 20 mV. Color-coded voltages during the simulation in at specific times. Colors indicate the magnitude of voltage. Somatic spike probability as a function of the number of simultaneously activated synapses (Eyal et al.’s work) for four cases in . Background noise is attached. Run time of experiments in with different simulation methods. NEURON: conventional NEURON simulator running on a single CPU core. CoreNEURON: CoreNEURON simulator on a single GPU. DeepDendrite: DeepDendrite on a single GPU. a b a a c b d a e d In the DeepDendrite platform, both full-spine and few-spine models achieved 8 times speedup compared to CoreNEURON on the GPU platform and 100 times speedup compared to serial NEURON on the CPU platform (Fig. ; Supplementary Table ) while keeping the identical simulation results (Supplementary Figs. and ). Therefore, the DHS method enables explorations of dendritic excitability under more realistic anatomic conditions. 5e 1 4 8 አስተያየቶች በዚህ ልምድ ውስጥ, እኛ Hines ልምድ ኮምፒውተር ማከናወን ለ DHS ልምድ ይሰጣሉ. ከዚያም, በ GPU ሃርድዌር ፕላስቲክ ላይ DHS መተግበሪያ እና ለ DHS ማሻሻል የ GPU መታወቂያ ማሻሻያ ቴክኖሎጂዎችን ይጠቀማል (እር. ). When simulating a large number of neurons with complex morphologies, DHS with memory boosting achieves a 15-fold speedup (Supplementary Table ) as compared to the GPU method used in CoreNEURON and up to 1,500-fold speedup compared to serial Hines method in the CPU platform (Fig. አጠቃቀም Fig. and Supplementary Table ). Furthermore, we develop the GPU-based DeepDendrite framework by integrating DHS into CoreNEURON. Finally, as a demonstration of the capacity of DeepDendrite, we present a representative application: examine spine computations in a detailed pyramidal neuron model with 25,000 spines. Further in this section, we elaborate on how we have expanded the DeepDendrite framework to enable efficient training of biophysically detailed neural networks. To explore the hypothesis that dendrites improve robustness against adversarial attacks , we train our network on typical image classification tasks. We show that DeepDendrite can support both neuroscience simulations and AI-related detailed neural network tasks with unprecedented speed, therefore significantly promoting detailed neuroscience simulations and potentially for future AI explorations. 55 3 1 4 3 1 56 Decades of efforts have been invested in speeding up the Hines method with parallel methods. Early work mainly focuses on network-level parallelization. In network simulations, each cell independently solves its corresponding linear equations with the Hines method. Network-level parallel methods distribute a network on multiple threads and parallelize the computation of each cell group with each thread , . With network-level methods, we can simulate detailed networks on clusters or supercomputers የ GPU በከፍተኛ ጥራት ያለው የኮምፒውተር መሣሪያዎች (GPUs) እና የኮምፒውተር መሣሪያዎች (GPUs) በከፍተኛ ጥራት ያለው የኮምፒውተር መሣሪያዎች (GPUs) እና የኮምፒውተር መሣሪያዎች (GPUs) በከፍተኛ ጥራት ያለው የኮምፒውተር መሣሪያዎች (GPUs) እና የኮምፒውተር መሣሪያዎች (GPUs) በመጠቀም ነው. , , . With further optimization, GPU-based methods achieve much higher efficiency in network simulation. However, the computation inside the cells is still serial in network-level methods, so they still cannot deal with the problem when the “Hines matrix” of each cell scales large. 57 58 59 35 60 61 Cellular-level parallel methods further parallelize the computation inside each cell. The main idea of cellular-level parallel methods is to split each cell into several sub-blocks and parallelize the computation of those sub-blocks , . However, typical cellular-level methods (e.g., the “multi-split” method ) pay less attention to the parallelization strategy. The lack of a fine parallelization strategy results in unsatisfactory performance. To achieve higher efficiency, some studies try to obtain finer-grained parallelization by introducing extra computation operations , , or making approximations on some crucial compartments, while solving linear equations , እነዚህ ጥንካሬ-በባድ paralelizationstrategies ከፍተኛ ውጤታማነት ማግኘት ይችላሉ, ነገር ግን እንደ የመጀመሪያው Hines ቅርጸት እንደ sufficient ቁጥር ትክክክለኛነት አላቸው. 27 28 28 29 38 62 63 64 Unlike previous methods, DHS adopts the finest-grained parallelization strategy, i.e., compartment-level parallelization. By modeling the problem of “how to parallelize” as a combinatorial optimization problem, DHS provides an optimal compartment-level parallelization strategy. Moreover, DHS does not introduce any extra operation or value approximation, so it achieves the lowest computational cost and retains sufficient numerical accuracy as in the original Hines method at the same time. Dendritic spines are the most abundant microstructures in the brain for projection neurons in the cortex, hippocampus, cerebellum, and basal ganglia. As spines receive most of the excitatory inputs in the central nervous system, electrical signals generated by spines are the main driving force for large-scale neuronal activities in the forebrain and cerebellum , የክፍያ መዋቅር, በከፍተኛ የክፍያ ዋና እና በከፍተኛ ዝቅተኛ የክፍያ ኬብል ጋር, በክፍያ ዋና ላይ በጣም ከፍተኛ መውሰድ impedance ሊሆን ይችላል, ይህም ከ 500 MΩ ድረስ ሊሆን ይችላል, ተሞክሮ ውሂብ እና ዝርዝር የክፍያ ሞዴል መተግበሪያ ጋር ተኳሃኝ , . Due to such high input impedance, a single synaptic input can evoke a “gigantic” EPSP ( ~ 20 mV) at the spine-head level , , thereby boosting NMDA currents and ion channel currents in the spine . However, in the classic single detailed compartment models, all spines are replaced by the coefficient modifying the dendritic cable geometries . This approach may compensate for the leak currents and capacitance currents for spines. Still, it cannot reproduce the high input impedance at the spine head, which may weaken excitatory synaptic inputs, particularly NMDA currents, thereby reducing the nonlinearity in the neuron’s input-output curve. Our modeling results are in line with this interpretation. 10 11 48 65 48 66 11 F 54 On the other hand, the spine’s electrical compartmentalization is always accompanied by the biochemical compartmentalization , , , resulting in a drastic increase of internal [Ca2+], within the spine and a cascade of molecular processes involving synaptic plasticity of importance for learning and memory. Intriguingly, the biochemical process triggered by learning, in turn, remodels the spine’s morphology, enlarging (or shrinking) the spine head, or elongating (or shortening) the spine neck, which significantly alters the spine’s electrical capacity , , , . Such experience-dependent changes in spine morphology also referred to as “structural plasticity”, have been widely observed in the visual cortex , , somatosensory cortex , , motor cortex , hippocampus , and the basal ganglia in vivo. They play a critical role in motor and spatial learning as well as memory formation. However, due to the computational costs, nearly all detailed network models exploit the “F-factor” approach to replace actual spines, and are thus unable to explore the spine functions at the system level. By taking advantage of our framework and the GPU platform, we can run a few thousand detailed neurons models, each with tens of thousands of spines on a single GPU, while maintaining ~100 times faster than the traditional serial method on a single CPU (Fig. ). Therefore, it enables us to explore of structural plasticity in large-scale circuit models across diverse brain regions. 8 52 67 67 68 69 70 71 72 73 74 75 9 76 5 እና የ Dendrites በይነመረብ ደረጃ ላይ በይነመረብ ክፍሎችን እና በይነመረብ ክፍሎችን በይነመረብ ክፍሎችን በይነመረብ ክፍሎችን በይነመረብ ክፍሎችን በይነመረብ ክፍሎችን በይነመረብ ክፍሎችን በይነመረብ ክፍሎችን በይነመረብ ክፍሎችን በይነመረብ ክፍሎችን በይነመረብ ክፍሎችን በይነመረብ ክፍሎችን በይነመረብ ክፍሎችን በይነመረብ ክፍሎችን በይነመረብ ክፍሎችን በይነመረብ ክፍሎችን በይነመረብ ክፍሎችን በይነመረብ ክፍሎችን በይነመረብ ክፍሎችን በይነመረብ ክፍሎችን በይነመረብ ክፍሎችን በይነመረብ ክፍሎችን በይነመረብ ክፍሎችን በ , , . For example, cortical pyramidal neurons can carry out sublinear synaptic integration at the proximal dendrite but progressively shift to supralinear integration at the distal dendrite . Moreover, distal dendrites can produce regenerative events such as dendritic sodium spikes, calcium spikes, and NMDA spikes/plateau potentials , . Such dendritic events are widely observed in mice or even human cortical neurons in vitro, which may offer various logical operations , or gating functions , . Recently, in vivo recordings in awake or behaving mice provide strong evidence that dendritic spikes/plateau potentials are crucial for orientation selectivity in the visual cortex , sensory-motor integration in the whisker system , , and spatial navigation in the hippocampal CA1 region . 5 6 7 77 6 78 6 79 6 79 80 81 82 83 84 85 To establish the causal link between dendrites and animal (including human) patterns of behavior, large-scale biophysically detailed neural circuit models are a powerful computational tool to realize this mission. However, running a large-scale detailed circuit model of 10,000-100,000 neurons generally requires the computing power of supercomputers. It is even more challenging to optimize such models for in vivo data, as it needs iterative simulations of the models. The DeepDendrite framework can directly support many state-of-the-art large-scale circuit models , , , which were initially developed based on NEURON. Moreover, using our framework, a single GPU card such as Tesla A100 could easily support the operation of detailed circuit models of up to 10,000 neurons, thereby providing carbon-efficient and affordable plans for ordinary labs to develop and optimize their own large-scale detailed models. 86 87 88 Recent works on unraveling the dendritic roles in task-specific learning have achieved remarkable results in two directions, i.e., solving challenging tasks such as image classification dataset ImageNet with simplified dendritic networks , and exploring full learning potentials on more realistic neuron , . However, there lies a trade-off between model size and biological detail, as the increase in network scale is often sacrificed for neuron-level complexity , , በተጨማሪም, ተጨማሪ ዝርዝር የኒውሮን ሞዴሎች ዝርዝር የኒውሮን ሞዴሎች ዝርዝር የኒውሮን ሞዴሎች እና የኒውሮን ሞዴሎች ዝርዝር የኒውሮን ሞዴሎች ናቸው. . 20 21 22 19 20 89 21 There has also been progress in the role of active dendrites in ANNs for computer vision tasks. Iyer et al. . proposed a novel ANN architecture with active dendrites, demonstrating competitive results in multi-task and continual learning. Jones and Kording used a binary tree to approximate dendrite branching and provided valuable insights into the influence of tree structure on single neurons’ computational capacity. Bird et al. የ Dendritic arbor structure to computing.These studies offer valuable insights, they primarily rely on abstractions derived from spatially extended neurons, and do not fully exploit the detailed biological properties and spatial information of dendrites. ተጨማሪ ምርምር የሚፈልጉት ይሆናል ለማሳየት ይበልጥ እውነተኛ ኒውሮን ሞዴሎች ለመውሰድ የሚፈልጉትን ችሎታ ለመውሰድ የሙከራ እና ጥልቅ መግቢያ ላይ የተመሠረተ አጠቃቀም ሜካኒካሎች ለመውሰድ. 90 91 92 In response to these challenges, we developed DeepDendrite, a tool that uses the Dendritic Hierarchical Scheduling (DHS) method to significantly reduce computational costs and incorporates an I/O module and a learning module to handle large datasets. With DeepDendrite, we successfully implemented a three-layer hybrid neural network, the Human Pyramidal Cell Network (HPC-Net) (Fig. ). This network demonstrated efficient training capabilities in image classification tasks, achieving approximately 25 times speedup compared to training on a traditional CPU-based platform (Fig. ; Supplementary Table ). 6A እና B 6f 1 The illustration of the Human Pyramidal Cell Network (HPC-Net) for image classification. Images are transformed to spike trains and fed into the network model. Learning is triggered by error signals propagated from soma to dendrites. Training with mini-batch. Multiple networks are simulated simultaneously with different images as inputs. The total weight updates ΔW are computed as the average of ΔWi from each network. Comparison of the HPC-Net before and after training. Left, the visualization of hidden neuron responses to a specific input before (top) and after (bottom) training. Right, hidden layer weights (from input to hidden layer) distribution before (top) and after (bottom) training. Workflow of the transfer adversarial attack experiment. We first generate adversarial samples of the test set on a 20-layer ResNet. Then use these adversarial samples (noisy images) to test the classification accuracy of models trained with clean images. Prediction accuracy of each model on adversarial samples after training 30 epochs on MNIST (left) and Fashion-MNIST (right) datasets. Run time of training and testing for the HPC-Net. The batch size is set to 16. Left, run time of training one epoch. Right, run time of testing. Parallel NEURON + Python: training and testing on a single CPU with multiple cores, using 40-process-parallel NEURON to simulate the HPC-Net and extra Python code to support mini-batch training. DeepDendrite: training and testing the HPC-Net on a single GPU with DeepDendrite. a b c d e f Additionally, it is widely recognized that the performance of Artificial Neural Networks (ANNs) can be undermined by adversarial attacks —intentionally engineered perturbations devised to mislead ANNs. Intriguingly, an existing hypothesis suggests that dendrites and synapses may innately defend against such attacks . Our experimental results utilizing HPC-Net lend support to this hypothesis, as we observed that networks endowed with detailed dendritic structures demonstrated some increased resilience to transfer adversarial attacks በ MNIST ውስጥ የሚታወቀው እንደ መደበኛ ANNs ጋር ተመሳሳይ and Fashion-MNIST datasets (Fig. ). This evidence implies that the inherent biophysical properties of dendrites could be pivotal in augmenting the robustness of ANNs against adversarial interference. Nonetheless, it is essential to conduct further studies to validate these findings using more challenging datasets such as ImageNet . 93 56 94 95 96 6D እና E 97 In conclusion, DeepDendrite has shown remarkable potential in image classification tasks, opening up a world of exciting future directions and possibilities. To further advance DeepDendrite and the application of biologically detailed dendritic models in AI tasks, we may focus on developing multi-GPU systems and exploring applications in other domains, such as Natural Language Processing (NLP), where dendritic filtering properties align well with the inherently noisy and ambiguous nature of human language. Challenges include testing scalability in larger-scale problems, understanding performance across various tasks and domains, and addressing the computational complexity introduced by novel biological principles, such as active dendrites. By overcoming these limitations, we can further advance the understanding and capabilities of biophysically detailed dendritic neural networks, potentially uncovering new advantages, enhancing their robustness against adversarial attacks and noisy inputs, and ultimately bridging the gap between neuroscience and modern AI. Methods Simulation with DHS አግኝተዋል simulator ( ) uses the NEURON architecture and is optimized for both memory usage and computational speed. We implement our Dendritic Hierarchical Scheduling (DHS) method in the CoreNEURON environment by modifying its source code. All models that can be simulated on GPU with CoreNEURON can also be simulated with DHS by executing the following command: 35 https://github.com/BlueBrain/CoreNeuron 25 coreneuron_exec -d /path/to/models -e time --cell-permute 3 --cell-nthread 16 --gpu The usage options are as in Table . 1 Accuracy of the simulation using cellular-level parallel computation To ensure the accuracy of the simulation, we first need to define the correctness of a cellular-level parallel algorithm to judge whether it will generate identical solutions compared with the proven correct serial methods, like the Hines method used in the NEURON simulation platform. Based on the theories in parallel computing , a parallel algorithm will yield an identical result as its corresponding serial algorithm, if and only if the data process order in the parallel algorithm is consistent with data dependency in the serial method. The Hines method has two symmetrical phases: triangularization and back-substitution. By analyzing the serial computing Hines method , we find that its data dependency can be formulated as a tree structure, where the nodes on the tree represent the compartments of the detailed neuron model. In the triangularization process, the value of each node depends on its children nodes. In contrast, during the back-substitution process, the value of each node is dependent on its parent node (Fig. ). Thus, we can compute nodes on different branches in parallel as their values are not dependent. 34 55 1d Based on the data dependency of the serial computing Hines method, we propose three conditions to make sure a parallel method will yield identical solutions as the serial computing Hines method: (1) The tree morphology and initial values of all nodes are identical to those in the serial computing Hines method; (2) In the triangularization phase, a node can be processed if and only if all its children nodes are already processed; (3) In the back-substitution phase, a node can be processed only if its parent node is already processed. Once a parallel computing method satisfies these three conditions, it will produce identical solutions as the serial computing method. Computational cost of cellular-level parallel computing method To theoretically evaluate the run time, i.e., efficiency, of the serial and parallel computing methods, we introduce and formulate the concept of computational cost as follows: given a tree and threads (basic computational units) to perform triangularization, parallel triangularization equals to divide the node set of into subsets, i.e., = አግኙን , , … } where the size of each subset | | ≤ , i.e., at most nodes can be processed each step since there are only threads. The process of the triangularization phase follows the order: አማርኛ → … → , and nodes in the same subset can be processed in parallel. So, we define | | (the size of set , i.e., here) as the computational cost of the parallel computing method. In short, we define the computational cost of a parallel method as the number of steps it takes in the triangularization phase. Because the back-substitution is symmetrical with triangularization, the total cost of the entire solving equation phase is twice that of the triangularization phase. T k V T n V V1 V2 አዲሱ Vi k k k V1 V2 Vn ቪ V V n Mathematical scheduling problem Based on the simulation accuracy and computational cost, we formulate the parallelization problem as a mathematical scheduling problem: Given a tree = { , } and a positive integer , where is the node-set and is the edge set. Define partition ( ) = { , , … }, | | ≤ , 1 ≤ ≤ n, where | የኮርዶኒየም ቁጥር ይሰጣል , i.e., the number of nodes in , and for each node ∈ , all its children nodes { መኖሪያ ቤት ∈children( ከባድ ከባድ ከባድ ከባድ , where 1 ≤ < . Our goal is to find an optimal partition ( ) whose computational cost | ( )| is minimal. T V E k V E P V የ V1 V2 Vn ቪ k i Vi Vi Vi v Vi c c v Vj j i P* V P* V Here subset consists of all nodes that will be computed at -th step (Fig. ), so | | ≤ indicates that we can compute እያንዳንዱ ደረጃ በከፍተኛ መጠን ነው, ምክንያቱም የመሳሰሉ ፎቶዎች ቁጥር . The restriction “for each node ∈ , all its children nodes { | ∈children( )} must in a previous subset , where 1 ≤ < ” indicates that node እያንዳንዱ አነስተኛ አነስተኛ አነስተኛ አነስተኛ አነስተኛ አነስተኛ አነስተኛ አነስተኛ አነስተኛ አነስተኛ አነስተኛ አነስተኛ አነስተኛ አነስተኛ አነስተኛ አነስተኛ አነስተኛ አነስተኛ አነስተኛ አነስተኛ አነስተኛ አነስተኛ አነስተኛ አነስተኛ አነስተኛ አነስተኛ አነስተኛ አነስተኛ አነስተኛ አነስተኛ አነስተኛ አነስተኛ አነስተኛ አነስተኛ. ቪ i 2e Vi k k k v Vi c c v Vj j i v DHS implementation We aim to find an optimal way to parallelize the computation of solving linear equations for each neuron model by solving the mathematical scheduling problem above. To get the optimal partition, DHS first analyzes the topology and calculates the depth ( ) for all nodes ∈ . Then, the following two steps will be executed iteratively until every node ∈ is assigned to a subset: (1) find all candidate nodes and put these nodes into candidate set . A node is a candidate only if all its child nodes have been processed or it does not have any child nodes. (2) if | | ≤ የኮምፒውተር አጠቃቀም አጠቃቀም አጠቃቀም አጠቃቀም አጠቃቀም አጠቃቀም አጠቃቀም አጠቃቀም አጠቃቀም and put them into , otherwise, remove deepest nodes from and add them to subset . Label these nodes as processed nodes (Fig. ). After filling in subset , go to step (1) to fill in the next subset . d v v V v V Q Q k Q V*i k Q Vi 2d Vi Vi+1 ለ DHS ትክክለኛነት ማረጋገጫ After applying DHS to a neural tree = { , }, we get a partition ( = አግኝቷል , , … }, | ፎቶ ≤ , 1 ≤ ≤ . Nodes in the same subset will be computed in parallel, taking steps to perform triangularization and back-substitution, respectively. We then demonstrate that the reordering of the computation in DHS will result in a result identical to the serial Hines method. T V E P V V1 V2 Vn Vi k i n Vi n The partition ( ) obtained from DHS decides the computation order of all nodes in a neural tree. Below we demonstrate that the computation order determined by ( ) satisfies the correctness conditions. ( ) is obtained from the given neural tree . Operations in DHS do not modify the tree topology and values of tree nodes (corresponding values in the linear equations), so the tree morphology and initial values of all nodes are not changed, which satisfies condition 1: the tree morphology and initial values of all nodes are identical to those in serial Hines method. In triangularization, nodes are processed from subset to . As shown in the implementation of DHS, all nodes in subset are selected from the candidate set , and a node can be put into only if all its child nodes have been processed. Thus the child nodes of all nodes in are in { , , … }, meaning that a node is only computed after all its children have been processed, which satisfies condition 2: in triangularization, a node can be processed if and only if all its child nodes are already processed. In back-substitution, the computation order is the opposite of that in triangularization, i.e., from to . As shown before, the child nodes of all nodes in are in { , , … }, so parent nodes of nodes in are in { , , … }, which satisfies condition 3: in back-substitution, a node can be processed only if its parent node is already processed. P V P V P V T የ V1 አዲሱ Vi Q Q Vi V1 V2 Vi-1 Vn V1 Vi V1 V2 Vi-1 Vi የ 1 + 1 Vi+2 አዲሱ Optimality proof for DHS The idea of the proof is that if there is another optimal solution, it can be transformed into our DHS solution without increasing the number of steps the algorithm requires, thus indicating that the DHS solution is optimal. For each subset በ ( የ DHS ተንቀሳቃሽ (የሽታ ቁጥር) ከሁለቱም kandidate ስብስቦች ከሁለቱም ዝቅተኛ አዝማሚያዎች ፎቶ በ Node ውስጥ ያለውን ቁጥር አነስተኛ ከ ሁሉም NODES ከ ፎቶ . To simplify, we introduce አግኝቷል: The depth sum of በከፍተኛ ደረጃ ውስጥ . All subsets in ( ) satisfy the max-depth criteria (Supplementary Fig. ): . We then prove that selecting the deepest nodes in each iteration makes አንድ ትክክለኛ ክፍል ነው, አንድ ትክክለኛ ክፍል ነው. = { , በ... } containing subsets that do not satisfy the max-depth criteria, we can modify the subsets in ( ) so that all subsets consist of the deepest nodes from and the number of subsets ( | ( )|) remain the same after modification. ቪ P V k Qi Vi የ Qi k Qi ቪ በ k Qi P V 6a አግኙን P*(V) V*1 V*2 V*s P* V Q P* V Without any loss of generalization, we start from the first subset not satisfying the criteria, i.e., . There are two possible cases that will make ከፍተኛ ጥንካሬ ግምገማዎች ለማሟላት አይችልም: (1) | < and there exist some valid nodes in that are not put to ; (2) | | = በ nodes ውስጥ are not the deepest nodes in . V*i V*i በ V k የ Qi V*i V*i k V*i k Qi በ 1 ( 1 ) ውስጥ, ምክንያቱም አንዳንድ የኮምፒውተር አግኝቷል አይችልም እነዚህን መሳሪያዎች በአጠቃላይ ውስጥ ሊሆን ይችላል. መኖሪያ ቤት ከባድ ከባድ ከባድ ከባድ ከባድ ከባድ ከባድ ከባድ ወደ ከባድ ከባድ ከባድ ከባድ ከባድ ከባድ ከባድ ከባድ ከባድ ከባድ ከባድ ከባድ ከባድ ከባድ የፈጠራ መስፈርቶች (Fig. ለሁሉም ሁኔታዎች (II) አግኝቷል = እነዚህ የኮምፒዩተሮች ከኮምፒዩተሮች ከኮምፒዩተሮች ከኮምፒዩተሮች ከኮምፒዩተሮች ከኮምፒዩተሮች ከኮምፒዩተሮች ከኮምፒዩተሮች ከኮምፒዩተሮች ወደ ይበልጥ ይበልጥ ይበልጥ ይበልጥ ይበልጥ ይበልጥ ይበልጥ ይበልጥ ይበልጥ ይበልጥ ይሆናል. እነዚህ ጥልቅ አዝማሚያዎች የሚከተሉትን አዝማሚያዎች ከታች አዝማሚያዎች ወደ በመጠቀም የሚከተሉትን መንገድ ያውቃል. መፍጨት በኋላ አግኙን የተመሠረተ እና አንድ የላቀ አዝማሚያዎች በአሁኑ ጊዜ ስለዚህ ይሆናል የሚከተሉት ክፍሎች ውስጥ (አንድ አግኙን (እኛ መጀመሪያ ይሞክሩ) ከ to + , then modify subset + አግኙን as follows: if | + | ≤ and none of the nodes in + is the parent of node , stop modifying the latter subsets. Otherwise, modify + የሚከተሉትን ምሳሌዎች (Fig. (በአንድ ጊዜ, የእርስዎን መኪና መኪና ከ is in + , move this parent node to + አግኙን ከባድ ከባድ ከባድ ከባድ ከባድ ከባድ ከባድ ከባድ ከባድ + to + . After adjusting , modify subsequent subsets + , + , … with the same strategy. Finally, move from to . በ V በ V < k በ V በ V 6B በ V k የ Qi በ V 6B በ V በ V v k የ V’ የ Qi v’ በ J j i v V*i V*i 1 V*i 1 V*i 1 k V*i 1 v V*i 1 6c v V*i 1 V*i 2 V*i 1 በ V 2 V*i V*i 1 V*i 2 በ J-1 v’ V*j V*i በከፍተኛ ደረጃ ላይ የተመሠረተ ግምገማዎች ውስጥ ሁሉንም ግምገማዎች ሊሆን ይችላል. ጋር የ በከፍተኛ ደረጃ ውስጥ and keep the number of subsets, i.e., | ( (በአንድ መሣሪያዎች እና መሣሪያዎች የተወሰነ ነው) (በአንድ መሣሪያዎች እና መሣሪያዎች የተወሰነ ነው) ( (በአንድ አጠቃላይ አጠቃላይ አጠቃላይ አጠቃላይ አጠቃላይ አጠቃላይ አጠቃላይ አጠቃላይ አጠቃላይ አጠቃላይ) ∈ ( ) ከፍተኛ ጥንካሬ ግምገማዎች ለማሟላት ይችላሉ, እና ( (በአንድ ጊዜ መተግበሪያው በኋላ መተግበሪያው ይቀላቀሉ). በ V k የ Qi ፒ * V ፒ * V በ V ፒ * V ፒ * V በመጨረሻ, DHS አንድ ክፍል ይፈጥራል ( (በአንድ ሰው ሁሉ ተስማሚ ነው) ∈ ( ) ከፍተኛ ጥልቅ ሁኔታ ለማሟላት: . ማንኛውም ሌሎች ትክክለኛ ክፍል ( ) የእኛን ቁጥጥር ተመሳሳይ ሊሆን ይችላል ( ), ይህም, እያንዳንዱ አዲሱ ተከታታይ የኮምፒውተር ተከታታይ ውስጥ በጣም ታላቅ አዝማሚያዎች ያካትታል, እና እያንዳንዱ ላይ ያካትታል. ( ) መተግበሪያው መተግበሪያው መተግበሪያው መተግበሪያው መተግበሪያው ( ) ከ DHS ያግኙ የኦፕቶማቲክ ክፍሎች መካከል አንዱ ነው. P V ቪ P V ፒ * V P V ፒ * V | P V የ GPU መተግበሪያ እና የሙዚቃ ማሻሻያ የ GPU ከፍተኛ የሙዚቃ ውፅዓት ለማግኘት (1) የዓለም የሙዚቃ ውፅዓት, (2) የሙዚቃ የሙዚቃ የሙዚቃ ውፅዓት, (3) የሙዚቃ የሙዚቃ የሙዚቃ ውፅዓት ከፍተኛ የሙዚቃ የሙዚቃ ውፅዓት ያደርጋል, ነገር ግን የሙዚቃ የሙዚቃ ውፅዓት ዝቅተኛ የሙዚቃ ውፅዓት ያደርጋል. የ GPU የ SIMT (Single-Instruction, Multiple-Thread) መዋቅር ይጠቀማል. የ Warps በ GPU ላይ የተወሰነ የተመሠረተ ሰዓቶች ናቸው (የ warp 32 ተለዋዋዋጭ ሽቦዎች ነው). የ warp ተለዋዋጭ ሽቦዎች ላይ የተለያዩ ውሂብ ጋር ተመሳሳይ መመሪያ ይሰራል. የ DHS በ GPU ላይ ተመሳሳይ ውጤቶችን ያገኛሉ. በ GPU ላይ በ DHS ላይ ተመሳሳይ ውጤቶችን ያገኛሉ. በ GPU ላይ የ DHS መተግበሪያዎች በመጀመሪያ በሞርፎሎጂዎች ላይ ተመሳሳይ morphologies ጋር ተመሳሳይ morphologies ጋር ተመሳሳይ morphologies ጋር ተመሳሳይ morphologies ውስጥ ተመሳሳይ morphologies ናቸው. ከዚያም በ DHS ለሁሉም የኒውሮን ላይ ይጠቀማሉ, እያንዳንዱ የኒውሮን ክፍሎች ለሁሉም ክፍሎች ያካትታል. የኒውሮንዎች በሞርፕዎች ውስጥ ተመሳሳይ የኒውሮን ክፍሎች በሞርፕ ውስጥ ናቸው. ስለዚህ በሞርፕዎች ውስጥ አጠቃላይ synchronization በሞርፕዎች ቁጥር መሠረት በሞርፕዎች በሞርፕዎች ያካ 46 አንድ ቫርፕ ከዓለም አቀፍ ማኔጅመንት ከ የተመሠረተ እና ቀጣይነት የተመሠረተ ውሂብ መውሰድ ጊዜ, ይህ ከፍተኛ ማኔጅመንት ውፅዓት ለማግኘት ሊሆን ይችላል, ነገር ግን የተመሠረተ ውፅዓት ለማግኘት ማኔጅመንት ውፅዓት ማቀዝቀዝ ይቻላል. ክፍሎች መውሰድ እና ቀጣይነት ውፅዓት ማቀዝቀዝ በኋላ, በዓለም አቀፍ ማኔጅመንት ውስጥ ውፅዓት ማቀዝቀዝ ይቻላል, ስለዚህ ቫርፕዎች ፕሮግራም ለመጀመር ቀጣይነት የተመሠረተ ውፅዓት ማቀዝቀዝ ይችላሉ. በተጨማሪም, እነዚህን አስፈላጊ የሙከራ ተለዋዋቂዎች በዓለም አቀፍ ማኔጅመንት ይልቅ በዓለም አቀፍ ማኔጅመንት ውስጥ መውሰድ ይችላሉ. የሙቀት እና የሙቀት እና የሙቀት አጠቃቀም አጠቃቀም We used the published human pyramidal neuron . The membrane capacitance m = 0.44 μF cm-2, membrane resistance m = 48,300 Ω cm2, and axial resistivity a = 261.97 Ω ሴ.ሜ. በዚህ ሞዴል ውስጥ, ሁሉም dendrites ተስማሚ ኬብሎች እንደ ሞዴል ተመሳሳይ ጊዜ somas ተስማሚ ነበር. l = -83.1 mV. Ion channels such as Na+ and K+ were inserted on soma and initial axon, and their reversal potentials were Na = 67.6 mV, K = -102 mV respectively. All these specific parameters were set the same as in the model of Eyal, et al. , for more details please refer to the published model (ModelDB, access No. 238347). 51 c r r E E E 51 In the few-spine model, the membrane capacitance and maximum leak conductance of the dendritic cables 60 μm away from soma were multiplied by a spine factor to approximate dendritic spines. In this model, spine was set to 1.9. Only the spines that receive synaptic inputs were explicitly attached to dendrites. F F በክፍያ ሞዴል ውስጥ, ሁሉም የክፍያዎች በእርግጥ dendrites ጋር የተገናኙ ናቸው. እኛ Eyal, et al. ውስጥ reconstructed ኒውሮን ጋር የክፍያ ጥንካሬ ያካትታል. . The spine density was set to 1.3 μm-1, and each cell contained 24994 spines on dendrites 60 μm away from the soma. 51 የሞርፎሎጂዎች እና የቢዮፊክኒካዊ ሜካኒካሎች በሽታዎች በሽታዎች እና በሽታዎች በሽታዎች ውስጥ ተመሳሳይ ናቸው. neck = 1.35 μm and the diameter neck = 0.25 μm, whereas the length and diameter of the spine head were 0.944 μm, i.e., the spine head area was set to 2.8 μm2. Both spine neck and spine head were modeled as passive cables, with the reversal potential = -86 mV. The specific membrane capacitance, membrane resistance, and axial resistivity were the same as those for dendrites. L D El Synaptic inputs We investigated neuronal excitability for both distributed and clustered synaptic inputs. All activated synapses were attached to the terminal of the spine head. For distributed inputs, all activated synapses were randomly distributed on all dendrites. For clustered inputs, each cluster consisted of 20 activated synapses that were uniformly distributed on a single randomly-selected compartment. All synapses were activated simultaneously during the simulation. AMPA-based and NMDA-based synaptic currents were simulated as in Eyal et al.’s work. AMPA conductance was modeled as a double-exponential function and NMDA conduction as a voltage-dependent double-exponential function. For the AMPA model, the specific rise and decay were set to 0.3 and 1.8 ms. For the NMDA model, rise and የ AMPA እና NMDA ትክክለኛነት 0.73 nS እና 1.31 nS ነበር. τ τ τ τ Background noise We attached background noise to each cell to simulate a more realistic environment. Noise patterns were implemented as Poisson spike trains with a constant rate of 1.0 Hz. Each pattern started at መጀመር = 10 ms እና ሲኒፕቲክ ፍሬዎች ሞዴል እና ልዩ ማራኪዎች በዚያ ውስጥ የተወሰነ የተወሰነ የ 400 የሽቦ ማራኪዎች አጠቃቀም እና ያካትታል. የ NMDA ከፍተኛው ትክክለኛነት ከ 1.57 እስከ 3.275 ወደ ተመሳሳይነት የተመሠረተ ነው, ይህም ከፍተኛ የ AMPA ወደ NMDA ትክክለኛነት ያደርጋል. t Synaptic Inputs የ neuronal excitability ማረጋገጫ በዩናይትድ ስቴትስ ውስጥ በዩናይትድ ስቴትስ ውስጥ በዩናይትድ ስቴትስ ውስጥ በዩናይትድ ስቴትስ ውስጥ በዩናይትድ ስቴትስ ውስጥ በዩናይትድ ስቴትስ ውስጥ በዩናይትድ ስቴትስ ውስጥ በዩናይትድ ስቴትስ ውስጥ በዩናይትድ ስቴትስ ውስጥ በዩናይትድ ስቴትስ ውስጥ በዩናይትድ ስቴትስ ውስጥ በዩናይትድ ስቴትስ ውስጥ በዩናይትድ ስቴትስ ውስጥ በዩናይትድ ስቴትስ ውስጥ በዩናይትድ ስቴትስ ውስጥ በዩናይትድ ስቴትስ ውስጥ በዩናይትድ ስቴትስ ውስጥ በዩናይትድ ስቴትስ ውስጥ በዩናይትድ ስቴትስ ውስጥ በዩናይትድ ስቴት የ DeepDendrite የፕላስቲክ ጋር የ AI ሥራዎችን ይሰራል Conventional detailed neuron simulators lack two functionalities important to modern AI tasks: (1) alternately performing simulations and weight updates without heavy reinitialization and (2) simultaneously processing multiple stimuli samples in a batch-like manner. Here we present the DeepDendrite platform, which supports both biophysical simulating and performing deep learning tasks with detailed dendritic models. DeepDendrite በሦስት ሞዱሎች (የተጨማሪ ቅርጽ. ): (1) አንድ I/O ሞዴል; (2) DHS-based simulating module; (3) a learning module. When training a biophysically detailed model to perform learning tasks, users first define the learning rule, then feed all training samples to the detailed model for learning. In each step during training, the I/O module picks a specific stimulus and its corresponding teacher signal (if necessary) from all training samples and attachs the stimulus to the network model. Then, the DHS-based simulating module initializes the model and starts the simulation. After simulation, the learning module updates all synaptic weights according to the difference between model responses and teacher signals. After training, the learned model can performance comparable to ANN. The testing phase is similar to training, except that all synaptic weights are fixed. 5 የ HPC-Net ሞዴል Image classification is a typical task in the field of AI. In this task, a model should learn to recognize the content in a given image and output the corresponding label. Here we present the HPC-Net, a network consisting of detailed human pyramidal neuron models that can learn to perform image classification tasks by utilizing the DeepDendrite platform. የ HPC-Net አጠቃቀም አጠቃቀም አጠቃቀም አጠቃቀም አጠቃቀም አጠቃቀም አጠቃቀም አጠቃቀም አጠቃቀም አጠቃቀም አጠቃቀም አጠቃቀም አጠቃቀም አጠቃቀም አጠቃቀም አጠቃቀም አጠቃቀም አጠቃቀም አጠቃቀም ለሁሉም ፎቶዎች ለሁሉም ፎቶዎች ለሁሉም ፎቶዎች ለሁሉም ፎቶዎች ለሁሉም ፎቶዎች ለሁሉም ፎቶዎች ለሁሉም ፎቶዎች ለሁሉም ፎቶዎች ( ) በይነገጽ ውስጥ, ተመሳሳይ spike train አንድ ተመሳሳይ interspike intervall አላቸው ISI( ) (in ms) which is determined by the pixel value ( ) as shown in Eq. ( ). X እና Y τ x, y p X እና Y 1 In our experiment, the simulation for each stimulus lasted 50 ms. All spike trains started at 9 + ISI ms and lasted until the end of the simulation. Then we attached all spike trains to the input layer neurons in a one-to-one manner. The synaptic current triggered by the spike arriving at time የተመሠረተ τ t0 where is the post-synaptic voltage, the reversal potential syn = 1 mV, ከፍተኛው የሲናፕቲክ የማስተዋወቂያ max = 0.05 μS, and the time constant = 0.5 ms. v E g τ በይነገጽ ደረጃ ውስጥ የኒውሮን በይነገጽ ሞዴል በይነገጽ ሞዴል በይነገጽ ሞዴል በይነገጽ ሞዴል በይነገጽ ሞዴሎች በይነገጽ ሞዴሎች በይነገጽ ሞዴሎች በይነገጽ ሞዴሎች በይነገጽ ሞዴሎች በይነገጽ ሞዴሎች በይነገጽ ሞዴሎች በይነገጽ ሞዴሎች m = 1.0 μF ሴ.ሜ.-2, የሞባይል መከላከያ m = 104 Ω ሴ.ሜ.2, አክሲል የመቋቋም a = 100 Ω ሴ.ሜ., ተስማሚ ክፍሎች የፈጠራ ችሎታ L = 0 mV. c r r E The hidden layer contains a group of human pyramidal neuron models, receiving the somatic voltages of input layer neurons. The morphology was from Eyal, et al. , and all neurons were modeled with passive cables. The specific membrane capacitance m = 1.5 μF cm-2, membrane resistance m = 48,300 Ω cm2, axial resistivity a = 261.97 Ω cm, and the reversal potential of all passive cables l = 0 mV. Input neurons could make multiple connections to randomly-selected locations on the dendrites of hidden neurons. The synaptic current activated by the -th synapse of the -th input neuron on neuron ’s dendrite is defined as in Eq. ( ), where is the synaptic conductance, is the synaptic weight, is the ReLU-like somatic activation function, and is the somatic voltage of the -th input neuron at time . 51 c r r E k i j 4 ጓደኛ Wijk i t Neurons in the output layer were also modeled with a passive single-compartment model, and each hidden neuron only made one synaptic connection to each output neuron. All specific parameters were set the same as those of the input neurons. Synaptic currents activated by hidden neurons are also in the form of Eq. ( ). 4 Image classification with HPC-Net For each input image stimulus, we first normalized all pixel values to 0.0-1.0. Then we converted normalized pixels to spike trains and attached them to input neurons. Somatic voltages of the output neurons are used to compute the predicted probability of each class, as shown in equation በዚያ is the probability of -th ክፍል በ HPC-Net የተመሠረተ ነው, በ 20 ms እስከ 50 ms መካከል የሶታቲክ ስሜት ነው -th output neuron, and indicates the number of classes, which equals the number of output neurons. The class with the maximum predicted probability is the final classification result. In this paper, we built the HPC-Net with 784 input neurons, 64 hidden neurons, and 10 output neurons. 6 pi i i C Synaptic plasticity rules for HPC-Net Inspired by previous work የኦሪጂናል ኮምፒዩተር (የኦሪጂናል ኮምፒዩተር ኮምፒዩተር ኮምፒዩተር ኮምፒዩተር ኮምፒዩተር ኮምፒዩተር ኮምፒዩተር ኮምፒዩተር ኮምፒዩተር ኮምፒዩተር ኮምፒዩተር ኮምፒዩተር ኮምፒዩተር ኮምፒዩተር ኮምፒዩተር ኮምፒዩተር ኮምፒዩተር ኮምፒዩተር ኮምፒዩተር ኮምፒዩተር ኮምፒዩተር ኮምፒዩተር ኮምፒዩተር ኮምፒዩተር ኮምፒዩተር ኮምፒዩተር ኮምፒዩተር ኮምፒዩተር ኮምፒዩተር ኮምፒዩተር ኮምፒዩተር ኮምፒዩተር ኮምፒዩተር ኮምፒዩተር ኮምፒዩተር ኮምፒዩተር ኮም ), where is the predicted probability for class , indicates the actual class the stimulus image belongs to, = 1 አንዳንዶቹ የኮምፒውተር አጠቃቀም እና 0 = 0 አይደለም. 36 7 ፒ i አዲሱ yi i አዲሱ የ HPC-Net ስልጠና ላይ, የእኛን ክብደት ላይ ማሻሻያን ያካትታል (አንድ የሲንቲክ ክብደት) -th synapse connecting neuron to neuron (እያንዳንዱ ጊዜ ደረጃ ላይ) እያንዳንዱ ፎቶ ግምገማዎችን ለመምረጥ በኋላ, በዩናይትድ ስቴትስ ( አማርኛ: መኖሪያ ቤት k i j መኖሪያ ቤት 8 እዚህ የቁማር ፍጥነት ነው, በጊዜ ላይ የቁማር ፍጥነት ነው አግኙን , are somatic voltages of neuron and ተመሳሳይ, ይህ የ -th synaptic current activated by neuron on neuron , its synaptic conductance, is the transfer resistance between the -th connected compartment of neuron on neuron ’s dendrite to neuron ’s soma, s = 30 ms, e = 50 ms are start time and end time for learning respectively. For output neurons, the error term can be computed as shown in Eq. ( ). For hidden neurons, the error term is calculated from the error terms in the output layer, given in Eq. ( ). t የ VJ vi i j አግኙን k i j ጓደኛ መኖሪያ ቤት k i j j t t 10 11 ሁሉም ውፅዓት ኒውሮን አንድ ክፍሎች ናቸው, ተመሳሳይ ክፍሎች ያለውን ውፅዓት መከላከያ ጋር ተመሳሳይ ነው, transfer and input resistance are calculated by NEURON. Mini-batch training is a typical method in deep learning for achieving higher prediction accuracy and accelerating convergence. DeepDendrite also supports mini-batch training. When training HPC-Net with mini-batch size batch, we make የ HPC-Net batch copies. During the training, each copy is fed with a different training sample from the batch. DeepDendrite first calculates the weight update for each copy separately. ከሁሉም copies in the current training batch are done, the average weight update is calculated and weights in all copies are updated by this same amount. N N በ HPC-Net ጋር ተደጋጋሚ ግምገማዎች ላይ ጥንካሬ የ HPC-Net ትክክለኛነት ለማሳየት በ adversarial ሞዴሎች ላይ ትክክለኛነት ለማረጋገጥ እና በ ANN (የ 784-64-10 መዋቅር እና የ ReLU መተግበሪያ ጋር አንድ ሰው) ጋር ተመሳሳይ ተመሳሳይ ተመሳሳይ ተመሳሳይ ተመሳሳይ ተመሳሳይ ተመሳሳይ ተመሳሳይ ተመሳሳይ ተመሳሳይ ተመሳሳይ ተመሳሳይ ተመሳሳይ ተመሳሳይ ተመሳሳይ ተመሳሳይ ተመሳሳይ ተመሳሳይ ተመሳሳይ ተመሳሳይ ተመሳሳይ ተመሳሳይ ተመሳሳይ ተመሳሳይ ተመሳሳይ ተመሳሳይ ተመሳሳይ ተመሳሳይ ተመሳሳይ ተመሳሳይ ተመሳሳይ ተመሳሳይ ተመሳሳይ ተመሳሳይ ተመሳሳይ ተመሳሳይ ተመሳሳይ ተመሳሳይ ተመሳሳይ ተመሳሳይ ተመሳሳይ ተመሳሳይ ተመሳሳይ ተመሳሳይ ተመሳሳይ ተመሳሳይ ተመሳሳይ ተ , to generate adversarial noise with the FGSM method . ANN was trained with PyTorch , እና HPC-Net የእኛን DeepDendrite ጋር የተጠናቀቀቀ ነበር. ለስላሳነት, በዋናነት የተለያዩ አውታረ መረብ ሞዴል, የ 20 ኬብል ResNet ላይ ተለዋዋዋጭ ስሜት አግኝቷል የዱቄት ደረጃ ከ 0.02 እስከ 0.2 መካከል ነበር. እኛ ሁለት መደበኛ datasets, MNIST ላይ ተሞክሮ ነበር. and Fashion-MNIST . Results show that the prediction accuracy of HPC-Net is 19% and 16.72% higher than that of the analogous ANN, respectively. 98 99 93 100 101 95 96 ግምገማዎች ስለ ምርምር ዲዛይን ተጨማሪ መረጃ በ linked to this article. የ Nature Portfolio ግምገማዎች ውሂብ አጠቃቀም የዚህ ምርምር ውሂብ ለማረጋገጥ ውሂብ በፋይበር, supplementary information and source data files provided with this paper.The source code and data that used to reproduce the results in Fig. – ላይ ይገኛል የ MNIST ውሂብ አጠቃቀም በ The Fashion-MNIST dataset is publicly available at ያግኙ በዚህ ጽሑፍ ጋር ያቀርባል. 3 6 https://github.com/pkuzyc/DeepDendrite http://yann.lecun.com/exdb/mnist https://github.com/zalandoresearch/fashion-mnist የምስክር ወረቀት ኮድ አጠቃቀም The source code of DeepDendrite as well as the models and code used to reproduce Figs. – in this study are available at . 3 6 https://github.com/pkuzyc/DeepDendrite አስተያየቶች McCulloch, W. S. & Pitts, W. የኒውሮስ እንቅስቃሴ ውስጥ የተመሠረተ ግምገማዎች አንድ ትክክለኛ ትክክለኛነት. Bul. Math. Biophys. 5, 115-133 (1943). ጂ.ኤም.ኤም.ኤም.ኤም.ኤም.ኤም.ኤም.ኤም.ኤም.ኤም.ኤም.ኤም.ኤም.ኤም.ኤም.ኤም.ኤም.ኤም.ኤም.ኤም.ኤም.ኤም.ኤም.ኤም.ኤም.ኤም.ኤም.ኤም.ኤም.ኤም.ኤም.ኤም.ኤም.ኤም.ኤም.ኤም.ኤም.ኤም.ኤም.ኤም.ኤም.ኤም.ኤም.ኤም.ኤም.ኤም.ኤም.ኤም.ኤም.ኤም.ኤም.ኤም.ኤም.ኤም.ኤም.ኤም.ኤም.ኤም.ኤም.ኤም.ኤም.ኤም.ኤም. Poirazi, P., Brannon, T. & Mel, B. W. አንድ ሞዴል CA1 ፒራሚዲል ኬብል ውስጥ ዝርዝር የሲናፕቲክ አጠቃቀም አሪታማቲክ. Neuron 37, 977–987 (2003). በዩናይትድ ስቴትስ, በዩናይትድ ስቴትስ, በዩናይትድ ስቴትስ, በዩናይትድ ስቴትስ, በዩናይትድ ስቴትስ, በዩናይትድ ስቴትስ, በዩናይትድ ስቴትስ, በዩናይትድ ስቴትስ እና በዩናይትድ ስቴትስ በዩናይትድ ስቴትስ በዩናይትድ ስቴትስ በዩናይትድ ስቴትስ በዩናይትድ ስቴትስ በዩናይትድ ስቴትስ በዩናይትድ ስቴትስ በዩናይትድ ስቴትስ በዩናይትድ ስቴትስ በዩናይትድ ስቴትስ በዩናይትድ ስቴትስ በዩናይትድ ስቴትስ በዩናይትድ ስቴትስ በ Branco, T. & Häusser, M. አንድ የዲንዲሪቲክ ቅርንጫፍ በኒውሮቢዮል. 20, 494–502 (2010). Stuart, G. J. & Spruston, N. Dendritic መተግበሪያ: 60 ዓመት ልማት. Nat. Neurosci. 18, 1713-1721 (2015). Poirazi, P. & Papoutsi, A. በኮምፒውተር ሞዴሎች ጋር dendritic ተግባር ይሰጣል. Yuste, R. & Denk, W. Dendritic spines እንደ የኒውሮኒየም መተግበሪያ ዋና ተግባራዊ ዩኒቶች. Nature 375, 682–684 (1995). Engert, F. & Bonhoeffer, T. Dendritic ስቴትስ በ hippocampal ረጅም ጊዜ synaptic ፕላስቲክነት ጋር የተገናኙ. Nature 399, 66-70 (1999). Yuste, R. Dendritic ስነቶች እና የተመሠረተ ክወናዎች. Neuron 71, 772–781 (2011). የኮምፒዩተር የኮምፒውተር የኮምፒውተር የኮምፒውተር የኮምፒውተር የኮምፒውተር የኮምፒውተር የኮምፒውተር የኮምፒውተር የኮምፒውተር የኮምፒውተር የኮምፒውተር የኮምፒውተር የኮምፒውተር የኮምፒውተር የኮምፒውተር የኮምፒውተር የኮምፒውተር የኮምፒውተር የኮምፒውተር የኮምፒውተር የኮምፒውተር የኮምፒውተር ሮል, W. የዲንዲሪቲክ መድሃኒቶች እና የሞቶኒውሮን ካርቦን resistivity. Exp. Neurol. 1, 491–527 (1959). Segev, I. & Rall, W. የኮምፒውተር የኮምፒውተር ግምገማዎች የ Dendritic ስፔን. J. Neurophysiol. 60, 499-523 (1988). ስሪት, D. et al. የጉዞ ጨዋታን በከፍተኛ የኒውሮል አውታረ መረብዎች እና በድብቅ ማግኘት. Nature 529, 484–489 (2016). Silver, D. et al. A general reinforcement learning algorithm that masters chess, shogi, and go through self-play. , 1140–1144 (2018). Science 362 McCloskey, M. & Cohen, N. J. Connectivist አውታረ መረብዎች ውስጥ አስደናቂ መዳረሻ: የኮንክኒካል መማር ችግር. የፈረንሳይ, R. M. በ connectivist አውታረ መረብዎች ውስጥ የካቲትሮስ መውሰድ. Trends Cogn. Sci. 3, 128-135 (1999). Naud, R. & Sprekeler, H. Sparse ስፕራስ በ multiplexed የኒውሮል ኮድ ውስጥ መረጃ ማተሚያ ለማሻሻል. Proc. Natl Acad. Sci. USA 115, E6329-E6338 (2018). Sacramento, J., Costa, R. P., Bengio, Y. & Senn, W. Dendritic cortical microcircuits backpropagation algorithm. in Advances in Neural Information Processing Systems 31 (NeurIPS 2018) (NeurIPS*,* 2018). Payeur, A., Guerguiev, J., Zenke, F., Richards, B. A. & Naud, R. Burst-መደበኛ የሲናፕቲክ ፕላስቲክነት በይራክክክ ክወናዎች ውስጥ መግዛት መቆጣጠር ይችላሉ. Bicknell, B. A. & Häusser, M. A synaptic learning rule for exploiting nonlinear dendritic computation. , 4001–4017 (2021). Neuron 109 Moldwin, T., Kalmenson, M. & Segev, I. የ gradient clusteron: በ dendritic nonlinearities, structural plasticity, እና gradient descent በመጠቀም የኮምፒውተር ሞዴል ኒውሮን ለማሟላት ይረዳል. PLoS Comput. Biol. 17, e1009015 (2021). Hodgkin, A. L. & Huxley, A. F. Membrane currents and its application to conduction and excitation in the nerve. J. Physiol. 117, 500-544 (1952). Rall, W. Dendrites የሲሲዮሎጂ ባህሪያት የሳይንስ 96, 1071-1092 (1962). Hines, M. L. እና Carnevale, N. T. The Neuron simulation environment. Neural Comput. 9, 1179-1209 (1997). Bower, J. M. & Beeman, D. The Book of GENESIS: Exploring Realistic Neural Models with the General Neural Simulation System (Bower, J. M. & Beeman, D.) 17-27 (Springer New York, 1998). Hines, M. L., Eichner, H. & Schürmann, F. Neuron በኮምፒውተር-ባባህር ተለዋዋጭ አውታረ መረብ ማምረቻዎች ውስጥ በኮምፒውተር-ባህር ማምረቻዎች ከሁለት ጊዜ በላይ የፕሮይዝሮች ጋር የ runtime scaling ያደርጋል. Hines, M. L., Markram, H. & Schürmann, F. አንድ የኒውሮን ተለዋዋጭ ተለዋዋጭ ተለዋዋጭ ተለዋጭ. J. Comput. Neurosci. 25, 439-448 (2008) Ben-Shalom, R., Liberman, G. & Korngreen, A. በ graphical processing unit ላይ የኮምፒዩተር ሞዴል ለማሻሻል. Tsuyuki, T., Yamamoto, Y. & Yamazaki, T. በ graphics processing units ላይ የቴክኒካዊ ሞዴሎች ጋር ውጤታማ የኒውሮን ሞዴሎች የኮምፒዩተሮች. In Proc. 2016 International Conference on Neural Information Processing (eds Hirose894Akiraet al.) 279–285 (Springer International Publishing, 2016). Vooturi, D. T., Kothapalli, K. & Bhalla, U. S. Parallelizing Hines Matrix Solver in Neuron Simulations on GPU. In Proc. IEEE 24th International Conference on High Performance Computing (HiPC) 388-397 (IEEE, 2017). Huber, F. የ GPU ላይ የ hines matrices ለ ውጤታማ ሕንፃ solver. በ https://arxiv.org/abs/1810.12742 (2018) ላይ የተመሠረተ. Korte, B. & Vygen, J. 6 edn (Springer, 2018). Combinatorial Optimization Theory and Algorithms Gebali, F. Algorithms and Parallel Computing (Wiley, 2011) በይነገጽ. Kumbhar, P. et al. CoreNEURON: የኒውሮን ሲሚዩተር ለ optimized compute engine. Front. Neuroinform. 13, 63 (2019). Urbanczik, R. & Senn, W. የሶታቲክ spiking በ dendritic ትክክለኛነት በመግዛት. Neuron 81, 521-528 (2014). Ben-Shalom, R., Aviv, A., Razon, B. & Korngreen, A. Optimizing ion channel models using a parallel genetic algorithm on graphical processors. , 183–194 (2012). J. Neurosci. Methods 206 Mascagni, M. በኮምፒውተር መፍትሔዎች ለወደፊቱ የኬብል ኒውሮን ሞዴሎች ለማግኘት አንድ ተለዋዋጭ አግኝተዋል. J. Neurosci. Methods 36, 105-114 (1991). McDougal, R. A. et al. Twenty years of modelDB and beyond: building essential modeling tools for the future of neuroscience. , 1–10 (2017). J. Comput. Neurosci. 42 Migliore, M., Messineo, L. & Ferrante, M. Dendritic Ih በ CA1 ፒራሚዲል ኒውሮን ውስጥ የማይታመን የዲስትል መተግበሪያዎች ጊዜው አጠቃቀም ይሸፍናል. J. Comput. Neurosci. 16, 5–13 (2004). Hemond, P. et al. Pyramid cell classes exhibit mutually exclusive firing patterns in the hippocampal area CA3b. Hippocampus 18, 411-424 (2008). Hay, E., Hill, S., Schürmann, F., Markram, H. & Segev, I. የ 5b neocortical layer pyramidal cell models capturing a wide range of dendritic and perisomatic active properties. PLoS Comput. Biol. 7, e1002107 (2011). Masoli, S., Solinas, S. & D’Angelo, E. አንድ ዝርዝር purkinje ኬብል ሞዴል ውስጥ ክወና ችሎታ ሂደት የኦክቶኒካዊ ክፍሎች ለማግኘት አስፈላጊነት ይሰጣል. Front. Cell. Neurosci. 9, 47 (2015). Lindroos, R. et al. Basal ganglia neuromodulation over multiple temporal and structural scales—simulations of direct pathway MSNs investigate the rapid onset of dopaminergic effects and predict the role of Kv4.2. Front. Neural Circuits 12, 3 (2018). Migliore, M. et al. የ Synaptic ግምገማዎች በኦርፌስቲካል ሉህ ውስጥ የሙዚቃ አግኝተዋል. Proc. Natl Acad. Sci. USa 112, 8499–8504 (2015). የ NVIDIA. የ CUDA C++ ፕሮግራም መመሪያ. https://docs.nvidia.com/cuda/cuda-c-programming-guide/index.html (2021). የ NVIDIA. የ CUDA C++ ምርጥ ሂደቶች መመሪያ. https://docs.nvidia.com/cuda/cuda-c-best-practices-guide/index.html (2021). Harnett, M. T., Makara, J. K., Spruston, N., Kath, W. L. & Magee, J. C. የ Dendritic spines በ Synaptic አጠቃቀም የአውታረ አጠቃቀም አጠቃቀም ያካትታል. Nature 491, 599–602 (2012). C. Q. et al. የ Dendritic spines በ GABAergic መከላከያን ክፍሎች. ሳይንስ 340, 759-762 (2013). Tønnesen, J., Katona, G., Rózsa, B. & Nägerl, U. V. የክፍል የክፍል ፕላስቲክነት የሲናፕስ ክፍሎች ለማስተካከል ይቆጣጠራል. Nat. Neurosci. 17, 678-685 (2014). Eyal, G. et al. Human cortical pyramidal neurons: ከረጅም ከረጅም ከረጅም ከረጅም ከረጅም ከረጅም ከረጅም ከረጅም ከረጅም ከረጅም ከረጅም ከረጅም ከረጅም ከረጅም ከረጅም. Koch, C. & Zador, A. Dendritic spines ተግባር: የ biochemical rather than electrical compartmentalization ለማግኘት መሣሪያዎች. J. Neurosci. 13, 413-422 (1993). ኮክ, C. Dendritic spines. In Biophysics of Computation (ኦክስፎርድ ዩኒቨርሲቲ ግምገማ, 1999). Rapp, M., Yarom, Y. & Segev, I. የኮምፒውተር 4, 518-533 (1992) በ cerebellar purkinje የኮምፒውተር የኬብል ባህሪያት ላይ በተመሳሳይ የፋይበር መዋቅር እንቅስቃሴ ውጤታማነት. የኮምፒዩተር የኮምፒውተር የኮምፒውተር የኮምፒውተር የኮምፒውተር የኮምፒውተር የኮምፒውተር የኮምፒውተር የኮምፒውተር የኮምፒውተር የኮምፒውተር የኮምፒውተር የኮምፒውተር የኮምፒውተር የኮምፒውተር የኮምፒውተር የኮምፒውተር የኮምፒውተር የኮምፒውተር የኮምፒውተር የኮምፒውተር የኮምፒውተር የኮምፒውተር የኮምፒውተር Nayebi, A. & Ganguli, S. ከባድ መዳረሻዎች ከ ውስጣዊ አውታረ መረብዎች የተመሠረተ ጥበቃ. በ https://arxiv.org/abs/1703.09202 (2017). Goddard, N. H. & Hood, G. Large-Scale Simulation Using Parallel GENESIS. In The Book of GENESIS: Exploring Realistic Neural Models with the General Neural Simulation System (Bower James M. & Beeman David) 349-379 (Springer New York, 1998). Migliore, M., Cannia, C., Lytton, W. W., Markram, H. & Hines, M. L. Parallel network simulations with NEURON. , 119 (2006). J. Comput. Neurosci. 21 Lytton, W. W. et al. ሞዴል ኒውሮቴክኖሎጂዎች ለዋናነት ምርምር ለማሻሻል: በኒውሮን ውስጥ ትልቅ አውታረ መረብዎች ተለዋዋጭ. Valero-Lara, P. et al. cuHinesBatch: Solving multiple Hines systems on GPUs human brain project. In 566–575 (IEEE, 2017). Proc. 2017 International Conference on Computational Science Akar, N. A. et al. Arbor—የአሁኑ ከፍተኛ አፈጻጸም የኮምፒውተር መዋቅር ለ morphologically-different neural network simulation library. In Proc. 27th Euromicro International Conference on Parallel, Distributed and Network-Based Processing (PDP) 274–282 (IEEE, 2019). Ben-Shalom, R. et al. NeuroGPU: በ GPUs ላይ multi-compartment, biophysically ዝርዝር ኒውሮን ሞዴሎች ይሰጣል. J. Neurosci. Methods 366, 109400 (2022). Rempe, M. J. & Chopp, D. L. A predictor-corrector algorithm for reaction-diffusion equations associated with neural activity on branched structures. , 2139–2161 (2006). SIAM J. Sci. Comput. 28 Kozloski, J. & Wagner, J. በከፍተኛ-ጥራት የኒውሮር ኬብል ሞዴል መፍትሔ. Front. Neuroinform. 5, 15 (2011). Jayant, K. et al. ከ dendritic spines ከ intracellular ቮልቴጅ ዝርዝሮች በመጠቀም የኮንቶኒየም-ተኮር-ተኮር nanopipettes. Nat. Nanotechnol. 12, 335-342 (2017). Palmer, L. M. & Stuart, G. J. የ Dendritic spines ውስጥ Membrane potential changes during action potentials and synaptic input. J. Neurosci. 29, 6897-6903 (2009) Nishiyama, J. እና Yasuda, R. የቦዮኬሚካል ኮምፒውተር ለ የኮምፒውተር የኮምፒውተር የኮምፒውተር የኮምፒውተር የኮምፒውተር የኮምፒውተር የኮምፒውተር የኮምፒውተር የኮምፒውተር የኮምፒውተር የኮምፒውተር የኮምፒውተር የኮምፒውተር የኮምፒውተር የኮምፒውተር የኮምፒውተር Yuste, R. & Bonhoeffer, T. የ Dendritic spines ውስጥ የሞርፎሎጂያዊ ልምድ በስፋት የሲናፕቲክ ፕላስቲክነት ጋር የተገናኙ ናቸው. Holtmaat, A. & Svoboda, K. ተሞክሮ-የተግበሪያ-የተግበሪያ መዋቅር synaptic plasticity in the mammalian brain. Nat. Rev. Neurosci. 10, 647–658 (2009) Caroni, P., Donato, F. & Muller, D. የመግቢያ ላይ የፕላስቲካዊነት: መቆጣጠሪያ እና ተግባሮች. Keck, T. et al. በከፍተኛ ደረጃ የኒውሮኒክ ኬብሎች በከፍተኛ ደረጃ የፈጠራ ኬብል ኬብል ኬብል ኬብል. Nat. Neurosci. 11, 1162 (2008). Hofer, S. B., Mrsic-Flogel, T. D., Bonhoeffer, T. & Hübener, M. ልምድ በኮርክክሲክ ክርክሲክ ውስጥ የተቋቋቋመ የገንዘብ ተጽዕኖ ይሰጣል. Nature 457, 313–317 (2009) Trachtenberg, J. T. et al. በከፍተኛ ደረጃ ውስጥ በዋናነት 420, 788-794 (2002) ውስጥ ልምድ-መደበኛ የሲናፕቲክ ፕላስቲክ ቅርጸት in vivo ቅርጸት. Marik, S. A., Yamahachi, H., McManus, J. N., Szabo, G. & Gilbert, C. D. Somatosensory cortex ውስጥ excitatory እና inhibitory ኒውሮን ውስጥ አክስንላላኒክ dynamics. PLoS Biol. 8, e1000395 (2010). Xu, T. et al. የሞተር ማምረቻዎች ለመጠበቅ የ synapses ፈጣን ማምረቻ እና selective stabilization. Nature 462, 915-919 (2009) Albarran, E., Raissi, A., Jáidar, O., Shatz, C. J. & Ding, J. B. የሞተር ኮርክስ ውስጥ አዲስ የተቋቋቋመ dendritic ስፔን መካከል አስተማማማኝነት ለማሻሻል. Neuron 109, 3298-3311 (2021). Branco, T. & Häusser, M. የሲኒፕቲክ መተግበሪያ ተመሠረተ ተመሠረተ ተመሠረተ ተመሠረተ ተመሠረተ ተመሠረተ ተመሠረተ ተመሠረተ. Neuron 69, 885-892 (2011). ዋናው, G., Larkum, M. E. እና Schiller, J. Neocortical pyramidal neuron dendrites የኃይል ባህሪያት. Annu. Rev. Neurosci. 36, 1–24 (2013). Gidon, A. et al. Dendritic ውጤታማ ችሎታዎች እና የአካባቢ ጥራት 2/3 cortical neurons ውስጥ የኮምፒዩተር. Science 367, 83-87 (2020). Doron, M., Chindemi, G., Muller, E., Markram, H. & Segev, I. Timed synaptic inhibition forms NMDA spikes, local dendritic processing and global I/O properties of cortical neurons. የሲል Rep. 21, 1550–1561 (2017). Du, K. et al. ስሌት አይነት-የተወሰነ የዲንዲሪቲክ የፕላስቲክ ችሎታ በ striatal spiny ፕሮጀክሽን ኒውሮን. Proc. Natl Acad. Sci. ዩናይትድ ስቴትስ 114, E7612-E7621 (2017). Smith, S. L., Smith, I. T., Branco, T. & Häusser, M. Dendritic spikes in vivo. Nature 503, 115-120 (2013). Xu, N.-l et al. የሞተር እና የሙዚቃ መተግበሪያዎች መካከል Nonlinear dendritic መተግበሪያዎች በ aktively sensing ተግባር ውስጥ. Nature 492, 247-251 (2012). የቴክኒካዊ ግምገማዎች, የቴክኒካዊ ግምገማዎች, የቴክኒካዊ ግምገማዎች, የቴክኒካዊ ግምገማዎች, የቴክኒካዊ ግምገማዎች, የቴክኒካዊ ግምገማዎች, የቴክኒካዊ ግምገማዎች, የቴክኒካዊ ግምገማዎች, የቴክኒካዊ ግምገማዎች, የቴክኒካዊ ግምገማዎች, የቴክኒካዊ ግምገማዎች, የቴክኒካዊ ግምገማዎች, የቴክኒካዊ ግምገማዎች, የቴክኒካዊ ግምገማዎች, የቴክኒካዊ ግምገማዎች, የቴክኒካዊ ግምገማዎች, የቴክኒካዊ Sheffield, M. E. & Dombeck, D. A. Calcium transient prevalence across the dendritic arbour predicts place field properties. , 200–204 (2015). Nature 517 Markram, H. et al. Neocortical microcircuitry reconstruction እና ሞዴል. ሴል 163, 456-492 (2015). Billeh, Y. N. et al. የፕሮግራፊክ እና የሥራ መረጃዎች በሙዚቃ ዋና የቪዛ ኮርክስ (N. Neuron 106, 388–403 (2020) ንድፍ ሞዴሎች ውስጥ ስርዓተ መተግበሪያ. Hjorth, J. et al. The microcircuits of striatum in silico. , 202000671 (2020). Proc. Natl Acad. Sci. USA 117 Guerguiev, J., Lillicrap, T. P. & Richards, B. A. Towards deep learning with segregated dendrites. , e22901 (2017). elife 6 Iyer, A. et al. Avoiding catastrophe: active dendrites enable multi-task learning in dynamic environments. , 846219 (2022). Front. Neurorobot. 16 Jones, I. S. & Kording, K. P. አንድ ሰው ኒውሮን በ Dendritic tree ላይ ተመሳሳይ ኮምፒዩተሮች በመጠቀም አስደሳች ማሽን መግዛት ችግሮች ሊሆን ይችላል? Neural Comput. 33, 1554–1571 (2021). Bird, A. D., Jedlicka, P. & Cuntz, H. Dendritic normalisation improves learning in sparsely connected artificial neural networks. , e1009202 (2021). PLoS Comput. Biol. 17 Goodfellow, I. J., Shlens, J. & Szegedy, C. በ 3rd International Conference on Learning Representations (ICLR) (ICLR, 2015) ውስጥ ተለዋዋጭ ምሳሌዎችን ያካትታል እና ያግኙ. Papernot, N., McDaniel, P. & Goodfellow, I. ማሽን መፍጠር ውስጥ ተንቀሳቃሽነት: በ adversarial ናሙናዎችን በመጠቀም የቁር ሣጥን ተጫዋቾች ከ. በ https://arxiv.org/abs/1605.07277 (2016). Lecun, Y., Bottou, L., Bengio, Y. & Haffner, P. Gradient-based learning applied to document recognition. , 2278–2324 (1998). Proc. IEEE 86 Xiao, H., Rasul, K. & Vollgraf, R. Fashion-MNIST: a novel image dataset for benchmarking machine learning algorithms. Preprint at (2017). http://arxiv.org/abs/1708.07747 Bartunov, S. et al. Assessing the scalability of biologically-motivated deep learning algorithms and architectures. In (NeurIPS, 2018). Advances in Neural Information Processing Systems 31 (NeurIPS 2018) Rauber, J., Brendel, W. & Bethge, M. Foolbox: A Python toolbox to benchmark the robustness of machine learning models. In (2017). Reliable Machine Learning in the Wild Workshop, 34th International Conference on Machine Learning Rauber, J., Zimmermann, R., Bethge, M. & Brendel, W. Foolbox native: fast adversarial attacks to benchmark the robustness of machine learning models in PyTorch, TensorFlow, and JAX. , 2607 (2020). J. Open Source Softw. 5 Paszke, A. et al. PyTorch: አንድ አስቸጋሪ ስሜት, ከፍተኛ አፈጻጸም ጥልቅ መማር ካፒታል. In Advances in Neural Information Processing Systems 32 (NeurIPS 2019) (NeurIPS, 2019). He, K., Zhang, X., Ren, S. & Sun, J. Deep residual learning for image recognition. In 770–778 (IEEE, 2016). Proc. 2016 IEEE Conference on Computer Vision and Pattern Recognition (CVPR) የምስክርነት ይህ ሥራ የቻይና ብሔራዊ Key R&D ፕሮግራም (የ 2018B030338001) ወደ K.D. እና T.H., የቻይና ብሔራዊ Natural Science Foundation (የ 61825101) ወደ Y.T., የቻይና ብሔራዊ Key R&D ፕሮግራም (የ 2022ZD01163005) ወደ L.M., የ Guangdong Province Key Area R&D ፕሮግራም (የ 2018B030338001) ወደ T.H., የቻይና ብሔራዊ Natural Science Foundation (የ 61825101) ወደ Y.T., የ Swedish Research Council (VR-M-2020-01652), የ Swedish e-Science Research Centre (SeRC), EU/Horizon 2020 No 945539 (HBP SGA3), እና የ J.H.K.K., J.K., A.H., PDIC, Swedish ይህ ጽሑፍ በ CC by 4.0 Deed (Attribution 4.0 International) ዝርዝር ላይ ይገኛል. ይህ ጽሑፍ በ CC by 4.0 Deed (Attribution 4.0 International) ዝርዝር ላይ ይገኛል.