হল নমুনা ডেটার উপর ভিত্তি করে উপসংহার আঁকতে এবং জনসংখ্যা সম্পর্কে ভবিষ্যদ্বাণী করার জন্য একটি শক্তিশালী হাতিয়ার। এটি । পরিসংখ্যানগত অনুমানের একটি জনপ্রিয় প্রয়োগ হল , যেখানে আমরা উচ্চতর পারফরমার নির্ধারণ করতে দুটি সংস্করণ বা চিকিত্সার তুলনা করি। যাইহোক, যখন আমরা ? পরিসংখ্যানগত অনুমান আমাদের জ্ঞাত সিদ্ধান্ত নিতে এবং বিভিন্ন বিকল্পের কার্যকারিতা বুঝতে অনুমতি দেয় A/B পরীক্ষা পরীক্ষায় আরও সংস্করণ বা চিকিত্সা প্রবর্তন করি তখন কী ঘটে এটা মনে হতে পারে যে একটি পরীক্ষায় অতিরিক্ত সংস্করণের প্রবর্তন আরও ভাল সিদ্ধান্তের জন্য একটি সুযোগ। , সঠিকভাবে পরিচালনা না করা হলে, । এই চ্যালেঞ্জটি হিসাবে পরিচিত। দুর্ভাগ্যবশত পরীক্ষাযোগ্য অনুমানের বর্ধিত সংখ্যা বিভ্রান্তিকর ফলাফল এবং ভুল সিদ্ধান্তের দিকে নিয়ে যেতে পারে একাধিক তুলনা সমস্যা এই নিবন্ধে, আমি একাধিক হাইপোথিসিস পরীক্ষার ধারণা ব্যাখ্যা করছি, এর সম্ভাব্য ক্ষতি এবং পাইথন সিমুলেশন দ্বারা সমর্থিত একটি সম্ভাব্য সমাধান দিচ্ছি। একাধিক হাইপোথিসিস টেস্টিং কি? একাধিক হাইপোথিসিস টেস্টিং বোঝার জন্য, আসুন মৌলিক ধারণাগুলি পরীক্ষা করে শুরু করা যাক। দুটি রূপের সাথে জড়িত একটি সাধারণ A/B পরীক্ষার একটি A/B পরীক্ষায়, আমরা দুটি প্রতিযোগী অনুমান প্রণয়ন করে শুরু করি: , যা বৈকল্পিকগুলির মধ্যে পার্থক্যের অনুপস্থিতিকে প্রতিনিধিত্ব করে এবং , একটি পার্থক্যের উপস্থিতির পরামর্শ দেয়। নাল হাইপোথিসিস বিকল্প হাইপোথিসিস তারপরে আমরা হিসাবে চিহ্নিত একটি সেট করি। এই থ্রেশহোল্ডটি নির্ধারণ করে। সাধারণভাবে ব্যবহৃত তাৎপর্যের মাত্রা হল 0.05 (5%) এবং 0.01 (1%), alpha তাত্পর্য স্তর নাল হাইপোথিসিস প্রত্যাখ্যান করার জন্য প্রয়োজনীয় প্রমাণের পরিমাণ যদি শূন্য অনুমানটি সত্য হয় তবে ডেটা পর্যবেক্ষণ করার সম্ভাবনা নির্দেশ করে। পরীক্ষা চালানো এবং ডেটা সংগ্রহ করার পরে, আমরা গণনা করি। যদি p-মান তাত্পর্য স্তরের থেকে কম হয়, তাহলে আমরা বিকল্প অনুমানের পক্ষে শূন্য অনুমানকে প্রত্যাখ্যান করি। p-মান p-মানটি শূন্য অনুমান সত্য হলে পর্যবেক্ষিত ডেটার মতো চরম হিসাবে বা তার চেয়ে বেশি ফলাফল পাওয়ার সম্ভাবনাকে উপস্থাপন করে। alpha এটি লক্ষ করা গুরুত্বপূর্ণ যে একটি কম পি-মান নাল হাইপোথিসিসের বিরুদ্ধে শক্তিশালী প্রমাণের পরামর্শ দেয়, যা ইঙ্গিত করে যে পর্যবেক্ষণ করা ডেটা একা সুযোগ দ্বারা ঘটতে পারে না। যাইহোক, এটি নিশ্চিততা বোঝায় না। শূন্য অনুমান সত্য হলেও নমুনাগুলির মধ্যে পার্থক্য পর্যবেক্ষণ করার একটি অ-শূন্য সম্ভাবনা থেকে যায়। যখন আমরা সাথে একটি পরিস্থিতির সম্মুখীন হই, তখন আমরা এটিকে হিসাবে উল্লেখ করি। এই ধরনের ক্ষেত্রে, জটিলতা বৃদ্ধি পায় কারণ আমাদের একই সাথে একাধিক পরীক্ষা পরিচালনার সম্ভাব্য প্রভাবকে সাবধানে বিবেচনা করতে হবে। একাধিক বিকল্প অনুমানের একাধিক হাইপোথিসিস পরীক্ষা একাধিক হাইপোথিসিস পরীক্ষার ক্ষতি একাধিক হাইপোথিসিস পরীক্ষার সমস্যা দেখা দেয় যখন আমরা তাত্পর্য স্তরের সামঞ্জস্য না করে একাধিক অনুমান পরীক্ষা করি। এই ধরনের ক্ষেত্রে, আমরা , যার অর্থ হল যে আমরা (পার্থক্যটি সন্ধান করি) (কোনও পার্থক্য নেই)৷ alpha অসাবধানতাবশত "টাইপ I" ত্রুটির হার বাড়িয়ে দিই একটি শূন্য অনুমানকে প্রত্যাখ্যান করি যখন এই শূন্য অনুমানটি সত্য হয় আমরা একসাথে যত বেশি হাইপোথিসিস পরীক্ষা করি, হাইপোথিসিসের জন্য এবং ভুলভাবে একটি উল্লেখযোগ্য পার্থক্যের উপসংহারে চেয়ে কম একটি p-মান খুঁজে পাওয়ার সম্ভাবনা তত বেশি। অন্তত একটি alpha এই সমস্যাটি ব্যাখ্যা করার জন্য, একটি দৃশ্যকল্প বিবেচনা করুন যেখানে আমরা একাধিক নতুন ওয়েবপৃষ্ঠা ডিজাইনের মধ্যে কোনটি পছন্দসই সহ আরও গ্রাহকদের আকর্ষণ করে তা নির্ধারণ করতে অনুমান পরীক্ষা করতে চাই। ধরা যাক আমরা জানি যে , যার অর্থ নাল হাইপোথিসিসটি সমস্ত ক্ষেত্রে ধারণ করে। alpha = 0.05 N নতুন ডিজাইনের কোনোটিই ডিফল্টের চেয়ে ভালো নয় N যাইহোক, প্রতিটি ক্ষেত্রে, একটি বা হওয়ার 5% সম্ভাবনা (নাল অনুমানটি সত্য বলে ধরে নেওয়া) রয়েছে। অন্য কথায়, সঠিকভাবে একটি মিথ্যা পজিটিভ সনাক্ত না করার একটি 95% সম্ভাবনা রয়েছে। তাত্ত্বিকভাবে, পরীক্ষার মধ্যে অন্তত একটি মিথ্যা পজিটিভ হওয়ার সম্ভাবনা এর সমান। উদাহরণস্বরূপ, যখন , এই সম্ভাবনাটি প্রায় 40%, প্রাথমিক 5% থেকে উল্লেখযোগ্যভাবে বেশি। "টাইপ I" ত্রুটি মিথ্যা ইতিবাচক N 1 - (1 - alpha)^N = 1 - 0.95^N N = 10 আমরা পরীক্ষিত অনুমানের সংখ্যা বাড়ার সাথে সাথে সমস্যাটি আরও স্পষ্ট হয়ে ওঠে। এমনকি এমন পরিস্থিতিতে যেখানে শুধুমাত্র কয়েকটি রূপ এবং উপ-নমুনা জড়িত, তুলনার সংখ্যা দ্রুত জমা হতে পারে। উদাহরণস্বরূপ, সমস্ত ব্যবহারকারীর জন্য তিনটি ডিজাইনের D1, D2 এবং D3 তুলনা করা, তারপরে C1 দেশের ব্যবহারকারীদের জন্য আলাদাভাবে এবং আবার C1 ব্যতীত অন্য দেশের ব্যবহারকারীদের জন্য, মোট নয়টি তুলনার ফলাফল। টাইপ I ত্রুটির হারের পরবর্তী মুদ্রাস্ফীতি অনুধাবন না করে অনিচ্ছাকৃতভাবে একাধিক তুলনা করা সহজ। একাধিক হাইপোথিসিস টেস্টিং ব্যবহার করে স্যামনের পুনরুত্থান আসুন একটি দিকে তাকাই যা একাধিক অনুমান পরীক্ষা করার সময় "টাইপ I" ত্রুটিগুলি নিয়ন্ত্রণ না করার পরিণতিগুলিকে হাইলাইট করে৷ কৌতূহলী উদাহরণের 2009 সালে, কিভাবে এই অপ্রত্যাশিত ফলাফল এসেছে তা বোঝার জন্য, আমাদের fMRI স্ক্যানের প্রকৃতি অন্বেষণ করতে হবে। একদল গবেষক মৃত আটলান্টিক স্যামনের উপর একটি এফএমআরআই স্ক্যান করেন এবং আশ্চর্যজনকভাবে মস্তিষ্কের কার্যকলাপ আবিষ্কার করেন যেন এটি জীবিত ছিল! , যেখানে প্রতিটি রোগীর উপর অসংখ্য পরীক্ষা করা হয়। স্ক্যানারগুলি মস্তিষ্কের কার্যকলাপের একটি সূচক হিসাবে রক্তের অক্সিজেনেশনের পরিবর্তনগুলি পর্যবেক্ষণ করে। গবেষকরা সাধারণত আগ্রহের নির্দিষ্ট অঞ্চলগুলিতে ফোকাস করেন, যা তাদের পুরো শরীরের ভলিউমকে ভক্সেল নামক ছোট কিউবগুলিতে ভাগ করে দেয়। । উচ্চ-রেজোলিউশন স্ক্যানের আকাঙ্ক্ষার কারণে, fMRI স্ক্যানারগুলি ব্যাপক পরীক্ষামূলক প্ল্যাটফর্ম হিসাবে কাজ করে প্রতিটি ভক্সেল সেই নির্দিষ্ট কিউবের মধ্যে মস্তিষ্কের কার্যকলাপের উপস্থিতি পরীক্ষা করে একটি অনুমান উপস্থাপন করে এফএমআরআই স্ক্যানারগুলি একক পদ্ধতির সময় হাজার হাজার অনুমানের মূল্যায়ন করে। এই ক্ষেত্রে, গবেষকরা সঠিকভাবে সংশোধন , এবং যাইহোক, এই ফলাফল আমাদের বোঝার বিরোধিতা করে যে । , টাইপ I ত্রুটির সমস্যা সমাধানের তাত্পর্যকে চিত্রিত করে। ইচ্ছাকৃতভাবে প্রাথমিক তাৎপর্য স্তর alpha = 0.001 করেননি তারা মৃত স্যামনের মস্তিষ্কের কার্যকলাপের সাথে তিনটি ভক্সেল সনাক্ত করেছেন। সালমন প্রকৃতপক্ষে মৃত তাত্পর্য স্তর সংশোধন করার পরে, পুনরুত্থানের মতো ঘটনাটি অদৃশ্য হয়ে যায় যখনই একক পরীক্ষার মধ্যে একাধিক অনুমান পরীক্ষা করা হয়, তখন এই চ্যালেঞ্জ মোকাবেলা করা এবং টাইপ I ত্রুটিগুলি নিয়ন্ত্রণ করা গুরুত্বপূর্ণ হয়ে ওঠে। বিভিন্ন পরিসংখ্যানগত কৌশল, যেমন , একাধিক হাইপোথিসিস পরীক্ষার সাথে যুক্ত স্ফীত মিথ্যা ইতিবাচক হার কমাতে নিযুক্ত করা যেতে পারে। বনফেরোনি সংশোধন বনফেরোনি সংশোধন হল একটি পরিসংখ্যানগত পদ্ধতি যা বিশেষভাবে হাইপোথিসিস পরীক্ষার সময় একাধিক তুলনার চ্যালেঞ্জ মোকাবেলার জন্য ডিজাইন করা হয়েছে। বনফেরোনি সংশোধন তত্ত্ব ধরুন আপনাকে একটি পরীক্ষার সময় অনুমানগুলি পরীক্ষা করতে হবে এবং নিশ্চিত করতে হবে যে টাইপ I ত্রুটির সম্ভাবনা নীচে থাকবে। N alpha পদ্ধতির অন্তর্নিহিত ধারণাটি সহজবোধ্য: । অন্তত একটি মিথ্যা ইতিবাচক সম্ভাবনার জন্য সূত্র মনে রাখবেন? সেই সূত্রে, আমাদের আছে, যা সামগ্রিক সম্ভাবনা হ্রাস করতে হ্রাস করা যেতে পারে। প্রতিটি বিকল্প হাইপোথিসিসের জন্য নাল হাইপোথিসিস প্রত্যাখ্যান করার জন্য প্রয়োজনীয় তাত্পর্যের মাত্রা কমিয়ে দিন alpha সুতরাং, একাধিক অনুমানের মধ্যে অন্তত একটি মিথ্যা ইতিবাচক হওয়ার কম সম্ভাবনা অর্জন করতে, আপনি প্রতিটি পি-মানকে সাথে নয় বরং ছোট কিছুর সাথে তুলনা করতে পারেন। alpha কিন্তু ঠিক কি "ছোট কিছু"? দেখা যাচ্ছে যে প্রতিটি স্বতন্ত্র অনুমানের জন্য তাৎপর্য স্তর হিসাবে ব্যবহার করা নিশ্চিত করে যে টাইপ I ত্রুটির সামগ্রিক সম্ভাবনা নীচে থাকবে। bonferroni_alpha = alpha / N alpha উদাহরণস্বরূপ, আপনি যদি 10টি অনুমান পরীক্ষা করেন ( ) এবং পছন্দসই তাত্পর্যের স্তরটি 5% ( ) হয়, তাহলে আপনাকে প্রতিটি পৃথক p-মানকে এর সাথে তুলনা করা উচিত। তাই, অন্তত একটি সত্যিকারের নাল হাইপোথিসিসকে ভুলভাবে প্রত্যাখ্যান করার সম্ভাবনা 0.05 এর কাঙ্ক্ষিত মাত্রা অতিক্রম করবে না। N = 10 alpha = 0.05 bonferroni_alpha = alpha / N = 0.05 / 10 = 0.005 এই অসাধারণ কৌশলটি কারণে কাজ করে, যা বলে যে । যদিও একটি আনুষ্ঠানিক গাণিতিক প্রমাণ বিদ্যমান, ভিজ্যুয়াল ব্যাখ্যাগুলি একটি স্বজ্ঞাত উপলব্ধি প্রদান করে: Boole-এর অসমতার ঘটনাগুলির মিলনের সম্ভাবনা তাদের পৃথক সম্ভাব্যতার সমষ্টির চেয়ে কম বা সমান সুতরাং, যখন প্রতিটি স্বতন্ত্র হাইপোথিসিস একটি তাত্পর্য স্তরে পরীক্ষা করা হচ্ছে তখন আমাদের কাছে একটি মিথ্যা পজিটিভের একটি সম্ভাবনা রয়েছে। এই জাতীয় পরীক্ষার জন্য "ফলস ইতিবাচক" ইভেন্টগুলির মিলনের সম্ভাবনা পৃথক সম্ভাব্যতার সমষ্টির চেয়ে কম বা সমান। যা, সবচেয়ে খারাপ পরিস্থিতিতে যখন সমস্ত N পরীক্ষায় নাল হাইপোথিসিস ধারণ করে, এর সমান bonferroni_alpha = alpha / N bonferroni_alpha N N * bonferroni_alpha = N * (alpha / N) = alpha অনুশীলন করা পূর্বে আলোচিত ধারণাগুলিকে আরও সমর্থন করতে, আসুন সিমুলেশন পরিচালনা করি। আমরা ফলাফল পর্যবেক্ষণ করব এবং বনফেরনি সংশোধনের কার্যকারিতা মূল্যায়ন করব। পাইথনে একটি একটি দৃশ্যকল্প বিবেচনা করুন যেখানে আমাদের একটি একক পরীক্ষার মধ্যে 10টি বিকল্প অনুমান আছে। আসুন ধরে নিই যে 10 টি ক্ষেত্রেই, শূন্য অনুমানটি সত্য। আপনি সম্মত হন যে এর একটি তাৎপর্য স্তর আপনার বিশ্লেষণের জন্য উপযুক্ত। alpha = 0.05 যাইহোক, স্ফীত টাইপ I ত্রুটির জন্য কোনো সংশোধন ছাড়াই, আমরা অন্তত একটি মিথ্যা ইতিবাচক ফলাফলের প্রায় 40% অভিজ্ঞতার তাত্ত্বিক সম্ভাবনা আশা করি। এবং Bonferroni সংশোধন প্রয়োগ করার পরে আমরা আশা করি যে এই সম্ভাবনা 5% এর বেশি হবে না। একটি নির্দিষ্ট পরীক্ষার জন্য, আমরা হয় অন্তত একটি ফলস পজিটিভ পাই বা না পাই। এই সম্ভাবনাগুলি শুধুমাত্র একাধিক পরীক্ষার স্কেলে দেখা যায়। তাহলে আসুন প্রতিটি পৃথক পরীক্ষার সিমুলেশনটি 100 বার চালাই এবং কমপক্ষে একটি ফলস পজিটিভ (তাত্ত্বিক স্তরের নীচে p-মান) সহ পরীক্ষার সংখ্যা গণনা করি! আপনি এই সিমুলেশনটি চালানোর জন্য সমস্ত কোড সহ ফাইলটি খুঁজে পেতে পারেন এবং গিটহাবের আমার সংগ্রহস্থলে গ্রাফ তৈরি করতে পারেন - .ipynb IgorKhomyanin/blog/bonferroni-and-salmon import numpy as np import matplotlib.pyplot as plt # To replicate the results np.random.seed(20000606) # Some hyperparameters too play with N_COMPARISONS = 10 N_EXPERIMENTS = 100 # Sample p-values # As we assume that null hypothesis is true, # the p-value would be distributed uniformly sample = np.random.uniform(0, 1, size=(N_COMPARISONS, N_EXPERIMENTS)) # Probability of type I error we are ready to accept # Probabiltiy of rejecting null hypothesis when it is actually true alpha = 0.05 # Theoretical False Positive Rate # # 1. # Probability that we cocnlude a significant difference for a given comparison # is equal to alpha by definition in our setting of true null hypothesis # Then [(1 - alpha)] is the probability of not rejecting the null hypothesis # # 2. # As experiments are considered independent, the probability of not rejecting # the null hypothesis in [(1 - alpha)]^N # # 3. # Probability that at least one is a false positive is equal to # 1 - (probability from 2.) prob_at_least_one_false_positive = 1 - ((1 - alpha) ** N_COMPARISONS) # Observed False Positive Rate # We conclude that experiment is a false positive when p-value is less than alpha false_positives_cnt = np.sum(np.sum(sample <= alpha, axis=0) > 0) false_positives_share = false_positives_cnt / N_EXPERIMENTS # Bonferroni correction bonferroni_alpha = alpha / N_COMPARISONS bonferroni_false_positive_comparisons_cnt = np.sum(np.sum(sample <= bonferroni_alpha, axis=0) > 0) bonferroni_false_positive_comparisons_share = bonferroni_false_positive_comparisons_cnt / N_EXPERIMENTS print(f'Theoretical False Positive Rate Without Correction: {prob_at_least_one_false_positive:0.4f}') print(f'Observed False Positive Rate Without Correction: {false_positives_share:0.4f} ({false_positives_cnt:0.0f} out of {N_EXPERIMENTS})') print(f'Observed False Positive Rate With Bonferroni Correction: {bonferroni_false_positive_comparisons_share:0.4f} ({bonferroni_false_positive_comparisons_cnt:0.0f} out of {N_EXPERIMENTS})') # Output: # Theoretical False Positive Rate Without Correction: 0.4013 # Observed False Positive Rate Without Correction: 0.4200 (42 out of 100) # Observed False Positive Rate With Bonferroni Correction: 0.0300 (3 out of 100) এখানে ফলাফলগুলির একটি ভিজ্যুয়ালাইজেশন রয়েছে: উপরের ছবিটি প্রতিটি বর্গক্ষেত্রকে একটি পৃথক তুলনার (অনুমান পরীক্ষা) পি-মান হিসাবে উপস্থাপন করে। বর্গক্ষেত্র যত গাঢ়, পি-মান তত বেশি। যেহেতু আমরা জানি যে সমস্ত ক্ষেত্রেই শূন্য অনুমান ধারণ করে, তাই যেকোন উল্লেখযোগ্য ফলাফল একটি মিথ্যা ইতিবাচক হবে। মাঝের গ্রাফটি সংশোধন ছাড়াই পরীক্ষাগুলি উপস্থাপন করে, যখন নীচের গ্রাফটি বনফেরনি সংশোধনের সাথে পরীক্ষাগুলিকে উপস্থাপন করে। যখন p-মান তাত্পর্য স্তরের চেয়ে কম হয় (প্রায় সাদা বর্গ দ্বারা নির্দেশিত), আমরা শূন্য অনুমান প্রত্যাখ্যান করি এবং একটি মিথ্যা ইতিবাচক ফলাফল পাই। অন্তত একটি মিথ্যা ইতিবাচক সঙ্গে পরীক্ষা লাল রঙ করা হয়. স্পষ্টতই, সংশোধন কার্যকরভাবে কাজ করেছে। সংশোধন ছাড়া, আমরা অন্তত একটি মিথ্যা ইতিবাচক সহ 100টির মধ্যে 42টি পরীক্ষা পর্যবেক্ষণ করি, যা তাত্ত্বিক ~40% সম্ভাবনার সাথে ঘনিষ্ঠভাবে সারিবদ্ধ। যাইহোক, Bonferroni সংশোধনের সাথে, আমাদের কাছে 100টির মধ্যে মাত্র 3টি পরীক্ষা আছে যার মধ্যে অন্তত একটি মিথ্যা পজিটিভ রয়েছে, যা কাঙ্খিত 5% থ্রেশহোল্ডের নীচে অবস্থান করছে। , একাধিক-অনুমান পরীক্ষায় এর উপযোগিতাকে আরও যাচাই করতে পারি। এই সিমুলেশনের মাধ্যমে, আমরা মিথ্যা ইতিবাচক ঘটনাকে প্রশমিত করতে বনফেরোনি সংশোধনের প্রভাব দৃশ্যতভাবে পর্যবেক্ষণ করতে পারি উপসংহার এই নিবন্ধে, আমি একাধিক হাইপোথিসিস পরীক্ষার ধারণা ব্যাখ্যা করেছি এবং এর সম্ভাব্য বিপদ হাইলাইট করেছি। এই বর্ধিত সম্ভাবনা উল্লেখযোগ্য প্রভাব সম্পর্কে ভুল সিদ্ধান্তের দিকে নিয়ে যেতে পারে যা যথাযথভাবে সম্বোধন না করা হলে ঘটনাক্রমে ঘটে থাকতে পারে। একাধিক অনুমান পরীক্ষা করার সময়, যেমন একটি A/B পরীক্ষার সময় একাধিক তুলনা পরিচালনা করার সময়, "ফলস পজিটিভ" এর একটি বিরল ঘটনা পর্যবেক্ষণ করার সম্ভাবনা বৃদ্ধি পায়। , যা প্রতিটি স্বতন্ত্র অনুমানের জন্য তাত্পর্য স্তরগুলিকে সামঞ্জস্য করে। Boole-এর অসমতাকে কাজে লাগিয়ে, এই সংশোধনটি কাঙ্খিত প্রান্তিকে সামগ্রিক তাৎপর্য স্তরকে নিয়ন্ত্রণ করতে সাহায্য করে, মিথ্যা ইতিবাচক হওয়ার ঝুঁকি কমায়। এই সমস্যাটির একটি সম্ভাব্য সমাধান হ'ল বনফেরোনি সংশোধন যাইহোক, এটি স্বীকার করা গুরুত্বপূর্ণ যে প্রতিটি সমাধান একটি খরচে আসে। এর মানে হল যে একই পার্থক্য সনাক্ত করার জন্য একটি বড় নমুনার আকার বা শক্তিশালী প্রভাব প্রয়োজন হতে পারে। বনফেরোনি সংশোধন বা অন্যান্য সংশোধন পদ্ধতি বাস্তবায়নের সিদ্ধান্ত নেওয়ার সময় গবেষকদের অবশ্যই এই ট্রেড-অফটি সাবধানে বিবেচনা করতে হবে। বনফেরোনি সংশোধন ব্যবহার করার সময়, প্রয়োজনীয় তাত্পর্য স্তর হ্রাস পায়, যা পরীক্ষার শক্তিকে প্রভাবিত করতে পারে। এই নিবন্ধে আলোচিত বিষয়বস্তু সম্পর্কে আপনার যদি কোনো প্রশ্ন বা মন্তব্য থাকে, অনুগ্রহ করে সেগুলি শেয়ার করতে দ্বিধা করবেন না। পরিসংখ্যানগত কৌশলগুলির আরও আলোচনা এবং অন্বেষণে জড়িত হওয়া আরও ভাল বোঝার এবং অনুশীলনে প্রয়োগের জন্য অপরিহার্য। তথ্যসূত্র - সিমুলেশন চালানো এবং গ্রাফ তৈরি করার জন্য প্রয়োজনীয় সমস্ত কোড সহ আমার GitHub রেপো IgorKhomyanin/blog/bonferroni-and-salmon কভার ছবি তৈরি করতে কানডিনস্কি 2.1 বেনেট, সিএম, এমবি মিলার এবং জিএল ওলফোর্ড। "পোস্ট-মর্টেম আটলান্টিক সালমনে ইন্টারস্পেসিস পরিপ্রেক্ষিতের নিউরাল কোরিলেটস: একাধিক তুলনা সংশোধনের জন্য একটি যুক্তি।" নিউরোইমেজ 47 (জুলাই 2009): S125। https://doi.org/10.1016/s1053-8119(09)71202-9 উইকিপিডিয়া - বোফেরনি সংশোধন উইকিপিডিয়া - বুলের অসমতা