paint-brush
დამატებითი რიცხვითი ექსპერიმენტები K-SIF-ზე და SIF-ზე: სიღრმე, ხმაური და დისკრიმინაციის ძალამიერ@computational

დამატებითი რიცხვითი ექსპერიმენტები K-SIF-ზე და SIF-ზე: სიღრმე, ხმაური და დისკრიმინაციის ძალა

მიერ Computational Technology for All10m2024/11/22
Read on Terminal Reader

Ძალიან გრძელი; Წაკითხვა

გამოიკვლიეთ დამატებითი ექსპერიმენტები K-SIF-სა და SIF-ზე, მათ შორის ხელმოწერის სიღრმის, ხმაურის გამძლეობისა და შესრულების როლი ანომალიების გარჩევაში. ექსპერიმენტები მოიცავს სხვადასხვა სტოქასტურ პროცესებს, მონაცემთა სიმულაციას და შედარებებს FIF-თან, ასახავს ალგორითმების სიძლიერეს და გამოთვლით ასპექტებს.
featured image - დამატებითი რიცხვითი ექსპერიმენტები K-SIF-ზე და SIF-ზე: სიღრმე, ხმაური და დისკრიმინაციის ძალა
Computational Technology for All HackerNoon profile picture
0-item

ავტორები:

(1) Guillaume Staerman, INRIA, CEA, Univ. პარიზ-საკლეი, საფრანგეთი;

(2) Marta Campi, CERIAH, Institut de l'Audition, Institut Pasteur, საფრანგეთი;

(3) გარეტ უ. პიტერსი, სტატისტიკისა და გამოყენებითი ალბათობის დეპარტამენტი, კალიფორნიის უნივერსიტეტი სანტა ბარბარა, აშშ.

ბმულების ცხრილი

რეზიუმე და 1. შესავალი

2. ფონი & წინასწარი

2.1. ფუნქციური იზოლაციის ტყე

2.2. ხელმოწერის მეთოდი

3. ხელმოწერის იზოლაციის ტყის მეთოდი

4. რიცხვითი ექსპერიმენტები

4.1. პარამეტრების მგრძნობელობის ანალიზი

4.2. (K-)SIF-ის უპირატესობები FIF-თან შედარებით

4.3. რეალური მონაცემების ანომალიის გამოვლენის მაჩვენებელი

5. დისკუსია და დასკვნა, ზემოქმედების განცხადებები და ცნობები


დანართი

ა. დამატებითი ინფორმაცია ხელმოწერის შესახებ

B. K-SIF და SIF ალგორითმები

C. დამატებითი რიცხვითი ექსპერიმენტები

C. დამატებითი რიცხვითი ექსპერიმენტები

ამ განყოფილებაში წარმოგიდგენთ დამატებით რიცხვობრივ ექსპერიმენტებს შემოთავაზებული ალგორითმებისა და არგუმენტების მხარდასაჭერად, რომლებიც შემუშავებულია ნაშრომის ძირითად ნაწილში. პირველი, ჩვენ აღვწერთ ხელმოწერის სიღრმის როლს ალგორითმებში და განვმარტავთ, თუ როგორ მოქმედებს ეს პარამეტრი მათზე. ჩვენ ვაძლევთ ყუთებს გენერირებული მონაცემების ორი ნაკრებისთვის და ვამტკიცებთ სიღრმის პარამეტრის მნიშვნელობას ამ კონტექსტში. ამის შემდეგ, ჩვენ გთავაზობთ დამატებით ექსპერიმენტებს ხმაურის მიმართ (K)-SIF უპირატესობის შესახებ FIF-თან შედარებით, რაც დაკავშირებულია ნაშრომის ძირითადი ნაწილის 4.2 განყოფილებასთან. მესამე აბზაცი ეხება გენერირებულ მონაცემებს „მოვლენის გაცვლა“ ექსპერიმენტისთვის, ნაჩვენებია ნაშრომის ძირითადი ნაწილის 4.2 ნაწილში. ჩვენ ვაძლევთ ფიგურას ვიზუალიზაციისთვის და უკეთესი გაგებისთვის. ჩვენ დამატებით აღვნიშნავთ, თუ როგორ ავაშენეთ მონაცემები. შემდეგ მეოთხე ქვეთავში ნაჩვენებია შემოთავაზებული ალგორითმების გამოთვლითი დრო FIF-თან პირდაპირი შედარებით. შემდეგ, წარმოდგენილია დამატებითი ექსპერიმენტი, რომელიც წარმოადგენს დამატებით მტკიცებულებებს დისკრიმინაციის ძალასთან დაკავშირებით (K)-SIF AD ამოცანასთან მიმართებაში FIF-ზე. დაბოლოს, ბოლო ქვეგანყოფილება აჩვენებს ცხრილს, რომელიც აღწერს ინფორმაციას 4.3-ე პუნქტის ეტალონთან დაკავშირებული მონაცემთა ნაკრების ზომის შესახებ.

C.1. ხელმოწერის სიღრმის როლი


ამ ექსპერიმენტში ჩვენ ვიკვლევთ ამ პარამეტრის გავლენას K-SIF-ზე სტოქასტური პროცესების ორი განსხვავებული კლასით. სამგანზომილებიანი ბრაუნის მოძრაობა (μ = 0 და σ = 0,1), რომელიც ხასიათდება მისი ორი პირველი მომენტით, და ერთგანზომილებიანი მერტონ-ნახტომის დიფუზიის პროცესი, მძიმე კუდის პროცესი, რომელიც ფართოდ გამოიყენება საფონდო ბაზრის მოდელირებისთვის. ასეთ ა


ალგორითმები



ჩვენ ვადარებთ სტოქასტური მოდელების ყოფილ კლასს ამ უკანასკნელს, რომელიც, სამაგიეროდ, არ შეიძლება ხასიათდებოდეს პირველი ორი მომენტით და დავაკვირდეთ (K)-SIF-ის შესრულებას ამ მხრივ.


ჩვენ გამოვთვალეთ K-SIF სამი ლექსიკონით შეკვეცის დონეებით, რომლებიც ცვალებადია {2, 3, 4} ორივე სიმულირებული მონაცემთა ნაკრებისთვის. ჩვენ დავაყენეთ გაყოფილი ფანჯრების რაოდენობა 10-მდე, წინა განყოფილების მიხედვით, ხოლო ხეების რაოდენობა 1000-მდე. ამის შემდეგ, ჩვენ გამოვთვალეთ ამ მოდელების მიერ დაბრუნებული რანგის კენდალის კორელაცია სამი წყვილი პარამეტრისთვის: დონე 2 vs დონე 3. , დონე 2 vs დონე 4, და დონე 3 vs დონე 4.


ჩვენ გავიმეორეთ ეს ექსპერიმენტი 100-ჯერ და ვახსენეთ კორელაციური სქემები ფიგურაში 5 ბრაუნის მოძრაობისთვის და ნახატ 6-ში მერტონ-ნახტომის დიფუზიის პროცესისთვის. გაითვალისწინეთ, რომ მარცხენა და მარჯვენა ნახაზები ეხება K-SIF-სთვის შერჩეულ გაყოფილი ფანჯრის სხვადასხვა პარამეტრებს, რომლებიც შეესაბამება ω = 3 მარცხენა პანელებისთვის, ხოლო მარჯვენასთვის ჩვენ ავირჩიეთ ω = 5. ეს ველები აჩვენებს კენდალის ტაუს კორელაციას. ერთი კონკრეტული სიღრმით გამოყენებული ერთ-ერთი ალგორითმის მიერ დაბრუნებულ ქულასა და სხვადასხვა სიღრმის იგივე ალგორითმს შორის. K-SIF შედეგები სამი ლექსიკონით წარმოდგენილია ლურჯ, ნარინჯისფერ და მწვანეში ბრაუნის, კოსინუსის და მწვანე გაუსის ტალღებისთვის, შესაბამისად. SIF ყუთების ნაცვლად არის მეწამული. y-ღერძი ეხება კენდალის კორელაციის მნიშვნელობებს, ხოლო x-ღერძი იმ სიღრმის მნიშვნელობების პარამეტრებს, რომელთა მიმართაც იყო კორელაცია.


მაღალი კორელაცია მიუთითებს ალგორითმის მიერ დაბრუნებულ ეკვივალენტურ რეიტინგზე სხვადასხვა სიღრმის პარამეტრებით. ამიტომ, თუ კორელაცია მაღალია, ეს ვარაუდობს, რომ ეს პარამეტრი არ მოქმედებს განხილული ალგორითმის შედეგებზე და უფრო დაბალი სიღრმე უნდა შეირჩეს უკეთესი გამოთვლის ეფექტურობისთვის. მაღალი კორელაციები ნაჩვენებია როგორც SIF (მეწამული ყუთების) და K-SIF ორი ლექსიკონისთვის, ანუ ბრაუნის და კოსინუსისთვის (ლურჯი და ნარინჯისფერი ყუთების ნახაზები). ამიტომ, გამოთვლითი ეფექტურობის გასაუმჯობესებლად რეკომენდებულია მინიმალური შეკვეცის დონის არჩევა. იგივე ალგორითმებისთვის, ოდნავ დაბალი კორელაციები გამოვლენილია მერტონის პროცესების შემთხვევაში, მაგრამ მაინც დაახლოებით 0.8 დონე, შესაბამისად ექვივალენტური პრეტენზია. K-SIF-ის შემთხვევაში გაუსიან ლექსიკონთან (მწვანე ყუთების ნახაზები), ბევრად უფრო მაღალი ვარიაცია მიიღება სამ შემოწმებულ სცენარში კორელაციის შედეგებთან დაკავშირებით. გარდა ამისა, მერტონ-ნახტომის დიფუზიის პროცესების შემთხვევაში, შედეგები აჩვენებს უფრო დაბალ კორელაციას, რომელიც შეესაბამება სხვა შედეგებს. ამიტომ, ასეთი ლექსიკონის მქონე K-SIF-ის შემთხვევაში, სიღრმე ფრთხილად უნდა იყოს არჩეული, რადგან სხვადასხვა პარამეტრებმა შეიძლება გამოიწვიოს ძირითადი პროცესის მომენტების უკეთ გამოვლენა.


სურათი 5: ბრაუნის მოძრაობის პროცესის შედეგები. კენდალის ტაუ კორელაცია SIF-ის (იისფერი) და K-SIF-ის მიერ დაბრუნებულ ქულას შორის სხვადასხვა სიღრმის მნიშვნელობებით, ω = 3 (მარცხნივ) და ω = 5 (მარჯვნივ) , სამი ლექსიკონისთვის: 'ბრაუნიანი' (ლურჯი), 'კოსინუსი' (ნარინჯისფერი) და "გაუსის ტალღები" (მწვანე) სამგანზომილებიან ბრაუნის ბილიკებზე.


სურათი 6: მერტონ-ნახტომის დიფუზიის პროცესის შედეგები. კენდალის ტაუს კორელაცია SIF-ის (იისფერი) და K-SIF-ის მიერ დაბრუნებულ ქულებს შორის სხვადასხვა სიღრმის მნიშვნელობებით სამი ლექსიკონისთვის: 'ბრაუნიანი' (ლურჯი), 'კოსინუსი' (ნარინჯისფერი) და 'გაუსის ტალღები' (მწვანე) ω = 3. (მარცხნივ) და ω = 5 (მარჯვნივ) მერტონ-ნახტომის დიფუზიის პროცესებზე.

C.2. გამძლეობა ხმაურის მიმართ

ეს ნაწილი უზრუნველყოფს დამატებით ექსპერიმენტებს ხმაურისადმი (K)-SIF უპირატესობის შესახებ FIF-თან შედარებით, რაც დაკავშირებულია ნაშრომის ძირითადი ნაწილის 4.2 განყოფილებასთან. მონაცემთა სიმულაციის კონფიგურაცია შემდეგნაირად ხდება. ჩვენ განვსაზღვრავთ 100 გლუვი ფუნქციის სინთეზურ მონაცემთა ბაზას, მოცემული



სადაც ε(t) ~ N (0, 0.5). ჩვენ შემთხვევით ვირჩევთ ისევ 10%-ს და ვქმნით ოდნავ ხმაურიან მოსახვევებს მეორე ქვეინტერვალზე მცირე ხმაურის დამატებით პირველთან შედარებით, ე.ი.



სადაც ε(t) ~ N (0, 0.1).


ნახაზი 7 გთავაზობთ გენერირებული მონაცემთა ნაკრების შემაჯამებელ ვიზუალიზაციას პირველ პანელში. 10 ანომალიური მრუდი გამოსახულია წითლად, ხოლო 10 განიხილება ოდნავ ხმაურიანი ნორმალური მონაცემები გამოსახულია ლურჯით. დანარჩენი მრუდები, რომლებიც ნორმალურ მონაცემებად ითვლება, მოცემულია ნაცრისფერში. იდეა არის იმის გაგება, თუ როგორ მოქმედებს ლექსიკონის არჩევანი K-SIF და FIF ოდნავ ხმაურიანი ნორმალური მონაცემების და არანორმალური ხმაურის გამოვლენისას. K-SIF და FIF-ის შედეგები მოცემულია სურათი 7-ის მეორე, მესამე და მეოთხე პანელებში, შესაბამისად.


ჩვენ გამოვთვალეთ K-SIF ბრაუნის ლექსიკონით, k = 2 და ω = 10 და FIF α = 0-სთვის და α = 1 ასევე ბრაუნის ლექსიკონით. პანელების ფერები წარმოადგენს ანომალიის ქულას, რომელიც ენიჭება თითოეულ მრუდს ამ კონკრეტული ალგორითმისთვის. მეორე (K-SIF) და ბოლო (FIF α = 0) პანელებში ანომალიის ქულა იზრდება ყვითლიდან მუქ ლურჯამდე, ანუ მუქი მრუდი არანორმალურია და ყვითელი ნორმალურია, ხოლო მესამე ნახაზში (FIF α. = 1) პირიქითაა, ანუ მუქი მრუდი ნორმალურია და ყვითელი არანორმალური.


სურათი 7: გამძლეობა ხმაურის მიმართ. პირველ პანელზე წარმოდგენილია ნედლეული მონაცემები, სადაც არის 120 მრუდი, რომელთაგან წითელში გვაქვს 10 მრუდი არანორმალური ან ხმაურიანი მონაცემებისთვის, ლურჯში ოდნავ ხმაურიანი, მაგრამ ნორმალური მონაცემების 10 მრუდი და ნაცრისფერში დარჩენილი მრუდები. მონაცემთა სიმულაციის კონფიგურაცია მოცემულია ამ განყოფილების დასაწყისში. მეორე, მესამე და მეოთხე პანელები გვიჩვენებს ანომალიის ქულებს, რომლებიც მინიჭებულია მრუდებზე ინტერესის ალგორითმის საფუძველზე. მეორე პანელი ეხება K-SIF, გაშვებული ბრაუნის ლექსიკონით, k = 2 და ω = 10. მესამე და მეოთხე პანელები ეხება FIF გაშვებულ ბრაუნის ლექსიკონის α = 1 (მესამე) და α = 0 (მეოთხე) , შესაბამისად. ანომალიის ქულის ფერი იზრდება ყვითელიდან მუქ ლურჯამდე მეორე და მეოთხე ნაკვეთებში, ანუ მუქი მრუდი არანორმალურია და ყვითელი ნორმალურია. მესამე ნაკვეთში, ვიზუალიზაციის მიზნით, ის მცირდება, ანუ მუქი მრუდი ნორმალურია და ყვითელი არანორმალური.


შესაძლებელია დაკვირვება, თუ როგორ შეუძლია K-SIF წარმატებით ამოიცნოს ხმაურიანი და არანორმალური მონაცემები, როგორც ასეთი. მართლაც, მაშინ, როცა არანორმალური მონაცემები მუქი ლურჯად არის შეღებილი, ხმაურიანები აჩვენებენ ყვითელ ქულას. ამის ნაცვლად, FIF-ში α = 1 (მესამე პანელი) ორივე არანორმალური და ოდნავ ხმაურიანი მრუდი იდენტიფიცირებულია, როგორც ნორმალური მონაცემები (შებრუნებული მასშტაბის გათვალისწინებით და მუქი ლურჯი ფერებით). როდესაც საქმე ეხება FIF-ს α = 0-ით (ბოლო და მეოთხე პანელი), ორივე არანორმალური და ხმაურიანი მონაცემები ფასდება, როგორც არანორმალური მრუდები. აქედან გამომდინარე, FIF α პარამეტრის ორივე პარამეტრით, არ შეუძლია სხვადასხვა ქულას მიაწოდოს ხმაური და ოდნავ ხმაურიანი მონაცემები. ამის ნაცვლად, K-SIF წარმატებით ასრულებს ასეთ დავალებას.

C.3. მოვლენების მონაცემთა ნაკრების შეცვლა

ეს ნაწილი უზრუნველყოფს მონაცემთა ნაკრების ვიზუალიზაციას, რომელიც გამოყენებულია „მოვლენის გაცვლა“ ექსპერიმენტში ძირითადი ნაშრომის 4.2 ნაწილში. სურათი 8 გვიჩვენებს იმიტირებულ მონაცემებს. გაითვალისწინეთ, რომ ჩვენ განვსაზღვრავთ 100 გლუვი ფუნქციის სინთეზურ მონაცემთა ბაზას, მოცემული



t ∈ [0, 1] და q დაშორებული [1, 1.4]-ით. შემდეგ, ჩვენ ვაკეთებთ მოვლენების სიმულაციას ფუნქციების სხვადასხვა ნაწილზე გაუსის ხმაურის დამატებით. ჩვენ შემთხვევით ვირჩევთ მათ 90%-ს და ვამატებთ გაუსის მნიშვნელობებს ქვეინტერვალზე, ე.ი.



სადაც ε(t) ~ N (0, 0.8). ჩვენ ვთვლით დარჩენილ 10%-ს, როგორც არანორმალურს, იგივე „მოვლენების“ დამატებით სხვა ქვეინტერვალზე პირველთან შედარებით, ე.ი.



სადაც ε(t) ~ N (0, 0.8). შემდეგ ჩვენ ავაშენეთ ორი იდენტური მოვლენა, რომელიც ხდება ფუნქციების სხვადასხვა ნაწილში, რაც იწვევს ანომალიების იზოლირებას.


სურათი 8: მოვლენების გაცვლა. 4.2 ნაწილის ექსპერიმენტში გამოყენებული მონაცემთა ნაკრები. მეწამული მრუდები წარმოადგენს ნორმალურ მონაცემებს, ხოლო ყვითელი მრუდები წარმოადგენს არანორმალურ მონაცემებს. სიმულაციის კონფიგურაცია მოცემულია განყოფილების დასაწყისში.

C.4. K-SIF, SIF და FIF გამოთვლითი დრო


სურათი 9: გამოთვლითი დრო K-SIF-სთვის და FIF-ისთვის მოსახვევების რაოდენობასთან (მარცხნივ), დისკრეტიზაციის წერტილების რაოდენობასთან (შუა) და განზომილების რაოდენობასთან (მარჯვნივ).

C.5. K-SIF და SIF: ანომალიების უკეთესი დისკრიმინაცია FIF-თან შედარებით

ამ ნაწილში, ჩვენ ვაშენებთ დამატებით სათამაშო ექსპერიმენტს, რათა დავანახოთ (K-)SIF-ის დისკრიმინაციის ძალა FIF-ზე. ჩვენ ვახდენთ ბრაუნის მოძრაობის 100 პლანშეტური ბილიკის სიმულაციას ნორმალური მონაცემების 90%-ით დრიფტი μ = [0, 0] და სტანდარტული გადახრით σ = [0.1, 0.1] და არანორმალური მონაცემების 10% დრიფტი μ = [0, 0] და სტანდარტული. გადახრა σ = [0.4, 0.4].


სურათი 10 წარმოადგენს ამ მონაცემთა ნაკრების ერთ სიმულაციას. გაითვალისწინეთ, რომ მეწამული ბილიკები წარმოადგენს ნორმალურ მონაცემებს, ხოლო, ნარინჯისფერში, არანორმალურები წარმოდგენილია ნაცვლად. ამ მონაცემთა ბაზაში ჩვენ ვიანგარიშებთ FIF (α = 1 და ბრაუნის ლექსიკონით), K-SIF (ერთად


სურათი 10: ექსპერიმენტისთვის გამოყენებული მონაცემთა ნაკრები. მეწამული ბილიკები ნორმალური მონაცემებია, ხოლო ნარინჯისფერი ბილიკები არანორმალურია.


k = 2, ω = 10 და ბრაუნის ლექსიკონი) და SIF (k = 2 და ω = 10). ალგორითმის მიერ დაბრუნებული ქულების საჩვენებლად, ჩვენ ვაძლევთ სურათს 11. გაითვალისწინეთ, რომ ნახაზები აჩვენებს ქულებს ამ 100 ბილიკისთვის, მათი დახარისხების შემდეგ. აქედან გამომდინარე, x-ღერძი უზრუნველყოფს მოწესრიგებული ქულების ინდექსს, ხოლო y-ღერძი წარმოადგენს ქულის მნიშვნელობებს. რაც შეეხება სიმულაციას, მეწამულში გამოვსახავთ ნორმალური მონაცემების ქულებს და ნარინჯისფერში არანორმალური მონაცემების ქულებს. სამი პანელი ეხება FIF, K-SIF და SIF, შესაბამისად.


შესაძლებელია დაფიქსირდეს, რომ K-SIF და SIF ქულები კარგად განასხვავებენ არანორმალურ და ნორმალურ მონაცემებს, ქულების ნახტომით, რომელიც საკმაოდ გამოხატულია, ანუ ნორმალური მონაცემების ქულები შედარებით დაშორებულია არანორმალურების ქულებს. მონაცემები. თუკი ფოკუსირებულია FIF-ზე, მაშინ ასეთი ანომალიების დისკრიმინაცია უფრო რთული იქნება; პირველი პანელი გვიჩვენებს, ფაქტობრივად, უწყვეტს AD ალგორითმის მიერ დაბრუნებული ქულის თვალსაზრისით, რომელიც არ განასხვავებს ნორმალურ და არანორმალურ მონაცემებს.


მოკლედ, შემოთავაზებული ალგორითმები, რომლებიც იყენებენ ხელმოწერის ბირთვს (K-SIF) და ხელმოწერის კოორდინატს (SIF) აჩვენებენ უფრო საიმედო შედეგებს ამ ექსპერიმენტულ გარემოში, რაც მიუთითებს მათ ეფექტურობაზე სიმულირებული მონაცემთა ნაკრების ანომალიების გასარკვევად. მოვლენების მიმდინარეობის თანმიმდევრობის დადგენა ბევრად უფრო ინფორმაციული ფუნქციაა, ვიდრე ფუნქციური ასპექტის ჩართვა ანომალიის გამოვლენის ალგორითმში. ეს ასპექტი შემდგომი გამოკვლეული და შესწავლილი უნდა იყოს, განსაკუთრებით იმ აპლიკაციების სფეროებში, სადაც მხედველობაში მიიღება თანმიმდევრული მონაცემები, როგორიცაა დროის სერიები.


სურათი 11: ქულები დაბრუნებული FIF (მარცხნივ), K-SIF (შუა) და SIF (მარჯვნივ) ბრაუნის ბრაუნის მოძრაობით არანორმალური მონაცემებით (ნარინჯისფერი).

C.6. ანომალიის გამოვლენის საორიენტაციო მონაცემები


C.7. მონაცემთა სიღრმის ფუნქციის ფონი

სტატისტიკური ინსტრუმენტები, რომლებიც ცნობილია როგორც მონაცემთა სიღრმე, ემსახურება როგორც შინაგანი მსგავსების ქულებს ამ კონტექსტში. მონაცემთა სიღრმე გვთავაზობს პირდაპირ გეომეტრიულ ინტერპრეტაციას, აწესრიგებს წერტილებს ცენტრიდან გარედან ალბათობის განაწილების მიხედვით (Tukey, 1975; Zuo and Serfling, 2000). გეომეტრიულად, მონაცემთა სიღრმეები განსაზღვრავს ნიმუშის სიღრმეს მოცემულ განაწილებაში. სტატისტიკური საზოგადოების ყურადღების მიქცევის მიუხედავად, მონაცემთა სიღრმე დიდწილად შეუმჩნეველი დარჩა მანქანათმცოდნეობის საზოგადოების მიერ. მრავალი განმარტება იქნა შემოთავაზებული, როგორც ალტერნატივა ადრეული წინადადებისა, ნახევარსივრცის სიღრმეში (Tukey, 1975). ბევრ სხვას შორის ესენია: მარტივი სიღრმე (Liu, 1988), პროექციის სიღრმე (Liu and Singh, 1993), ზონოიდური სიღრმე (Koshevoy and Mosler, 1997), რეგრესიის სიღრმე (Russeeuw and Hubert, 1999), სივრცითი სიღრმე (ვარდი და ჟანგი, 2000) ან AI-IRW სიღრმე (Clemen' c¸on et al., 2023) განსხვავდება მათი თვისებებითა და აპლიკაციებით. მონაცემთა სიღრმე პოულობს ბევრ პროგრამას, როგორიცაა ძლიერი მეტრიკის განსაზღვრა ალბათობის განაწილებას შორის (Staerman et al., 2021b) კონკურენციას უწევს ტრანსპორტზე დაფუძნებულ მყარ ოპტიმალურ მეტრებს (Staerman et al., 2021a), კომპიუტერულ ხედვაში მოწინააღმდეგე შეტევების პოვნა (Picot et al., 202). დადალტო და სხვები, 2023) ან გამოვლენა ჰალუცინაცია NLP ტრანსფორმატორებში (Colombo et al., 2023; Darrin et al., 2023; Colombo et al., 2022) და LLM (Himmi et al., 2024).


ეს ნაშრომი ხელმისაწვდომია arxiv-ზე CC BY 4.0 DEED ლიცენზიით.