W wyścigu, aby sztuczna inteligencja stała się szybsza, bardziej wydajna i powszechnie dostępna, światło dzienne często spada na procesory graficzne. Dominują one w wynikach i szkoleniach AI, ale ich popularność pozostawia ważne pytanie: co dzieje się poza systemami napędzanymi GPU? Ponieważ organizacje poszukują skalowalnych rozwiązań, które nie polegają na kosztownym lub ograniczonym sprzęcie, procesory CPU wracają do centrum uwagi. Optymalizacja obciążeń roboczych AI na tych architekturach innych niż GPU nie jest już opcjonalna; staje się niezbędna. Jest to miejsce, w którym Rajalakshmi Srinivasaraghavan zbudowała swoją wiedzę.Badawczyni i inżynierka z głębokimi korzeniami w dziedzinie obliczeń o wysokiej wydajności, poświęciła swoją karierę doskonaleniu inferencji AI na CPU. Jej podróż łączy przełomy techniczne z współpracą kierowaną przez społeczność. „Współpracując z społecznościami open-source, byliśmy w stanie opublikować najnowocześniejsze optymalizacje, które przyspieszyły wydajność w różnych obciążeniach roboczych AI” – mówi. „Ten wysiłek wzmocnił ekosystem jako całość i umieścił nasz zespół jako kluczowego gracza w skalowalnym, wysokowydajnym obliczeniu.” Jednym z jej wybitnych osiągnięć były strategie optymalizacji procesora. Podczas gdy wielu w tej dziedzinie koncentruje się na podejściach ukierunkowanych na GPU, Rajalakshmi pokazała, w jaki sposób ukierunkowane ulepszenia procesora przynoszą realne rezultaty. Jej zespół nadał priorytet kluczowym pakietom oprogramowania do optymalizacji procesora, generując znaczne podwyżki wydajności. „Uzyskaliśmy do 50% poprawy wydajności sprzętu następnej generacji poprzez identyfikację i optymalizację krytycznych przepływów pracy AI” – wyjaśnia. Jej wpływ w organizacjach wykracza poza kodowanie.Przewodziła wdrażanie ciągłej integracji (CI) w szerokim zakresie pakietów, automatyzacji testów i integracji. „Ta automatyzacja poprawiła niezawodność i uwolniła zasoby, aby skupić się na rozwoju podstawowym” – mówi. Rajalakshmi ceni również mentoring jako część swojej pracy.Przekierowała nowych inżynierów, przekazując wiedzę techniczną i strategiczną niezbędną do optymalizacji procesora. „Umocnienie nowych członków zapewniło, że ulepszenia wydajności nie były tylko jednorazowymi zwycięstwami, ale częścią długoterminowej trajektorii” – odzwierciedla. Jej zdolność do myślenia o przyszłości wyróżniła ją również. Zwalczyła jedną z powtarzających się przeszkód w branży poprzez optymalizację i walidację kodu w symulatorach przed wydaniem sprzętu.To proaktywne podejście umożliwiło zespołom szybkie złapanie problemów i uruchomienie w pełni funkcjonalnych pakietów oprogramowania wraz z nowym sprzętem. „Oznaczało to, że nasz pakiet oprogramowania był w pełni funkcjonalny i gotowy do produkcji w pierwszym dniu” – mówi. Wpływ ten rozciąga się również na badania i środowisko akademickie.Artykuły takie jak „Modeling Matrix Engines for Portability and Performance” i „A Matrix Math Facility for Power ISA Processors” podkreślają jej zaangażowanie w łączenie teorii z praktycznymi zastosowaniami. Patrząc w przyszłość, widzi rosnące zapotrzebowanie na skalowalne rozwiązania, które wykraczają poza GPU. Wierzy, że przyszłość polega na ściślejszym dopasowaniu sprzętu i oprogramowania. „Przez śledzenie trendów branżowych i przewidywanie zmian, zintegrowaliśmy perspektywiczne możliwości w sprzęcie i oprogramowaniu” – mówi. Podkreśla potrzebę, aby przemysł przyjął bardziej wszechstronne spojrzenie na infrastrukturę sztucznej inteligencji. Optymalizacja wniosków na CPU i innych architekturach innych niż GPU nie jest planem zapasowym; jest to sposób na budowanie bardziej przystępnych cenowo, odpornych i dostępnych ekosystemów sztucznej inteligencji. „Podstawą długoterminowego sukcesu w sztucznej inteligencji jest budowanie rozwiązań, które rozwijają się wraz z sprzętem i skalą zgodnie z popytem.” W świecie skupionym na procesorach graficznych, Rajalakshmi pokazuje nam, że prawdziwe innowacje często rosną w przestrzeniach pominiętych, skupiając się na procesorach, otwierając nowe możliwości wdrażania sztucznej inteligencji i budując przyszłość, w której sztuczna inteligencja jest bardziej sprawiedliwa, wydajna i zrównoważona. Ta historia została rozpowszechniona jako wydanie przez Kashvi Pandey w ramach programu blogowania biznesowego HackerNoon. Ta historia została rozpowszechniona jako wydanie przez Kashvi Pandey w ramach programu blogowania biznesowego HackerNoon.