Właśnie wtedy, gdy myślałeś, że ustawa o sztucznej inteligencji nie może stać się bardziej biurokratyczna, Komisja Europejska opublikowała swój najnowszy tytuł: Pomyśl o tym jako o 30-stronicowym podręczniku wyjaśniającym, jak interpretować już złożony tekst prawny A tak, jest teraz oficjalny „pakiet wytycznych”, który zasiądzie obok już obowiązkowego szablonu dla szkoleniowych ujawnień danych i kodeksu praktyki dla dostawców AI. Guidelines on the Scope of Obligations for General-Purpose AI Models Kto działa the age of regulation of regulation. Książka, która powie ci, czy jesteś w regulaminie Punkt wyjścia Komisji: zanim będziesz mógł przestrzegać, musisz najpierw ustalić, czy jesteś nawet objęty. Brzmi to prosto? Wykorzystuje ponad 1023 FLOP w treningu i Może generować język, obrazy lub wideo ... chyba że może wykonywać tylko wąskie zadanie, w którym przypadku jest magicznie „z zakresu”. Oznacza to, że metryka, którą bardzo niewiele osób poza hiperskalowymi laboratoriami sztucznej inteligencji może nawet dokładnie oszacować, stała się nowym biurokratycznym bramkarzem. „Klub ryzyka systemowego” Przekroczyć wyższą barierę 1025 FLOPs i twój model jest uważany za mający „ryzyko systemowe”. ciągłe oceny ryzyka Modele oceny Gwarancje cyberbezpieczeństwa Zgłoszenie incydentu Musisz nawet powiadomić Komisję przed ukończeniem modelu, jeśli uważasz, że przekroczy on limit. Planowanie korzystania z dużego biegu szkoleniowego? Dostawcy, modyfikatorzy i wszyscy między nimi Wytyczne wydają strony określające, kto liczy się jako „dostawca”: Jesteś dostawcą samodzielnie? Czy ktoś inny zapłacił za to, by je za Ciebie zbudować?Jesteś nadal dostawcą. Fine‐tuned czyjś model z wystarczającą liczbą? Gratulacje, Ty też jesteś dostawcą. Zintegrowany model w aplikacji? Może jesteś dostawcą. Może nie. Zależy od tego, która klauzula ma zastosowanie. Istnieje nawet orientacyjny próg na to, kiedy dostosowanie wyrafinowane sprawia, że stajesz się nowym dostawcą: więcej niż jedna trzecia komputerów szkoleniowych oryginalnego modelu. Otwarte źródło, ale nie zbyt otwarte Ustawa o sztucznej inteligencji obiecała słynne zwolnienia dla modeli open-source. Licencja musi umożliwiać dostęp, wykorzystanie, modyfikację i redystrybucję, bez ograniczeń handlowych. Nie można „wypłacać pieniędzy” na model w jakikolwiek sposób, który ogranicza wolny dostęp, w tym oszukańczy hosting obsługiwany przez reklamy. Musisz opublikować wszystko: wagi, architekturę, szczegóły użytkowania. A jeśli twój otwarty model ma „ryzyko systemowe”? Brak wyjątków. Oglądanie przyszłości Urząd Sztucznej Inteligencji, nowy podmiot UE, będzie egzekwował to wszystko od 2 sierpnia 2025 r. Zgodność będzie oceniana nie tylko na podstawie prawa, ale także na podstawie tych wytycznych. Napisz sztuczną ustawę. Stwórz gęste szablony dla ujawnień. Opracuj „kodeks postępowania” dla dobrych środków. Dodać „przewodnik” do interpretacji prawa. Przestrzegaj zasad tak, jakby to była ustawa. Gdzieś w tym procesie oczekuje się, że innowacje rozkwitną.