Lige da du troede, at AI-loven ikke kunne blive mere bureaukratisk, har Europa-Kommissionen udgivet sit nyeste mesterværk: Tænk på det som en håndbog på mere end 30 sider, der forklarer, hvordan man fortolker den allerede komplekse juridiske tekst i Og ja, der er nu en officiel "retningslinje pakke", der vil sidde ved siden af den allerede obligatoriske skabelon for uddannelse data offentliggørelser og praksis kodeks for AI udbydere. Guidelines on the Scope of Obligations for General-Purpose AI Models Hvem handler the age of regulation of regulation. En regelbog til at fortælle dig, hvis du er i regelbogen Kommissionens udgangspunkt: Før du kan overholde, skal du først afgøre, om du endda er dækket. Lyder simpelt? Forbruger mere end 1023 flops i træning og Kan generere sprog, billeder eller video ... medmindre det kun kan udføre en smal opgave, i hvilket tilfælde det er magisk "ud af rækkevidde". Medmindre, selvfølgelig, Kommissionen beslutter andet.Det betyder, at træning computing, en metrik meget få mennesker uden for hyperscale AI laboratorier kan endda estimere nøjagtigt, er blevet den nye bureaukratiske gateway. Klubben for systemisk risiko Kryds den højere 1025 FLOPs barriere, og din model formodes at have "systemisk risiko". Kontinuerlig risikovurdering Modelvurderinger Cybersikkerhedsgarantier Indberetning af hændelse Du skal endda underrette Kommissionen, før din model er færdig, hvis du mener, at den vil overskride grænsen. Udbydere, modifikatorer og alle imellem Retningslinjerne bruger sider, der definerer, hvem der tæller som en "udbyder": Har du lavet det selv? du er leverandør. Har du betalt en anden for at bygge det for dig? du er stadig en udbyder. Fine-tuned en andens model med tilstrækkelig computer? Tillykke, du er også en udbyder. Har du integreret en model i din app? Måske er du en udbyder. Måske ikke. Afhænger af, hvilken klausul der gælder. Der er endda en vejledende tærskel for, hvornår finjustering gør dig til en ny udbyder: mere end en tredjedel af den oprindelige modells træningscomputer. Open Source – men ikke for åben AI-loven lovede berømt undtagelser for open-source-modeller. Din licens skal tillade adgang, brug, ændring og omfordeling uden kommercielle begrænsninger. Du kan ikke "moneyize" modellen på nogen måde, der begrænser fri adgang, herunder snigende ad-støttet hosting. Du skal offentliggøre alt: vægte, arkitektur, brugsoplysninger. Og hvis din åbne model har “systemisk risiko”? Ingen undtagelser. Et glimt af fremtiden Kontoret for AI, en ny EU-enhed, vil håndhæve alt dette fra den 2. august 2025. Overholdelsen vil blive bedømt ikke kun på lovgivningen, men også på disse retningslinjer. Og retningslinjerne selv? ikke-bindende... undtagen de er selve rammerne, som Kommissionen vil bruge til at beslutte håndhævelse. Skriv en skærmende lov. Opret en tæt template til afsløringer. Udarbejdelse af en "praksiskodeks" for god foranstaltning. Tilføj en "retningslinje" til fortolkning af loven. Gør det, som om det var loven. Et eller andet sted i denne proces forventes innovation at blomstre.