Trong năm qua, các công ty khởi nghiệp AI ở Châu Âu đã bắt kịp các đối thủ cạnh tranh ở nước ngoài và giới thiệu các sản phẩm có thể so sánh với ChatGPT phổ biến. Với việc tập trung vào những tiến bộ và phát triển nhanh chóng, các vấn đề liên quan đến tính minh bạch, đạo đức và tác động của người dùng đôi khi bị bỏ qua. Tuy nhiên, điều này có thể thay đổi với việc thực thi Đạo luật AI của EU sẽ bắt đầu vào cuối năm 2024.
Các
Đạo luật AI của EU phân loại các hệ thống AI theo mức độ rủi ro. Các hệ thống được coi là có rủi ro cao sẽ cần phải tuân theo các yêu cầu về tính minh bạch, với các đánh giá bắt buộc về tác động tiềm ẩn đối với sức khỏe cộng đồng, an toàn, nhân quyền và phúc lợi xã hội. Chúng sẽ được kiểm tra các thành kiến để đảm bảo chúng không phân biệt đối xử và tôn trọng các quyền cơ bản của con người.
Ngoài ra, các nhà phát triển hệ thống có rủi ro cao sẽ có nghĩa vụ duy trì tài liệu chi tiết, bao gồm các phương pháp đào tạo và bộ dữ liệu, để chứng minh sự tuân thủ.
Các mô hình nền tảng có thể so sánh với GPT-3.5 sẽ được quản lý nếu chúng sử dụng ít nhất 10²⁵ sức mạnh tính toán để đào tạo. Ngược lại, sẽ có những nhượng bộ đáng kể liên quan đến các mô hình nguồn mở, tạo động lực để phát triển loại sản phẩm này.
Ngoài ra, Đạo luật AI của EU liệt kê các hệ thống AI bị cấm. Điều này bao gồm phân loại sinh trắc học bằng cách sử dụng các đặc điểm nhạy cảm (ví dụ: chủng tộc, tôn giáo, v.v.), thu thập dữ liệu hình ảnh khuôn mặt, nhận dạng cảm xúc tại nơi làm việc và giáo dục, chấm điểm xã hội, thao túng hành vi con người và các hệ thống được thiết kế để khai thác các lỗ hổng của con người.
Đạo luật này cũng áp dụng các biện pháp trừng phạt đối với việc không tuân thủ, với mức phạt thay đổi từ 7,5 triệu euro hoặc 1,5% doanh thu toàn cầu của công ty đến 35 triệu euro hoặc 7% doanh thu, tùy thuộc vào hành vi vi phạm và quy mô công ty.
Với Đạo luật AI Châu Âu có thể sẽ được thi hành vào cuối năm 2024, điều quan trọng là phải bắt đầu chuẩn bị ngay bây giờ, đặc biệt nếu hệ thống của bạn được phân loại là
Chúng tôi khuyên bạn nên tập trung vào tất cả các khía cạnh của việc xây dựng hệ thống, bắt đầu từ việc chuẩn bị và hoàn thiện dữ liệu bằng cách đánh giá hệ thống chuyên sâu.
Như đã nêu trong Đạo luật AI của EU, các công ty sẽ chịu trách nhiệm lưu giữ hồ sơ chi tiết về các bộ dữ liệu. Điều này sẽ buộc các công ty phải tôn trọng quyền riêng tư dữ liệu và cải thiện khả năng truy xuất nguồn gốc. Ví dụ: nếu một hệ thống tạo ra nội dung có hại, thì hệ thống đó có thể truy nguyên được dữ liệu không phù hợp hoặc các văn bản sai lệch trong tập dữ liệu mà nó đã được đào tạo.
Điều này có nghĩa là các tập dữ liệu huấn luyện cần được xem xét cẩn thận khi chuẩn bị cho các quy tắc mới. Điều này có thể liên quan đến việc lọc và làm sạch các phần dữ liệu được sử dụng để đào tạo hoặc thậm chí xây dựng các bộ dữ liệu tùy chỉnh được quản lý theo miền và được xây dựng có chủ đích để tránh những thành kiến thường gặp trong dữ liệu cóp nhặt.
Để tuân thủ các quy định mới, các công ty xây dựng LLM nên đầu tư vào việc điều chỉnh mô hình của họ phù hợp với kỳ vọng của con người, tập trung vào tính trung thực, hữu ích và vô hại. Các phương pháp chính được sử dụng để căn chỉnh LLM là
Cả hai phương pháp đều thu thập sở thích của con người đối với đầu ra của mô hình và sử dụng dữ liệu này để dạy cho mô hình kết quả đầu ra mong muốn trông như thế nào. Chúng tôi có thể ngăn chặn phần lớn việc tạo nội dung có hại ở giai đoạn này một cách hiệu quả nếu chúng tôi cung cấp cho mô hình những ví dụ phù hợp.
Việc đánh giá hệ thống AI sẽ là ưu tiên hàng đầu và cần trở thành một phần của chu trình phát triển sản phẩm. Cảm giác có được một mô hình tốt phải được thay thế bằng chiến lược đánh giá tỉ mỉ và chuyên sâu.
Các hệ thống AI sáng tạo đặc biệt khó đánh giá vì đầu ra không mang tính quyết định. Không thể tự động so sánh văn bản đã tạo với câu trả lời “đúng”. Việc đánh giá các hệ thống như vậy liên quan đến phản hồi của con người, tập trung vào nhiều khía cạnh khác nhau như tính chính xác, tính hữu ích và tính vô hại.
Thông thường, các hệ thống cần được đánh giá cao hơn mức cơ bản được đề cập ở trên. Ví dụ: khi đánh giá mức độ gây hại, chúng tôi có thể chia nó thành các danh mục như thành kiến, ngôn từ kích động thù địch, phân biệt chủng tộc, v.v. Bằng cách đó, chúng tôi có thể khám phá ở cấp độ chi tiết những gì cần khắc phục trong hệ thống để giảm thiểu tác động tiêu cực của nó.
Không còn nghi ngờ gì nữa, Đạo luật AI của EU là một bước quan trọng trong các quy định về AI và nó báo hiệu một kỷ nguyên mới của AI, trong đó việc phát triển AI có trách nhiệm không còn là một lựa chọn nữa và giờ đây sẽ được thực thi một cách hợp pháp.
Công ty của bạn đã sẵn sàng tuân thủ các quy định mới về AI chưa?