paint-brush
EU tạm dừng AI không được kiểm soáttừ tác giả@konkiewicz
1,887 lượt đọc
1,887 lượt đọc

EU tạm dừng AI không được kiểm soát

từ tác giả Magdalena Konkiewicz4m2024/04/10
Read on Terminal Reader

dài quá đọc không nổi

Đạo luật AI Châu Âu sẽ được thi hành vào cuối năm 2024. Đạo luật phân loại các hệ thống AI theo mức độ rủi ro. Các hệ thống có rủi ro cao sẽ cần phải tuân theo các yêu cầu về tính minh bạch. Các công ty sẽ chịu trách nhiệm lưu giữ hồ sơ dữ liệu đào tạo. Điều này sẽ buộc các công ty phải tôn trọng quyền riêng tư dữ liệu và cải thiện khả năng truy xuất nguồn gốc.
featured image - EU tạm dừng AI không được kiểm soát
Magdalena Konkiewicz HackerNoon profile picture

Tác động toàn cầu và cách chuẩn bị

Giới thiệu

Trong năm qua, các công ty khởi nghiệp AI ở Châu Âu đã bắt kịp các đối thủ cạnh tranh ở nước ngoài và giới thiệu các sản phẩm có thể so sánh với ChatGPT phổ biến. Với việc tập trung vào những tiến bộ và phát triển nhanh chóng, các vấn đề liên quan đến tính minh bạch, đạo đức và tác động của người dùng đôi khi bị bỏ qua. Tuy nhiên, điều này có thể thay đổi với việc thực thi Đạo luật AI của EU sẽ bắt đầu vào cuối năm 2024.


Các Đạo luật AI của EU được Nghị viện Châu Âu phê duyệt vào tháng 3 năm 2024 đưa ra các quy định nặng nề về AI được phát triển trong EU. Tuy nhiên, tác động của nó vượt ra ngoài biên giới châu Âu, ảnh hưởng trực tiếp đến không chỉ các công ty AI châu Âu mà còn cả các công ty quốc tế, bao gồm cả các công ty từ Hoa Kỳ, cung cấp sản phẩm của họ tại thị trường EU.

Ai sẽ bị ảnh hưởng?

Đạo luật AI của EU phân loại các hệ thống AI theo mức độ rủi ro. Các hệ thống được coi là có rủi ro cao sẽ cần phải tuân theo các yêu cầu về tính minh bạch, với các đánh giá bắt buộc về tác động tiềm ẩn đối với sức khỏe cộng đồng, an toàn, nhân quyền và phúc lợi xã hội. Chúng sẽ được kiểm tra các thành kiến để đảm bảo chúng không phân biệt đối xử và tôn trọng các quyền cơ bản của con người.


Ngoài ra, các nhà phát triển hệ thống có rủi ro cao sẽ có nghĩa vụ duy trì tài liệu chi tiết, bao gồm các phương pháp đào tạo và bộ dữ liệu, để chứng minh sự tuân thủ.


Các mô hình nền tảng có thể so sánh với GPT-3.5 sẽ được quản lý nếu chúng sử dụng ít nhất 10²⁵ sức mạnh tính toán để đào tạo. Ngược lại, sẽ có những nhượng bộ đáng kể liên quan đến các mô hình nguồn mở, tạo động lực để phát triển loại sản phẩm này.


Ngoài ra, Đạo luật AI của EU liệt kê các hệ thống AI bị cấm. Điều này bao gồm phân loại sinh trắc học bằng cách sử dụng các đặc điểm nhạy cảm (ví dụ: chủng tộc, tôn giáo, v.v.), thu thập dữ liệu hình ảnh khuôn mặt, nhận dạng cảm xúc tại nơi làm việc và giáo dục, chấm điểm xã hội, thao túng hành vi con người và các hệ thống được thiết kế để khai thác các lỗ hổng của con người.


Đạo luật này cũng áp dụng các biện pháp trừng phạt đối với việc không tuân thủ, với mức phạt thay đổi từ 7,5 triệu euro hoặc 1,5% doanh thu toàn cầu của công ty đến 35 triệu euro hoặc 7% doanh thu, tùy thuộc vào hành vi vi phạm và quy mô công ty.

Làm thế nào để được chuẩn bị?

Với Đạo luật AI Châu Âu có thể sẽ được thi hành vào cuối năm 2024, điều quan trọng là phải bắt đầu chuẩn bị ngay bây giờ, đặc biệt nếu hệ thống của bạn được phân loại là rủi ro cao hoặc bạn đang phát triển các mô hình AI có mục đích chung. Ngay cả khi hệ thống của bạn không tuân theo quy định nghiêm ngặt, vẫn đáng đầu tư vào phát triển AI có trách nhiệm để tránh những tác động tiêu cực đến người dùng.


Chúng tôi khuyên bạn nên tập trung vào tất cả các khía cạnh của việc xây dựng hệ thống, bắt đầu từ việc chuẩn bị và hoàn thiện dữ liệu bằng cách đánh giá hệ thống chuyên sâu.

Chú ý đến dữ liệu đào tạo

Như đã nêu trong Đạo luật AI của EU, các công ty sẽ chịu trách nhiệm lưu giữ hồ sơ chi tiết về các bộ dữ liệu. Điều này sẽ buộc các công ty phải tôn trọng quyền riêng tư dữ liệu và cải thiện khả năng truy xuất nguồn gốc. Ví dụ: nếu một hệ thống tạo ra nội dung có hại, thì hệ thống đó có thể truy nguyên được dữ liệu không phù hợp hoặc các văn bản sai lệch trong tập dữ liệu mà nó đã được đào tạo.


Điều này có nghĩa là các tập dữ liệu huấn luyện cần được xem xét cẩn thận khi chuẩn bị cho các quy tắc mới. Điều này có thể liên quan đến việc lọc và làm sạch các phần dữ liệu được sử dụng để đào tạo hoặc thậm chí xây dựng các bộ dữ liệu tùy chỉnh được quản lý theo miền và được xây dựng có chủ đích để tránh những thành kiến thường gặp trong dữ liệu cóp nhặt.

Phương pháp điều chỉnh với phản hồi của con người

Để tuân thủ các quy định mới, các công ty xây dựng LLM nên đầu tư vào việc điều chỉnh mô hình của họ phù hợp với kỳ vọng của con người, tập trung vào tính trung thực, hữu ích và vô hại. Các phương pháp chính được sử dụng để căn chỉnh LLM là Học tăng cường từ phản hồi của con người (RLHF) và Tối ưu hóa tùy chọn trực tiếp (DPO).


Cả hai phương pháp đều thu thập sở thích của con người đối với đầu ra của mô hình và sử dụng dữ liệu này để dạy cho mô hình kết quả đầu ra mong muốn trông như thế nào. Chúng tôi có thể ngăn chặn phần lớn việc tạo nội dung có hại ở giai đoạn này một cách hiệu quả nếu chúng tôi cung cấp cho mô hình những ví dụ phù hợp.

Đánh giá chuyên sâu

Việc đánh giá hệ thống AI sẽ là ưu tiên hàng đầu và cần trở thành một phần của chu trình phát triển sản phẩm. Cảm giác có được một mô hình tốt phải được thay thế bằng chiến lược đánh giá tỉ mỉ và chuyên sâu.


Các hệ thống AI sáng tạo đặc biệt khó đánh giá vì đầu ra không mang tính quyết định. Không thể tự động so sánh văn bản đã tạo với câu trả lời “đúng”. Việc đánh giá các hệ thống như vậy liên quan đến phản hồi của con người, tập trung vào nhiều khía cạnh khác nhau như tính chính xác, tính hữu ích và tính vô hại.


Thông thường, các hệ thống cần được đánh giá cao hơn mức cơ bản được đề cập ở trên. Ví dụ: khi đánh giá mức độ gây hại, chúng tôi có thể chia nó thành các danh mục như thành kiến, ngôn từ kích động thù địch, phân biệt chủng tộc, v.v. Bằng cách đó, chúng tôi có thể khám phá ở cấp độ chi tiết những gì cần khắc phục trong hệ thống để giảm thiểu tác động tiêu cực của nó.

Bản tóm tắt

Không còn nghi ngờ gì nữa, Đạo luật AI của EU là một bước quan trọng trong các quy định về AI và nó báo hiệu một kỷ nguyên mới của AI, trong đó việc phát triển AI có trách nhiệm không còn là một lựa chọn nữa và giờ đây sẽ được thực thi một cách hợp pháp.


Công ty của bạn đã sẵn sàng tuân thủ các quy định mới về AI chưa?