paint-brush
AI không phải là vấn đề đáng lo ngại, đó là các nhà phát triển AI mà bạn nên lo lắngtừ tác giả@funsor
2,841 lượt đọc
2,841 lượt đọc

AI không phải là vấn đề đáng lo ngại, đó là các nhà phát triển AI mà bạn nên lo lắng

từ tác giả Funso Richard6m2023/01/27
Read on Terminal Reader

dài quá đọc không nổi

AI có tiềm năng cách mạng hóa cách chúng ta sống, làm việc và giao tiếp xã hội. Nhưng khi chúng ta tiếp tục phát triển và dựa vào các hệ thống AI, điều quan trọng là chúng ta cũng phải giải quyết khả năng thiên vị. Chúng ta phải nhận ra rằng mối quan tâm thực sự không phải là bản thân AI mà là sự thiên vị của những người phát triển và đào tạo nó. Bằng cách nhận thức được vấn đề này và thực hiện các bước để giảm thiểu nó, chúng ta có thể đảm bảo rằng tương lai của AI là một tương lai có lợi cho tất cả mọi người.
featured image - AI không phải là vấn đề đáng lo ngại, đó là các nhà phát triển AI mà bạn nên lo lắng
Funso Richard HackerNoon profile picture

ChatGPT và các chatbot khác đã định hình lại cách hiểu và tương tác của chúng ta với các công cụ trí tuệ nhân tạo (AI) không còn là tin tức mới. Nhiều người lần đầu tiên biết đến AI khi internet bùng nổ khi ChatGPT ra mắt vào tháng 11 năm ngoái.


Không giảm bớt sự phấn khích liên quan đến chatbot của OpenAI, chúng tôi tiếp xúc với các công cụ và hoạt động của AI hàng ngày. Lấy ví dụ, thực tế là công cụ tìm kiếm và bản đồ của Google dựa vào AI để xử lý các truy vấn và đưa ra phản hồi trong vài giây.

AI là tốt, xấu và không thể tránh khỏi

Khả năng của những gì có thể được thực hiện với ChatGPT và các công cụ AI khác đã tạo ra niềm phấn khích chưa từng có. Có những trường hợp các công cụ này tạo nội dung và tài liệu kỹ thuật dành riêng cho các chuyên gia.


ChatGPT đã được sử dụng để viết mã, phát triển phần mềm độc hại, tạo ý tưởng, dịch ngôn ngữ, v.v. Vào năm 2022, việc sử dụng Midjourney đã tăng hơn 1000% .


Khả năng của những công cụ này cũng gây ra nỗi sợ hãi về ngày tận thế. Có những lo ngại của thất nghiệp hàng loạt , đạo văn do ai cung cấp và lừa đảo giáo dục , kiện tụng bản quyền , thông tin sai lệch , tóm tắt nghiên cứu giả mạo , và dân chủ hóa tội phạm mạng .


Một vụ kiện được đệ trình vào ngày 13 tháng 1 năm 2023, cáo buộc Stability AI, Midjourney và DeviantArt đã vi phạm “quyền của hàng triệu nghệ sĩ”.


AI là tương lai. Chúng ta phải học cách nắm lấy những điều tốt đẹp và thực hiện các biện pháp để giảm thiểu tác động của điều xấu. Tuy nhiên, chắc chắn rằng AI sẽ tiếp tục phá vỡ xã hội hiện đại.


Một cuộc khảo sát gần đây của nhân viên thống kê cho thấy Gen Z (29%), Gen X (28%) và millennials (27%) đã sử dụng các công cụ AI tổng quát.


Doanh thu thị trường toàn cầu AI dự kiến sẽ tăng từ 136 tỷ đô la vào năm 2022 lên hơn 1,5 nghìn tỷ USD đến năm 2030. Theo IBM , 35% công ty đã sử dụng AI trong hoạt động kinh doanh của họ, 42% đang khám phá AI và 66% hiện đang triển khai hoặc lên kế hoạch áp dụng AI để giải quyết các mục tiêu bền vững.


Lợi ích của AI bao gồm tự động hóa công việc (30%), tiết kiệm chi phí (54%), hiệu suất CNTT (53%) và trải nghiệm khách hàng tốt hơn (48%).


Ảnh của Jemastock - stock.adobe.com


Quá trình tạo ra AI

Với nhiều điều kỳ diệu của ChatGPT và các công cụ khác, thật dễ dàng để cho rằng các công cụ AI là sự kết hợp giữa ma thuật và khoa học. May mắn thay, họ không.


AI là các mô hình toán học do phòng thí nghiệm tạo ra dựa trên dữ liệu được thiết kế để thực hiện các nhiệm vụ đòi hỏi trí thông minh của con người, chẳng hạn như nhận dạng các mẫu, học hỏi kinh nghiệm, giải quyết vấn đề và đưa ra quyết định hiệu quả.


Sự phát triển của AI được thúc đẩy bởi những tiến bộ trong các lĩnh vực như khoa học máy tính, khoa học thần kinh và tâm lý học. Nó dựa trên ý tưởng rằng trí thông minh của con người có thể được mô hình hóa và mô phỏng bằng máy móc.


Một số công nghệ và kỹ thuật chính được sử dụng trong AI bao gồm máy học, xử lý ngôn ngữ tự nhiên và người máy.

Tác động của sự thiên vị của con người đối với sự phát triển của AI

Khái niệm “rác vào, rác ra” rất đúng với AI. Khi chúng ta tiếp tục phát triển và ngày càng phụ thuộc nhiều hơn vào các hệ thống AI, chúng ta cũng phải nhận thức được khả năng xảy ra sai lệch trong các hệ thống này.


Mặc dù thật dễ dàng để chỉ ra vấn đề của chính AI, nhưng sự thật là mối quan tâm thực sự là sự thiên vị của con người đối với những người phát triển và đào tạo các hệ thống này. Các hệ thống AI hoạt động chính xác theo cách mà các nhà phát triển của chúng muốn chúng hoạt động.


69% các nhà nghiên cứu AI tin rằng AI và sự phát triển của nó là mối lo ngại về an toàn và nên đòi hỏi phải tập trung nhiều hơn vào an toàn.


Sự thiên vị của con người trong AI có thể biểu hiện theo nhiều cách khác nhau, từ dữ liệu được sử dụng để huấn luyện AI cho đến quá trình ra quyết định của chính hệ thống.


Ví dụ: nếu một hệ thống AI được đào tạo trên một tập dữ liệu được tạo thành từ một nhóm người cụ thể không tương xứng, thì hệ thống đó có thể không hiểu chính xác và đưa ra quyết định cho các nhóm khác.


Tương tự, nếu một hệ thống AI được thiết kế để đưa ra quyết định dựa trên các giả định hoặc khuôn mẫu nhất định, thì nó có thể duy trì những thành kiến có hại trong xã hội.


Một trong những vấn đề lớn nhất với AI là dữ liệu được đào tạo trên đó có thể phản ánh thành kiến của những người thu thập và quản lý dữ liệu đó.


Ví dụ: nếu bộ dữ liệu được sử dụng để đào tạo hệ thống nhận dạng khuôn mặt chủ yếu bao gồm hình ảnh của những người da sáng, thì hệ thống đó có thể sẽ hoạt động kém khi cố gắng nhận dạng khuôn mặt của những người có tông màu da sẫm hơn.


Đây là một dạng thiên vị có thể gây ra hậu quả trong thế giới thực, chẳng hạn như trong trường hợp người da màu bị bắt oan do khớp nhận dạng khuôn mặt bị lỗi.


Nhưng không chỉ dữ liệu có thể bị sai lệch, những người tạo ra và đào tạo các hệ thống này cũng có thể tạo ra sự thiên vị thông qua những định kiến vô thức của chính họ.


Ví dụ, một nghiên cứu nhận thấy rằng các mô hình ngôn ngữ như GPT-3, được đào tạo trên tập dữ liệu chủ yếu là phân biệt chủng tộc và phân biệt giới tính, có xu hướng tạo ra các văn bản phân biệt chủng tộc và khuôn mẫu giới tính. Điều này có thể duy trì những khuôn mẫu có hại và hạn chế tiềm năng của các hệ thống AI.


Ảnh của Monopoly919 - stock.adobe.com


Công cụ AI có trách nhiệm với xã hội

Với 74% tổ chức chưa thực hiện các bước để đảm bảo AI của họ đáng tin cậy và có trách nhiệm, việc cấp bách tạo ra các công cụ AI có trách nhiệm với xã hội là trách nhiệm chung. Nó bắt đầu bằng việc xác định khả năng xảy ra sai lệch và tích cực làm việc để giảm thiểu nó.


Điều này có nghĩa là đa dạng hóa đội ngũ những người làm việc về AI và đảm bảo rằng nhiều quan điểm và kinh nghiệm được thể hiện.


Điều quan trọng là đảm bảo rằng dữ liệu được sử dụng để đào tạo AI phải đa dạng và đại diện cho dân số mà nó sẽ phục vụ. Điều này liên quan đến việc lựa chọn và quản lý dữ liệu một cách cẩn thận để đảm bảo rằng nó không duy trì các thành kiến hoặc khuôn mẫu hiện có.


Ngoài ra, điều quan trọng là phải xem xét tác động tiềm tàng của dữ liệu đối với các nhóm người khác nhau và thu thập thông tin đầu vào từ các quan điểm khác nhau để đảm bảo rằng dữ liệu là toàn diện và công bằng.


Thiết kế hệ thống AI phải minh bạch và có thể giải thích được. Điều này có nghĩa là quy trình ra quyết định của các hệ thống AI phải rõ ràng và dễ hiểu đối với con người để có thể xác định và giải quyết mọi vấn đề hoặc thành kiến tiềm ẩn.


Điều cần thiết là phải thường xuyên đánh giá và giám sát hiệu suất của các hệ thống AI để đảm bảo rằng chúng hoạt động như dự định và không duy trì các thành kiến có hại. Điều này bao gồm việc thường xuyên phân tích dữ liệu được sử dụng để huấn luyện các hệ thống AI, cũng như các quyết định và hành động của các mô hình AI.


Chính phủ nên ban hành các luật và quy định thực thi việc phát triển và sử dụng AI có trách nhiệm với xã hội mà không kìm hãm sự tăng trưởng và phát triển.


Ảnh của Tierney - stock.adobe.com


Tối đa hóa AI vì lợi ích xã hội

AI có tiềm năng cách mạng hóa cách chúng ta sống, làm việc và giao tiếp xã hội. Nhưng khi chúng ta tiếp tục phát triển và dựa vào các hệ thống AI, điều quan trọng là chúng ta cũng phải giải quyết khả năng thiên vị. Chúng ta phải nhận ra rằng mối quan tâm thực sự không phải là bản thân AI mà là sự thiên vị của những người phát triển và đào tạo nó.


Bằng cách nhận thức được vấn đề này và thực hiện các bước để giảm thiểu nó, chúng ta có thể đảm bảo rằng tương lai của AI là một tương lai có lợi cho tất cả mọi người.


Mục tiêu phải là sự phát triển của AI vì lợi ích của xã hội. Mục tiêu như vậy sẽ đòi hỏi trách nhiệm tập thể từ chính phủ, nhà phát triển và người dùng. Các chính phủ nên thực thi các quy định đảm bảo các hệ thống AI được phát triển một cách có trách nhiệm với xã hội.


Các nhà phát triển nên ngăn chặn sự thiên vị bằng cách áp dụng tính đa dạng, minh bạch và trách nhiệm giải trình. Họ nên thường xuyên đánh giá và giám sát hiệu suất của các hệ thống AI để ngăn chặn sự thiên vị và lạm dụng ngoài ý muốn.


Công chúng cũng nên hiểu rằng họ chịu trách nhiệm về cách họ sử dụng AI. Tất cả mọi người nên không khuyến khích việc sử dụng AI một cách vô trách nhiệm với xã hội.


L O A D I N G
. . . comments & more!

About Author

Funso Richard HackerNoon profile picture
Funso Richard@funsor
Information Security Officer and GRC Thought Leader. Writes on business risk, cybersecurity strategy, and governance.

chuyên mục

BÀI VIẾT NÀY CŨNG CÓ MẶT TẠI...