Ngày nay, mạng xã hội đóng một vai trò không thể thiếu trong cuộc sống, ảnh hưởng đến cách chúng ta giao tiếp, thu thập thông tin và chia sẻ thông tin với nhau. Dù chưa đầy 30 tuổi [1] nhưng chúng ta đã chứng kiến sự phát triển vượt bậc của các nền tảng như Facebook, Twitter, TikTok và LinkedIn: Facebook hiện là Meta và sở hữu WhatsApp, Instagram và Threads; Twitter là X. Cả hai đều thuộc sở hữu của những tỷ phú đã đoán trước được xu hướng công nghệ, tận dụng những cơ hội này và đi tiên phong trong việc xây dựng một ngành công nghiệp đổi mới nhanh chóng.
Thành công lớn nhất của truyền thông xã hội, từ góc độ kinh doanh, là dữ liệu của người tiêu dùng. Phần lớn các nền tảng truyền thông xã hội đều miễn phí và có thể hoạt động theo cách này vì đổi lại bạn cho phép họ truy cập vào dữ liệu của bạn. Với điều này, các công ty như Meta đã có thể định hình nội dung và tương tác trên mạng xã hội. Đây là điều có thể được coi là có lợi hoặc phi đạo đức tùy thuộc vào mục đích và trường hợp sử dụng, với các vấn đề như quyền riêng tư và thao túng hiện nay không còn phổ biến nữa.
Trong bài viết này, chúng ta sẽ đi sâu vào đạo đức của việc sử dụng AI và thuật toán trong mạng xã hội, xem xét cách chúng giúp cá nhân hóa nội dung, có khả năng dẫn đến sai lệch và buồng phản âm cũng như tương lai của AI trên nền tảng mạng xã hội.
'Thuật toán là một chuỗi các hướng dẫn được thiết kế để giải quyết các vấn đề cụ thể, thực hiện các nhiệm vụ hoặc đưa ra quyết định' [2]. Trên mạng xã hội, những hướng dẫn này chi phối trải nghiệm của người dùng như xếp hạng nội dung, lọc và cá nhân hóa, thường dựa trên xu hướng của các nhóm người tiêu dùng khác nhau. Điều này cho phép bạn với tư cách là người dùng tìm thấy nội dung mà bạn quan tâm nhanh hơn nhiều vì nó có thể xuất hiện trên các Trang dành cho bạn mà bạn không cần phải tìm kiếm nó.
Các thuật toán không phải lúc nào cũng được sử dụng trên mạng xã hội. Vào năm 2009, Tumblr và Facebook đã giới thiệu các số liệu xếp hạng và nguồn cấp dữ liệu được cá nhân hóa. Năm 2012, có nhiều người làm theo. Facebook đã tăng cường sử dụng thuật toán trong nguồn cấp tin tức của mình và giới thiệu nội dung được tài trợ [3].LinkedIn bắt đầu cung cấp “nguồn cấp dữ liệu bán cấu trúc” và YouTube đã giới thiệu thuật toán xếp hạng, ưu tiên thời gian xem hơn số lượng [4]. Kể từ đó, vai trò của thuật toán trên các phương tiện truyền thông xã hội như vậy ngày càng tăng lên. Đến năm 2015, học máy bắt đầu đóng một vai trò trong các thuật toán sắp xếp và lọc, được củng cố bởi sự phát triển trong nỗ lực Dữ liệu lớn. Các sự kiện chính trị năm 2016 như cuộc bầu cử Trump và cuộc trưng cầu dân ý về Brexit (và một năm quan trọng trong vụ bê bối Cambridge Analytica) sau đó đã khiến công chúng chú ý đến một số tình huống khó xử về mặt đạo đức xung quanh việc sử dụng thuật toán và thu thập dữ liệu người dùng ngày càng nhiều và ngày càng nhiều trên mạng xã hội.
Ngày nay, các thuật toán hỗ trợ AI được xây dựng chính xác đến mức chúng đề xuất nội dung dựa trên các tương tác cụ thể trước đó của bạn trên nền tảng, với dữ liệu người dùng ngày càng tăng cho phép các công ty truyền thông xã hội loại bỏ phần lớn đáng kể mọi phỏng đoán. Các phim tài liệu như The Social Dilemma [5] và The Great Hack [6] cung cấp một số thông tin chi tiết về cách thức một số thuật toán này được thiết kế, thường với mục tiêu cuối cùng là giữ người dùng ở lại nền tảng của họ lâu hơn và thúc đẩy tương tác với nền tảng. Mặc dù sự tương tác của người dùng tăng lên có nghĩa là có nhiều dữ liệu hơn để các công ty truyền thông xã hội thu thập, điều chỉnh và lặp lại quy trình này, nhưng mục tiêu này không tính đến điều gì là tốt nhất cho người dùng và xã hội rộng hơn liên quan đến việc sử dụng truyền thông xã hội.
Các thuật toán có thể duy trì những thành kiến có hại và trong bối cảnh truyền thông xã hội, điều này thường biểu hiện dưới dạng củng cố các khuôn mẫu và hạn chế tiếp xúc với các quan điểm đa dạng. Lên đến đỉnh điểm theo thời gian, điều này có thể thúc đẩy sự phân biệt đối xử, phân cực các cử tri và thậm chí góp phần vào chủ nghĩa cực đoan và chủ nghĩa dân túy cánh hữu/chuyên quyền, lợi dụng sự chia rẽ xã hội.
Ở mức độ tác động thấp, các ví dụ về sai lệch thuật toán có thể bao gồm các tin tuyển dụng cho một số ngành nhất định, ví dụ: LinkedIn được hiển thị cho nam giới nhiều hơn nữ giới vì tập dữ liệu đào tạo mà thuật toán được mô hình hóa để dự đoán rằng nhiều nam giới có khả năng làm việc trong những ngành đó hơn. các vai trò. Mặc dù điều này không nhất thiết có tác động có hại rõ ràng ngay lập tức nhưng nó tạo ra một vòng phản hồi tiêu cực đi ngược lại mục tiêu của xã hội nhằm cải thiện sự bình đẳng và đại diện giữa các nơi làm việc và các ngành cụ thể. Bằng cách này, sự thiên vị về giới tính vẫn được duy trì do sự thiên vị thuật toán bằng cách hạn chế cơ hội cho phụ nữ xem những quảng cáo đó.
Bây giờ, để tìm hiểu sâu hơn về những tác động ở cấp độ cao hơn của sai lệch thuật toán, chúng ta sẽ xem xét cuộc bầu cử Trump năm 2016 như một trường hợp nghiên cứu.
Trong suốt cuộc bầu cử tổng thống Hoa Kỳ năm 2016, nghiên cứu đã chỉ ra rằng các thuật toán có thể làm trầm trọng thêm sự phân cực chính trị bằng cách khuếch đại các buồng phản âm và hạn chế cử tri tiếp xúc với các quan điểm đa dạng. Nhiều người cho rằng chính cơ chế này đã cho phép Chủ nghĩa Trump lan tràn và cũng là lý do tại sao rất ít người dự đoán được chiến thắng của ông ấy [7], vì những động lực này không được hiểu đầy đủ cũng như không thể nhìn thấy được trong suốt thời kỳ bầu cử.
Vì vậy, ngay cả trên mạng xã hội, có vẻ đúng là “những chú chim cùng một đàn” [8].
Các thuật toán điều chỉnh nội dung để phù hợp với sở thích của người dùng, bảo vệ họ khỏi những quan điểm và ý kiến trái ngược nhau, đồng thời tạo ra 'bong bóng bộ lọc'. Đổi lại, một số cá nhân trong các bong bóng bộ lọc này tiếp tục củng cố tích cực quan điểm của họ bằng cách cô lập bản thân hơn nữa trong môi trường kỹ thuật số nơi niềm tin và ý kiến của họ được lặp lại và thậm chí còn được củng cố nhiều hơn. Chúng được gọi là 'buồng phản âm'.
Về cơ bản, phương tiện truyền thông xã hội thúc đẩy một môi trường trong đó tất cả chúng ta tiếp thu các nguồn cấp nội dung và tin tức cực kỳ cá nhân hóa đến mức chúng ta trở nên mù quáng trước những quan điểm khác nhau của người khác.
Hiện tại, nghiên cứu vẫn chưa rõ liệu phương tiện truyền thông xã hội chỉ đóng vai trò như một nền tảng cho phép các buồng phản âm xuất hiện hay liệu việc sử dụng thuật toán của nó có đi xa đến mức đóng vai trò tạo ra các buồng phản âm này hay không [8].
Chiến thắng của Trump năm 2016 cho thấy chương trình nghị sự của các công ty truyền thông xã hội có thể gây ra hậu quả lan rộng như thế nào, ảnh hưởng đến hàng triệu người, điều này tuy ngoài ý muốn nhưng vẫn có tác động cực kỳ lớn và cũng phi đạo đức. Chúng tôi biết rằng các thuật toán truyền thông xã hội được thiết kế để tối đa hóa mức độ tương tác và giữ chân người dùng bằng cách cung cấp nội dung phù hợp với sở thích cá nhân. Tuy nhiên, giờ đây, chúng tôi cũng thấy điều này áp dụng như thế nào ngay cả đối với các cuộc trò chuyện chính trị, tận dụng khuynh hướng chính trị và lỗ hổng chính trị của người dùng.
Ai biết được cuộc bầu cử sẽ diễn ra như thế nào nếu các thuật toán không ảnh hưởng đến niềm tin chính trị cá nhân của mọi người?
Và điều này ảnh hưởng thế nào đến dân chủ và ổn định chính trị? Nếu mọi người không nhận thức được những thao tác này, liệu kết quả có được coi là công bằng và hợp lệ không?
Vai trò của thuật toán và AI trong phương tiện truyền thông xã hội chỉ tiếp tục phát triển cùng với những đổi mới của chúng tôi trong các lĩnh vực đó. Từ nội dung do AI tạo ra đến các thuật toán do AI cung cấp cho phép đạt được độ chính xác mà chúng ta đã đề cập trước đó, những thách thức đạo đức đi kèm với việc tích hợp nó vào mạng xã hội cũng sẽ cần được xem xét ngày càng nhiều hơn. Điều này cần bắt đầu bằng việc giải quyết các thành kiến về thuật toán và thúc đẩy tính minh bạch của thuật toán trên các nền tảng truyền thông xã hội.
Những cân nhắc và quy định về chính sách trong tương lai sẽ đóng một vai trò quan trọng trong việc định hình quỹ đạo sử dụng AI trên mạng xã hội. Ngày càng có nhiều sự chú ý đến nhu cầu điều chỉnh thuật toán và bảo vệ khỏi tác hại mà những thành kiến vô hình này có thể gây ra, đặc biệt là ở Hoa Kỳ. Cho đến nay, các sáng kiến bao gồm [9]:
Mặc dù hiện có nhiều khuôn khổ hơn đang được soạn thảo trong giai đoạn đề xuất nhưng vẫn chưa có đủ quy định về các công nghệ mạnh mẽ như vậy khi chúng tôi xem xét tác động mà chúng đã gây ra. Để đạt được sự cân bằng tinh tế giữa đổi mới và bảo vệ lợi ích của người dùng sẽ đòi hỏi một cách tiếp cận hợp tác giữa các công ty công nghệ, các nhà hoạch định chính sách và cả người dùng.
Phương tiện truyền thông xã hội có sức mạnh trở thành một lực lượng tốt, đoàn kết các cộng đồng và thúc đẩy tính hòa nhập; tuy nhiên, nếu không có khuôn khổ và quy định đầy đủ để bảo vệ quyền của người dùng, việc sử dụng AI và thuật toán của nó cũng có khả năng hủy hoại các cá nhân và xã hội nói chung.
[2]
[3]
[4]
[5]
[6]
[7]
[9] Đạo luật loại bỏ thành kiến trong hệ thống thuật toán năm 2023