paint-brush
Sự nguy hiểm của công nghệ DeepFake: Khám phá những rủi ro tiềm ẩn của video và hình ảnh do AI tạotừ tác giả@sammynathaniels
6,623 lượt đọc
6,623 lượt đọc

Sự nguy hiểm của công nghệ DeepFake: Khám phá những rủi ro tiềm ẩn của video và hình ảnh do AI tạo

từ tác giả Samuel Bassey15m2023/05/09
Read on Terminal Reader

dài quá đọc không nổi

Deepfakes là các video và hình ảnh do AI tạo ra có thể thay đổi hoặc ngụy tạo thực tế của con người, sự kiện và đối tượng. Công nghệ này là một loại trí tuệ nhân tạo có thể tạo hoặc điều khiển hình ảnh, video và âm thanh trông và âm thanh chân thực nhưng không xác thực. Nó có thể được sử dụng cho nhiều mục đích khác nhau, chẳng hạn như trong giải trí, giáo dục, nghiên cứu hoặc nghệ thuật. Tuy nhiên, nó cũng có thể gây ra rủi ro nghiêm trọng cho các cá nhân và xã hội, bao gồm lan truyền thông tin sai lệch, vi phạm quyền riêng tư, gây tổn hại danh tiếng, mạo nhận danh tính và ảnh hưởng đến dư luận.
featured image - Sự nguy hiểm của công nghệ DeepFake: Khám phá những rủi ro tiềm ẩn của video và hình ảnh do AI tạo
Samuel Bassey HackerNoon profile picture
0-item
1-item

Vào tháng 4 năm 2020, một đoạn video quay cảnh thủ tướng Bỉ Sophie Wilmès trao một bài phát biểu về coronavirus đại dịch và mối liên hệ của nó với biến đổi khí hậu đã lan truyền trên mạng xã hội. Video được chia sẻ như một phần của chiến dịch nâng cao nhận thức về các vấn đề môi trường.


Tuy nhiên, video không có thật. Đó là một sự giả mạo sâu sắc, được tạo ra bởi Extinction Rebellion Belgium bằng công nghệ AI có thể điều khiển nét mặt và giọng nói của bất kỳ ai. Video bị gắn mác deep fake nhưng nhiều người không để ý hoặc phớt lờ tuyên bố từ chối trách nhiệm. Một số khán giả bối rối và phẫn nộ trước bài phát biểu giả tạo, trong khi những người khác ca ngợi thủ tướng vì lòng dũng cảm và tầm nhìn của bà.


Ví dụ này cho thấy công nghệ giả sâu có thể được sử dụng như thế nào để lan truyền thông tin sai lệch và gây ảnh hưởng đến dư luận bằng cách mạo danh những nhân vật quan trọng của công chúng. Nó cũng cho thấy mức độ khó để phát hiện và xác minh các giả mạo sâu, đặc biệt là khi chúng được chia sẻ trên các nền tảng truyền thông xã hội có khả năng kiểm duyệt và kiểm tra tính xác thực hạn chế.


Hãy tưởng tượng bạn đang xem một video về người nổi tiếng yêu thích của bạn đang phát biểu. Bạn bị ấn tượng bởi tài hùng biện và sức lôi cuốn của họ, và bạn đồng ý với thông điệp của họ. Nhưng sau đó bạn phát hiện ra rằng video không có thật. Đó là một giả mạo sâu sắc, một phương tiện tổng hợp được tạo bởi AI có thể điều khiển ngoại hình và giọng nói của bất kỳ ai. Bạn cảm thấy bị lừa dối và bối rối.


Làm thế nào bạn có thể tin tưởng những gì bạn thấy và nghe trực tuyến?


Đây không còn là một kịch bản giả thuyết nữa; điều này bây giờ là có thật. Có một số diễn viên, người nổi tiếng, chính trị gia và những người có ảnh hưởng nổi tiếng lưu hành trên internet. Một số bao gồm các tác phẩm sâu của Tom Cruise và Keanu Reeves trên TikTok, trong số những người khác.


Nói một cách đơn giản, Deepfakes là các video và hình ảnh do AI tạo ra có thể thay đổi hoặc tạo ra thực tế của con người, sự kiện và đối tượng. Công nghệ này là một loại trí tuệ nhân tạo có thể tạo hoặc điều khiển hình ảnh, video và âm thanh trông và âm thanh chân thực nhưng không xác thực.

Công nghệ Deepfake đang trở nên tinh vi hơn và dễ tiếp cận hơn mỗi ngày. Nó có thể được sử dụng cho nhiều mục đích khác nhau, chẳng hạn như trong giải trí, giáo dục, nghiên cứu hoặc nghệ thuật. Tuy nhiên, nó cũng có thể gây ra rủi ro nghiêm trọng cho các cá nhân và xã hội, chẳng hạn như truyền bá thông tin sai lệch, vi phạm quyền riêng tư, gây tổn hại danh tiếng, mạo nhận danh tính và ảnh hưởng đến dư luận.


Trong bài viết trước, tôi đã thảo luận về Công nghệ Deepfake, cách thức hoạt động cũng như tác động tích cực và tiêu cực của nó. Trong bài viết này, tôi sẽ khám phá sự nguy hiểm của công nghệ deep fake và cách chúng ta có thể tự bảo vệ mình khỏi tác hại tiềm ẩn của nó.


Công nghệ Deepfake là mối đe dọa tiềm ẩn đối với xã hội như thế nào?

tôi đã từng và tin tôi đi, tôi cảm thấy đó phải là anh ấy ngay cả khi thông điệp trong video liên quan đến việc có thể nhận thức được đâu là thực và đâu là thực. Tôi không bao giờ hiểu thông điệp cho đến khi tôi xem đến cuối video. Rõ ràng, đó không phải là Morgan Freeman, mà là Deepfake Morgan Freeman.


Trước khi có kiến thức này, tôi cảm thấy rất tuyệt khi nghe một trong những diễn viên được kính trọng nhất mọi thời đại của mình, chỉ để hơi thất vọng ở phần cuối mà trên thực tế, tôi đã nghe một bản mô phỏng AI. Với tốc độ này, điều gì sẽ xảy ra nếu một số video chúng tôi xem chỉ là deepfakes? Mối đe dọa thực tế ngày càng trở nên đáng báo động.


Công nghệ deepfake là mối đe dọa tiềm ẩn đối với xã hội vì nó có thể:

  • Truyền bá thông tin sai lệch và tin giả có thể ảnh hưởng đến dư luận, phá hoại nền dân chủ và gây bất ổn xã hội.
  • Vi phạm quyền riêng tư và sự đồng ý bằng cách sử dụng dữ liệu cá nhân khi chưa được phép và tạo hành vi lạm dụng, tống tiền hoặc quấy rối tình dục dựa trên hình ảnh.
  • Làm tổn hại danh tiếng và uy tín bằng cách mạo danh hoặc bôi nhọ các cá nhân, tổ chức hoặc thương hiệu.
  • Tạo rủi ro bảo mật bằng cách cho phép đánh cắp danh tính, lừa đảo hoặc tấn công mạng.
  • Công nghệ deepfake cũng có thể làm xói mòn niềm tin và sự tự tin trong hệ sinh thái kỹ thuật số, khiến việc xác minh tính xác thực và nguồn thông tin trở nên khó khăn hơn.


Nguy hiểm và sử dụng tiêu cực của công nghệ Deepfake

Công nghệ deepfake có thể có một số mặt tích cực, nhưng những mặt tiêu cực dễ dàng lấn át những mặt tích cực trong xã hội đang phát triển của chúng ta. Một số cách sử dụng tiêu cực của deepfakes bao gồm:


  1. Deepfakes có thể được sử dụng để tạo tài liệu người lớn giả mạo có những người nổi tiếng hoặc người bình thường mà không có sự đồng ý của họ, vi phạm quyền riêng tư và nhân phẩm của họ. Bởi vì việc thay thế khuôn mặt bằng khuôn mặt khác và thay đổi giọng nói trong video đã trở nên rất dễ dàng. Đáng ngạc nhiên, nhưng sự thật. Hãy xem bộ phim kinh bộ phim đã thay thế Tom Holland bằng một bản giả sâu của Tobey Maguire, Người Nhện đầu tiên. Bạn sẽ không bao giờ phát hiện ra sự khác biệt cho đến khi bạn được cho biết. Nếu nó dễ dàng như vậy, thì bất kỳ sự thay đổi video nào cũng có thể thực hiện được.


  2. Deepfakes có thể được sử dụng để truyền bá thông tin sai lệch và tin tức giả mạo có thể đánh lừa hoặc thao túng công chúng. Deepfakes có thể được sử dụng để tạo tài liệu lừa bịp, chẳng hạn như bài phát biểu, cuộc phỏng vấn hoặc sự kiện giả mạo, liên quan đến các chính trị gia, người nổi tiếng hoặc các nhân vật có ảnh hưởng khác.

    Như tôi đã đề cập ở đầu bài viết, Thủ tướng Bỉ Sophie Wilmès đang phát biểu, Sophie Wilmès thật chưa bao giờ phát biểu. Một nghiên cứu điển hình khác là một đưa ra thông báo về dịch vụ công.


  3. Vì việc hoán đổi khuôn mặt và thay đổi giọng nói có thể được thực hiện bằng công nghệ deepfake nên nó có thể được sử dụng để phá hoại nền dân chủ và ổn định xã hội bằng cách tác động đến dư luận, kích động bạo lực hoặc phá rối các cuộc bầu cử.

    Tuyên truyền sai sự thật có thể được tạo ra, tin nhắn thoại và video giả rất khó xác định là không có thật và có thể được sử dụng để gây ảnh hưởng đến dư luận, vu khống hoặc tống tiền liên quan đến các ứng cử viên, đảng phái hoặc nhà lãnh đạo chính trị.


  4. Deepfakes có thể được sử dụng để gây tổn hại đến danh tiếng và uy tín bằng cách mạo danh hoặc phỉ báng các cá nhân, tổ chức hoặc thương hiệu. Hãy tưởng tượng bạn có thể lấy được thông tin giả mạo sâu sắc về Keanu Reeves trên TikTok để tạo ra các đánh giá, lời chứng thực hoặc xác nhận giả mạo liên quan đến khách hàng, nhân viên hoặc đối thủ cạnh tranh.


    Người không biết thì dễ bị thuyết phục, lỡ có chuyện gì thì bị tổn hại danh tiếng, mất niềm tin vào diễn viên.


  5. Deepfakes có thể được sử dụng để tạo rủi ro bảo mật bằng cách cho phép đánh cắp danh tính, lừa đảo hoặc tấn công mạng. Vào năm 2019, Giám đốc điều hành của một công ty năng lượng có trụ sở tại Vương quốc Anh đã nhận được cuộc gọi từ sếp của mình, người đứng đầu công ty mẹ ở Đức của công ty, yêu cầu chuyển 220.000 € cho một nhà cung cấp ở Hungary. Theo các nguồn tin tức , CEO thừa nhận "giọng Đức nhẹ và giai điệu" trong giọng nói của giám đốc của mình và tuân thủ chỉ thị gửi tiền trong vòng một giờ.

    Tuy nhiên, người gọi đã gọi lại cho một số điện thoại khác và sau đó nó trở nên đáng ngờ và sau đó được xác nhận là lừa đảo. Đáng buồn thay, đây chỉ là một sự giả mạo giọng nói của ông chủ của anh ấy và 220.000 € ban đầu đã được chuyển đến Mexico và được chuyển đến các tài khoản khác.

    Nhưng đây không phải là sự cố lừa đảo deepfake duy nhất. Công nghệ Deepfake đã được sử dụng trong một số trường hợp để tạo ra các trò gian lận lừa đảo, lừa đảo xã hội hoặc các trò gian lận khác liên quan đến thông tin cá nhân hoặc tài chính.


Ý nghĩa đạo đức, pháp lý và xã hội của công nghệ Deepfake

  1. Các hàm ý đạo đức

    Công nghệ Deepfake có thể vi phạm quyền nhân thân và nhân phẩm của những người có hình ảnh hoặc giọng nói được sử dụng mà không có sự đồng ý của họ, chẳng hạn như tạo tài liệu khiêu dâm giả, tài liệu vu khống hoặc đánh cắp danh tính liên quan đến người nổi tiếng hoặc người bình thường. Công nghệ Deepfake cũng có thể làm suy yếu các giá trị của sự thật, lòng tin và trách nhiệm giải trình trong xã hội khi được sử dụng để truyền bá thông tin sai lệch, tin tức giả mạo hoặc tuyên truyền có thể lừa dối hoặc thao túng công chúng.


  2. Lời nói bóng gió hợp pháp

    Công nghệ Deepfake có thể đặt ra những thách thức đối với các khuôn khổ và quy định pháp lý hiện có để bảo vệ quyền sở hữu trí tuệ, quyền phỉ báng và quyền hợp đồng, vì nó có thể vi phạm bản quyền, nhãn hiệu hoặc quyền công khai của những người có hình ảnh hoặc giọng nói được sử dụng mà không có sự cho phép của họ .


    Công nghệ Deepfake có thể vi phạm quyền riêng tư của những người có dữ liệu cá nhân bị sử dụng mà không có sự đồng ý của họ. Nó có thể bôi nhọ danh tiếng hoặc tính cách của những người bị miêu tả sai sự thật theo cách tiêu cực hoặc có hại.


  3. Tác động xã hội

    Công nghệ deepfake có thể có tác động tiêu cực đến phúc lợi xã hội và sự gắn kết của các cá nhân và nhóm, vì nó có thể gây tổn hại về tâm lý, cảm xúc hoặc tài chính cho các nạn nhân của sự thao túng deepfake, những người có thể bị đau khổ, lo lắng, trầm cảm hoặc mất khả năng thu nhập.

    Nó cũng có thể tạo ra sự chia rẽ và xung đột xã hội giữa các nhóm hoặc cộng đồng khác nhau, kích động bạo lực, hận thù hoặc phân biệt đối xử đối với một số nhóm dựa trên chủng tộc, giới tính, tôn giáo hoặc đảng phái chính trị của họ.


Tôi sợ rằng trong tương lai, công nghệ deepfake có thể được sử dụng để tạo ra các hình thức tuyên truyền và thông tin sai lệch tinh vi và độc hại hơn nếu không được kiểm soát. Nó cũng có thể được sử dụng để tạo bằng chứng giả về tội phạm, vụ bê bối hoặc tham nhũng liên quan đến các đối thủ chính trị hoặc nhà hoạt động hoặc để tạo lời chứng thực, xác nhận hoặc đánh giá giả liên quan đến khách hàng, nhân viên hoặc đối thủ cạnh tranh.


Hãy tưởng tượng bạn có các video giả sâu về các nhà lãnh đạo thế giới tuyên bố chiến tranh, đưa ra lời thú nhận sai sự thật hoặc tán thành các hệ tư tưởng cực đoan. Điều đó có thể rất bất lợi cho thế giới nói chung.


Những thách thức của việc phát hiện và điều chỉnh công nghệ Deepfake

Tình trạng phát hiện và điều chỉnh deepfake hiện tại vẫn đang phát triển và đối mặt với nhiều thách thức. Một số lý do khiến việc xác định và ngăn chặn nội dung deepfake lan truyền trực tuyến trở nên khó khăn là:


  1. Cải tiến và dễ dàng truy cập: Chất lượng và tính chân thực của nội dung deepfake đang được cải thiện khi các mạng thần kinh nhân tạo tạo ra chúng trở nên tinh vi hơn và được đào tạo trên các bộ dữ liệu lớn hơn và đa dạng hơn. Tính sẵn có và khả năng chi trả của phần mềm và dịch vụ deepfake cũng đang tăng lên, giúp mọi người tạo và chia sẻ nội dung deepfake trực tuyến dễ dàng hơn.
  2. Khả năng phát hiện không thể mở rộng và không đáng tin cậy: Các phương pháp hiện có để phát hiện nội dung deepfake dựa trên việc phân tích các tính năng hoặc tạo tác khác nhau của hình ảnh, video hoặc âm thanh, chẳng hạn như nét mặt, chuyển động mắt, kết cấu da, ánh sáng, bóng hoặc tiếng ồn xung quanh . Tuy nhiên, các phương pháp này không phải lúc nào cũng chính xác hoặc nhất quán, đặc biệt khi nội dung deepfake có chất lượng thấp, bị nén hoặc chỉnh sửa. Hơn nữa, các phương pháp này không thể mở rộng hoặc hiệu quả, vì chúng đòi hỏi nhiều tài nguyên tính toán và thời gian để xử lý lượng lớn dữ liệu.
  3. Các quy định phức tạp và gây tranh cãi: Các vấn đề pháp lý và đạo đức xung quanh nội dung deepfake không rõ ràng hoặc thống nhất giữa các khu vực tài phán, bối cảnh và mục đích khác nhau. Ví dụ: nội dung deepfake có thể bao hàm nhiều quyền và lợi ích khác nhau, chẳng hạn như quyền sở hữu trí tuệ, quyền riêng tư, quyền phỉ báng, quyền hợp đồng, quyền tự do ngôn luận và lợi ích công cộng. Tuy nhiên, những quyền và lợi ích này có thể xung đột hoặc chồng chéo với nhau, tạo ra những tình huống khó xử và sự đánh đổi cho các nhà lập pháp và cơ quan quản lý.

Hơn nữa, việc thực thi và giám sát quy định về deepfake có thể gặp phải những khó khăn về kỹ thuật và thực tế, chẳng hạn như xác định người tạo và phân phối nội dung deepfake, thiết lập trách nhiệm pháp lý và trách nhiệm giải trình của họ cũng như áp dụng các biện pháp trừng phạt hoặc biện pháp khắc phục thích hợp.


Các chiến lược và giải pháp hiện tại và tương lai để phát hiện, ngăn chặn và chống lại công nghệ Deepfake


  1. Chính sách của các nền tảng truyền thông xã hội: Các nền tảng truyền thông xã hội có thể triển khai các chính sách, nguyên tắc và tiêu chuẩn để điều chỉnh việc tạo và phổ biến nội dung deepfake trên nền tảng của họ, bằng cách cấm hoặc gắn nhãn các deepfake có hại hoặc lừa đảo hoặc bằng cách yêu cầu người dùng tiết lộ việc sử dụng công nghệ deepfake . Chiến lược này có thể hiệu quả trong việc giảm mức độ hiển thị và lan truyền của các tác phẩm sâu có hại hoặc lừa đảo trên các nền tảng phổ biến và có ảnh hưởng, chẳng hạn như Facebook, Twitter hoặc YouTube. Các công cụ xác minh và phát hiện deepfake, chẳng hạn như hình mờ kỹ thuật số, hệ thống xuất xứ dựa trên chuỗi khối hoặc công cụ tìm kiếm hình ảnh ngược cũng có thể được triển khai để chống lại việc tải lên bất kỳ deepfake nào. Các nền tảng này cũng có thể hợp tác với các bên liên quan khác, chẳng hạn như người kiểm tra thực tế, nhà nghiên cứu hoặc các nhóm xã hội dân sự, để theo dõi và chống lại nội dung deepfake. Tuy nhiên, những giải pháp này có thể phải đối mặt với những thách thức như khả năng mở rộng, độ chính xác, tính minh bạch và trách nhiệm giải trình.


  2. Thuật toán phát hiện: Các thuật toán phát hiện có thể sử dụng các kỹ thuật máy học và thị giác máy tính để phân tích các tính năng và đặc điểm của nội dung deepfake, chẳng hạn như nét mặt, chuyển động mắt, ánh sáng hoặc chất lượng âm thanh, đồng thời xác định các điểm không nhất quán hoặc bất thường cho thấy có sự thao túng. Các nhà nghiên cứu có thể phát triển và cải thiện các công nghệ xác minh và phát hiện deepfake, chẳng hạn như mạng thần kinh nhân tạo, thuật toán thị giác máy tính hoặc hệ thống xác thực sinh trắc học để cải thiện thuật toán phát hiện.

    Họ cũng có thể tạo và chia sẻ bộ dữ liệu cũng như điểm chuẩn để đánh giá các phương pháp xác minh và phát hiện deepfake, đồng thời tiến hành các nghiên cứu liên ngành về tác động xã hội và đạo đức của công nghệ deepfake. Chiến lược này có thể có hiệu quả trong việc phân tích các tính năng bằng cách xác định sự không nhất quán hoặc bất thường cho thấy sự thao túng. Tuy nhiên, các giải pháp này có thể phải đối mặt với những thách thức như tính khả dụng, chất lượng và quyền riêng tư của dữ liệu, cũng như các tình huống khó xử về đạo đức và rủi ro sử dụng kép.


  3. Phản ứng trên Internet: Điều này đề cập đến phản ứng tập thể của người dùng và cộng đồng trực tuyến đối với nội dung giả mạo sâu, chẳng hạn như bằng cách gắn cờ, báo cáo, vạch trần hoặc chỉ trích các nội dung giả mạo sâu đáng ngờ hoặc có hại hoặc bằng cách tạo ra các câu chuyện phản bác hoặc nhại lại để vạch trần hoặc chế giễu chúng. Người dùng có thể áp dụng các kỹ năng tư duy phản biện và hiểu biết về phương tiện truyền thông để xác định và xác minh nội dung deepfake, đồng thời cũng có thể sử dụng các công cụ xác minh và phát hiện deepfake, chẳng hạn như tiện ích mở rộng trình duyệt, ứng dụng dành cho thiết bị di động hoặc nền tảng trực tuyến để phát hiện ra các deepfake mà họ gặp phải trên mạng xã hội hoặc các nền tảng khác. mà họ có thể báo cáo hoặc gắn cờ là nội dung deepfake. Chiến lược phản ứng trên internet có thể hiệu quả trong việc huy động phản ứng tập thể của người dùng và cộng đồng trực tuyến đối với nội dung giả mạo sâu sắc. Tuy nhiên, những giải pháp này có thể phải đối mặt với những thách thức như sai lệch nhận thức, quá tải thông tin, khoảng cách kỹ thuật số và các vấn đề về lòng tin.


  4. Các sáng kiến của DARPA: Các sáng kiến của DARPA đề cập đến các dự án nghiên cứu và phát triển do Cơ quan Dự án Nghiên cứu Tiên tiến Quốc phòng (DARPA) tài trợ để thúc đẩy sự phát triển của các công nghệ phát hiện và giảm thiểu deepfake, chẳng hạn như bằng cách tạo các bộ dữ liệu quy mô lớn, điểm chuẩn và thách thức cho nghiên cứu deepfake . Chúng nhằm mục đích phát triển các công nghệ có thể tự động phát hiện và phân tích deepfakes và các hình thức thao túng phương tiện khác. DARPA đã có hai chương trình dành cho việc phát hiện deepfakes: Media Forensics (MediFor) và Semantic Forensics (SemaFor).


    • Media Forensics (MediFor) , kết thúc vào năm tài chính 2021, là phát triển các thuật toán để tự động đánh giá tính toàn vẹn của ảnh và video, đồng thời cung cấp cho các nhà phân tích thông tin về cách tạo ra nội dung giả mạo. Theo báo cáo, chương trình đã khám phá các kỹ thuật để xác định sự không nhất quán về âm thanh-hình ảnh có trong deepfakes, chẳng hạn như sự không nhất quán về pixel (tính toàn vẹn kỹ thuật số), sự không nhất quán với các định luật vật lý (tính toàn vẹn vật lý) và sự không nhất quán với các nguồn thông tin khác (tính toàn vẹn về ngữ nghĩa). Các công nghệ MediFor dự kiến sẽ chuyển sang các lệnh hoạt động và cộng đồng tình báo.


    • Điều tra ngữ nghĩa (SemaFor) , được công bố vào năm 2021, tìm cách giúp các nhà phân tích chiếm thế thượng phong trong cuộc chiến giữa những người phát hiện và những kẻ thao túng bằng cách phát triển các công nghệ có khả năng tự động hóa việc phát hiện, ghi công và mô tả đặc điểm của nội dung truyền thông giả mạo. Chương trình nhằm mục đích khai thác một điểm yếu nghiêm trọng trong trình tạo phương tiện tự động: khó hiểu đúng tất cả các ngữ nghĩa. Ví dụ: đảm bảo rằng mọi thứ đều phù hợp từ văn bản của một câu chuyện tin tức đến hình ảnh đi kèm, đến các yếu tố bên trong hình ảnh đó. SemaFor cũng đang phát triển các công nghệ để tự động lắp ráp và quản lý bằng chứng được cung cấp bởi các thuật toán phát hiện, phân bổ và mô tả đặc điểm.

      Ngoài ra, DARPA đã xây dựng các mô hình phòng thủ deepfake để ghi lại cách mọi người di chuyển đầu và cơ mặt. Cơ quan đã sử dụng dữ liệu này và tích hợp nó vào một công cụ phần mềm để phân tích video của “những cá nhân nổi tiếng” và so sánh hành vi với cá nhân thực.


  5. Phản hồi pháp lý: Đây là việc áp dụng các luật và quy định hiện hành hoặc mới để giải quyết các vấn đề pháp lý và đạo đức do công nghệ deepfake đặt ra, chẳng hạn như bằng cách bảo vệ quyền và lợi ích của các nạn nhân bị lạm dụng deepfake hoặc bằng cách quy trách nhiệm cho thủ phạm về hành động của họ . Chính phủ có thể ban hành luật và quy định cấm hoặc hạn chế việc tạo và phổ biến nội dung deepfake có hại, chẳng hạn như nội dung khiêu dâm không có sự đồng thuận, phỉ báng hoặc can thiệp bầu cử. Họ cũng có thể hỗ trợ nghiên cứu và phát triển các công nghệ xác minh và phát hiện deepfake, cũng như các chiến dịch giáo dục và nâng cao nhận thức cộng đồng.

    Một số luật đề cập đến công nghệ deepfake ở các quốc gia khác nhau, nhưng chúng không toàn diện hoặc nhất quán.


    Ví dụ:

    • Tại Hoa Kỳ, Đạo luật ủy quyền quốc phòng (NDAA) yêu cầu Bộ An ninh Nội địa (DHS) đưa ra báo cáo hàng năm về deepfakes và tác hại tiềm tàng của chúng. Đạo luật xác định đầu ra của mạng đối thủ sáng tạo yêu cầu Quỹ khoa học quốc gia (NSC) và Viện tiêu chuẩn và công nghệ quốc gia (NIS) nghiên cứu công nghệ deepfake và các biện pháp xác thực. Tuy nhiên, không có luật liên bang nào cấm hoặc điều chỉnh rõ ràng công nghệ deepfake.

    • Ở Trung Quốc , một luật mới yêu cầu tài liệu bị thao túng phải có sự đồng ý của đối tượng và phải có chữ ký số hoặc hình mờ và các nhà cung cấp dịch vụ deepfake đưa ra các cách để "bác bỏ tin đồn". Tuy nhiên, một số người lo ngại rằng chính phủ có thể sử dụng luật này để hạn chế quyền tự do ngôn luận hoặc kiểm duyệt những tiếng nói bất đồng.

    • Ở Ấn Độ, không có luật rõ ràng cấm deepfakes, nhưng một số luật hiện hành như Đạo luật Công nghệ thông tin hoặc Bộ luật Hình sự Ấn Độ có thể được áp dụng trong các trường hợp phỉ báng, gian lận hoặc tục tĩu liên quan đến deepfakes.

    • Ở Vương quốc Anh, cũng không có luật cụ thể nào về deepfakes, nhưng một số học thuyết pháp lý như quyền riêng tư, bảo vệ dữ liệu, sở hữu trí tuệ hoặc bỏ qua có thể liên quan đến các tranh chấp liên quan đến video bị thao túng hoặc deepfake không mong muốn.


    Phản ứng pháp lý có thể là một chiến lược hiệu quả trong việc chống lại sự đáng ngờ của deepfakes. Tuy nhiên, các giải pháp này có thể phải đối mặt với những thách thức như cân bằng quyền tự do ngôn luận và quyền riêng tư, thực thi quyền tài phán xuyên biên giới và thích ứng với công nghệ thay đổi nhanh chóng


Khuyến nghị và Hướng dẫn cho Nghiên cứu hoặc Hành động trong Tương lai đối với Công nghệ Deepfake

Công nghệ DeepFake vẫn đang phát triển và nhanh chóng phát triển thành các phiên bản tốt hơn và thực tế hơn mỗi ngày. Điều này đòi hỏi cần phải chủ động hơn trong việc giải quyết các mối đe dọa có thể đi kèm với công nghệ này. Dưới đây là một số hành động mà tôi tin rằng có thể được thực hiện để giảm thiểu tác động tiêu cực của nó:


  • Xác minh và xác thực nội dung: Người tiêu dùng phải luôn kiểm tra nguồn gốc và tính xác thực của nội dung họ gặp hoặc tạo, bằng cách sử dụng tìm kiếm hình ảnh hoặc video ngược, hệ thống xác minh dựa trên chuỗi khối hoặc kỹ thuật đánh dấu kỹ thuật số.


  • Nguồn thông tin đa dạng và đáng tin cậy: Người tiêu dùng phương tiện truyền thông kỹ thuật số phải luôn tìm kiếm nhiều nguồn thông tin đáng tin cậy để chứng thực hoặc bác bỏ nội dung họ gặp phải hoặc tạo ra, bằng cách tham khảo ý kiến của các phương tiện truyền thông có uy tín, người kiểm tra thực tế hoặc chuyên gia.


  • Phát triển các thuật toán và công cụ phát hiện nhanh chóng, mạnh mẽ và thích ứng để xác minh và phân bổ: Cần tập trung nhiều hơn vào việc phát triển các thuật toán phát hiện thích ứng và mạnh mẽ hơn để có thể đối phó với tính chân thực và tính đa dạng ngày càng tăng của nội dung deepfake, chẳng hạn như bằng cách sử dụng đa phương thức hoặc chéo phương pháp tiếp cận miền, kết hợp phản hồi của con người hoặc tận dụng việc học đối thủ. Nên khám phá các công cụ và phương pháp mới để xác minh và phân bổ nội dung kỹ thuật số, chẳng hạn như bằng cách sử dụng các hệ thống xác minh dựa trên chuỗi khối, kỹ thuật đánh dấu kỹ thuật số hoặc tìm kiếm hình ảnh hoặc video ngược và cần có thêm nghiên cứu để phát triển và cải thiện các công nghệ xác minh và phát hiện deepfake. cũng như để hiểu và giải quyết các tác động xã hội và đạo đức của công nghệ deepfake.


  • Thiết lập các tiêu chuẩn và khuôn khổ pháp lý và đạo đức cho công nghệ Deepfake: Cần nghiên cứu thêm để tạo ra các khuôn khổ và tiêu chuẩn đạo đức và pháp lý cho công nghệ deepfake, chẳng hạn như bằng cách xác định quyền và trách nhiệm của người tạo và người tiêu dùng nội dung deepfake, thiết lập ranh giới và tiêu chí cho việc sử dụng hợp pháp và bất hợp pháp công nghệ deepfake hoặc thực thi luật pháp và các quy định để bảo vệ nạn nhân và trừng phạt thủ phạm lạm dụng deepfake. Cần có nhiều hành động pháp lý hơn để ban hành và thực thi các luật và quy định bảo vệ quyền và lợi ích của nạn nhân cũng như mục tiêu của nội dung giả mạo sâu có hại, chẳng hạn như nội dung khiêu dâm không có sự đồng thuận, phỉ báng hoặc can thiệp bầu cử.


    Các hành động phải được phối hợp, nhất quán và có thể thích ứng, có tính đến tính chất xuyên biên giới của nội dung deepfake và bản chất thay đổi nhanh chóng của công nghệ deepfake, đồng thời phải cân bằng, tương xứng và tôn trọng, có tính đến quyền tự do ngôn luận và quyền riêng tư của những người sáng tạo và người tiêu dùng nội dung deepfake.


  • Thúc đẩy giáo dục và nhận thức về công nghệ deepfake: Nghiên cứu hoặc hành động trong tương lai về công nghệ deepfake sẽ thúc đẩy giáo dục và nhận thức về công nghệ deepfake giữa các bên liên quan khác nhau, chẳng hạn như bằng cách cung cấp đào tạo và hướng dẫn cho các nhà báo, người kiểm tra thực tế, nhà giáo dục, nhà hoạch định chính sách và công chúng nói chung về cách tạo, sử dụng và phản hồi nội dung deepfake một cách có trách nhiệm và nghiêm túc.


  • Báo cáo hoặc gắn cờ nội dung đáng ngờ hoặc có hại: Người tiêu dùng nên biết về sự tồn tại và phổ biến của nội dung giả mạo sâu và nên sử dụng các kỹ năng tư duy phản biện và hiểu biết về phương tiện truyền thông để xác định và xác minh nội dung đó. Họ nên nhanh chóng báo cáo hoặc gắn cờ nội dung giả mạo sâu sắc mà họ gặp phải trên mạng xã hội hoặc các nền tảng khác, bằng cách sử dụng các công cụ hoặc cơ chế báo cáo do các nền tảng truyền thông xã hội, cơ quan thực thi pháp luật hoặc tổ chức xã hội dân sự cung cấp.


  • Tôn trọng quyền và lợi ích của người khác: Nhà sản xuất phương tiện kỹ thuật số phải luôn tôn trọng quyền và lợi ích của người khác khi tạo hoặc chia sẻ nội dung liên quan đến công nghệ deepfake, bằng cách xin phép, tiết lộ việc sử dụng công nghệ deepfake hoặc tránh các mục đích độc hại hoặc lừa đảo. Họ nên nhận thức được những tác hại và lợi ích tiềm ẩn của công nghệ deepfake và nên sử dụng nó một cách có trách nhiệm và có đạo đức, tuân theo các nguyên tắc về sự đồng ý, tính toàn vẹn và trách nhiệm giải trình.


Phần kết luận

Công nghệ Deepfake có khả năng tạo ra nội dung sai lệch hoặc gây hiểu lầm có thể gây hại cho các cá nhân hoặc nhóm theo nhiều cách khác nhau. Tuy nhiên, công nghệ deepfake cũng có thể có những ứng dụng tích cực cho giải trí, truyền thông, chính trị, giáo dục, nghệ thuật, chăm sóc sức khỏe và khả năng tiếp cận. Do đó, điều quan trọng là phải cân bằng giữa rủi ro và lợi ích của công nghệ deepfake, đồng thời phát triển các cách hiệu quả và hợp đạo đức để phát hiện, ngăn chặn và điều chỉnh nó.


Để đạt được mục tiêu này, các chính phủ, nền tảng, nhà nghiên cứu và người dùng cần cộng tác và phối hợp nỗ lực, cũng như nâng cao nhận thức và trách nhiệm của họ. Bằng cách đó, chúng ta có thể khai thác sức mạnh và lợi ích tiềm năng của công nghệ deepfake, đồng thời giảm thiểu tác hại của nó.