paint-brush
Thực hiện Deepfakes một cách nghiêm túctừ tác giả@synthesys
854 lượt đọc
854 lượt đọc

Thực hiện Deepfakes một cách nghiêm túc

từ tác giả Synthesys AI Studio2022/04/18
Read on Terminal Reader
Read this story w/o Javascript

dài quá đọc không nổi

Deepfakes là hình ảnh, giọng nói và video được tạo bởi hoặc với sự trợ giúp của các thuật toán AI nhằm đánh lừa khán giả. Thuật ngữ "deepfake" lần đầu tiên được sử dụng vào cuối năm 2017 bởi một người dùng Reddit cùng tên, người đã chia sẻ các video khiêu dâm bằng công nghệ hoán đổi khuôn mặt mã nguồn mở trên trang Reddit. Công nghệ cũng có thể được sử dụng để làm cho mọi người trong thế giới thực xuất hiện trong video và âm thanh nói hoặc làm những điều họ chưa bao giờ nói hoặc làm, để thay thế mọi người trong các video hiện có hoặc để tạo nội dung video với các nhân vật hoàn toàn không tồn tại, người nổi tiếng hoặc các chính trị gia quan trọng.

People Mentioned

Mention Thumbnail

Companies Mentioned

Mention Thumbnail
Mention Thumbnail
featured image - Thực hiện Deepfakes một cách nghiêm túc
Synthesys AI Studio HackerNoon profile picture


Trí tuệ nhân tạo sẽ không biến mất. Công nghệ thay đổi cuộc chơi này có tiềm năng cải thiện hiệu quả bằng cách đơn giản mô phỏng suy nghĩ của con người và có thể được đào tạo để giải quyết các vấn đề cụ thể. Dựa theo Statista , AI sẽ là một ngành công nghiệp tỷ đô lớn hơn vào năm 2025, với các ứng dụng từ học tập được cá nhân hóa trong giáo dục đến dịch vụ khách hàng được cải thiện trong thương mại điện tử và kinh doanh.


Bối cảnh cho những tiến bộ của trí tuệ nhân tạo là vô hạn và nhanh chóng, với những đột phá mới xảy ra hàng ngày. Ví dụ: về video và giọng nói AI, chúng ta có thể dự đoán các tính năng mới sẽ được thêm vào và các thế hệ video ngày càng nhiều thực tế và có thể kiểm soát trong những năm tới, một trong số đó là Deepfake.


Theo nhiều cách, đây là một biên giới mới cho đạo đức và đánh giá rủi ro giống như đối với các công nghệ đang phát triển khác. Điều này đã làm nảy sinh các tổ chức áp dụng các quy tắc đạo đức của AI để chính thức chỉ rõ vai trò của trí tuệ nhân tạo trong việc phát triển nhân loại. Mục tiêu của bộ quy tắc đạo đức AI là cung cấp cho các bên liên quan hướng đi rất cần thiết khi phải đối mặt với một quyết định đạo đức xung quanh việc sử dụng trí tuệ nhân tạo.

Giới thiệu về Công nghệ Deepfake


Deepfakes là hình ảnh, giọng nói và video được tạo bởi hoặc với sự trợ giúp của các thuật toán AI nhằm đánh lừa khán giả.


Thuật ngữ "deepfake" lần đầu tiên được sử dụng vào cuối năm 2017 bởi một người dùng Reddit cùng tên, người đã chia sẻ các video khiêu dâm sử dụng công nghệ hoán đổi khuôn mặt mã nguồn mở trên trang Reddit. Thuật ngữ này kể từ đó đã được mở rộng để bao gồm "Ứng dụng phương tiện tổng hợp" đã tồn tại trước trang Reddit, cũng như các sáng tạo mới như STYLE-GAN - "hình ảnh tĩnh trông thực tế của những người không tồn tại."


Công nghệ Deepfake sử dụng hành vi của một người nào đó - chẳng hạn như giọng nói, khuôn mặt, nét mặt thông thường hoặc chuyển động của cơ thể - để tạo nội dung âm thanh hoặc video mới mà hầu như không thể phân biệt được với nội dung thực. Công nghệ này cũng có thể được sử dụng để làm cho mọi người trong thế giới thực xuất hiện trong video và âm thanh nói hoặc làm những điều họ chưa bao giờ nói hoặc làm, để thay thế mọi người trong các video hiện có hoặc để tạo nội dung video với các nhân vật hoàn toàn không tồn tại, những người nổi tiếng, hoặc các chính trị gia lỗi lạc quan trọng; và điều này đã làm dấy lên nhiều lo ngại về đạo đức của deepfakes.


Trước đây, các chuyên gia trong studio công nghệ cao phải mất ít nhất một năm để tạo ra hiệu ứng Deepfake, nhưng với việc sử dụng máy học, sự phát triển nhanh chóng của công nghệ deepfake trong những năm qua đã khiến việc tạo ra nội dung giả thực sự thuyết phục trở nên dễ dàng và nhanh chóng hơn nhiều.

Mạng Hình ảnh AI cơ bản, Video AI và Âm thanh AI


Deepfakes bắt đầu với sự phát triển của Mạng thần kinh nhân tạo (ANN). ANN là một mô hình học máy được xây dựng trên một mạng lưới các tế bào thần kinh rất giống với não người. Tuy nhiên, nó khác ở chỗ AI không đưa ra dự đoán về dữ liệu mới được cung cấp cho nó; thay vào đó, nó tạo ra dữ liệu mới. Các thuật toán này được gọi là Mạng đối phương chung (GAN), và những đột phá gần đây đã thúc đẩy nghiên cứu và phát triển, dẫn đến sự xuất hiện của các trò chơi sâu.


Mạng thần kinh chuyển đổi (CNN), dựa trên ANN, mô phỏng cách vỏ não thị giác xử lý hình ảnh để thực hiện nhận dạng hình ảnh trên máy tính. Mạng nơ-ron nhân tạo và hợp hiến đặt nền tảng cho các chương trình học sâu và làm nền tảng cho các thuật toán tạo ra các trò chơi sâu ngày nay: Mạng đối thủ chung.


Ví dụ: các ứng dụng hoán đổi khuôn mặt, chẳng hạn như Zao và Faceapp (một trong những ứng dụng thành công sớm nhất), cho phép người dùng hoán đổi khuôn mặt của họ với một người khác, đôi khi là một người nổi tiếng, để tạo ra một deepfake hoặc Video AI hoặc hình ảnh trong vài giây. Những tiến bộ này là kết quả của Deep Generative Modeling, một công nghệ đột phá cho phép chúng tôi tạo ra các bản sao của những khuôn mặt hiện có và xây dựng những hình ảnh đại diện mới, thực tế đến ngoạn mục về những người không tồn tại.


Công nghệ mới này đã làm dấy lên những lo lắng về quyền riêng tư và danh tính một cách chính đáng. Nhưng, nếu một thuật toán có thể xây dựng ngoại hình của chúng ta, liệu có thể tái tạo nhiều đặc điểm hơn nữa về nhận dạng kỹ thuật số của chính chúng ta, chẳng hạn như giọng nói của chúng ta - hoặc có thể tạo ra một đôi toàn thân không?

Threats Deepfakes Pose


Deepfakes gây ra mối đe dọa đáng kể đối với cộng đồng, hệ thống chính trị và doanh nghiệp của chúng ta vì chúng gây áp lực lên các nhà báo đang đấu tranh để phân biệt giữa tin tức thật và tin tức giả, gây nguy hiểm cho an ninh quốc gia bằng cách đăng tải nội dung tuyên truyền và phá vỡ bầu cử, làm xói mòn lòng tin của công dân đối với chính quyền và nâng cao an ninh mạng mối quan tâm cho các cá nhân và tổ chức.


Deepfakes rất có thể gây ra mối nguy hiểm lớn nhất cho hoạt động kinh doanh báo chí vì chúng nguy hiểm hơn tin tức giả "thông thường" vì chúng khó phát hiện hơn và người tiêu dùng có nhiều khả năng cho rằng tin giả là thật. Ngoài ra, công nghệ này cho phép tạo ra các video tin tức có vẻ đáng tin cậy, khiến danh tiếng của các nhà báo và phương tiện truyền thông gặp nguy hiểm. Chỉ từ một vài hình ảnh, giờ đây bạn có thể tạo video và tài liệu video được phân bổ sai, chẳng hạn như một cuộc tuần hành phản đối thực sự hoặc xung đột bạo lực được chú thích để ám chỉ nó diễn ra ở nơi khác, là một vấn đề đang gia tăng do sự gia tăng của các trò lừa đảo sâu sắc.


Reuters Chẳng hạn, họ đã phát hiện ra một đoạn video cho thấy khoảnh khắc một nghi phạm bị cảnh sát bắn chết khi đang tìm kiếm các video nhân chứng về vụ xả súng hàng loạt ở Christchurch, New Zealand. Tuy nhiên, họ nhanh chóng nhận ra rằng đó là một sự việc khác ở Hoa Kỳ và nghi phạm trong vụ xả súng ở Christchurch chưa bị sát hại.


Điều đó đủ để các cơ quan tình báo phải lo sợ, vì những trò lừa bịp sâu có thể được sử dụng để gây nguy hiểm cho an ninh quốc gia bằng cách tuyên truyền chính trị và can thiệp vào các chiến dịch bầu cử.


Các nhà chức trách tình báo Hoa Kỳ thường cảnh báo về những nguy cơ của sự can dự của nước ngoài vào chính trường Hoa Kỳ, đặc biệt là trong thời gian sắp tới các cuộc bầu cử. Đưa lời nói vào miệng ai đó trên một video lan truyền là một vũ khí mạnh mẽ trong cuộc chiến thông tin sai lệch ngày nay và các bộ phim đã được chỉnh sửa có thể dễ dàng làm lung lay ý kiến cử tri. Mặc dù các đoạn ghi âm bịa đặt như vậy có khả năng gây ra bất ổn trong nước, bạo loạn và xáo trộn bầu cử, các quốc gia khác có thể chọn thực hiện chính sách đối ngoại của mình dựa trên sự lừa dối, có khả năng dẫn đến các cuộc khủng hoảng và chiến tranh quốc tế.


Một dòng ghi âm liên tục như vậy cũng có khả năng cản trở khả năng hiểu biết về kỹ thuật số và sự tin tưởng của công dân vào thông tin do cơ quan có thẩm quyền cung cấp. Bản ghi âm, có thể dễ dàng được tạo bằng tính năng chuyển văn bản thành giọng nói như Synthesys ' Giọng nói của AI của các quan chức nhà nước thể hiện những điều chưa từng xảy ra, khiến người dân không tin tưởng vào cơ quan chức năng. Hơn nữa, mọi người có thể coi băng video xác thực là giả chỉ vì họ đã học cách cho rằng mọi thứ họ không muốn chấp nhận đều phải là giả. Nói cách khác, mối nguy hiểm lớn nhất là mọi người sẽ bắt đầu coi mọi thứ là lừa dối hơn là bị lừa.


Một vấn đề khác được deepfakes đưa ra là các lỗ hổng bảo mật mạng. Ví dụ, Deepfakes cũng có thể được sử dụng để tác động đến thị trường và cổ phiếu bằng cách mô tả một CEO nói những lời tục tĩu phân biệt chủng tộc, thông báo về một vụ sáp nhập giả mạo hoặc trình bày như thể họ đã phạm tội. Hơn nữa, nội dung khiêu dâm deepfake hoặc các thông báo về sản phẩm có thể được sử dụng để làm tổn hại đến thương hiệu của công ty, tống tiền hoặc làm bẽ mặt ban quản lý. Công nghệ Deepfake cũng có thể cho phép số hóa mạo danh một giám đốc điều hành, chẳng hạn, để yêu cầu chuyển tiền khẩn cấp hoặc thông tin cá nhân từ một nhân viên.

Mặt tích cực của Deepfakes


Bất chấp những nguy cơ tiềm ẩn do công nghệ deepfake đưa ra, nó có thể có ứng dụng tích cực trong các lĩnh vực như giải trí, truyền thông giáo dục, truyền thông kỹ thuật số, trò chơi, mạng xã hội và chăm sóc sức khỏe.


Ví dụ: trong những bộ phim mà giọng nói của các diễn viên đã bị mất do bệnh tật, công nghệ deepfake có thể hỗ trợ tạo ra giọng nói tổng hợp hoặc cập nhật cảnh phim hơn là làm lại nó. Do đó, các nhà làm phim sẽ có thể tái tạo những cảnh phim cũ, tạo ra những bộ phim mới có thể có sự tham gia của các diễn viên đã chết từ lâu, sử dụng hiệu ứng CGI và chỉnh sửa khuôn mặt phức tạp trong quá trình hậu sản xuất, đồng thời nâng các video nghiệp dư lên tiêu chuẩn chuyên nghiệp.


Công nghệ Deepfake cũng cho phép lồng tiếng tự nhiên cho phim bằng bất kỳ ngôn ngữ nào, cho phép nhiều khán giả thưởng thức phim và tài liệu giáo dục hiệu quả hơn. Một 2019 quảng cáo nâng cao nhận thức về bệnh sốt rét trên toàn thế giới với sự tham gia của David Beckham đã phá bỏ ranh giới ngôn ngữ bằng cách sử dụng công nghệ thay đổi hình ảnh và giọng nói để khiến anh ấy có vẻ ngoài đa ngôn ngữ.



https://www.youtube.com/watch?v=QiiSAvKJIHo


Công nghệ Deepfakes cung cấp khả năng nhìn xa được cải thiện trong các trò chơi trực tuyến và thế giới trò chuyện ảo, trợ lý thông minh có âm thanh tự nhiên và trông giống như các bản sao ảo của các cá nhân. Điều này góp phần vào việc phát triển các mối quan hệ giữa con người và sự tham gia trực tuyến tốt hơn.


Các doanh nghiệp cũng được hưởng lợi nhiều từ khả năng của công nghệ deepfake có thể áp dụng cho thương hiệu vì nó có khả năng cách mạng hóa thương mại điện tử và quảng cáo một cách đáng kể.


Ví dụ: công nghệ Deepfake có thể cho phép phụ kiện ảo để cung cấp cho khách hàng khả năng xem trước trang phục sẽ xuất hiện như thế nào trước khi mua và có thể tạo quảng cáo thời trang được cá nhân hóa thay đổi tùy theo thời gian, thời tiết và người xem, cũng như tạo Hình đại diện AI có thể cá nhân hóa giao tiếp với khách hàng và kích hoạt nội dung siêu cá nhân biến mọi người thành hình mẫu. Ngoài ra, khả năng thử quần áo trên internet là một tiềm năng sử dụng rõ ràng; công nghệ này không chỉ cho phép mọi người tạo ra bản sao kỹ thuật số của chính họ mà còn cho phép mọi người mặc thử trang phục cô dâu ở dạng kỹ thuật số và do đó, trải nghiệm thực tế một địa điểm đám cưới.

Thực hành đạo đức để tuân theo


Đổi mới trên quy mô rộng là một vấn đề đạo đức vì đạo đức về cơ bản liên quan đến bất cứ điều gì có thể nâng cao hoặc cản trở hạnh phúc của con người. Kết quả là, đạo đức rất quan trọng trong việc đánh giá các mục tiêu của đổi mới, chẳng hạn như các kết quả sâu sắc, cũng như quá trình nó được thực hiện và kết quả đạt được từ nó. Câu hỏi cơ bản là, "Deepfakes được thiết kế cho ai?"


"Mục đích tạo ra chúng là gì?" "Làm thế nào để có thể giảm nhẹ những hậu quả nặng nề nhất?" Trả lời những câu hỏi này có thể giúp các tổ chức và cá nhân phù hợp với những điều sau khuôn khổ đạo đức , mà UNICEF duy trì bất kể họ làm việc trên ảnh, âm thanh hay video.


Chúng bao gồm:


  • Thiết kế với người dùng trong tâm trí.
  • Hiểu hệ sinh thái hiện có.
  • Thiết kế cho quy mô.
  • Xây dựng vì sự bền vững.
  • Theo hướng dữ liệu.
  • Sử dụng các tiêu chuẩn mở, dữ liệu mở, mã nguồn mở và đổi mới mở.
  • Tái sử dụng và cải tiến.
  • Không làm hại.
  • Hãy hợp tác.