Trí tuệ nhân tạo có đáng sợ như chúng ta vẫn tin hay chỉ là những gã khổng lồ công nghệ lớn có thành tích sử dụng dữ liệu phi đạo đức sẽ tiếp tục sử dụng AI theo cách họ đã và đang sử dụng dữ liệu khác của chúng ta: để nhét túi của họ nhiều nhất có thể.
Ngay cả những người có hiểu biết sơ đẳng nhất về Trí tuệ nhân tạo cũng hiểu rằng sức mạnh của nó nằm ở khả năng hiểu dữ liệu và nếu bạn muốn Mô hình ngôn ngữ hoặc AI thông minh hơn hoặc được đào tạo cho một mục đích cụ thể thì yếu tố then chốt chính là dữ liệu. Đây chính xác là nơi AI và Big tech bắt đầu kết hợp với nhau, vì những gã khổng lồ công nghệ dự kiến sẽ có trữ lượng Dữ liệu đám mây lớn nhất có thể được sử dụng để đào tạo và phát triển Mô hình AI.
Kể từ năm 2022, Google , Microsoft và Amazon đều đã đầu tư hàng tỷ USD và tạo dựng mối quan hệ bền chặt với các công ty phát triển AI tiên tiến nhất trong thời đại chúng ta, ngay sau khi phiên bản Chat GPT đầu tiên được phát hành.
Ngay cả trong những thỏa thuận như vậy, nhân viên thường thấy mình rơi vào tình thế khó xử về mặt đạo đức liên quan đến việc sử dụng AI trong công nghệ lớn. Dario Amodei rời Open AI, dường như là do những lo ngại về an toàn và đạo đức đối với sự tham gia của Microsoft. Ít lâu sau, anh ta thành lập Anthropic, để chiêu dụ người chị kế độc ác khác, lấy khoảng $
Với quá khứ (và hiện tại) đầy biến động của các công ty Big Tech, đạo đức về quyền riêng tư và sự hỗ trợ nhiệt tình của họ dành cho Trí tuệ nhân tạo, tại thời điểm này, có thể lo lắng rằng vấn đề không nằm ở sự phát triển của AI mà là ở những lo ngại về quyền riêng tư mà chúng ta đang gặp phải. đều đã quá quen thuộc.
Khi xem xét mối quan hệ giữa những gã khổng lồ công nghệ, những lo ngại về quyền riêng tư, khả năng của mô hình ngôn ngữ AI và các quy định của chính phủ, điều quan trọng là phải xem xét các rủi ro liên quan đến tiềm năng cao của AI khi được các thực thể có mục đích xấu sử dụng.
Mô hình học ngôn ngữ (LLM) hoặc Trí tuệ nhân tạo như hầu hết mọi người đều biết, là sự kết hợp lớn của một loạt các Thuật toán cùng nhau, có thể hoạt động tự động để tạo ra kết quả dựa trên thông tin mà nó đã được đào tạo.
AI không phải là một công cụ mới như hầu hết mọi người vẫn nghĩ; nhiều công cụ AI được sử dụng trong cuộc sống hàng ngày của chúng ta. Từ bản đồ trên ô tô, đến quảng cáo trên mạng xã hội, đến đề xuất Netflix của chúng tôi, tất cả đều sử dụng công cụ AI để tìm hiểu thói quen và thói quen của chúng ta, đồng thời đưa ra đề xuất và dự đoán về những gì chúng ta có khả năng tương tác.
Được sử dụng đúng cách, Trí tuệ nhân tạo có khả năng biến đổi cách chúng ta tương tác với công nghệ trong cuộc sống hàng ngày. Nó không chỉ có thể làm cho cuộc sống của chúng ta thuận tiện hơn mà còn có thể thay đổi khả năng tiếp cận đối với những người không thể tương tác với thực tế một cách dễ dàng nhất. Ví dụ, những người khiếm thị có thể
AI đã được sử dụng để hợp lý hóa nhiều quy trình khác nhau, bao gồm Thương mại điện tử, công nghệ chăm sóc sức khỏe, tài chính, nông nghiệp và giáo dục. Làm cho công việc của mọi người trở nên dễ dàng hơn. Có thể thực hiện các nhiệm vụ tự động hóa mà chúng ta với tư cách là con người đã làm có nghĩa là chúng ta không cần phải dành quá nhiều thời gian cho các nhiệm vụ tầm thường, một phần lớn công việc của nhiều người và tập trung vào các lĩnh vực mà sự khéo léo của con người là tối quan trọng.
Ví dụ: AI giúp tôi dễ dàng hơn trong việc quyết định tuyến đường đi làm tốt hơn ngày hôm nay nhờ việc xây dựng ở Broadway và điểm dừng giao thông ở trung tâm thành phố, điều đó có nghĩa là tôi có thể ngủ thêm 10 phút và pha cà phê trước khi rời đi , điều này sẽ làm cho ngày của tôi tốt hơn nhiều và cho phép tôi làm việc hiệu quả hơn.
Một điều quan trọng cần nhớ là, không giống như các công cụ khác chỉ dựa vào chip để điều khiển các chức năng của chúng, AI được đào tạo về một lượng lớn thông tin mà sau đó nó sẽ học và có thể nhớ lại khi chúng ta đưa ra một số lời nhắc nhất định.
Đây phần lớn là nơi bắt đầu mối quan hệ giữa sự phát triển của AI và công nghệ lớn, vì Google, Amazon và Microsoft có một số kho dữ liệu con người lớn nhất (có thể bao gồm cả dữ liệu của bạn) mà họ có thể và đang tận dụng để đào tạo các mô hình AI của mình.
Có một chút đáng báo động là các công ty đã chứng minh rằng họ kém tin cậy nhất với Dữ liệu của chúng tôi lại là những công ty đang dẫn đầu nỗ lực phát triển AI thông minh hơn nữa.
Không cần phải nói, nó có vẻ giống như một công thức dẫn đến thảm họa. Và chúng ta, những người tiêu dùng, là người bị mất nhiều nhất.
Nhiều người trong thế giới công nghệ chúng ta lạc quan một cách thận trọng về những gì các công cụ AI mang tính sáng tạo sẽ mang lại cho tương lai và chúng ta tiếp tục thấy sự đổi mới đầy cảm hứng bằng cách sử dụng công nghệ AI có tiềm năng to lớn.
Đừng hiểu sai ý tôi, AI có thể là một thứ rất tốt trong thế giới của chúng ta và hiện đang được sử dụng để tạo ra công nghệ quan trọng nhằm giúp đỡ nhiều người trong cuộc sống hàng ngày của họ, chẳng hạn như nhưng những mối quan tâm và dè dặt của hầu hết mọi người về AI phải được giải quyết thỏa đáng. giải quyết khi giới thiệu công nghệ mạnh mẽ như vậy vào cuộc sống hàng ngày của chúng ta.
Vì lấy lợi nhuận làm trung tâm, những Người khổng lồ công nghệ lớn có trách nhiệm tôn trọng quyền riêng tư dữ liệu của người tiêu dùng (trách nhiệm mà họ có
Chúng tôi chắc chắn đã nhìn thấy một
Đã xảy ra sự cố khi mọi người báo cáo rằng dữ liệu được thu thập bằng Amazon Alexa đã được yêu cầu và cung cấp cho cơ quan thực thi pháp luật mà không có lệnh và được sử dụng để chống lại họ trong một cuộc điều tra hình sự.
Cũng đã có nhiều sự cố trong đó dữ liệu cá nhân được sử dụng để tiếp tục các chương trình nghị sự chính trị và có khả năng truyền bá thông tin sai lệch. Vô số vụ vi phạm dữ liệu trong đó dữ liệu do các công ty công nghệ lớn thu thập rơi vào tay kẻ xấu, tạo điều kiện cho tội phạm truy cập vào thông tin cá nhân của hàng triệu người.
Việc sử dụng dữ liệu cá nhân để đào tạo các mô hình AI sẽ tiềm ẩn nguy cơ xảy ra các vấn đề vi phạm quyền riêng tư do bị truy cập trái phép trong quá trình nhập và trao đổi dữ liệu. Nếu không được xử lý kỹ lưỡng và cẩn thận, trong quá trình sử dụng dữ liệu kéo dài để huấn luyện các mô hình AI, dữ liệu có thể được truyền qua lại nhiều lần và mọi người có quyền truy cập không được kiểm soát vào dữ liệu cá nhân. Khi xử lý thông tin phức tạp với khối lượng lớn như vậy, không thể phủ nhận rằng sẽ xảy ra vi phạm dữ liệu do sai sót trong các biện pháp bảo mật dẫn đến việc tiết lộ trái phép thông tin nhạy cảm.
Tầm quan trọng của việc đào tạo AI trên một tập hợp dữ liệu đa dạng là do xác suất rất thực tế và đã có kinh nghiệm trước đó về việc mô hình AI có những thành kiến và phân biệt đối xử dựa trên quá trình đào tạo mà nó đã nhận được. Lấy ví dụ về nhận dạng khuôn mặt, một mô hình AI có thể được sử dụng để phát hiện ai trong một cửa hàng nhất định đang ăn trộm và cung cấp bảo mật trong khoảng thời gian ba năm. Nếu những người xuất hiện trong đoạn phim an ninh nói trên chủ yếu đến từ một chủng tộc cụ thể, thì mô hình AI có thể bắt đầu dự đoán rằng bất kỳ ai ở ngoài nhóm người cụ thể đó sẽ có nhiều khả năng ăn trộm hơn. Nếu dữ liệu đào tạo không đa dạng và mang tính đại diện, mô hình AI có thể gặp khó khăn trong việc khái quát chính xác việc học của nó cho một nhóm dân cư đa dạng.
Nếu các mô hình AI chỉ được đào tạo dựa trên một nhóm nhân khẩu học, thì điều đó sẽ dẫn đến nguy cơ sai lệch tiềm ẩn đáng kể trong chính Mô hình Ngôn ngữ, dựa trên sự sai lệch trong dữ liệu. Vấn đề ở đây tương đối đơn giản; nếu một số nhóm nhất định có sẵn nhiều dữ liệu cá nhân hơn thì làm cách nào để ngăn chặn những thành kiến trong AI? Nó có thể dẫn đến kết quả loại trừ đối với các cộng đồng ít được đại diện trong tập dữ liệu.
Ngoài ra còn có yếu tố thiếu sự đồng ý và minh bạch về việc liệu có tiết lộ cho người dùng rằng dữ liệu của họ đang được thu thập để sử dụng trong việc đào tạo các mô hình AI hay không. Ngày nay khi chúng ta liên tục bị tấn công bởi thông tin và thường bị tê liệt trong việc lựa chọn,
Một mối đe dọa rất thực tế là ngay cả những gã khổng lồ công nghệ lớn này cũng dễ bị tấn công mạng dẫn đến vi phạm dữ liệu lớn, chẳng hạn như
Một vấn đề tiềm ẩn khác mà chúng ta có thể thấy trong những năm tới với sự phổ biến của công nghệ AI, đó là việc xác định lại dữ liệu ẩn danh, một lần nữa có thể tiết lộ thông tin nhạy cảm khiến các cá nhân gặp rủi ro.
Hoàn toàn hợp lý khi nhiều người có nhiều dè dặt về trí tuệ nhân tạo và những gì nó có thể mang lại cho lực lượng lao động, (mặc dù dù sao nó cũng có thể sẽ không thay đổi bất cứ điều gì) nhưng tôi nghĩ theo bản năng tự nhiên của con người chúng ta là luôn hoài nghi về bất cứ điều gì mới , chúng ta quên rằng vấn đề có thể đã có ở đây từ lâu.
Đó không hoàn toàn là lỗi của những người lao động bình thường, những tập đoàn trị giá hàng tỷ đô la này có lẽ đã nỗ lực rất nhiều để đảm bảo rằng chúng ta không ghét họ nhiều như đáng ra phải làm, nhưng vẫn khá thú vị khi thấy mọi người coi thường họ. công cụ đánh chứ không phải bàn tay sử dụng nó. Bất kể bạn có hiểu biết về AI hay không, bạn vẫn có thể biết về những sai sót trong bảo vệ dữ liệu của những gã khổng lồ công nghệ này, và vì vậy, không có gì ngạc nhiên khi trong 5 năm tới chúng ta sẽ chứng kiến những tranh cãi xung quanh việc AI được sử dụng một cách phi đạo đức để theo dõi từng bước của bạn và kiếm tiền từ nó.
Hình ảnh chính của Adi Goldstein trên Bapt