paint-brush
AI không phải là vấn đề, mà là công nghệ lớnby@theantieconomist
956
956

AI không phải là vấn đề, mà là công nghệ lớn

Xem xét lịch sử của những gã khổng lồ công nghệ lớn và khả năng bảo mật dữ liệu kém của họ, những rủi ro thực sự của sự phổ biến của AI là gì? Có vẻ như nó liên quan nhiều đến việc sử dụng dữ liệu của các tập đoàn lớn hơn là bản thân AI.
featured image - AI không phải là vấn đề, mà là công nghệ lớn
The Anti-Economist HackerNoon profile picture


Trí tuệ nhân tạo có đáng sợ như chúng ta vẫn tin hay chỉ là những gã khổng lồ công nghệ lớn có thành tích sử dụng dữ liệu phi đạo đức sẽ tiếp tục sử dụng AI theo cách họ đã và đang sử dụng dữ liệu khác của chúng ta: để nhét túi của họ nhiều nhất có thể.


Ngay cả những người có hiểu biết sơ đẳng nhất về Trí tuệ nhân tạo cũng hiểu rằng sức mạnh của nó nằm ở khả năng hiểu dữ liệu và nếu bạn muốn Mô hình ngôn ngữ hoặc AI thông minh hơn hoặc được đào tạo cho một mục đích cụ thể thì yếu tố then chốt chính là dữ liệu. Đây chính xác là nơi AI và Big tech bắt đầu kết hợp với nhau, vì những gã khổng lồ công nghệ dự kiến sẽ có trữ lượng Dữ liệu đám mây lớn nhất có thể được sử dụng để đào tạo và phát triển Mô hình AI.


Kể từ năm 2022, Google , MicrosoftAmazon đều đã đầu tư hàng tỷ USD và tạo dựng mối quan hệ bền chặt với các công ty phát triển AI tiên tiến nhất trong thời đại chúng ta, ngay sau khi phiên bản Chat GPT đầu tiên được phát hành.


Ngay cả trong những thỏa thuận như vậy, nhân viên thường thấy mình rơi vào tình thế khó xử về mặt đạo đức liên quan đến việc sử dụng AI trong công nghệ lớn. Dario Amodei rời Open AI, dường như là do những lo ngại về an toàn và đạo đức đối với sự tham gia của Microsoft. Ít lâu sau, anh ta thành lập Anthropic, để chiêu dụ người chị kế độc ác khác, lấy khoảng $ 1,25 tỷ đô la đầu tư từ Amazon và2 tỷ USD từ Google.


Với quá khứ (và hiện tại) đầy biến động của các công ty Big Tech, đạo đức về quyền riêng tư và sự hỗ trợ nhiệt tình của họ dành cho Trí tuệ nhân tạo, tại thời điểm này, có thể lo lắng rằng vấn đề không nằm ở sự phát triển của AI mà là ở những lo ngại về quyền riêng tư mà chúng ta đang gặp phải. đều đã quá quen thuộc.


Khi xem xét mối quan hệ giữa những gã khổng lồ công nghệ, những lo ngại về quyền riêng tư, khả năng của mô hình ngôn ngữ AI và các quy định của chính phủ, điều quan trọng là phải xem xét các rủi ro liên quan đến tiềm năng cao của AI khi được các thực thể có mục đích xấu sử dụng.



Cuộc cách mạng AI

Mô hình học ngôn ngữ (LLM) hoặc Trí tuệ nhân tạo như hầu hết mọi người đều biết, là sự kết hợp lớn của một loạt các Thuật toán cùng nhau, có thể hoạt động tự động để tạo ra kết quả dựa trên thông tin mà nó đã được đào tạo.


AI không phải là một công cụ mới như hầu hết mọi người vẫn nghĩ; nhiều công cụ AI được sử dụng trong cuộc sống hàng ngày của chúng ta. Từ bản đồ trên ô tô, đến quảng cáo trên mạng xã hội, đến đề xuất Netflix của chúng tôi, tất cả đều sử dụng công cụ AI để tìm hiểu thói quen và thói quen của chúng ta, đồng thời đưa ra đề xuất và dự đoán về những gì chúng ta có khả năng tương tác.


Được sử dụng đúng cách, Trí tuệ nhân tạo có khả năng biến đổi cách chúng ta tương tác với công nghệ trong cuộc sống hàng ngày. Nó không chỉ có thể làm cho cuộc sống của chúng ta thuận tiện hơn mà còn có thể thay đổi khả năng tiếp cận đối với những người không thể tương tác với thực tế một cách dễ dàng nhất. Ví dụ, những người khiếm thị có thể sử dụng AI để tường thuật thế giới xung quanh họ để điều hướng tốt hơn.


AI đã được sử dụng để hợp lý hóa nhiều quy trình khác nhau, bao gồm Thương mại điện tử, công nghệ chăm sóc sức khỏe, tài chính, nông nghiệp và giáo dục. Làm cho công việc của mọi người trở nên dễ dàng hơn. Có thể thực hiện các nhiệm vụ tự động hóa mà chúng ta với tư cách là con người đã làm có nghĩa là chúng ta không cần phải dành quá nhiều thời gian cho các nhiệm vụ tầm thường, một phần lớn công việc của nhiều người và tập trung vào các lĩnh vực mà sự khéo léo của con người là tối quan trọng.


Ví dụ: AI giúp tôi dễ dàng hơn trong việc quyết định tuyến đường đi làm tốt hơn ngày hôm nay nhờ việc xây dựng ở Broadway và điểm dừng giao thông ở trung tâm thành phố, điều đó có nghĩa là tôi có thể ngủ thêm 10 phút và pha cà phê trước khi rời đi , điều này sẽ làm cho ngày của tôi tốt hơn nhiều và cho phép tôi làm việc hiệu quả hơn.


Một điều quan trọng cần nhớ là, không giống như các công cụ khác chỉ dựa vào chip để điều khiển các chức năng của chúng, AI được đào tạo về một lượng lớn thông tin mà sau đó nó sẽ học và có thể nhớ lại khi chúng ta đưa ra một số lời nhắc nhất định.


Đây phần lớn là nơi bắt đầu mối quan hệ giữa sự phát triển của AI và công nghệ lớn, vì Google, Amazon và Microsoft có một số kho dữ liệu con người lớn nhất (có thể bao gồm cả dữ liệu của bạn) mà họ có thể và đang tận dụng để đào tạo các mô hình AI của mình.


Có một chút đáng báo động là các công ty đã chứng minh rằng họ kém tin cậy nhất với Dữ liệu của chúng tôi lại là những công ty đang dẫn đầu nỗ lực phát triển AI thông minh hơn nữa.


Không cần phải nói, nó có vẻ giống như một công thức dẫn đến thảm họa. Và chúng ta, những người tiêu dùng, là người bị mất nhiều nhất.


Mặt tối của Mặt trăng nhân tạo

Nhiều người trong thế giới công nghệ chúng ta lạc quan một cách thận trọng về những gì các công cụ AI mang tính sáng tạo sẽ mang lại cho tương lai và chúng ta tiếp tục thấy sự đổi mới đầy cảm hứng bằng cách sử dụng công nghệ AI có tiềm năng to lớn.


Đừng hiểu sai ý tôi, AI có thể là một thứ rất tốt trong thế giới của chúng ta và hiện đang được sử dụng để tạo ra công nghệ quan trọng nhằm giúp đỡ nhiều người trong cuộc sống hàng ngày của họ, chẳng hạn như nhưng những mối quan tâm và dè dặt của hầu hết mọi người về AI phải được giải quyết thỏa đáng. giải quyết khi giới thiệu công nghệ mạnh mẽ như vậy vào cuộc sống hàng ngày của chúng ta.


Vì lấy lợi nhuận làm trung tâm, những Người khổng lồ công nghệ lớn có trách nhiệm tôn trọng quyền riêng tư dữ liệu của người tiêu dùng (trách nhiệm mà họ có liên tục bị coi thường ) và đặc biệt đối với AI được đào tạo bằng Dữ liệu, điều cực kỳ quan trọng là phải có ý thức rất cao về loại dữ liệu bạn đang sử dụng để đào tạo Mô hình ngôn ngữ. Một số người thực sự không muốn sử dụng ảnh Facebook, câu chuyện trên Instagram, lịch sử vị trí, dữ liệu tài chính, v.v. để đào tạo mô hình AI. Moreso với dữ liệu nhạy cảm hơn như dữ liệu y tế, sinh trắc học, tài chính và vị trí.


AI Hysteria có bị đặt nhầm chỗ không?

Chúng tôi chắc chắn đã nhìn thấy một sự hấp thu trong cơn cuồng loạn xung quanh khả năng của AI và lo lắng về việc nó đánh cắp việc làm, có được khả năng tri giác và cuối cùng vượt qua loài người, nhưng thực tế mà nói, điều chúng ta nên sợ là Google sử dụng dữ liệu của chúng ta để chống lại chúng ta để tối đa hóa lợi nhuận. Đây là điều họ ĐÃ LÀM, nhưng khả năng tận dụng dữ liệu của chúng tôi để chống lại chúng tôi trở nên nghiêm trọng hơn khi chúng tôi bắt đầu xử lý AI vốn hiểu và ghi lại mọi khía cạnh trong cuộc sống của bạn và có thể truy cập được vào những người không phù hợp.


Rủi ro của các mô hình AI được đào tạo trên dữ liệu Nhạy cảm/Cá nhân

Đã xảy ra sự cố khi mọi người báo cáo rằng dữ liệu được thu thập bằng Amazon Alexa đã được yêu cầu và cung cấp cho cơ quan thực thi pháp luật mà không có lệnh và được sử dụng để chống lại họ trong một cuộc điều tra hình sự.


Cũng đã có nhiều sự cố trong đó dữ liệu cá nhân được sử dụng để tiếp tục các chương trình nghị sự chính trị và có khả năng truyền bá thông tin sai lệch. Vô số vụ vi phạm dữ liệu trong đó dữ liệu do các công ty công nghệ lớn thu thập rơi vào tay kẻ xấu, tạo điều kiện cho tội phạm truy cập vào thông tin cá nhân của hàng triệu người.


Việc sử dụng dữ liệu cá nhân để đào tạo các mô hình AI sẽ tiềm ẩn nguy cơ xảy ra các vấn đề vi phạm quyền riêng tư do bị truy cập trái phép trong quá trình nhập và trao đổi dữ liệu. Nếu không được xử lý kỹ lưỡng và cẩn thận, trong quá trình sử dụng dữ liệu kéo dài để huấn luyện các mô hình AI, dữ liệu có thể được truyền qua lại nhiều lần và mọi người có quyền truy cập không được kiểm soát vào dữ liệu cá nhân. Khi xử lý thông tin phức tạp với khối lượng lớn như vậy, không thể phủ nhận rằng sẽ xảy ra vi phạm dữ liệu do sai sót trong các biện pháp bảo mật dẫn đến việc tiết lộ trái phép thông tin nhạy cảm.


Tầm quan trọng của việc đào tạo AI trên một tập hợp dữ liệu đa dạng là do xác suất rất thực tế và đã có kinh nghiệm trước đó về việc mô hình AI có những thành kiến và phân biệt đối xử dựa trên quá trình đào tạo mà nó đã nhận được. Lấy ví dụ về nhận dạng khuôn mặt, một mô hình AI có thể được sử dụng để phát hiện ai trong một cửa hàng nhất định đang ăn trộm và cung cấp bảo mật trong khoảng thời gian ba năm. Nếu những người xuất hiện trong đoạn phim an ninh nói trên chủ yếu đến từ một chủng tộc cụ thể, thì mô hình AI có thể bắt đầu dự đoán rằng bất kỳ ai ở ngoài nhóm người cụ thể đó sẽ có nhiều khả năng ăn trộm hơn. Nếu dữ liệu đào tạo không đa dạng và mang tính đại diện, mô hình AI có thể gặp khó khăn trong việc khái quát chính xác việc học của nó cho một nhóm dân cư đa dạng.


Nếu các mô hình AI chỉ được đào tạo dựa trên một nhóm nhân khẩu học, thì điều đó sẽ dẫn đến nguy cơ sai lệch tiềm ẩn đáng kể trong chính Mô hình Ngôn ngữ, dựa trên sự sai lệch trong dữ liệu. Vấn đề ở đây tương đối đơn giản; nếu một số nhóm nhất định có sẵn nhiều dữ liệu cá nhân hơn thì làm cách nào để ngăn chặn những thành kiến trong AI? Nó có thể dẫn đến kết quả loại trừ đối với các cộng đồng ít được đại diện trong tập dữ liệu.


Ngoài ra còn có yếu tố thiếu sự đồng ý và minh bạch về việc liệu có tiết lộ cho người dùng rằng dữ liệu của họ đang được thu thập để sử dụng trong việc đào tạo các mô hình AI hay không. Ngày nay khi chúng ta liên tục bị tấn công bởi thông tin và thường bị tê liệt trong việc lựa chọn, 91% mọi người không đọc qua các điều khoản và điều kiện khi đăng ký bất kỳ ứng dụng cụ thể nào và do đó đặt ra câu hỏi liệu người tiêu dùng có thực sự biết chính xác những gì họ đang đăng ký liên quan đến quyền dữ liệu của họ hay không. Điều này có thể đóng một vai trò rất lớn trong việc làm xói mòn lòng tin của người dùng, với học đã nhận thấy mức độ tin cậy thấp đến mức đáng kinh ngạc, với 42% người dân có mức độ tin cậy thấp hoặc hiện đang tin tưởng vào các công ty công nghệ lớn.


Một mối đe dọa rất thực tế là ngay cả những gã khổng lồ công nghệ lớn này cũng dễ bị tấn công mạng dẫn đến vi phạm dữ liệu lớn, chẳng hạn như lịch sử gần đây đã được chứng minh kỹ lưỡng và những rủi ro như vậy chỉ tăng cao khi tăng cường sử dụng và truyền tải lượng lớn dữ liệu để đào tạo AI. Những gã khổng lồ công nghệ như Facebook có lịch sử căng thẳng với các cuộc tấn công mạng và rò rỉ dữ liệu người dùng như vậy, đồng thời khiến người tiêu dùng tự hỏi liệu có nên đưa ra một điểm dễ bị tổn thương khác hay không khi những gã khổng lồ công nghệ thậm chí không thể xử lý những gì đã xảy ra đĩa của họ.


Một vấn đề tiềm ẩn khác mà chúng ta có thể thấy trong những năm tới với sự phổ biến của công nghệ AI, đó là việc xác định lại dữ liệu ẩn danh, một lần nữa có thể tiết lộ thông tin nhạy cảm khiến các cá nhân gặp rủi ro.


Bớt tư tưởng

Hoàn toàn hợp lý khi nhiều người có nhiều dè dặt về trí tuệ nhân tạo và những gì nó có thể mang lại cho lực lượng lao động, (mặc dù dù sao nó cũng có thể sẽ không thay đổi bất cứ điều gì) nhưng tôi nghĩ theo bản năng tự nhiên của con người chúng ta là luôn hoài nghi về bất cứ điều gì mới , chúng ta quên rằng vấn đề có thể đã có ở đây từ lâu.


Đó không hoàn toàn là lỗi của những người lao động bình thường, những tập đoàn trị giá hàng tỷ đô la này có lẽ đã nỗ lực rất nhiều để đảm bảo rằng chúng ta không ghét họ nhiều như đáng ra phải làm, nhưng vẫn khá thú vị khi thấy mọi người coi thường họ. công cụ đánh chứ không phải bàn tay sử dụng nó. Bất kể bạn có hiểu biết về AI hay không, bạn vẫn có thể biết về những sai sót trong bảo vệ dữ liệu của những gã khổng lồ công nghệ này, và vì vậy, không có gì ngạc nhiên khi trong 5 năm tới chúng ta sẽ chứng kiến những tranh cãi xung quanh việc AI được sử dụng một cách phi đạo đức để theo dõi từng bước của bạn và kiếm tiền từ nó.



Hình ảnh chính của Adi Goldstein trên Bapt