paint-brush
100 Ngày của AI, Ngày 16: 5 bài học quan trọng từ Sự kiện dành cho nhà phát triển AI của NVIDIAtừ tác giả@sindamnataraj
444 lượt đọc
444 lượt đọc

100 Ngày của AI, Ngày 16: 5 bài học quan trọng từ Sự kiện dành cho nhà phát triển AI của NVIDIA

từ tác giả Nataraj4m2024/03/27
Read on Terminal Reader

dài quá đọc không nổi

Nvidia gần đây đã tổ chức hội nghị GTC dành cho nhà phát triển nửa năm một lần (18-21 tháng 3). Trong bài đăng này, tôi sẽ tóm tắt những gì tôi rút ra được từ sự kiện này.
featured image - 100 Ngày của AI, Ngày 16: 5 bài học quan trọng từ Sự kiện dành cho nhà phát triển AI của NVIDIA
Nataraj HackerNoon profile picture



Nè mọi người! Tôi là Nataraj cũng giống như bạn, tôi rất thích thú với những tiến bộ gần đây của trí tuệ nhân tạo. Nhận thấy rằng mình cần phải theo kịp mọi sự phát triển đang diễn ra, tôi quyết định bắt tay vào hành trình học tập cá nhân, do đó 100 ngày của AI đã được sinh ra! Với loạt bài này, tôi sẽ tìm hiểu về LLM và chia sẻ ý tưởng, thử nghiệm, ý kiến, xu hướng và bài học thông qua các bài đăng trên blog của mình. Bạn có thể theo dõi hành trình trên HackerNoon đây hoặc trang web cá nhân của tôi đây . Trong bài viết hôm nay, chúng ta sẽ nói về những điều rút ra từ Nvidia


Nếu AI là cơn sốt vàng thì Nvidia là công ty có xẻng và cuốc tối ưu. Tất cả mọi thứ AI đều thông qua Nvidia vì sự thống trị của nó là công ty duy nhất tạo ra chip (GPU) cần thiết để triển khai các mô hình ngôn ngữ lớn đắt tiền về mặt tính toán. Khi các mô hình mở rộng quy mô, nhu cầu về GPU mạnh hơn sẽ tăng lên và toàn thế giới đang trông cậy vào Nvidia để cung cấp chúng. Không quá lời khi nói Nvidia là cốt lõi của mọi thứ về AI và gần đây họ đã tổ chức hội nghị GTC dành cho nhà phát triển nửa năm một lần (18-21 tháng 3). Trong bài đăng này, tôi sẽ tóm tắt những bài học quan trọng của mình từ hội nghị GTC rất đặc biệt này và ý nghĩa của nó đối với không gian gen AI.

Bài học rút ra 1: AI không chỉ giới hạn trong lĩnh vực công nghệ

Sức mạnh của những gì thế hệ AI có thể làm và mang lại vẫn chưa bị mất đi trong các lĩnh vực phi công nghệ. Các công ty trên tất cả các lĩnh vực trong nền kinh tế cho rằng họ cần phải áp dụng AI và tìm cách hợp tác, thực thi và luôn dẫn đầu. Bằng chứng ở đây là xem có bao nhiêu công ty thuộc lĩnh vực phi công nghệ đã hợp tác với Nvidia. Các công ty từ bán lẻ, ô tô, xây dựng, thiết kế và mọi lĩnh vực khác đã công bố hợp tác với Nvidia.



Bài học rút ra 2: Chúng tôi cần GPU lớn hơn nhiều

Kể từ khi máy biến áp được phát minh, cứ 6 tháng chúng tôi lại tăng gấp đôi quy mô LLM. Ví dụ: hãy xem số lượng tham số của các mô hình Open AI bên dưới.

Chỉ riêng dòng GPT-3, số lượng tham số đã dao động từ 125M đến 175B. Và các mô hình mới nhất dự kiến ra mắt từ Open AI được đồn đại là có số lượng thông số trên nghìn tỷ và sẽ sớm đạt hàng nghìn tỷ trong vòng chưa đầy hai năm, nếu tốc độ mở rộng quy mô tiếp tục. Để hỗ trợ quy mô LLM ngày càng tăng, chúng tôi cần tăng sức mạnh tính toán. Để nắm bắt thị trường, Nvidia đang tung ra một loạt GPU mới có tên là Blackwell, được đặt theo tên của nhà thống kê và toán học David Blackwell. Blackwell là dòng GPU mới (GB200) nhưng cũng là nền tảng siêu máy tính mới.


Dưới đây là so sánh hiệu suất của GPU Blackwell mới với GPU Hopper thế hệ trước.



Bài học rút ra 3: Chuyển từ thu hồi sang tạo mới

Trong thế hệ điện toán hiện tại, mọi thứ đều xoay quanh việc lấy một phần dữ liệu được lưu trữ ở các định dạng khác nhau và trình bày nó theo cách hữu ích cho người dùng. Nhưng trong thế hệ máy tính và ứng dụng sắp tới, chúng ta sắp chứng kiến nhiều hoạt động tạo ra mọi thứ theo yêu cầu của người dùng và trả lại cho người dùng. Ví dụ: trong trường hợp chat-gpt, câu trả lời bạn nhận được không được lưu trữ trước trong cơ sở dữ liệu nào đó mà được tạo trong thời gian thực để phục vụ câu hỏi của người dùng. Chúng ta sắp chứng kiến sự ra đời của văn bản, hình ảnh, video, hóa chất, protein và hơn thế nữa.

Bài học rút ra 4: Suy luận ngày càng tốt hơn

Suy luận là khi bạn hỏi chat-gpt một câu hỏi, mô hình sẽ tìm ra câu trả lời dưới dạng tạo mã thông báo và trả về câu trả lời dưới dạng mã thông báo. Nếu suy luận không đủ nhanh thì người tiêu dùng sẽ không thể sử dụng bất kỳ ứng dụng AI nào. Suy luận đặc biệt phức tạp vì LLM ngày càng lớn hơn và chúng không vừa với một GPU, do đó, việc suy luận song song giữa các GPU là một nhiệm vụ khó khăn và liên quan đến việc lập trình GPU Nvidia để sử dụng nhiều kỹ thuật tối ưu hóa. Với GPU Blackwell, Nvidia có thể đạt tốc độ suy luận nhanh hơn 30 lần.


Bài học rút ra 5: Metaverse thực sự là Omniverse của NVidia

Khi tôi ngày càng tìm hiểu nhiều hơn về Omniverse của Nvidia, tôi ngày càng lạc quan hơn về sản phẩm và ý tưởng này. Điều này là do để thực sự tận dụng AI và mở khóa tất cả các khả năng trong tự động hóa và robot, chúng ta thực sự không có tất cả dữ liệu cần thiết. Ví dụ: giả sử bạn muốn tạo ra một robot có thể nấu đủ loại món ăn ngon. Không có dữ liệu nào cho thấy bạn có góc nhìn thứ nhất về các đầu bếp nấu nhiều loại món ăn khác nhau. Chúng tôi có dữ liệu chung về các hoạt động nấu ăn khác nhau dưới dạng video trên YouTube, nhưng để robot học các chuyển động vật lý liên quan đến việc nấu ăn thì cần có dữ liệu góc nhìn thứ nhất. Mô phỏng 3D về thế giới trong Omniverse có thể giúp thu hẹp khoảng cách dữ liệu cần thiết để mở khóa tất cả các trường hợp sử dụng này. Tôi cực kỳ lạc quan về ý tưởng này.


Thế là xong Ngày thứ 22 trong 100 Ngày của AI.


Tôi viết một bản tin có tên Trên mức trung bình, nơi tôi nói về những hiểu biết sâu sắc thứ hai đằng sau mọi thứ đang diễn ra trong ngành công nghệ lớn. Nếu bạn làm trong lĩnh vực công nghệ và không muốn ở mức trung bình, hãy đăng ký theo dõi .


Theo dõi tôi trên Twitter , LinkedIn hoặc HackerNoon để biết thông tin cập nhật mới nhất về 100 ngày của AI hoặc đánh dấu trang này . Nếu bạn làm trong lĩnh vực công nghệ, bạn có thể muốn tham gia cộng đồng các chuyên gia công nghệ của tôi tại đây .