Nvidia bay cao nhờ thị trường chip AI
Điều gì khiến cổ phiếu của Nvidia vượt mốc 1.000 USD/cổ phiếu trong thời gian vừa qua? Trong thời đại AI, các công ty hàng đầu đang ngày càng coi trọng cái gọi là “quyền tiếp cận GPU” – tức số lượng chip tiên tiến mà họ có. Ở đó, công ty của Jensen Huang trở thành người hưởng lợi nhất. Giá vốn hóa thị trường của Nvidia đã lên hơn 2 nghìn tỷ USD, với mức tăng trưởng doanh thu dự kiến 200%.
Liệu Nvidia có điểm yếu?Đã có nhiều cuộc bàn luận về những kẻ thách thức, nhưng AMD hay Intel dường như khó có thể bắt kịp ngay lập tức trong ngành bán dẫn cực kỳ phức tạp. Một hướng đi khác đang được khám phá: thiết kế chip chuyên dụng cho AI ngay từ đầu.
Điều này bắt nguồn từ nguồn gốc các GPU của Nvidia được tạo ra để xử lý đồ họa trò chơi điện tử, vậy nên chúng có tên là Graphic Processing Unit (Đơn vị xử lý đồ họa). Nhưng thật trùng hợp khi chúng lại rất hiệu quả khi xử lý khối lượng công việc nặng nề của AI cùng một lúc.
GPU cũng có những hạn chế, đặc biệt là tốc độ dữ liệu có thể bị xáo trộn khi bật và tắt chúng. Các mô hình AI hiện đại chạy trên số lượng lớn GPU và chip nhớ được kết nối với nhau. Di chuyển dữ liệu nhanh chóng giữa chúng là trọng tâm của hiệu suất. Khi đào tạo các mô hình AI lớn, một số lõi GPU có thể không hoạt động trong một nửa thời gian khi chúng chờ dữ liệu.
Andrew Feldman, CEO Cerebras, một công ty khởi nghiệp có trụ sở tại Sunnyvale, California, ví nó giống như tình trạng tắc nghẽn giao thông: “Mọi người đang xếp hàng nên có tắc nghẽn ở bãi đậu xe, tắc nghẽn ở lối đi, tắc nghẽn ở quầy thanh toán. Đó chính xác là những gì đang xảy ra với GPU".
Bởi vậy, thiết kế chip AI chuyên dụng ngay từ đầu là điều mà nhiều công ty dù lớn hay nhỏ hiện đang thực hiện nhằm lật đổ Nvidia. Chip AI chuyên dụng hứa hẹn giúp việc xây dựng và chạy các mô hình AI nhanh hơn, rẻ hơn hoặc cả hai.
Cuộc đua chip AI thế hệ mới Giải pháp của Cerebras là đặt 900.000 lõi, cùng với rất nhiều bộ nhớ, vào một con chip khổng lồ duy nhất để giảm độ phức tạp của việc kết nối nhiều chip và truyền dữ liệu giữa chúng. Feldman cho biết, chip CS-3 của họ là chip lớn nhất thế giới với hệ số 50: “Con chip của chúng tôi có kích thước bằng một chiếc đĩa ăn tối, trong khi GPU thông thường có kích thước bằng một con tem bưu chính”, ông nói.
Cerebras tuyên bố rằng các kết nối trên chip giữa các lõi hoạt động nhanh hơn hàng trăm lần so với kết nối giữa các GPU riêng biệt, trong khi phương pháp của họ giúp giảm hơn một nửa mức tiêu thụ năng lượng ở một mức hiệu suất nhất định, so với sản phẩm mạnh nhất của Nvidia.
Chip chuyên dụng AI của công ty Cerebras có kích thước lớn nhất thế giới (Ảnh: Reuters)
Groq, một công ty khởi nghiệp ở California, đang thực hiện một cách tiếp cận khác. Chip AI của công ty này, được gọi là đơn vị xử lý ngôn ngữ (LPU), được tối ưu hóa để chạy các mô hình ngôn ngữ lớn ( LLM) một cách đặc biệt nhanh chóng.
Ngoài việc chứa bộ nhớ riêng, những con chip này còn hoạt động như bộ định tuyến, truyền dữ liệu giữa các LPU được kết nối với nhau. Phần mềm định tuyến thông minh giúp loại bỏ sự thay đổi về độ trễ hoặc thời gian chờ dữ liệu, cho phép toàn bộ hệ thống chạy theo từng bước. Điều này giúp tăng cường đáng kể hiệu quả, tăng tốc độ.
Groq cho biết LPU của họ có thể chạy các hệ thống lớn nhanh hơn 10 lần so với các hệ thống hiện có.
Tuy nhiên, một cách tiếp cận khác nữa đang được thực hiện bởi MatX, cũng có trụ sở tại California. Reiner Pope, một trong những người đồng sáng lập của công ty, cho biết GPU chứa các tính năng và mạch điện mang lại sự linh hoạt cho đồ họa, nhưng không cần thiết cho LLM. Con chip mà công ty này đang nghiên cứu sẽ loại bỏ những hành trình không cần thiết như vậy, tăng cường hiệu suất bằng cách làm ít việc hơn nhưng tốt hơn.
Còn rất nhiều công ty khởi nghiệp khác trong lĩnh vực này. Hailo tại Israel đã huy động được 120 triệu USD tài trợ vào tháng 4. Tenstorrent, một công ty Mỹ đang sử dụng kiến trúc RISC V mã nguồn mở để xây dựng chip AI; hay Graphcore, một công ty của Anh, đang được tập đoàn đầu tư Nhật Bản SoftBank chú ý.
Không chỉ các công ty nhỏ, một số ông lớn công nghệ cũng đang xây dựng
chip AI của riêng mình. Google đã phát triển các “đơn vị xử lý tensor” (TPU) của riêng mình, được cung cấp dưới dạng dịch vụ điện toán đám mây. Phiên bản mới nhất của TPU, được gọi là Trillium, được công bố vào ngày 14 tháng 5 vừa qua. Amazon, Meta và Microsoft cũng đã tạo ra các chip tùy chỉnh cho AI dựa trên đám mây. AMD và Intel, hai đối thủ sản xuất chip lớn cũng không đứng ngoài cuộc đua trong nỗ lực cạnh tranh với Nvidia.
Tuy nhiên, cuộc chạy đua này có lẽ sẽ không đơn giản cho những kẻ thách thức. CUDA - lớp phần mềm phổ biến của Nvidia dùng để lập trình GPU - là một tiêu chuẩn công nghiệp mặc dù nổi tiếng là khó sử dụng. Christos Kozyrakis, một nhà khoa học máy tính tại Đại học Stanford cho biết “phần mềm là vua” và Nvidia có lợi thế đáng kể khi đã xây dựng hệ sinh thái phần mềm của mình trong nhiều năm.
Các công ty khởi nghiệp chip AI khác sẽ chỉ thành công nếu họ có thể thuyết phục được các lập trình viên điều chỉnh lại mã của họ để chạy trên chip mới của họ. Nhưng việc điều chỉnh phần mềm để tối ưu hóa hiệu suất trên kiến trúc mới là một công việc khó khăn và phức tạp - một lý do khiến Nvidia sẽ khó bị đánh bật.
Theo Diễn đàn Doanh nghiệp
(https://diendandoanhnghiep.vn/chip-ai-the-he-moi-se-lat-do-gpu-cua-nvidia-263739.html)