Lợi nhuận của Nvidia tăng gấp bảy lần nhờ nhu cầu AI​

12:47' - 23/05/2024
BNEWS Công ty sản xuất chip Nvidia ngày 22/5 cho biết lợi nhuận ròng quý I/2024 đã tăng vọt gấp bảy lần so với cùng kỳ năm ngoái nhờ nhu cầu về chip xử lý trí tuệ nhân tạo (AI) trong các trung tâm dữ liệu.
Công ty có trụ sở tại California này báo cáo lợi nhuận ròng đạt 14,9 tỷ USD, trong khi doanh thu tăng gần gấp bốn lần đạt 26 tỷ USD so với cùng kỳ năm ngoái.
 

Giá cổ phiếu Nvidia tăng 3% lên 977,99 USD/cổ phiếu sau khi Nvidia công bố thông tin trên. 

Giám đốc điều hành (CEO) của Nvidia Jensen Huang cho biết cuộc cách mạng công nghiệp tiếp theo đã bắt đầu. Các công ty và quốc gia đang hợp tác với Nvidia để chuyển đổi các trung tâm dữ liệu truyền thống trị giá hàng nghìn tỷ USD sang điện toán và xây dựng một loại trung tâm dữ liệu mới, các nhà máy AI, để sản xuất hàng hóa mới là trí tuệ nhân tạo.

Theo ông Huang, nhu cầu về các Bộ xử lý đồ họa (GPU) tiên tiến được thiết kế riêng cho việc đào tạo các mô hình trí tuệ nhân tạo đang rất mạnh. Một dấu hiệu đáng hứa hẹn là sự quan tâm đến AI tạo sinh đang phát triển nhanh ngoài các “ông lớn” điện toán đám mây, sang các công ty internet tiêu dùng, ô tô, chăm sóc sức khỏe cũng như các quốc gia đang tìm cách xây dựng AI phục vụ các mục tiêu quốc gia.

Nhà phân tích Daniel Ives của công ty đầu tư Wedbush Securities (Mỹ) cho biết trong khi AI trong các doanh nghiệp và điện toán đám mây đang thúc đẩy nhu cầu lớn về hệ thống Nvidia, thì sự quan tâm đối với các dịch vụ tiêu dùng do các doanh nghiệp công nghệ hàng đầu như Apple, Amazon, Meta, Google và Microsoft cung cấp đang tăng lên.

Amazon ngày 22/5 thông báo bộ phận điện toán đám mây AWS sẽ đầu tư 15,7 tỷ euro (17 tỷ USD) để mở rộng các trung tâm dữ liệu của mình ở vùng Aragon của Tây Ban Nha cho đến năm 2033.

Động thái này diễn ra sau tuyên bố đầu tháng này về khoản đầu tư 7,8 tỷ euro để xây dựng một trung tâm đám mây ở Đức và 1,2 tỷ euro ở Pháp để phát triển cơ sở hạ tầng đám mây và cơ sở hạ tầng hậu cần cho dịch vụ giao hàng bưu kiện của họ.

Theo ông Huang, chip Nvidia được xem là “trái tim” của các trung tâm dữ liệu đang chuyển đổi thành "nhà máy sản xuất AI" với dữ liệu là "nguyên liệu thô" được biến thành các trải nghiệm như video được tạo nhanh bằng công cụ Sora mới của OpenAI.

Theo Nvidia, ở các khu vực ngoài nước Mỹ, các hệ thống "AI phục vụ mục tiêu quốc gia" đang góp phần làm gia tăng nhu cầu về chip Nvidia. Giám đốc tài chính của Nvidia, bà Colette Kress, cho biết AI phục vụ mục tiêu quốc gia được mô tả như khả năng của một quốc gia để tạo và kiểm soát trí tuệ nhân tạo của riêng mình.

Cơ sở hạ tầng AI quốc gia đang được xây dựng ở Canada (Ca-na-đa), Pháp, Nhật Bản và nhiều quốc gia khác.

Nvidia trước đó đã ký thỏa thuận mua lại công ty AI Run:ai của Israel (I-xra-en). Các bên không tiết lộ giá trị của thương vụ này nhưng một số phương tiện truyền thông Israel ước tính thương vụ này có giá trị khoảng 700 triệu USD.

Nvidia cho biết họ đã ký thỏa thuận để giúp khách hàng sử dụng hiệu quả hơn các tài nguyên máy tính AI của họ. Được thành lập vào năm 2018 và có trụ sở tại thành phố ven biển Tel Aviv, Run:ai đã xây dựng một hệ điều hành phù hợp với bộ xử lý AI mới nhất, tận dụng các công nghệ ảo hóa tiên tiến.

Khách hàng của Run:ai bao gồm các công ty toàn cầu khổng lồ và các công ty khởi nghiệp sử dụng AI trong các lĩnh vực như tài chính, ô tô và y tế, cùng với các tổ chức học thuật hàng đầu.

Theo Ndivia, trong số 29.600 lao động của họ trên toàn thế giới, có 3.300 người làm việc ở Israel, hầu hết trong số họ ở thành phố phía bắc Yokneam và Tel Aviv.

Ông Huang hồi tháng 3/2024 đã công bố thế hệ chip mới nhất của Nvidia có tên "GB200" với khả năng thực hiện các tác vụ lớn gấp 30 lần so với thế hệ trước đó (H100) trong một số nhiệm vụ nhất định, trong khi điện năng tiêu thụ giảm tới 25 lần. 

Theo Nvidia, thế hệ bộ xử lý đồ họa AI mới dựa trên kiến trúc Blackwell có thể mang lại sự nâng cấp hiệu suất rất lớn cho các doanh nghiệp ứng dụng AI. Cụ thể, khả năng tính toán của GB200 là 20 petaflop, lớn gấp 5 lần so với con số 4 petaflop của H100 - thế hệ chip luôn "cháy hàng" trong năm 2023. Nvidia khẳng định sức mạnh xử lý bổ sung này sẽ cho phép các công ty AI đào tạo mô hình lớn và phức tạp hơn. Nvidia cho biết các khách hàng lớn của công ty này là Amazon, Google, Microsoft, OpenAI và Oracle dự kiến sẽ sử dụng thế hệ chip mới trong dịch vụ điện toán đám mây và dịch vụ AI.

Những thông báo của ông Huang sẽ giúp xác định liệu Nvidia có thể duy trì 80% thị phần của doanh nghiệp này trên thị trường chip AI hay không. Nvidia đã trở thành công ty trị giá 2.000 tỷ USD nhờ cung cấp những con chip quan trọng, dùng để huấn luyện các mô hình AI phức tạp. H100 là bộ vi xử lý mạnh nhất mà Nvidia từng chế tạo dựa trên kiến trúc Hopper, đồng thời là một trong những thế hệ chip được đánh giá cao nhất trong thế giới công nghệ, có giá 30.000 - 40.000 USD/chip.

Trước tình hình trên, "đại gia" chip Intel của Mỹ tháng 4/2024 đã trình làng loại chip AI mới nhất của hãng, có tên gọi Gaudi 3, trong bối cảnh các nhà sản xuất chip đang chạy đua sản xuất các sản phẩm chip có thể đào tạo và triển khai các mô hình AI lớn.

Intel cho biết chip Gaudi 3 có hiệu suất năng lượng cao hơn gấp hai lần và có thể vận hành các mô hình AI nhanh hơn gấp 1,5 lần chip H100 GPU của Nvidia. Sản phẩm mới này của Intel còn có nhiều cấu hình khác nhau như một gói gồm 8 chip Gaudi 3 trên một bo mạch chủ hoặc một thẻ có thể cắm vào các hệ thống hiện có.

Intel đã thử nghiệm chip này trên các mô hình như mô hình ngôn ngữ lớn mã nguồn mở Llama của Meta và mô hình Falcon do Các Tiểu vương quốc Arab Thống nhất (UAE) hậu thuẫn. Intel cho biết Gaudi 3 có thể giúp đào tạo hoặc triển khai các mô hình, trong đó có mô hình học sâu Stable Diffusion hoặc mô hình Whisper của OpenAI để nhận diện giọng nói.

Ước tính Nvidia hiện chiếm khoảng 80% thị phần chip AI nhờ các sản phẩm bộ xử lý đồ họa (GPU), một loại chip cao cấp được các nhà phát triển AI lựa chọn trong năm qua.

Intel cho biết sẽ có sẵn chip Gaudi 3 mới để giao cho khách hàng vào quý III năm nay, và các công ty như Dell, Hewlett Packard Enterprise và Supermicro sẽ xây dựng các hệ thống phù hợp với chip này. Tuy nhiên, Intel không cho biết khoảng giá của Gaudi 3.

Ông Das Kamhout, Phó Chủ tịch phần mềm Xeon tại Intel, cho biết: “Chúng tôi thực sự kỳ vọng nó sẽ có khả năng cạnh tranh cao" với các chip mới nhất của Nvidia, nhờ “mức giá cạnh tranh và mạng tích hợp mở trên chip đặc biệt” của Intel.

Thị trường AI cho trung tâm dữ liệu cũng được kỳ vọng sẽ phát triển, khi các nhà cung cấp dịch vụ đám mây và doanh nghiệp xây dựng cơ sở hạ tầng để triển khai phần mềm AI. Vì thế, các đối thủ cạnh tranh của Nvidia vẫn còn nhiều cơ hội trên thị trường này, ngay cả khi Nvidia tiếp tục sản xuất phần lớn chip AI.

Tin liên quan


Tin cùng chuyên mục