Azure Maia 100, chiếc chip mới của Microsoft dành cho hệ thống đào tạo AI, vừa được giới thiệu tại hội nghị Ignite ở Seattle vào ngày 15/11. Với đặc điểm là “một trong những mẫu chip tiên tiến nhất trên tiến trình 5 nanomet” và tổng số 105 tỷ bóng bán dẫn, Azure Maia 100 đặt ra thách thức trực tiếp đối với các sản phẩm tương tự của Nvidia.
Rani Borkar, Phó chủ tịch Microsoft, chia sẻ rằng công ty đang thực hiện các thử nghiệm để đánh giá khả năng huấn luyện chatbot AI trên nhiều công cụ, bao gồm Copilot (Bing Chat mới), trợ lý mã hóa GitHub Copilot và thậm chí là GPT-3.5-Turbo, một mô hình ngôn ngữ lớn từ OpenAI.
Microsoft và OpenAI đang nỗ lực thu hút doanh nghiệp sử dụng các mô hình AI tạo sinh. Trong tháng trước, CEO Microsoft, Satya Nadella, thông báo về sự tăng trưởng mạnh mẽ trong lĩnh vực này, đặc biệt là với GitHub Copilot tăng 40% trong quý III/2023 so với quý trước đó. “Chúng tôi có hơn một triệu người dùng Copilot trả phí ở hơn 37.000 tổ chức và doanh nghiệp, con số này đang ngày càng mở rộng, đặc biệt ở ngoài thị trường Mỹ,” Nadella nói.
Tại sự kiện, Microsoft cũng thông báo về Cobalt 100, một chip hướng đến hệ thống thực hiện các tác vụ tính toán thông thường, có khả năng cạnh tranh trực tiếp với các bộ xử lý của Intel. Cobalt 100 sử dụng kiến trúc ARM, 64-bit, và tích hợp 128 lõi điện toán, mang lại hiệu suất cao và giảm 40% mức tiêu thụ điện năng so với các chip ARM khác đang được sử dụng trong các hệ thống đám mây Azure. Cobalt đang chú ý đến việc xử lý các hệ thống phần mềm đám mây như Microsoft Teams và Azure SQL.
Mặc dù Microsoft tự sản xuất chip mới, công ty vẫn duy trì sự hợp tác chặt chẽ với Nvidia và AMD để trang bị chip cho dịch vụ đám mây Azure của mình. Microsoft dự kiến sẽ bổ sung GPU H200 mới nhất từ Nvidia và MI300 từ AMD cho các hệ thống của mình vào năm tới.
Trong tuần này, Nvidia giới thiệu mẫu chip H200, được công bố là chip AI mạnh nhất thế giới. Theo Nvidia, với mô hình ngôn ngữ lớn Llama 2 của Meta chứa 70 tỷ tham số, H200 mang lại hiệu suất gấp đôi so với H100, là chip mạnh nhất trước đó. Amazon Web Services, Google Cloud, Microsoft Azure và Oracle là những nền tảng điện toán đám mây đầu tiên được trang bị H200 khi sản phẩm này ra mắt vào năm sau.
Ngoài ra, Microsoft cũng công bố một hệ thống làm mát tên là Sidekicks, sử dụng chất lỏng tùy chỉnh cho chip. Ngoài khả năng giảm nhiệt độ, giá đỡ này còn được tối ưu hóa để tiết kiệm không gian nơi đặt GPU.