$€£¥ Chip AI ใน data center ต้องเปลี่ยน ทุกๆ 2 ปี ???

กระทู้คำถาม
Nvidia CEO Explains How AI Chips Could Save Future Data Centers Lots Of Money

Jensen Huang claims Nvidia’s new Grace Hopper Superchip, which combines a CPU and GPU on an integrated module, can cut down on energy costs while providing much faster performance for generative AI workloads in comparison to traditional CPUs. He says the chip can also help firms save significant money on capital costs to achieve the same baseline performance as CPUs

Nvidia CEO Jensen Huang has a mantra that he has uttered enough times that it almost became a joke during his SIGGRAPH 2023 keynote last week: “the more you buy, the more you save.”

Huang was referring to the GPU giant’s assertion that its AI chips can save companies significant money on costs compared to traditional CPUs for what he views as the future: data centers, fueled by demand for generative AI capabilities, relying on large language models (LLMs) to answer user queries and generate content for a wide range of applications.

“The canonical use case of the future is a large language model on the front end of just about everything: every single application, every single database, whenever you interact with a computer, you’ll likely be first engaged in a large language model,” he said.
Nvidia’s AI chips can save money for operators of data centers focused on large language models and other compute-intensive workloads, according to Huang’s argument, because the chips run much faster and more efficiently than CPUs, and the more chips they buy, the more those savings increase.

Ref CRN
แสดงความคิดเห็น
อ่านกระทู้อื่นที่พูดคุยเกี่ยวกับ  การลงทุน การเงิน หุ้น
โปรดศึกษาและยอมรับนโยบายข้อมูลส่วนบุคคลก่อนเริ่มใช้งาน อ่านเพิ่มเติมได้ที่นี่