人工智能市場已經(jīng)在整合嗎?

喬恩·佩迪 (Jon Peddie) 指出,“自 2006 年以來,已向初創(chuàng)公司投資了超過 135 億美元。人工智能處理器初創(chuàng)公司的興奮程度和投資水平在 2017 年至 2021 年達到頂峰,有 36 家新公司進入該領域。您可以在 Jon Peddie Research“人工智能處理器市場發(fā)展報告”中找到更多詳細信息。它還指出,進入這個市場的新公司越來越少,而且正在發(fā)生整合,供應商搶占人工智能公司以改進自己的人工智能產(chǎn)品。
喬恩還指出,“目前,美國在人工智能軟件和硬件方面都保持著強勢地位。但這種領先優(yōu)勢并不能保證。持續(xù)的貿(mào)易緊張局勢給美國公司帶來了真正的壓力,尤其是現(xiàn)在像 DeepSeek 這樣的公司和幾家中國人工智能芯片制造商正在展示他們的能力。
他補充道,“美國供應商很清楚這種情況,但現(xiàn)任政府似乎將注意力集中在其他地方。這使得這些公司在很大程度上只能依靠自己,需要更快地行動、更精簡地思考,并提供更高效、更具成本效益的技術才能保持領先地位。
美國政府向中國提供的最新禮物是允許英偉達將其 H20 GPGPU 出售給中國。從理論上講,H20 的功能不如該公司針對大型語言模型 (LLM) 的高端“Hopper”H200(圖 2)。多個 H200 GPGPU 可以通過 NVLink 連接,NVLink 使用 NVLink 交換機擴展到更大的配置。

16,896 個 CUDA 內(nèi)核
141 GB HBM3e 內(nèi)存
超過 4.8 TB/s 的內(nèi)存帶寬
超過 4 petaFLOPS 的 FP8 性能
許多人在 NVIDIA 的成功中忽視的是,它的軟件比硬件更重要。誠然,該軟件離不開硬件,但它使工程師和程序員能夠針對 Jetson Nano 的一切,從邊緣計算到基于服務器的云和數(shù)據(jù)中心解決方案。
在服務器端,通過向網(wǎng)絡組合添加更多部件來擴展部件,因此 H20 和 H200 的混合之間的唯一區(qū)別是整體性能和容量。只需添加更多硬件來增加這些,這就是為什么即使允許銷售 H20 也不是人工智能開發(fā)的真正限制。
專注于邊緣
關于人工智能的大部分討論都集中在 H20 和 H200 所在的云和數(shù)據(jù)中心。然而,一個重要的趨勢是將更多的人工智能計算放在邊緣,要么減輕基于云的人工智能的使用,要么與在本地完成的所有計算完全解耦。不少人工智能初創(chuàng)公司都專注于這一領域。
小型語言模型 (SML) 以及可以在邊緣處理 LLM 的系統(tǒng)現(xiàn)已上市。通常的工程設計權衡在功率、價格和性能方面突然出現(xiàn),但新的人工智能硬件已經(jīng)顯著改變了設計方程式。
與芯片供應商一樣,電路板和模塊供應商已將人工智能納入其產(chǎn)品組合中。這有助于在邊緣添加人工智能,因為人工智能芯片的集成需要更苛刻的設計和實施過程。
隨著人工智能的炒作,工程師和公司需要記住,并非所有問題都需要人工智能,或者通過在產(chǎn)品中添加人工智能來改善。同樣,在工作、工作流程、設計、測試和生產(chǎn)過程以及最終產(chǎn)品和服務中使用人工智能之間也存在差異。LLM 或 SLM 形式的人工智能可能在一個領域起作用,但在另一個領域不起作用。
評論