Red Hat Enterprise Linux AI 正式推出,賦能企業於生產環境中注入 AI 創新力量

【台北訊,2024 年 9 月 9 日】世界領先開放原始碼軟體解決方案供應商 Red Hat 近期宣布正式推出能橫跨混合雲環境的 Red Hat Enterprise Linux AI(RHEL AI)。作為 Red Hat 的基礎模型平台,RHEL AI 賦能使用者更無縫地開發、測試和執行生成式 AI(GenAI)模型,並驅動企業應用程式。此平台整合開源授權的 Granite 大型語言模型(LLM)系列和基於聊天機器人大規模對齊(Large-scale Alignment for chatBots,LAB)方法的 InstructLab 模型對齊工具,並以最佳化、可啟用的 RHEL 映像檔模式,支援跨混合雲的單一伺服器部署。

儘管生成式 AI 前景無限,然而採購、訓練和微調 LLM 的相關成本卻可能相當高昂,部分頂尖模型的訓練成本在上線前甚至高達近兩億美元。此金額尚未包含針對企業的特定需求或資料進行調整的成本,而此類調整通常需要資料科學家或高度專業的開發人員協助。效率和敏捷性對於實際生產環境中的 AI 功能至關重要,無論為特定應用程式選擇了何種模型,都需將模型對齊以符合企業特定的資料和流程。

Red Hat 副總裁暨基礎模型平台總經理 Joe Fernandes 表示:「若要讓生成式 AI 應用程式在企業中發揮真正的價值,便需開放給更多企業和使用者,並更貼近特定業務應用情境。資料科學家和領域專家皆能在混合雲環境中藉由 RHEL AI 為特殊用途的生成式 AI 模型做出貢獻,同時 IT 企業也能透過 Red Hat OpenShift AI 將這些模型擴展至生產環境中。」

Red Hat 相信在未來十年內,更小型、更有效率且為特定目的建置的 AI 模型,將與雲端原生應用程式一同成為企業 IT 堆疊的關鍵組合。為實現此目標,從成本、貢獻者至混合雲上的執行位置等各方面,生成式 AI 必須更容易存取和使用。過去幾十年來,藉由來自多元使用者族群的貢獻,開源社群已成功解決與複雜軟體問題相似的挑戰;此相同的模式同樣適用於生成式 AI,得以有效降低其採用的門檻。

生成式 AI 的開源方法
RHEL AI 欲解決的挑戰為:在混合雲環境中,CIO 和企業 IT 組織得以使用更易於存取、更有效率且更有彈性的生成式 AI。RHEL AI 可協助:

  • 藉由企業級且開源授權的 Granite 模型驅動生成式 AI 創新,滿足各式各樣的生成式 AI 應用情境。
  • 利用 InstructLab 工具簡化生成式 AI 模型與業務需求的對齊過程,讓企業中的領域專家和開發人員在不具備豐富的資料科學技能的情況下,也能為其模型貢獻特殊的專業技能和知識。
  • 透過提供生產環境中伺服器所需的調整和模型部署相關的所有工具,無論相關資料位於何處,在混合雲的任何環境中皆可訓練和部署生成式 AI。RHEL AI 也提供與 Red Hat OpenShift AI 的匝道,開發人員得以在使用相同工具和概念下,大規模地訓練、調整和提供這些模型。

RHEL AI 同樣享有訂閱 Red Hat 所提供的服務,包含可信賴的企業級產品發行版、24 小時全天候生產環境支援、擴展模型生命週期支援和開放原始碼擔保的法律保護。

RHEL AI 擴充橫跨混合雲環境
對於支援生產型 AI 的策略而言,讓更一致的基礎模型平台更貼近企業資料的所在位置至關重要。RHEL AI 為 Red Hat 混合雲產品組合的延伸,涵蓋從地端資料中心、邊緣環境至公有雲等近乎所有的企業環境。這意味著客戶可直接從 Red Hat、Red Hat 原始設備製造商(original equipment manufacturer,OEM)合作夥伴取得 RHEL AI,並可運行於全球最大的雲端供應商上,包含 Amazon Web Services(AWS)、Google Cloud Platform(GCP)、IBM Cloud 和 Microsoft Azure,賦能開發人員和 IT 企業得以運用超大規模運算資源的力量,藉由 RHEL AI 建置創新的 AI 概念。

IBM Infrastructure 技術長暨創新總經理 Hillery Hunter 說明:「IBM 致力協助企業建置和部署高效的 AI 模型並加速其應用擴展。藉由 IBM Cloud 上的 RHEL AI,我們將開放原始碼創新推向採用生成式 AI 的重要位置,有助於更多企業和個人得以輕鬆取得、擴展和運用 AI 的力量。藉由 RHEL AI 整合 InstructLab 與 IBM Granite 模型系列的強大功能,我們正共同打造生成式 AI 模型,幫助客戶能夠在整個企業中推動實際業務成效。」

IDC DevOps 暨 DevSecOps 與軟體開發專案副總裁 Jim Mercer 表示:「企業級 AI 的優勢雖然強大,但同時也伴隨著 AI 模型規模龐大、選擇困難、調整與維護自建模型不易等固有的複雜性挑戰。更多使用者和企業得以藉由規模更小、專門建置且更廣泛存取的模型輕鬆實現 AI 策略,這正是 Red Hat 透過 RHEL AI 作為基礎模型平台致力解決的問題。」

服務提供狀態
RHEL AI 現已透過 Red Hat Customer Portal 正式上市,可支援地端環境或作為「自備訂閱式服務」(bring your own subscription,BYOS)上傳至 AWS 和 IBM Cloud 上。Azure 和 GCP 上的自備訂閱式服務產品計劃預計於 2024 年第四季推出,RHEL AI 也預計將於今年稍晚於 IBM Cloud 上提供服務。

Red Hat 預計在未來幾個月進一步擴大 RHEL AI 雲端和 OEM 合作夥伴的範圍,為混合雲環境提供更多選擇。