宅中地 - 每日更新
宅中地 - 每日更新

贊助商廣告

X

Red Hat CEO談人工智慧舉措和源代碼混亂

2023年08月28日 首頁 » 熱門科技

Red Hat CEO談人工智慧舉措和源代碼混亂

在今年早些時候的Red Hat Summit峰會上,Red Hat通過OpenShift AI深化了平台功能,可以讓組織將更多人工智慧工作負載添加到OpenShift上的應用組合。

此舉是對Red Hat目標的一個自然延伸。Red Hat的目標是要成為應用開發人員和基礎設施運營商在跨公有雲、私有雲以及網路邊緣的分布式IT環境中構建和運行應用的首選平台。

Red Hat通過OpenShift AI為創建生產型AI和機器學習模型提供了標準化的基礎。Red Hat還與IBM合作開發了Ansible Lightspeed,IBM也對其Watson Code Assistant進行訓練來編寫Ansible自動化手冊。

然而,Red Hat的AI舉措在某種程度上被開源社區對於Red Hat限制客戶訪問Red Hat Enterprise Linux (RHEL)源代碼的回應所掩蓋了。Red Hat是在Red Hat Summit峰會大約一個月之後宣布這個決定的,目的是防止重建者在不增加軟體價值的情況下從RHEL代碼中獲利。

Red Hat公司首席執行官Matt Hicks談到了Red Hat公司為支持在混合雲環境中使用生成式AI以及MLOps工具所做出的努力,此外他還對RHEL源代碼的混亂局面以及Red Hat如何解決社區對這個決定的擔憂,表達了他的觀點。

您能否解讀一下最近Red Hat Summit峰會上發布的一些重要公告以及這些公告對於Red Hat未來發展的意義?

Hicks:我將從人工智慧開始,然後再返回來,因為我認為AI本質上將是一種混合工作負載,這一點已經變得非常清楚。你可能會在大型環境中訓練模型,然後在儘可能靠近用戶的地方運行這些模型。長期以來,我們一直相信開放式的混合雲,這是一種令人興奮的工作負載,可以讓客戶接受混合架構。

像ChatGPT這樣的熱點讓大多數企業客戶開始試圖弄清楚AI會給他們的業務帶來怎樣的影響,讓他們思考如何才能做好混合,而我們在這次峰會上發布的公告,大部分內容都是關於為混合奠定基礎的,無論是傳統應用、雲原生應用還是AI工作負載。

我們通過幾種不同的方式來做到這一點,首先是我們正在做的安全供應鏈方面工作。正如你所知,技術堆棧正在快速變化,因此當你交付基礎的時候,無論是在本地、公有雲中還是最終走向邊緣,了解基礎的來源及其安全性都是至關重要的,尤其是當你把一些東西遷移出數據中心的時候。

Service Interconnect是我們公布的第二部分內容。Service Interconnect讓應用可以更輕鬆地通過SSH通道和VPN連接到混合雲中的組件。我們對此感到非常興奮,因為我們相信,AI不會是單獨存在的,它要與應用一起運行,而這些應用必須從訓練環境開始就是和你的業務運行環境互連的。

第三部分是開發者中心。我們已經看到許多使用OpenShift的企業在構建自己的門戶,來收集他們的資產,並向他們的開發人員指出他們應該從哪裡開始,例如要使用的圖像和服務。這非常常見,如果你有了一個安全的基礎,而且你構建了跨多個位置的應用,那麼能夠發布和使用這些應用以支持更廣泛的開發團隊也是同樣重要的。

如何解決AI帶來的一些挑戰,例如可解釋性,特別是具有數十億甚至數萬億參數的大型語言模型?

Hicks:這包括兩個部分——一個部分是我們在做的,另一部分取決於模型創建者。我要講講我們和IBM在Ansible Lightspeed方面所做的工作,主要是為了提供特定領域的AI生成功能,你可以要求該功能提供內容,我們會為你生成相應的內容。ChatGPT的應用非常廣泛,它非常具體並且非常適合Ansible。

關於你提的問題,我們強調的事情之一是來源,特別是AI提供建議的來源,因為我們從事的是開源的業務,許可、版權和商標規則都很重要——你是不能夠隨心所欲地提取代碼,然後放進其他任何代碼中。我們希望確保,我們展示了我們所能做到的。

現在這個問題實際上發生在兩個堆棧上。我們藉助OpenShift可以幫助支持DevOps中的一整套工作——源代碼管理、同行評審、代碼發布、標記、了解發布模塊、管道,然後發布代碼,OpenShift在這方面做得很好。我們可以利用整個集合併將代碼從筆記本電腦轉移到生產環境中。

AI模型並沒有那麼不同。就原則要求來說,你需要了解你一開始就使用的模型。如果是生成式AI,那麼你需要確切地知道你引入了哪些數據,以及你如何訓練這些數據,或者進行細化訓練或提示工程。你需要能夠跟蹤輸出內容,並在將其發布到生產環境之前對其進行測試,因此如果結果發生變化,你就會知道它是來自哪裡的。這個部分很棘手,因為數據變化如此之快,以至於你無法只是發布數據而不重新訓練數據。對數據的再訓練和代碼生成一樣,都是持續不斷的。

因此,我們在OpenShift AI上所做的就是MLOps——提取數據、訓練模型,並使用與代碼非常相似的管道。但是你需要有一個基礎模型,這就引出了模型最初是如何訓練的問題,這是Red Hat本身並不做的事情,而是由IBM、Meta、OpenAI和其他模型生成器完成的,此外Hugging Face也有很多開源模型生成器。

對IBM來說,他們會嚴格控制自己的模型,因為這是Ansible特定的領域。他們會嚴格控制訓練對象,以便最終能夠驅動核心歸因。有兩個不同的陣營——有些陣營對所有公開可用的內容進行訓練,為你提供大量參數模型,其中歸因始終是一個挑戰。然後是Hugging Face,它有很多專門的模型,這些模型可能從基礎模型開始,但僅限於領域之內。

我們的目標是確保我們能夠將這種原則添加到你一開始的內容之中。你在數據方面改變了什麼?你是如何重新訓練的?結果如何?在哪裡發布?現在有很多訓練,但在未來一兩年內,我們認為我們將更多地進入推理領域,而疊代方式則變得至關重要。

除了IBM之外,是否有計劃與市場上的其他參與者合作?此外,Red Hat與那些也具有MLOps功能的超大規模企業有著深厚的關係——您對競爭格局有何看法?

Hicks:我們不做模型的原因之一,就是我們想確保我們是一家平台公司。我們的工作是以儘可能最好的方式運行最好的模型。我們如何使用RHEL和OpenShift將模型(無論是哪一個模型)橋接到Nvidia、英特爾或者是AMD的硬體以驅動訓練和推理?因為不涉足模型,這讓我們天然地成為了所有人的合作夥伴,而且這實際上也是一項關於硬體的聲明。我們如何才能充分地利用OpenShift分布式計算的訓練環境,然後進行推理,很多時候更接近核心RHEL或更小的OpenShift實例。所以,這是第一層。

看看OpenShift AI就會發現,第二層是我們與許多其他公司展開合作的地方,這些公司添加了專門的功能,無論是關注函數數組的Starburst還是其他公司。IBM在Watsonx上所做的工作令人感到興奮。他們大量使用了OpenShift AI,從一開始他們就對OpenShift很滿意。我們的目標是確保我們作為一家平台公司是具有中立性和獨立性的,很高興我們能夠為IBM提供服務,但同時我們也會有其他的合作夥伴,因為這個領域有太多的專業化技術和利基產品了。

我最近見到了SUSE公司的首席執行官,我們談到了Red Hat最近關於限制其客戶訪問RHEL源代碼的決定。Red Hat高管已經撰寫了很多文章來解釋這麼做的理由,那麼您是如何向客戶解釋這個問題並打消社區對這個決定的擔憂呢?

Hicks:我將通過兩種方式解決這個問題。關於社區的擔憂,我認為這其中有一半是人們才剛剛開始意識到我們是帶來了RHEL的訪問路徑,無論是供團隊使用的RHEL還是可供非生產使用的多個實例,或者是供個人和愛好者使用的免費RHEL。我們的首要目標是,如果你是Linux的貢獻者,我們絕不想妨礙你使用我們的產品。我認為我們可能在一年前就消除了很多這樣的障礙。隨著人們越來越多地使用RHEL,還有改進的空間嗎?當然,這可以確保RHEL可供受眾使用。

當我們接觸到那些想要構建專有Linux社區或者從我們已經完成的一些工作開始著手、但朝不同方向發展的社區群體時,我們的觀點是,就下一個版本的RHEL而言,CentOS Stream提供了你所需的一切。如果你想對其進行更積極的改進,Fedora可以為你提供所需的一切。如果我們自己選擇的話,你的貢獻可以流入RHEL。

RHEL的逐位重建對我們來說並不適用。現在,有人總是可以進入CentOS,所有代碼都可以重新組合,但我們對Linux發行版的偏好是添加一些新穎的或者專門的內容,以前所未有的方式使發行版變得更好。

對於我們的客戶來說,他們中的大多數人與社區建設者就像生活在不同的世界。我們的RHEL源代碼政策非常好地涵蓋了我們的客戶群,因為如果你作為客戶需要源代碼,你就會得到它們。我們有使用過RHEL和CentOS的客戶,這對他們來說無疑是一個決策點。但Linux是地球上可用性最高的作業系統,因此他們有很多選項可供選擇。我們始終希望確保能夠通過RHEL為他們提供服務,但這並不是一項真正的客戶挑戰。

我想說的挑戰是,社區感覺我們從他們那裡拿走了一些東西。其中一半原因是他們對CentOS Stream不太熟悉,也不熟悉RHEL的使用方式。我們從事開源已經有一段時間了,你在開源中所做的任何改變往往都會引起非常強烈的反應。我們仍然堅持開源——我們仍然開源我們所做的一切,我們仍然為我們賺的每一美元做出巨大的貢獻。

在您給員工關於最近裁員的信中,提到了Red Hat關注真正擅長的事情的重要性。您能詳細說明一下這些事情是什麼,以及您希望實現什麼嗎?

Hicks:這是一個很好的問題,我幾乎每次在公司會議開始的時候都會說,「放心,我們是一家平台公司」。我們將定位在硬體之上,在邊緣世界中,在數據中心外新整合的設備上。我們將連接到應用,無論是傳統應用還是新的雲原生應用,然後你就可以擁有AI工作負載。

從RHEL時代到JBoss中間件,再到OpenShift和分布式計算,我們所做的工作就是確保想要使用我們平台進行構建的開發人員擁有儘可能廣泛的影響力。這很重要,因為現在有很多事情都在發生變化。看看邊緣和AI的交叉點,想要成為一家平台公司,我們就必須服務於這個市場和此類工作負載,這意味著我們必須在工程和銷售上有所投入。

我們擁有這個令人難以置信的機會,讓Linux、OpenShift和Ansible在企業中取得成功。但數據中心的邊界正在發生變化,新技術正在改變企業構建事物的方式。這是我們要面對的下一個機會,從數據中心到雲還有大量的工作要做,但我們必須堅持不懈地專注於成為一個平台,並為這些用例提供服務。

這就是我們想要做得很好的事情,其中一些工作是在作業系統領域,例如保護軟體供應鏈、PyTorch優化或者Nvidia集成等領域;還有一些工作會涉及分布式計算,這就是我們通過OpenShift所做的事情,以及圍繞Ansible編排方面還有很多的工作要做。

我們肯定會投資這三個領域之外的其他領域,但如果我的工作做得好,你永遠不會看到我們投資於那些無法追溯到這個平台用例的領域。我認為,現在對我們來說這是一個相當大的市場,我們了解這個市場的動態,我們知道如何向這個市場進行銷售,而且我們擁有這個市場中的人才,這些不斷發展的領域中有足夠的機會值得我們關注。

宅中地 - Facebook 分享 宅中地 - Twitter 分享 宅中地 - Whatsapp 分享 宅中地 - Line 分享
相關內容
Copyright ©2025 | 服務條款 | DMCA | 聯絡我們
宅中地 - 每日更新