任何人皆可通過InstructLab及Ollama使用Granite LLM
近兩年來,開放源碼促進會(OSI)一直致力於AI兼容之開放源碼的定義工作。但所有大型語言模型(LLM)的開源都必須基於Apache 2.0授權條款進行授權,以利用於研究和商業用途。但正是這個「商業」用途,讓LLM開源變得很困難。Meta便曾宣稱他們已開源了自己的LLM,但其實並沒有完成。如今IBM成功做到自家LLM的開源。
IBM通過使用公開可用數據集的預訓練數據,成功開源了Granite LLM程序代碼,這些數據集包括GitHub無瑕程序代碼(Clean Code)、Starcoder數據、公共程序代碼庫和GitHub issue。這些解碼器模型(decoder-only model)接受了116種程序語言的程序代碼訓練,具備30億到340億個參數。這些模型支持開發人員各種應用,包括從複雜的應用程序現代化到設備內存受限等任務。
去年IBM生態系宏觀經濟理Kate Wooley曾表示,Granite LLM模型並不是要滿足所有人的需求,其為經過精心策劃調整的模型,並且專門針對IBM希望企業使用的商業使用案例。具體而言,這些模型是用於程序設計的。
IBM已在內部IBM Watsonx Code Assistant(WCA)產品中使用這些LLM,包括用於IT自動化的WCA for Ansible Lightspeed和用於現代化COBOL應用程序的WCA for IBM Z。雖然並不是每個人都能負擔得起Watsonx,但現在任何人都可以通過IBM和Red Hat的InstructLab使用Granite LLM。
Red Hat資深副總裁暨首席產品官Ashesh Badani表示,InstructLab將「降低生成式AI在混合雲上面臨的許多障礙(從有限的數據科學技能到所需的龐大資源)」。其重點是降低開發人員使用LLM的門檻。大約1年前,這些功能還需要搭配高端且相當昂貴的硬體才能使用,如今即使在筆記本上也能順暢運行。不僅如此,過去LLM訓練動輙數億美元,現在只需幾千美元就能搞定。
除了InstructLab之外,開發人員還可以使用Ollama在本地端運行LLM。通過Ollama,開發人員運行LLM所需的一切(模型權重和所有配置)全都打包在Modelfile中。它就好比是LLM的Docker一樣。這些模型可以在Hugging Face、GitHub、Watsonx.ai和Red Hat Enterprise Linux (RHEL) AI等平台上獲得。
IBM預計,開發人員除了可用Granite LLM寫程序代碼之外,還可以用來創建測試以及查找/修復錯誤來節省時間和精力。換言之,開發人員日常工作中許多例行但必要的任務(從生成單元測試到編寫設計文件或運行漏洞測試),都可以通過這些模型自動化。
(首圖來源:網路)