英偉達、Huging Face和ServiceNow正在通過StarCoder2推動AI代碼生成的標準,StarCoder2是一個新的開放訪問的大型語言模型家族。
這些模型目前有三種不同的大小,已經在600多種編程語言(包括低資源語言)上進行了培訓,以幫助企業在其開發工作流中加速各種與代碼相關的任務,它們是在開放的BigCode項目下開發的,該項目是ServiceNow和Huging Face聯合發起的,以確保負責任地開發和使用大型代碼語言模型,在開放負責任的AI許可證下,它們是免費提供的。
StarCoder2證明了開放的科學合作和負責任的AI實踐與道德數據供應鏈的結合力量。ServiceNow的StarCoder2開發團隊負責人、BigCode的聯合負責人Harm de Vries在一份聲明中表示,最先進的開放訪問模式改進了以前的GenAI性能,以提高開發人員的生產力,并為開發人員提供平等的機會獲得代碼生成AI的好處,這反過來又使任何規模的企業能夠更容易地滿足其全部業務潛力。
StarCoder2:滿足三種不同需求的三種模型
雖然BigCode最初推出的StarCoder LLM只有15B參數,并接受了大約80種編程語言的培訓,但最新一代產品超越了它,推出了三種不同大小的模型-3B、7B和15B - 并接受了619種編程語言的培訓。根據BigCode的說法,被稱為Stack的新模型的訓練數據比上次使用的數據大了七倍多。
更重要的是,BigCode社區使用了針對最新一代的新培訓技術,以確保模型能夠理解并生成低資源編程語言,如COBOL、數學和程序源代碼討論。
最小的30億參數模型是使用ServiceNow的Fast LLM框架進行訓練的,而7B模型是使用Huging Face的Nantron框架開發的,兩者都旨在提供高性能的文本到代碼和文本到工作流生成,同時需要較少的計算。
同時,使用端到端的英偉達 Nemo云本地框架和英偉達 TensorRT-LLM軟件對最大的150億參數模型進行了訓練和優化。
雖然這些機型在不同編碼場景中的表現如何仍有待觀察,但兩家公司確實注意到,最小的3B模型的性能與最初的15B StarCoder LLM相當。
根據他們的需求,企業團隊可以使用這些模型中的任何一個,并根據不同用例的企業數據對其進行進一步的微調,這可以是任何特殊任務,從應用程序源代碼生成、工作流生成和文本摘要到代碼完成、高級代碼摘要和代碼片段檢索。
兩家公司強調,這些模型經過更廣泛和更深入的培訓,提供了存儲庫上下文,從而實現了準確和上下文感知的預測。最終,所有這些都為加速開發鋪平了道路,同時節省了工程師和開發人員專注于更關鍵任務的時間。
英偉達應用研究副總裁Jonathan Cohen在新聞聲明中表示:“由于每個軟件生態系統都有專有的編程語言,代碼LLM可以推動每個行業在效率和創新方面的突破。”
“英偉達與ServiceNow和Huging Face的合作引入了安全、負責任的開發模式,并支持更廣泛地接觸負責任的GenAI,我們希望這將使全球社會受益”,他補充道。
如何開始使用StarCoder2?
如前所述,StarCoder2系列中的所有模型都是在Open Rail-M許可證下提供的,可以免版稅訪問和使用。支持代碼可以在BigCode項目的GitHub庫中找到。作為另一種選擇,團隊也可以下載并使用擁抱臉的所有三個模型。
也就是說,由英偉達培訓的15B模型也將出現在英偉達 AI Foundation上,使開發人員能夠直接從他們的瀏覽器或通過API端點進行試驗。
雖然StarCoder不是AI驅動的代碼生成領域的第一個進入者,但該項目的最新一代帶來的廣泛選擇肯定允許企業在應用程序開發中利用LLMS,同時還可以節省計算。
該領域的其他知名參與者包括OpenAI和亞馬遜,前者提供Codex,為GitHub聯合試點服務提供支持,而后者提供CodeWhisper工具,還有來自Replit和Codenium的激烈競爭,Replit在Hugging Face上有幾個小型AI編碼模型,Codenium最近以5億美元的估值獲得了6500萬美元的B輪融資。
企業網D1net(hfnxjk.com):
國內主流的to B IT門戶,同時在運營國內最大的甲方CIO專家庫和智力輸出及社交平臺-信眾智(www.cioall.com)。同時運營19個IT行業公眾號(微信搜索D1net即可關注)。
版權聲明:本文為企業網D1Net編譯,轉載需在文章開頭注明出處為:企業網D1Net,如果不注明出處,企業網D1Net將保留追究其法律責任的權利。