Hugging Face
Hugging Face是一家美國公司,專門開發用於構建機器學習應用的工具。該公司的代表產品是其為自然語言處理應用構建的transformers庫,以及允許用戶共用機器學習模型和數據集的平台。
Hugging Face, Inc. | |
---|---|
公司類型 | 私人公司 |
成立 | 2016年紐約 | ,
代表人物 |
|
總部 | New York City , U.S. |
業務範圍 | 全世界 |
產業 | 人工智能、機器學習、軟件開發 |
產品 | Transformers模型、數據集(datasets)、spaces |
營業額 | 15,000,000 美元 (2022年) |
員工人數 | 170 (2023年) |
網站 | huggingface |
歷史
編輯Hugging Face成立於2016年,由法國企業家克萊門特·德朗格(法語:Clément Delangue)、朱利安·肖蒙(Julien Chaumond)和托馬斯·沃爾夫(Thomas Wolf)創立,最初是一家開發面向青少年的聊天機械人應用程式的公司[1] 。在開源聊天機械人背後的模型後,該公司轉變方向,專注於成為一個機器學習平台。
2021年3月,Hugging Face在B輪融資中籌集了4000萬美元[2]。
2021年4月28日,Hugging Face與其他幾個研究團隊合作,推出了BigScience研究工作坊(BigScience Research Workshop),發佈了一個開放的大型語言模型[3]。2022年,該工作坊以1760億參數的多語言大型語言模型BLOOM的發佈而結束[4]。
2021年12月21日,該公司宣佈收購Gradio,這是一個用於製作機器學習模型互動式瀏覽器演示的軟件庫[5]。
2022年5月5日,該公司宣佈由Coatue和Sequoia領投的C輪融資[6]。公司估值達到20億美元。
2022年5月13日,該公司推出了學生大使計劃,旨在到2023年時實現向500萬人教授機器學習[7]。
2022年5月26日,該公司宣佈與Graphcore合作,為Graphcore IPU最佳化其Transformers庫[8]。
2022年8月3日,該公司宣佈推出Private Hub,這是其公共Hugging Face Hub的企業版本,支援SaaS或本地部署[9]。
2023年2月,該公司宣佈與亞馬遜雲端運算服務(AWS)合作,使Hugging Face的產品可供AWS客戶使用,作為構建其自訂應用程式的基礎。該公司還表示,下一代BLOOM將在AWS建立的專有機器學習晶片Trainium上執行[10][11]。
服務與技術
編輯Transformers模型庫
編輯Transformers模型庫(Transformers Library)是一個Python軟件套件,其中包含了用於文字、圖像和音頻任務的Transformer模型的開源實現。它與PyTorch、TensorFlow和JAX深度學習庫相容,並包括了BERT和GPT-2等知名模型的實現[12]。該庫最初名為「pytorch-pretrained-bert」[13],後來更名為「pytorch-transformers」,最終改名為「transformers」。
Hugging Face Hub
編輯Hugging Face Hub是一個集中式Web服務平台,用於寄存以下內容:[14]
- 基於Git的代碼倉庫,具有類似於GitHub的功能,包括專案的討論(discussions)和拉取請求(pull requests)。
- 模型(models),同樣具有基於Git版本控制的;
- 數據集(datasets),主要涵蓋文字、圖像和音頻;
- Web應用程式(「spaces」和「widgets」),用於機器學習應用的小規模演示。
Gradio
編輯Gradio 是一個開源Python包,可讓您快速為機器學習模型、API 或任何任意Python函數構建演示或Web應用程式。然後,您可以使用Gradio的內建共用功能在短短幾秒鐘內共用演示或Web應用程式的連結。 [15] 使用Gradio,可以構建互動式用戶介面,而無需編寫任何HTML、CSS或JavaScript代碼。Gradio與各種機器學習框架相容,如TensorFlow、PyTorch和scikit-learn。還可以使用Gradio以互動方式除錯模型、從用戶取得反饋,並通過自動生成的可共用連結輕鬆部署模型。[16][17]
其他庫
編輯除了Transformers庫和Hugging Face Hub之外,Hugging Face生態系統還包括用於其他任務的庫,例如數據集處理(「Datasets」),模型評估(「Evaluate」),模擬(「Simulate」),以及機器學習演示(「Gradio」)[15]。
參考資料
編輯- ^ Hugging Face wants to become your artificial BFF. TechCrunch. 2017-03-09 [2022-08-20] (美國英語).[失效連結]
- ^ Hugging Face raises $40 million for its natural language processing library. 2021-03-11 [2023-08-04]. (原始內容存檔於2023-07-28).
- ^ Inside BigScience, the quest to build a powerful open language model. 2022-01-10 [2023-08-04]. (原始內容存檔於2022-07-01).
- ^ BLOOM. bigscience.huggingface.co. [2022-08-20]. (原始內容存檔於2022-11-14).
- ^ Gradio is joining Hugging Face!. huggingface.co. [2022-08-20]. (原始內容存檔於2022-11-14).
- ^ Cai, Kenrick. The $2 Billion Emoji: Hugging Face Wants To Be Launchpad For A Machine Learning Revolution. Forbes. [2022-08-20]. (原始內容存檔於2022-11-03) (英語).
- ^ Student Ambassador Program's call for applications is open!. huggingface.co. [2022-08-20]. (原始內容存檔於2023-03-14).
- ^ Graphcore and Hugging Face Launch New Lineup of IPU-Ready Transformers. huggingface.co. [2022-08-19]. (原始內容存檔於2022-11-14).
- ^ Introducing the Private Hub: A New Way to Build With Machine Learning. huggingface.co. [2022-08-20]. (原始內容存檔於2022-11-14).
- ^ Bass, Dina. Amazon's Cloud Unit Partners With Startup Hugging Face as AI Deals Heat Up. 彭博新聞社. 2023-02-21 [2023-08-04]. (原始內容存檔於2023-05-22).
- ^ Nellis, Stephen. Amazon Web Services pairs with Hugging Face to target AI developers. Reuters. 2023-02-21 [2023-08-04]. (原始內容存檔於2023-05-30).
- ^ 🤗 Transformers. huggingface.co. [2022-08-20]. (原始內容存檔於2023-09-27).
- ^ First release. Github. 2018-11-17 [2023-03-28]. (原始內容存檔於2023-04-30).
- ^ Hugging Face Hub documentation. huggingface.co. [2022-08-20]. (原始內容存檔於2023-09-20).
- ^ 15.0 15.1 Hugging Face - Documentation. huggingface.co. [2023-02-18]. (原始內容存檔於2023-09-30).
- ^ Gradio: The New Frontier in Interactive Python Data Apps. [2023-12-23]. (原始內容存檔於2023-12-22).
- ^ Python library for easily interacting with trained machine learning models https://pypi.org/project/gradio/ (頁面存檔備份,存於互聯網檔案館)