1 |
openai/gpt-3 |
GitHub |
OpenAI GPT-3 相關教學與範例程式碼(非完整模型)。 |
展示 GPT-3 API 使用方式、範例應用 |
2 |
huggingface/transformers |
GitHub |
Hugging Face 的核心庫,用於各種 NLP 模型(包含 GPT、BERT 等)。 |
提供多種預訓練模型、高層次 API,便於進行語言任務 |
3 |
EleutherAI/gpt-neox |
GitHub |
由 EleutherAI 所開發的 GPT-NeoX 大型語言模型。 |
自主可訓練的大型 Transformer 模型框架,可用於 ChatGPT 類任務 |
4 |
microsoft/DeepSpeed |
GitHub |
微軟開發的深度學習訓練優化庫,支援超大規模模型。 |
大規模訓練、分散式訓練框架,加速 GPT 類模型的訓練與推論 |
5 |
facebookresearch/fairseq |
GitHub |
Meta AI 的序列到序列學習框架,包含多種 SOTA 模型。 |
提供 NLP 模型訓練工具、支援 Transformer/Conformer 等 |
6 |
facebookresearch/ParlAI |
GitHub |
Meta AI 的對話式 AI 平台,整合多種模型與資料集。 |
對話系統開發平台,多模型測試與比較,支援多種聊天機器人建置 |
7 |
openai/tiktoken |
GitHub |
OpenAI 的字元編碼工具,用於 GPT 系列 Token 化。 |
提供 GPT 模型 Tokenizer,便於計算 Token 使用量 |
8 |
EleutherAI//gpt-neo |
GitHub |
開源 GPT-Neo 模型,與 GPT-3 相似但規模較小。 |
可自行微調或進一步訓練,打造對話式或文生成應用 |
9 |
huggingface/diffusers |
GitHub |
處理擴散模型(Diffusion Models)的工具庫。 |
雖以影像生成為主,但提供生成式模型思路,與文本生成工具結合可擴充應用 |
10 |
LAION-AI/Open-Assistant |
GitHub |
開源對話系統項目,旨在構建類 ChatGPT 的開放助理。 |
包含對話介面、模型訓練腳本,社群協力打造可自行訓練的 Assistant |
11 |
CarperAI/trlx |
GitHub |
使用強化學習 (RL) 微調語言模型的工具(RLHF 方向)。 |
透過人類回饋進行強化學習 (RLHF) 來改善 ChatGPT 類模型的對話品質 |
12 |
lucidrains/PaLM-rlhf-pytorch |
GitHub |
基於 PaLM 和 RLHF 的 PyTorch 實作。 |
提供類似 ChatGPT 之訓練思路(RLHF),可作為自建聊天模型參考 |
13 |
bigscience-workshop/petl |
GitHub |
BigScience 的 “Parameter-Efficient Fine-Tuning” 工具。 |
參考 LoRA、Prefix Tuning 等技巧,減少 ChatGPT 類模型微調成本 |
14 |
stanfordnlp/stanza |
GitHub |
斯坦福 NLP 團隊推出的 Python NLP 套件。 |
提供多種自然語言處理工具,可整合進對話式系統 |
15 |
bigscience/bigscience |
GitHub |
BigScience 社群相關專案總覽,包含許多大型模型與工具的連結。 |
參與多種開源大型語言模型研究,如 BLOOM,可用於 ChatGPT 類型任務 |
16 |
bigscience-training/scaling-laws |
GitHub |
BigScience 針對大模型擴充實驗的研究與程式碼。 |
了解大型語言模型的擴充特性與訓練方法,協助自研 ChatGPT 類專案 |
17 |
google-research/bert |
GitHub |
BERT 原始碼與模型,雖非 GPT 系列,但仍是 NLP 製作 chatbot 的基礎。 |
對話任務前置模型或微調基礎,透過類似思路改善對話理解能力 |
18 |
facebookresearch/llama |
(可能須注意授權與取得方式) |
LLaMA 大型語言模型,Meta 研究成果(部分程式碼可能不在官方 GitHub)。 |
對話與文本生成性能佳,可作為 ChatGPT 類專案研究基礎 |
19 |
openai/CLIP |
GitHub |
處理文字與影像匹配的模型,非純語言模型,但可拓展多模態聊天機器人。 |
多模態理解與訊息檢索,可融合到對話式系統中提供更多功能 |
20 |
NVIDIA/Megatron-LM |
GitHub |
NVIDIA 開發的大規模語言模型訓練工具。 |
分散式大規模訓練 GPT 類模型,加速對話模型的開發 |
21 |
OpenAssistant/oa-chat |
GitHub |
OpenAssistant 針對 Chat UI 的前端程式碼。 |
提供前端對話介面,結合後端大型語言模型打造完整 ChatGPT 類系統 |
22 |
allenai/allennlp |
GitHub |
AllenNLP:由 AI2 開發的 NLP 研究平台。 |
方便研究性實驗與自定義模型整合,可在上面實作 ChatGPT 類功能 |
23 |
microsoft/LoRA |
GitHub |
低秩適應 (Low-Rank Adaptation) 微調方法。 |
在不改變整個模型參數的前提下,微調大型模型,用於 ChatGPT 類精調 |
24 |
facebookresearch/metaseq |
GitHub |
Meta AI 的序列到序列框架,內含大型語言模型研究的程式與成果。 |
強化對話與翻譯等應用,支援自定義大型語言模型訓練 |
25 |
databricks/dolly |
GitHub |
Databricks 推出的 Dolly 對話模型與範例。 |
提供小型、可自行微調的對話模型,與 ChatGPT 類似的互動 |
26 |
google-research/t5x |
GitHub |
T5X 框架:針對 T5 與類似模型的擴充訓練工具。 |
大規模 T5 模型訓練,亦可發展對話式應用 |
27 |
lmsys/vicuna |
GitHub |
Vicuna:在 LLaMA 基礎上進行微調的對話模型,性能接近 ChatGPT。 |
提供對話範例、微調程式碼與介面,能作為學習 ChatGPT 方案的範本 |
28 |
salesforce/CodeT5 |
GitHub |
針對程式碼生成與理解的 Transformer 模型。 |
可在對話中提供程式碼建議或解答,擴充類 ChatGPT 的功能 |
29 |
NVIDIA/NeMo |
GitHub |
NVIDIA 的對話式 AI 與語音工具套件。 |
整合 ASR/TTS/NLP,可打造多模態聊天機器人 |
30 |
fastchat-team/fastchat |
GitHub |
多種可微調的大型語言模型對話框架,包含接口與後端。 |
對話式 UI、支援模型整合,提供類似 ChatGPT 的簡易部署方案 |