标签 人工智能 下的文章

基本工作

1、Transformer架构,分为bert(embedding)、gpt(LLM)两种核心
2、LLM,开发平台有Huggingface、魔搭社区
3、私有化部署,开发平台有Ollama
4、预训练(pre-training)与指令微调<SFT(Surpervised Fine-Tuning)、Prompt Tuning、Lora>
5、量化、蒸馏、剪枝

开源框架

1、代码开发,Llamaindex、LangChain
2、图形工具,AnythingLLM、MaxKB.

备注

1、对话/指令微调又叫post-training,Prompt Tuning本质其实是对话微调
2、开源框架是从宏观层面对向量数据库构建和索引、大模型API接口、指令微调(prompt-enginerring、temperature、top_k等超参数)进行整合,用于对垂类大模型快速部署
3、幻觉解决方式,自我对话(推理)、上下文对话窗口、网络搜索

要成为大模型算法工程师,至少应该掌握哪些内容?来自一线算法工程师的建议