baichuan

2024/4/13 18:44:20

GPT实战系列-Baichuan2本地化部署实战方案

目录 一、百川2(Baichuan 2)模型介绍 二、资源需求 模型文件类型 推理的GPU资源要求 模型获取途径 国外: Huggingface 国内:ModelScope 三、部署安装 配置环境 安装过程

本地部署 闻达:一个LLM调用平台 VIP版

本地部署 闻达:一个LLM调用平台 VIP版 1. 什么是 闻达2. 闻达 Github 地址3. 安装 Miniconda34. 创建虚拟环境5. 部署 闻达6. 部署 RWKV-4-Raven-14B 模型7. 部署 AquilaChat-7B 模型8. 部署 baichuan-7B 模型9. 部署 Moss 模型闻达:一个LLM调用平台。目标为针对特定环境的高…

LLMs之Baichuan 2:Baichuan 2的简介、安装、使用方法之详细攻略

LLMs之Baichuan 2:Baichuan 2的简介、安装、使用方法之详细攻略 目录 相关文章 LLMs之Baichuan:Baichuan-13B模型的简介(包括Baichuan-7B)、安装、使用方法之详细攻略 LLMs之Baichuan 2:Baichuan 2的简介、安装、使用方法之详细攻略 LLMs…

GPT实战系列-探究GPT等大模型的文本生成

GPT实战系列-探究GPT等LLM文本生成 GPT专栏文章: GPT实战系列-Baichuan2等大模型的计算精度与量化-CSDN博客 GPT实战系列-GPT训练的Pretraining,SFT,Reward Modeling,RLHF-CSDN博客 GPT实战系列-ChatGLM3本地部署CUDA111080Ti…

GPT实战系列-Baichuan2等大模型的计算精度与量化

GPT实战系列-Baichuan2等大模型精度与量化 不做特别处理,深度学习默认参数精度为浮点32位精度(FP32)。大模型参数庞大,10-1000B级别,如果不注意优化,既耗费大量的显卡资源,也耗费大量的训练时间…

百川大模型微调

模型下载 https://huggingface.co/baichuan-inc 微调框架 https://github.com/hiyouga/LLaMA-Factory 环境搭建 git clone https://github.com/hiyouga/LLaMA-Factory.git conda create -n llama_factory python3.10 conda activate llama_factory cd LLaMA-Factory pip i…