首页
编程日记
ChatGpt专题
LINUX学习
Java学习
前端教程
单片机
数据结构
php
内网穿透
机器视觉
emmc
binder
笔记
虚拟设备
光源
类图
paas
特征向量中心性
界面设计
session_key
QA
图像分类
贝叶斯
设备管理平台
openlayers 随机点
磁盘
baichuan
2024/4/13 18:44:20
GPT实战系列-Baichuan2本地化部署实战方案
目录 一、百川2(Baichuan 2)模型介绍 二、资源需求 模型文件类型 推理的GPU资源要求 模型获取途径 国外: Huggingface 国内:ModelScope 三、部署安装 配置环境 安装过程
阅读更多...
本地部署 闻达:一个LLM调用平台 VIP版
本地部署 闻达:一个LLM调用平台 VIP版 1. 什么是 闻达2. 闻达 Github 地址3. 安装 Miniconda34. 创建虚拟环境5. 部署 闻达6. 部署 RWKV-4-Raven-14B 模型7. 部署 AquilaChat-7B 模型8. 部署 baichuan-7B 模型9. 部署 Moss 模型闻达:一个LLM调用平台。目标为针对特定环境的高…
阅读更多...
LLMs之Baichuan 2:Baichuan 2的简介、安装、使用方法之详细攻略
LLMs之Baichuan 2:Baichuan 2的简介、安装、使用方法之详细攻略 目录 相关文章 LLMs之Baichuan:Baichuan-13B模型的简介(包括Baichuan-7B)、安装、使用方法之详细攻略 LLMs之Baichuan 2:Baichuan 2的简介、安装、使用方法之详细攻略 LLMs…
阅读更多...
GPT实战系列-探究GPT等大模型的文本生成
GPT实战系列-探究GPT等LLM文本生成 GPT专栏文章: GPT实战系列-Baichuan2等大模型的计算精度与量化-CSDN博客 GPT实战系列-GPT训练的Pretraining,SFT,Reward Modeling,RLHF-CSDN博客 GPT实战系列-ChatGLM3本地部署CUDA111080Ti…
阅读更多...
GPT实战系列-Baichuan2等大模型的计算精度与量化
GPT实战系列-Baichuan2等大模型精度与量化 不做特别处理,深度学习默认参数精度为浮点32位精度(FP32)。大模型参数庞大,10-1000B级别,如果不注意优化,既耗费大量的显卡资源,也耗费大量的训练时间…
阅读更多...
百川大模型微调
模型下载 https://huggingface.co/baichuan-inc 微调框架 https://github.com/hiyouga/LLaMA-Factory 环境搭建 git clone https://github.com/hiyouga/LLaMA-Factory.git conda create -n llama_factory python3.10 conda activate llama_factory cd LLaMA-Factory pip i…
阅读更多...