@import url(http://www.aygfsteel.com/CuteSoft_Client/CuteEditor/Load.ashx?type=style&file=SyntaxHighlighter.css);@import url(/css/cuteeditor.css);
從實踐案例介紹大模型應用經驗和思考
LLaMA Factory:微調DeepSeek-R1-Distill-Qwen-7B模型實現新聞標題分類器
deepseek r1微調模型應用落地案例(醫療法律,PatientSeek)
文本轉語音的模型ChatTTS體驗極佳,真人般絲滑和流暢,自定義也比較靈活
醫療NLP領域 評測/比賽,數據集,論文和預訓練模型資源匯總。
摘要: 本博客深入探討了群體相對策略優化(GRPO)背后的數學,GRPO是推動DeepSeek卓越推理能力的核心強化學習算法。我們將分解GRPO的工作原理、其關鍵組件,以及為什么它是訓練高級大型語言模型(LLM)的改變者。
GRPO的基礎
GRPO是什么?
群相對策略優化(GRPO)是一種強化學習(RL)算法,專門用于增強大型語言模型(LLM)的推理能力。與傳統的RL方法不同,RL方法嚴重依賴外部評...
閱讀全文
DeepSeek大模型由于采用了GRPO算法, 大幅降低了顯存的需求.
【DeepSeek】復現DeepSeek R1?快來看這個Open R1項目實踐指南~
!!!實戰LLM強化學習——使用GRPO(DeepSeek R1出圈算法)
【DeepSeek】一文詳解GRPO算法——為什么能減少大模型訓練資源?
DeepSeek R1系列
@import url(http://www.aygfsteel.com/CuteSoft_Client/CuteEditor/Load.ashx?type=style&file=SyntaxHighlighter.css);@import url(/css/cuteeditor.css);
vllm是一個可以加載大模型, 推理, 量化模型, 以http api的方式暴露服務的框架.
@import url(http://www.aygfsteel.com/CuteSoft_Client/CuteEditor/Load.ashx?type=style&file=SyntaxHighlighter.css);@import url(/css/cuteeditor.css);
@import url(http://www.aygfsteel.com/CuteSoft_Client/CuteEditor/Load.ashx?type=style&file=SyntaxHighlighter.css);@import url(/css/cuteeditor.css);
到底AI是虛的還是假的, 在企業中有沒實際落地場景, 以下取實際應用場景:
生物公司
使用qwen2:7b訓練細胞制備領域的數據集,目標是
1.預測細胞收獲量
2.算細胞存活狀態(存活/死亡)
3.預測工藝是否成功
4.可以提前預測細胞的質量是否達標,以便及時采取措施進行調整
5.細胞培養過程中出現大量細胞死亡的情況,模型可以根據實時數據和歷史經驗,分析可能是培養箱溫度失控、培養基成分錯誤或受到污染等原因導致的,并提供相應的排查建議」
文體旅游
智能旅游系統:
提供目的地介紹、
旅行路線規劃、
酒店預訂和景
點推薦等服務。
考試改卷
基于大模型,做一個判試卷的應用,能夠判斷主觀題,比如閱讀理解,比如歷史,地理,政治問答題。
判卷準確率不能低于人工判卷準確率。
即一次考試,一個班50份試卷,判斷結果錯誤不超過5道題。判斷效率高于或等于人工。
取過往同學試卷題目, 作答內容, 得分 作一波ocr出數據, 一個科目, 提取所有試卷內容, 最后就是一個科目一個模型, 提取的內容放在文本, csv, json,
基于“bert-base-chinese”這個模型, 進行微調出專用模型即可,
讓大模型成為專業的判卷老師
考試
用扣子打一個智能體,實現不同學員對掌握的知識進行測試,根據測試結果進行打分和二次出題測試
0. 配置環境變量
HF_ENDPOINT=https://hf-mirror.com
HF_HOME=/root/autodl-tmp/paul/tools/huggingface
1. 本機安裝python 3.10, 并設置軟件源
pip config set global.index-url https://pypi.tuna.tsinghua.edu.cn/simple
pip config set global.index-url https://mirrors.huaweicloud.com/repository/pypi/simple
2. 安裝miniconda
3. 新建一個環境, 并激活
conda create -n quantization python=3.12
2. 本機安裝pytorch2.5.1+cuda12.4
pip3 install torch torchvision torchaudio
pip3 install torch torchvision torchaudio --index-url https://download.pytorch.org/whl/cu124
3. clone llamafactory源碼
git clone https://github.com/hiyouga/LLaMA-Factory
4. llamafactory本地安裝依賴
pip install -e .["vllm","gptq"]
5. 啟動webui
6. 在頁面中填入相關參數進行操作