AI文摘

blog-thum
如何对大模型进行LoRA微调

《讲一讲现在最流行的微调方法LoRA》粗略谈了LoRA的技术原理,huggingface的transformers库集成了peft库,所以微调LoRA非常简单。首先微调,先加载peft配置:from

read more
blog-thum
LoRA的工作原理

背景在自然语言处理领域,预训练-微调(pretrain-finetune)范式非常流行。通过指令微调,大语言模型能够更好地学习遵循和执行人类指令。但是,由于大语言模型的参数量巨大,进行全参数微调。预

read more
blog-thum
一文详谈RAG优化方案与实践

阿里妹导读RAG通过检索现有的大量知识,结合强大的生成模型,为复杂的问答、文本摘要和生成任务带来了全新的解决方案。本文详细的介绍了RAG遇到的挑战、通用范式、工程实践、优化实现策略等。一、RAG的背景

read more