PEFT Model with DPO Training

这是一个使用DPO (Direct Preference Optimization) 方法训练的PEFT (Parameter-Efficient Fine-Tuning) 模型。该模型是在基础模型上使用PEFT方法进行微调,并通过DPO训练来优化模型输出以更好地符合人类偏好。

模型信息

  • 训练方法:DPO (Direct Preference Optimization)
  • 微调方法:PEFT (Parameter-Efficient Fine-Tuning)
  • 模型类型:LoRA adapter

许可证

请参考模型的许可证信息进行使用。

Downloads last month
-
Inference Providers NEW
This model isn't deployed by any Inference Provider. 🙋 Ask for provider support