Infinite Entertainment, Zero Cost: Get Your Free Books, Music, and Videos Today!

黑洞资源笔记

Description
We recommend to visit

Last updated 2 years, 1 month ago

Last updated 2 years, 1 month ago

Last updated 1 year, 8 months ago

2 days, 3 hours ago
关于 Apple 的 MLX 机器学习库的精选列表,包括关于 MLX …

关于 Apple 的 MLX 机器学习库的精选列表,包括关于 MLX 的文章、模型、库和工具、演示、MLX Swift 等内容

Awesome MLX | #机器学习

2 days, 16 hours ago
黑洞资源笔记
2 days, 16 hours ago
国内高校矢量校徽素材合集 | [link](https://www.urongda.com/) | [#素材](?q=%23%E7%B4%A0%E6%9D%90)

国内高校矢量校徽素材合集 | link | #素材

收集整理了国内各大高校的校徽矢量素材,并在 Figma 上进行公开分享。目前有 197个 高校的校徽。

1 week, 2 days ago

用 ORPO 将 Llama 3 的性能提升到新高度 | 详文

ORPO(Odds Ratio Preference Optimization)是一种新的微调技术,可以将传统的监督微调和偏好对齐阶段合并为一个过程,从而减少计算资源和训练时间。

ORPO通过修改语言建模目标,将负对数似然损失与比值(OR)项相结合,以弱化被拒绝的响应并强化被选择的响应,让模型同时学习目标任务和人类偏好。

文章使用TRL库中的ORPOTrainer在Llama 3 8B模型上进行ORPO微调,数据集包含DPO偏好对,共1000个样本。尽管由于样本量少仅训练了1个epoch,但微调后的模型在Nous的基准测试中表现良好,所有指标上均优于Llama 3原模型。

ORPO展现了作为新的微调范式的潜力,未来在更大规模的偏好数据集上进行充分训练将产生更好的效果。选择高质量的数据集也非常重要。

当前是开源社区的活跃时期,正在发布越来越多高质量的开源模型,开源模型与专有模型的差距正在缩小,微调是获得最佳性能的关键。

1 week, 2 days ago
1 week, 2 days ago
Python 套件管理器——[Poetry 完全入門指南](https://blog.kyomind.tw/python-poetry/) | [#指南](?q=%23%E6%8C%87%E5%8D%97)

Python 套件管理器——Poetry 完全入門指南 | #指南

2 weeks, 3 days ago
黑洞资源笔记
2 weeks, 3 days ago
黑洞资源笔记
2 weeks, 3 days ago
黑洞资源笔记
3 weeks, 4 days ago
[BitMat](https://github.com/astramind-ai/BitMat): 基于 Triton 优化矩阵乘法运算的 Python 软件包,利用自定义内核实现高效性能

BitMat: 基于 Triton 优化矩阵乘法运算的 Python 软件包,利用自定义内核实现高效性能

We recommend to visit

Last updated 2 years, 1 month ago

Last updated 2 years, 1 month ago

Last updated 1 year, 8 months ago