1. 04 Jul, 2025 2 commits
  2. 02 Jul, 2025 5 commits
  3. 01 Jul, 2025 1 commit
    • 蒋帅宏(Shuaihong_Jiang)'s avatar
      issue/254: 添加算子在CPU和CUDA上对BF16的支持,并增加相应的测试代码 (#255) · f88d4ad8
      蒋帅宏(Shuaihong_Jiang) authored
      
      
      * issue/254: 添加算子在CPU和CUDA上对BF16的支持,并增加相应的测试代码
      
      * issue/254: 将修改后的算子格式化后重新提交
      
      * 修改与最新main的冲突
      
      * 解决冲突后rms_norm原本的精度过不了了,现在由
      {"atol": 5e-3, "rtol": 5e-3}更改为
      {"atol": 8e-3, "rtol": 8e-3}
      
      * rms_norm在debug模式下FP16的测试用例失败了(本地测试能通过,github上过不了),
      所以将容差增大了两倍进行测试
      
      * 将rms_normd的测试输入缩放0.5,将容差改回原始值来进行ci测试
      
      * issue/254: 1.使用CHECK_DTYPE宏来进行数据类型检验
      2.在test的utils.py中添加了设备对BF16支持的检验
      
      * issue/254: rms_norm测试fp16容差由
      torch.float16: {"atol": 1e-3, "rtol": 1e-3},
      改为torch.float16: {"atol": 2e-3, "rtol": 2e-3},
      并删除对输入0.5的放缩
      
      * issue/254: 在utils.py中debug方法和debug_all方法中
      添加了对BF16的特判
      
      * 修改支持BF16测试的设备类型检查方法
      
      * 修改支持BF16测试的设备检查
      
      * issue/254: reduce redundancy in rms_norm.py
      
      * issue/254: add back the missing comment in rms_norm.py
      
      * issue/254: add fp32 tolerance condition in causal_softmax.py
      
      ---------
      Co-authored-by: default avatarZimin Li <coollizimin@gmail.com>
      f88d4ad8
  4. 30 Jun, 2025 3 commits
  5. 27 Jun, 2025 7 commits
  6. 26 Jun, 2025 2 commits
  7. 25 Jun, 2025 2 commits
  8. 23 Jun, 2025 1 commit
  9. 20 Jun, 2025 1 commit
  10. 19 Jun, 2025 1 commit
  11. 17 Jun, 2025 5 commits
  12. 13 Jun, 2025 2 commits
  13. 12 Jun, 2025 3 commits
  14. 11 Jun, 2025 4 commits
  15. 10 Jun, 2025 1 commit