README.md 3.28 KB
Newer Older
zzg_666's avatar
zzg_666 committed
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
81
82
83
84
85
86
87
88
89
90
91
92
93
94
95
96
97
98
99
100
101
102
103
104
105
# Jan-code-4b
## 论文
暂无

## 模型简介
Jan-Code-4B 是基于 Jan-v3-4B-base-instruct 基座模型进行代码领域微调(Code-Tuned)的语言模型。其设计目标是为本地化部署与快速迭代提供一个具备实用性的编码模型,适用于日常编码任务,并可作为代理型工作流中的轻量级"工作器"(Worker)模型使用。

相较于大规模参数量的代码模型,Jan-Code 专注于在保持低延迟与轻量计算开销的前提下,提供高可靠性的、边界清晰的子任务处理能力。

预期应用场景

轻量级编码助手:用于代码生成、编辑、重构及调试等辅助任务。

代理系统中的高效工作器:作为代理设置中的小型、快速响应工作器(例如,在由大型模型负责整体规划时,由该模型作为子代理负责生成补丁或测试用例)。

模型替换:可在 Claude Code 配置中作为 Haiku 模型的替代方案。




## 环境依赖
| 软件 | 版本 |
| :------: | :------: |
| DTK | 26.04 |
| python | 3.10.12 |
| torch | 2.9.0+das.opt1.dtk2604.20260206.g275d08c2 |
| transformers | 5.0.0.dev0 |
| vllm | 0.15.1+das.opt1.alpha.dtk2604.20260220.g2799735a |

推荐使用镜像: harbor.sourcefind.cn:5443/dcu/admin/base/custom:vllm0.15.1-ubuntu22.04-dtk26.04-0130-py3.10-20260220

- 挂载地址`-v`根据实际模型情况修改

```bash
docker run -it \
    --shm-size 200g \
    --network=host \
    --name Jan-Code \
    --privileged \
    --device=/dev/kfd \
    --device=/dev/dri \
    --device=/dev/mkfd \
    --group-add video \
    --cap-add=SYS_PTRACE \
    --security-opt seccomp=unconfined \
    -u root \
    -v /opt/hyhal/:/opt/hyhal/:ro \
    -v /path/your_code_data/:/path/your_code_data/ \
    harbor.sourcefind.cn:5443/dcu/admin/base/custom:vllm0.15.1-ubuntu22.04-dtk26.04-0130-py3.10-20260220 bash
```

更多镜像可前往[光源](https://sourcefind.cn/#/service-list)下载使用,其它包安装:
```
pip install pycountry
pip install git+https://github.com/huggingface/transformers.git@159219a6601ab87787b75cdc270b3b2438a9f0cf
```

## 数据集
`暂无`

## 训练
`暂无`

## 推理
### vllm
#### 单机推理
```bash
## serve启动
export ALLREDUCE_STREAM_WITH_COMPUTE=1
export MOE_NN=0

vllm serve janhq/Jan-code-4b --trust-remote-code --dtype bfloat16 -tp 1 --max-model-len 32768 --port 8010

## client访问
curl -X POST "http://localhost:8010/v1/chat/completions"      -H "Content-Type: application/json"     --data '{
                "model": "janhq/Jan-code-4b",
                "messages": [
                        {
                                "role": "user",
                                "content": "中国的首都是什么"
                        }
                ]
        }'

```

## 效果展示
<div align=center>
    <img src="./doc/result.png"/>
</div>

### 精度
`DCU与GPU精度一致,推理框架:vllm。`

## 预训练权重
| 模型名称  | 权重大小  | DCU型号  | 最低卡数需求 |下载地址|
|:-----:|:----------:|:----------:|:---------------------:|:----------:|
| Jan-code-4b | 7B | BW1000 | 1 | [HuggingFace](https://huggingface.co/IQuestLab/IQuest-Coder-V1-7B-Instruct) |


## 源码仓库及问题反馈
- https://developer.sourcefind.cn/codes/modelzoo/jan-code-4b_vllm

## 参考资料
- https://huggingface.co/janhq/Jan-code-4b