# Sentence-BERT
## 论文
`Sentence-BERT: Sentence Embeddings using Siamese BERT-Networks`
- https://arxiv.org/pdf/1908.10084.pdf
## 模型结构
## 算法原理
对于每个句子对,通过网络传递句子A和句子B,从而得到embeddings u 和 v。使用余弦相似度计算embedding的相似度,并将结果与 gold similarity score进行比较。这允许网络进行微调,并识别句子的相似性.
## 环境配置
1. -v 路径、docker_name和imageID根据实际情况修改
2. transformers文件需要修改:
transformers/trainer_pt_utils.py line 37 修改为:
try:
from torch.optim.lr_scheduler import _LRScheduler as LRScheduler
except ImportError:
from torch.optim.lr_scheduler import LRScheduler as LRScheduler
### Docker(方法一)
```
docker pull image.sourcefind.cn:5000/dcu/admin/base/pytorch:1.13.1-ubuntu20.04-dtk23.10-py38
docker run -it -v /path/your_code_data/:/path/your_code_data/ -v /opt/hyhal/:/opt/hyhal/:ro --shm-size=32G --privileged=true --device=/dev/kfd --device=/dev/dri/ --group-add video --name docker_name imageID bash
cd /your_code_path/sentence-bert_pytorch
pip install -r requirements.txt
pip install -U sentence-transformers
pip install -e .
```
### Dockerfile(方法二)
```
cd ./docker
cp ../requirements.txt requirements.txt
docker build --no-cache -t sbert:latest .
docker run -it -v /path/your_code_data/:/path/your_code_data/ -v /opt/hyhal/:/opt/hyhal/:ro --shm-size=32G --privileged=true --device=/dev/kfd --device=/dev/dri/ --group-add video --name docker_name imageID bash
cd /your_code_path/sentence-bert_pytorch
pip install -r requirements.txt
pip install -U sentence-transformers
pip install -e .
```
### Anaconda(方法三)
1、关于本项目DCU显卡所需的特殊深度学习库可从光合开发者社区下载安装: https://developer.hpccube.com/tool/
```
DTK软件栈:dtk23.10
python:python3.8
torch:1.13.1
torchvision:0.14.1
```
Tips:以上dtk软件栈、python、torch等DCU相关工具版本需要严格一一对应
2、其他非特殊库直接按照requirements.txt安装
```
cd /your_code_path/sentence-bert_pytorch
pip install -r requirements.txt
pip install -U sentence-transformers
pip install -e .
```
## 数据集
[sentence-compression](https://huggingface.co/datasets/embedding-data/sentence-compression)
[COCO Captions](https://huggingface.co/datasets/embedding-data/coco_captions_quintets)
[Flickr30k captions](https://huggingface.co/datasets/embedding-data/flickr30k_captions_quintets)
数据集的目录结构如下:
```
├── datasets
│ ├──
│ ├──
│ ├──daybreadwn
│ └──
```
## 训练
### 单机多卡
```
bash train_finetune.sh
```
### 单机单卡
```
python funetune.py
```
## 推理
预训练模型下载[pretrained models](https://www.sbert.net/docs/pretrained_models.html)
```
python infer.py --data_path ./datasets/tmp.txt
```
## result
### 精度
测试数据:[test data]('./datasets/test.txt'), 使用的加速卡:Z100 16G。
根据测试结果情况填写表格:
| xxx | xxx | xxx | xxx | xxx |
| :------: | :------: | :------: | :------: |:------: |
| xxx | xxx | xxx | xxx | xxx |
| xxx | xx | xxx | xxx | xxx |
## 应用场景
### 算法类别
相似度判别
### 热点应用行业
多轮对话
## 源码仓库及问题反馈
-
## 参考资料
-