Skip to content
GitLab
Menu
Projects
Groups
Snippets
Loading...
Help
Help
Support
Community forum
Keyboard shortcuts
?
Submit feedback
Contribute to GitLab
Sign in / Register
Toggle navigation
Menu
Open sidebar
chenpangpang
transformers
Commits
0eb8fbcd
"vscode:/vscode.git/clone" did not exist on "5505cf701477762cedf792e20344d29bc8bf6325"
Unverified
Commit
0eb8fbcd
authored
Apr 24, 2024
by
Lysandre Debut
Committed by
GitHub
Apr 24, 2024
Browse files
Remove task guides auto-update in favor of links towards task pages (#30429)
parent
e34da3ee
Changes
53
Hide whitespace changes
Inline
Side-by-side
Showing
20 changed files
with
19 additions
and
135 deletions
+19
-135
docs/source/ja/tasks/audio_classification.md
docs/source/ja/tasks/audio_classification.md
+1
-8
docs/source/ja/tasks/document_question_answering.md
docs/source/ja/tasks/document_question_answering.md
+1
-8
docs/source/ja/tasks/image_classification.md
docs/source/ja/tasks/image_classification.md
+1
-6
docs/source/ja/tasks/language_modeling.md
docs/source/ja/tasks/language_modeling.md
+1
-8
docs/source/ja/tasks/masked_language_modeling.md
docs/source/ja/tasks/masked_language_modeling.md
+1
-7
docs/source/ja/tasks/monocular_depth_estimation.md
docs/source/ja/tasks/monocular_depth_estimation.md
+1
-6
docs/source/ja/tasks/multiple_choice.md
docs/source/ja/tasks/multiple_choice.md
+0
-11
docs/source/ja/tasks/object_detection.md
docs/source/ja/tasks/object_detection.md
+1
-6
docs/source/ja/tasks/question_answering.md
docs/source/ja/tasks/question_answering.md
+1
-8
docs/source/ja/tasks/semantic_segmentation.md
docs/source/ja/tasks/semantic_segmentation.md
+1
-7
docs/source/ja/tasks/sequence_classification.md
docs/source/ja/tasks/sequence_classification.md
+1
-6
docs/source/ja/tasks/summarization.md
docs/source/ja/tasks/summarization.md
+1
-6
docs/source/ja/tasks/token_classification.md
docs/source/ja/tasks/token_classification.md
+1
-5
docs/source/ja/tasks/translation.md
docs/source/ja/tasks/translation.md
+1
-6
docs/source/ja/tasks/video_classification.md
docs/source/ja/tasks/video_classification.md
+1
-6
docs/source/ko/tasks/asr.md
docs/source/ko/tasks/asr.md
+1
-6
docs/source/ko/tasks/audio_classification.md
docs/source/ko/tasks/audio_classification.md
+1
-6
docs/source/ko/tasks/document_question_answering.md
docs/source/ko/tasks/document_question_answering.md
+1
-7
docs/source/ko/tasks/image_classification.md
docs/source/ko/tasks/image_classification.md
+1
-5
docs/source/ko/tasks/language_modeling.md
docs/source/ko/tasks/language_modeling.md
+1
-7
No files found.
docs/source/ja/tasks/audio_classification.md
View file @
0eb8fbcd
...
...
@@ -29,18 +29,11 @@ rendered properly in your Markdown viewer.
2.
微調整したモデルを推論に使用します。
<Tip>
このチュートリアルで説明するタスクは、次のモデル アーキテクチャでサポートされています。
<!--This tip is automatically generated by `make fix-copies`, do not fill manually!-->
[
Audio Spectrogram Transformer
](
../model_doc/audio-spectrogram-transformer
)
,
[
Data2VecAudio
](
../model_doc/data2vec-audio
)
,
[
Hubert
](
../model_doc/hubert
)
,
[
SEW
](
../model_doc/sew
)
,
[
SEW-D
](
../model_doc/sew-d
)
,
[
UniSpeech
](
../model_doc/unispeech
)
,
[
UniSpeechSat
](
../model_doc/unispeech-sat
)
,
[
Wav2Vec2
](
../model_doc/wav2vec2
)
,
[
Wav2Vec2-Conformer
](
../model_doc/wav2vec2-conformer
)
,
[
WavLM
](
../model_doc/wavlm
)
,
[
Whisper
](
../model_doc/whisper
)
<!--End of the generated tip-->
このタスクと互換性のあるすべてのアーキテクチャとチェックポイントを確認するには、
[
タスクページ
](
https://huggingface.co/tasks/audio-classification
)
を確認することをお勧めします。
</Tip>
始める前に、必要なライブラリがすべてインストールされていることを確認してください。
```
bash
pip
install
transformers datasets evaluate
```
...
...
docs/source/ja/tasks/document_question_answering.md
View file @
0eb8fbcd
...
...
@@ -30,14 +30,7 @@ rendered properly in your Markdown viewer.
<Tip>
このチュートリアルで説明するタスクは、次のモデル アーキテクチャでサポートされています。
<!--This tip is automatically generated by `make fix-copies`, do not fill manually!-->
[
LayoutLM
](
../model_doc/layoutlm
)
,
[
LayoutLMv2
](
../model_doc/layoutlmv2
)
,
[
LayoutLMv3
](
../model_doc/layoutlmv3
)
<!--End of the generated tip-->
このタスクと互換性のあるすべてのアーキテクチャとチェックポイントを確認するには、
[
タスクページ
](
https://huggingface.co/tasks/image-to-text
)
を確認することをお勧めします。
</Tip>
...
...
docs/source/ja/tasks/image_classification.md
View file @
0eb8fbcd
...
...
@@ -31,13 +31,8 @@ rendered properly in your Markdown viewer.
2.
微調整したモデルを推論に使用します。
<Tip>
このチュートリアルで説明するタスクは、次のモデル アーキテクチャでサポートされています。
<!--This tip is automatically generated by `make fix-copies`, do not fill manually!-->
[
BEiT
](
../model_doc/beit
)
,
[
BiT
](
../model_doc/bit
)
,
[
ConvNeXT
](
../model_doc/convnext
)
,
[
ConvNeXTV2
](
../model_doc/convnextv2
)
,
[
CvT
](
../model_doc/cvt
)
,
[
Data2VecVision
](
../model_doc/data2vec-vision
)
,
[
DeiT
](
../model_doc/deit
)
,
[
DiNAT
](
../model_doc/dinat
)
,
[
DINOv2
](
../model_doc/dinov2
)
,
[
EfficientFormer
](
../model_doc/efficientformer
)
,
[
EfficientNet
](
../model_doc/efficientnet
)
,
[
FocalNet
](
../model_doc/focalnet
)
,
[
ImageGPT
](
../model_doc/imagegpt
)
,
[
LeViT
](
../model_doc/levit
)
,
[
MobileNetV1
](
../model_doc/mobilenet_v1
)
,
[
MobileNetV2
](
../model_doc/mobilenet_v2
)
,
[
MobileViT
](
../model_doc/mobilevit
)
,
[
MobileViTV2
](
../model_doc/mobilevitv2
)
,
[
NAT
](
../model_doc/nat
)
,
[
Perceiver
](
../model_doc/perceiver
)
,
[
PoolFormer
](
../model_doc/poolformer
)
,
[
PVT
](
../model_doc/pvt
)
,
[
RegNet
](
../model_doc/regnet
)
,
[
ResNet
](
../model_doc/resnet
)
,
[
SegFormer
](
../model_doc/segformer
)
,
[
SwiftFormer
](
../model_doc/swiftformer
)
,
[
Swin Transformer
](
../model_doc/swin
)
,
[
Swin Transformer V2
](
../model_doc/swinv2
)
,
[
VAN
](
../model_doc/van
)
,
[
ViT
](
../model_doc/vit
)
,
[
ViT Hybrid
](
../model_doc/vit_hybrid
)
,
[
ViTMSN
](
../model_doc/vit_msn
)
<!--End of the generated tip-->
このタスクと互換性のあるすべてのアーキテクチャとチェックポイントを確認するには、
[
タスクページ
](
https://huggingface.co/tasks/image-classification
)
を確認することをお勧めします。
</Tip>
...
...
docs/source/ja/tasks/language_modeling.md
View file @
0eb8fbcd
...
...
@@ -37,14 +37,7 @@ rendered properly in your Markdown viewer.
<Tip>
このガイドと同じ手順に従って、因果言語モデリング用に他のアーキテクチャを微調整できます。
次のアーキテクチャのいずれかを選択します。
<!--This tip is automatically generated by `make fix-copies`, do not fill manually!-->
[
BART
](
../model_doc/bart
)
,
[
BERT
](
../model_doc/bert
)
,
[
Bert Generation
](
../model_doc/bert-generation
)
,
[
BigBird
](
../model_doc/big_bird
)
,
[
BigBird-Pegasus
](
../model_doc/bigbird_pegasus
)
,
[
BioGpt
](
../model_doc/biogpt
)
,
[
Blenderbot
](
../model_doc/blenderbot
)
,
[
BlenderbotSmall
](
../model_doc/blenderbot-small
)
,
[
BLOOM
](
../model_doc/bloom
)
,
[
CamemBERT
](
../model_doc/camembert
)
,
[
CodeLlama
](
../model_doc/code_llama
)
,
[
CodeGen
](
../model_doc/codegen
)
,
[
CPM-Ant
](
../model_doc/cpmant
)
,
[
CTRL
](
../model_doc/ctrl
)
,
[
Data2VecText
](
../model_doc/data2vec-text
)
,
[
ELECTRA
](
../model_doc/electra
)
,
[
ERNIE
](
../model_doc/ernie
)
,
[
Falcon
](
../model_doc/falcon
)
,
[
Fuyu
](
../model_doc/fuyu
)
,
[
GIT
](
../model_doc/git
)
,
[
GPT-Sw3
](
../model_doc/gpt-sw3
)
,
[
OpenAI GPT-2
](
../model_doc/gpt2
)
,
[
GPTBigCode
](
../model_doc/gpt_bigcode
)
,
[
GPT Neo
](
../model_doc/gpt_neo
)
,
[
GPT NeoX
](
../model_doc/gpt_neox
)
,
[
GPT NeoX Japanese
](
../model_doc/gpt_neox_japanese
)
,
[
GPT-J
](
../model_doc/gptj
)
,
[
LLaMA
](
../model_doc/llama
)
,
[
Marian
](
../model_doc/marian
)
,
[
mBART
](
../model_doc/mbart
)
,
[
MEGA
](
../model_doc/mega
)
,
[
Megatron-BERT
](
../model_doc/megatron-bert
)
,
[
Mistral
](
../model_doc/mistral
)
,
[
MPT
](
../model_doc/mpt
)
,
[
MusicGen
](
../model_doc/musicgen
)
,
[
MVP
](
../model_doc/mvp
)
,
[
OpenLlama
](
../model_doc/open-llama
)
,
[
OpenAI GPT
](
../model_doc/openai-gpt
)
,
[
OPT
](
../model_doc/opt
)
,
[
Pegasus
](
../model_doc/pegasus
)
,
[
Persimmon
](
../model_doc/persimmon
)
,
[
PLBart
](
../model_doc/plbart
)
,
[
ProphetNet
](
../model_doc/prophetnet
)
,
[
QDQBert
](
../model_doc/qdqbert
)
,
[
Reformer
](
../model_doc/reformer
)
,
[
RemBERT
](
../model_doc/rembert
)
,
[
RoBERTa
](
../model_doc/roberta
)
,
[
RoBERTa-PreLayerNorm
](
../model_doc/roberta-prelayernorm
)
,
[
RoCBert
](
../model_doc/roc_bert
)
,
[
RoFormer
](
../model_doc/roformer
)
,
[
RWKV
](
../model_doc/rwkv
)
,
[
Speech2Text2
](
../model_doc/speech_to_text_2
)
,
[
Transformer-XL
](
../model_doc/transfo-xl
)
,
[
TrOCR
](
../model_doc/trocr
)
,
[
XGLM
](
../model_doc/xglm
)
,
[
XLM
](
../model_doc/xlm
)
,
[
XLM-ProphetNet
](
../model_doc/xlm-prophetnet
)
,
[
XLM-RoBERTa
](
../model_doc/xlm-roberta
)
,
[
XLM-RoBERTa-XL
](
../model_doc/xlm-roberta-xl
)
,
[
XLNet
](
../model_doc/xlnet
)
,
[
X-MOD
](
../model_doc/xmod
)
<!--End of the generated tip-->
このタスクと互換性のあるすべてのアーキテクチャとチェックポイントを確認するには、
[
タスクページ
](
https://huggingface.co/tasks/text-generation
)
を確認することをお勧めします。u
</Tip>
...
...
docs/source/ja/tasks/masked_language_modeling.md
View file @
0eb8fbcd
...
...
@@ -30,14 +30,8 @@ rendered properly in your Markdown viewer.
2.
微調整したモデルを推論に使用します。
<Tip>
このガイドと同じ手順に従って、マスクされた言語モデリング用に他のアーキテクチャを微調整できます。
次のアーキテクチャのいずれかを選択します。
<!--This tip is automatically generated by `make fix-copies`, do not fill manually!-->
[
ALBERT
](
../model_doc/albert
)
,
[
BART
](
../model_doc/bart
)
,
[
BERT
](
../model_doc/bert
)
,
[
BigBird
](
../model_doc/big_bird
)
,
[
CamemBERT
](
../model_doc/camembert
)
,
[
ConvBERT
](
../model_doc/convbert
)
,
[
Data2VecText
](
../model_doc/data2vec-text
)
,
[
DeBERTa
](
../model_doc/deberta
)
,
[
DeBERTa-v2
](
../model_doc/deberta-v2
)
,
[
DistilBERT
](
../model_doc/distilbert
)
,
[
ELECTRA
](
../model_doc/electra
)
,
[
ERNIE
](
../model_doc/ernie
)
,
[
ESM
](
../model_doc/esm
)
,
[
FlauBERT
](
../model_doc/flaubert
)
,
[
FNet
](
../model_doc/fnet
)
,
[
Funnel Transformer
](
../model_doc/funnel
)
,
[
I-BERT
](
../model_doc/ibert
)
,
[
LayoutLM
](
../model_doc/layoutlm
)
,
[
Longformer
](
../model_doc/longformer
)
,
[
LUKE
](
../model_doc/luke
)
,
[
mBART
](
../model_doc/mbart
)
,
[
MEGA
](
../model_doc/mega
)
,
[
Megatron-BERT
](
../model_doc/megatron-bert
)
,
[
MobileBERT
](
../model_doc/mobilebert
)
,
[
MPNet
](
../model_doc/mpnet
)
,
[
MRA
](
../model_doc/mra
)
,
[
MVP
](
../model_doc/mvp
)
,
[
Nezha
](
../model_doc/nezha
)
,
[
Nyströmformer
](
../model_doc/nystromformer
)
,
[
Perceiver
](
../model_doc/perceiver
)
,
[
QDQBert
](
../model_doc/qdqbert
)
,
[
Reformer
](
../model_doc/reformer
)
,
[
RemBERT
](
../model_doc/rembert
)
,
[
RoBERTa
](
../model_doc/roberta
)
,
[
RoBERTa-PreLayerNorm
](
../model_doc/roberta-prelayernorm
)
,
[
RoCBert
](
../model_doc/roc_bert
)
,
[
RoFormer
](
../model_doc/roformer
)
,
[
SqueezeBERT
](
../model_doc/squeezebert
)
,
[
TAPAS
](
../model_doc/tapas
)
,
[
Wav2Vec2
](
../model_doc/wav2vec2
)
,
[
XLM
](
../model_doc/xlm
)
,
[
XLM-RoBERTa
](
../model_doc/xlm-roberta
)
,
[
XLM-RoBERTa-XL
](
../model_doc/xlm-roberta-xl
)
,
[
X-MOD
](
../model_doc/xmod
)
,
[
YOSO
](
../model_doc/yoso
)
<!--End of the generated tip-->
このタスクと互換性のあるすべてのアーキテクチャとチェックポイントを確認するには、
[
タスクページ
](
https://huggingface.co/tasks/fill-mask
)
を確認することをお勧めします。
</Tip>
...
...
docs/source/ja/tasks/monocular_depth_estimation.md
View file @
0eb8fbcd
...
...
@@ -26,13 +26,8 @@ rendered properly in your Markdown viewer.
オクルージョンとテクスチャ。
<Tip>
このチュートリアルで説明するタスクは、次のモデル アーキテクチャでサポートされています。
<!--This tip is automatically generated by `make fix-copies`, do not fill manually!-->
[
DPT
](
../model_doc/dpt
)
,
[
GLPN
](
../model_doc/glpn
)
<!--End of the generated tip-->
このタスクと互換性のあるすべてのアーキテクチャとチェックポイントを確認するには、
[
タスクページ
](
https://huggingface.co/tasks/depth-estimation
)
を確認することをお勧めします。
</Tip>
...
...
docs/source/ja/tasks/multiple_choice.md
View file @
0eb8fbcd
...
...
@@ -25,17 +25,6 @@ rendered properly in your Markdown viewer.
1.
[
SWAG
](
https://huggingface.co/datasets/swag
)
データセットの「通常」構成で
[
BERT
](
https://huggingface.co/google-bert/bert-base-uncased
)
を微調整して、最適なデータセットを選択します複数の選択肢と何らかのコンテキストを考慮して回答します。
2.
微調整したモデルを推論に使用します。
<Tip>
このチュートリアルで説明するタスクは、次のモデル アーキテクチャでサポートされています。
<!--This tip is automatically generated by `make fix-copies`, do not fill manually!-->
[
ALBERT
](
../model_doc/albert
)
,
[
BERT
](
../model_doc/bert
)
,
[
BigBird
](
../model_doc/big_bird
)
,
[
CamemBERT
](
../model_doc/camembert
)
,
[
CANINE
](
../model_doc/canine
)
,
[
ConvBERT
](
../model_doc/convbert
)
,
[
Data2VecText
](
../model_doc/data2vec-text
)
,
[
DeBERTa-v2
](
../model_doc/deberta-v2
)
,
[
DistilBERT
](
../model_doc/distilbert
)
,
[
ELECTRA
](
../model_doc/electra
)
,
[
ERNIE
](
../model_doc/ernie
)
,
[
ErnieM
](
../model_doc/ernie_m
)
,
[
FlauBERT
](
../model_doc/flaubert
)
,
[
FNet
](
../model_doc/fnet
)
,
[
Funnel Transformer
](
../model_doc/funnel
)
,
[
I-BERT
](
../model_doc/ibert
)
,
[
Longformer
](
../model_doc/longformer
)
,
[
LUKE
](
../model_doc/luke
)
,
[
MEGA
](
../model_doc/mega
)
,
[
Megatron-BERT
](
../model_doc/megatron-bert
)
,
[
MobileBERT
](
../model_doc/mobilebert
)
,
[
MPNet
](
../model_doc/mpnet
)
,
[
MRA
](
../model_doc/mra
)
,
[
Nezha
](
../model_doc/nezha
)
,
[
Nyströmformer
](
../model_doc/nystromformer
)
,
[
QDQBert
](
../model_doc/qdqbert
)
,
[
RemBERT
](
../model_doc/rembert
)
,
[
RoBERTa
](
../model_doc/roberta
)
,
[
RoBERTa-PreLayerNorm
](
../model_doc/roberta-prelayernorm
)
,
[
RoCBert
](
../model_doc/roc_bert
)
,
[
RoFormer
](
../model_doc/roformer
)
,
[
SqueezeBERT
](
../model_doc/squeezebert
)
,
[
XLM
](
../model_doc/xlm
)
,
[
XLM-RoBERTa
](
../model_doc/xlm-roberta
)
,
[
XLM-RoBERTa-XL
](
../model_doc/xlm-roberta-xl
)
,
[
XLNet
](
../model_doc/xlnet
)
,
[
X-MOD
](
../model_doc/xmod
)
,
[
YOSO
](
../model_doc/yoso
)
<!--End of the generated tip-->
</Tip>
始める前に、必要なライブラリがすべてインストールされていることを確認してください。
```
bash
...
...
docs/source/ja/tasks/object_detection.md
View file @
0eb8fbcd
...
...
@@ -33,13 +33,8 @@ rendered properly in your Markdown viewer.
2.
微調整したモデルを推論に使用します。
<Tip>
このチュートリアルで説明するタスクは、次のモデル アーキテクチャでサポートされています。
<!--This tip is automatically generated by `make fix-copies`, do not fill manually!-->
[
Conditional DETR
](
../model_doc/conditional_detr
)
,
[
Deformable DETR
](
../model_doc/deformable_detr
)
,
[
DETA
](
../model_doc/deta
)
,
[
DETR
](
../model_doc/detr
)
,
[
Table Transformer
](
../model_doc/table-transformer
)
,
[
YOLOS
](
../model_doc/yolos
)
<!--End of the generated tip-->
このタスクと互換性のあるすべてのアーキテクチャとチェックポイントを確認するには、
[
タスクページ
](
https://huggingface.co/tasks/object-detection
)
を確認することをお勧めします。
</Tip>
...
...
docs/source/ja/tasks/question_answering.md
View file @
0eb8fbcd
...
...
@@ -31,15 +31,8 @@ rendered properly in your Markdown viewer.
2.
微調整したモデルを推論に使用します。
<Tip>
このチュートリアルで説明するタスクは、次のモデル アーキテクチャでサポートされています。
<!--This tip is automatically generated by `make fix-copies`, do not fill manually!-->
[
ALBERT
](
../model_doc/albert
)
,
[
BART
](
../model_doc/bart
)
,
[
BERT
](
../model_doc/bert
)
,
[
BigBird
](
../model_doc/big_bird
)
,
[
BigBird-Pegasus
](
../model_doc/bigbird_pegasus
)
,
[
BLOOM
](
../model_doc/bloom
)
,
[
CamemBERT
](
../model_doc/camembert
)
,
[
CANINE
](
../model_doc/canine
)
,
[
ConvBERT
](
../model_doc/convbert
)
,
[
Data2VecText
](
../model_doc/data2vec-text
)
,
[
DeBERTa
](
../model_doc/deberta
)
,
[
DeBERTa-v2
](
../model_doc/deberta-v2
)
,
[
DistilBERT
](
../model_doc/distilbert
)
,
[
ELECTRA
](
../model_doc/electra
)
,
[
ERNIE
](
../model_doc/ernie
)
,
[
ErnieM
](
../model_doc/ernie_m
)
,
[
Falcon
](
../model_doc/falcon
)
,
[
FlauBERT
](
../model_doc/flaubert
)
,
[
FNet
](
../model_doc/fnet
)
,
[
Funnel Transformer
](
../model_doc/funnel
)
,
[
OpenAI GPT-2
](
../model_doc/gpt2
)
,
[
GPT Neo
](
../model_doc/gpt_neo
)
,
[
GPT NeoX
](
../model_doc/gpt_neox
)
,
[
GPT-J
](
../model_doc/gptj
)
,
[
I-BERT
](
../model_doc/ibert
)
,
[
LayoutLMv2
](
../model_doc/layoutlmv2
)
,
[
LayoutLMv3
](
../model_doc/layoutlmv3
)
,
[
LED
](
../model_doc/led
)
,
[
LiLT
](
../model_doc/lilt
)
,
[
Longformer
](
../model_doc/longformer
)
,
[
LUKE
](
../model_doc/luke
)
,
[
LXMERT
](
../model_doc/lxmert
)
,
[
MarkupLM
](
../model_doc/markuplm
)
,
[
mBART
](
../model_doc/mbart
)
,
[
MEGA
](
../model_doc/mega
)
,
[
Megatron-BERT
](
../model_doc/megatron-bert
)
,
[
MobileBERT
](
../model_doc/mobilebert
)
,
[
MPNet
](
../model_doc/mpnet
)
,
[
MPT
](
../model_doc/mpt
)
,
[
MRA
](
../model_doc/mra
)
,
[
MT5
](
../model_doc/mt5
)
,
[
MVP
](
../model_doc/mvp
)
,
[
Nezha
](
../model_doc/nezha
)
,
[
Nyströmformer
](
../model_doc/nystromformer
)
,
[
OPT
](
../model_doc/opt
)
,
[
QDQBert
](
../model_doc/qdqbert
)
,
[
Reformer
](
../model_doc/reformer
)
,
[
RemBERT
](
../model_doc/rembert
)
,
[
RoBERTa
](
../model_doc/roberta
)
,
[
RoBERTa-PreLayerNorm
](
../model_doc/roberta-prelayernorm
)
,
[
RoCBert
](
../model_doc/roc_bert
)
,
[
RoFormer
](
../model_doc/roformer
)
,
[
Splinter
](
../model_doc/splinter
)
,
[
SqueezeBERT
](
../model_doc/squeezebert
)
,
[
T5
](
../model_doc/t5
)
,
[
UMT5
](
../model_doc/umt5
)
,
[
XLM
](
../model_doc/xlm
)
,
[
XLM-RoBERTa
](
../model_doc/xlm-roberta
)
,
[
XLM-RoBERTa-XL
](
../model_doc/xlm-roberta-xl
)
,
[
XLNet
](
../model_doc/xlnet
)
,
[
X-MOD
](
../model_doc/xmod
)
,
[
YOSO
](
../model_doc/yoso
)
<!--End of the generated tip-->
このタスクと互換性のあるすべてのアーキテクチャとチェックポイントを確認するには、
[
タスクページ
](
https://huggingface.co/tasks/question-answering
)
を確認することをお勧めします。
</Tip>
...
...
docs/source/ja/tasks/semantic_segmentation.md
View file @
0eb8fbcd
...
...
@@ -29,13 +29,7 @@ rendered properly in your Markdown viewer.
<Tip>
このチュートリアルで説明するタスクは、次のモデル アーキテクチャでサポートされています。
<!--This tip is automatically generated by `make fix-copies`, do not fill manually!-->
[
BEiT
](
../model_doc/beit
)
,
[
Data2VecVision
](
../model_doc/data2vec-vision
)
,
[
DPT
](
../model_doc/dpt
)
,
[
MobileNetV2
](
../model_doc/mobilenet_v2
)
,
[
MobileViT
](
../model_doc/mobilevit
)
,
[
MobileViTV2
](
../model_doc/mobilevitv2
)
,
[
SegFormer
](
../model_doc/segformer
)
,
[
UPerNet
](
../model_doc/upernet
)
<!--End of the generated tip-->
このタスクと互換性のあるすべてのアーキテクチャとチェックポイントを確認するには、
[
タスクページ
](
https://huggingface.co/tasks/image-segmentation
)
を確認することをお勧めします。
</Tip>
...
...
docs/source/ja/tasks/sequence_classification.md
View file @
0eb8fbcd
...
...
@@ -28,13 +28,8 @@ rendered properly in your Markdown viewer.
2.
微調整したモデルを推論に使用します。
<Tip>
このチュートリアルで説明するタスクは、次のモデル アーキテクチャでサポートされています。
<!--This tip is automatically generated by `make fix-copies`, do not fill manually!-->
[
BEiT
](
../model_doc/beit
)
,
[
Data2VecVision
](
../model_doc/data2vec-vision
)
,
[
DPT
](
../model_doc/dpt
)
,
[
MobileNetV2
](
../model_doc/mobilenet_v2
)
,
[
MobileViT
](
../model_doc/mobilevit
)
,
[
MobileViTV2
](
../model_doc/mobilevitv2
)
,
[
SegFormer
](
../model_doc/segformer
)
,
[
UPerNet
](
../model_doc/upernet
)
<!--End of the generated tip-->
このタスクと互換性のあるすべてのアーキテクチャとチェックポイントを確認するには、
[
タスクページ
](
https://huggingface.co/tasks/text-classification
)
を確認することをお勧めします。
</Tip>
...
...
docs/source/ja/tasks/summarization.md
View file @
0eb8fbcd
...
...
@@ -31,13 +31,8 @@ rendered properly in your Markdown viewer.
2.
微調整したモデルを推論に使用します。
<Tip>
このチュートリアルで説明するタスクは、次のモデル アーキテクチャでサポートされています。
<!--This tip is automatically generated by `make fix-copies`, do not fill manually!-->
[
BART
](
../model_doc/bart
)
,
[
BigBird-Pegasus
](
../model_doc/bigbird_pegasus
)
,
[
Blenderbot
](
../model_doc/blenderbot
)
,
[
BlenderbotSmall
](
../model_doc/blenderbot-small
)
,
[
Encoder decoder
](
../model_doc/encoder-decoder
)
,
[
FairSeq Machine-Translation
](
../model_doc/fsmt
)
,
[
GPTSAN-japanese
](
../model_doc/gptsan-japanese
)
,
[
LED
](
../model_doc/led
)
,
[
LongT5
](
../model_doc/longt5
)
,
[
M2M100
](
../model_doc/m2m_100
)
,
[
Marian
](
../model_doc/marian
)
,
[
mBART
](
../model_doc/mbart
)
,
[
MT5
](
../model_doc/mt5
)
,
[
MVP
](
../model_doc/mvp
)
,
[
NLLB
](
../model_doc/nllb
)
,
[
NLLB-MOE
](
../model_doc/nllb-moe
)
,
[
Pegasus
](
../model_doc/pegasus
)
,
[
PEGASUS-X
](
../model_doc/pegasus_x
)
,
[
PLBart
](
../model_doc/plbart
)
,
[
ProphetNet
](
../model_doc/prophetnet
)
,
[
SwitchTransformers
](
../model_doc/switch_transformers
)
,
[
T5
](
../model_doc/t5
)
,
[
UMT5
](
../model_doc/umt5
)
,
[
XLM-ProphetNet
](
../model_doc/xlm-prophetnet
)
<!--End of the generated tip-->
このタスクと互換性のあるすべてのアーキテクチャとチェックポイントを確認するには、
[
タスクページ
](
https://huggingface.co/tasks/summarization
)
を確認することをお勧めします。
</Tip>
...
...
docs/source/ja/tasks/token_classification.md
View file @
0eb8fbcd
...
...
@@ -28,12 +28,8 @@ rendered properly in your Markdown viewer.
2.
微調整されたモデルを推論に使用します。
<Tip>
このチュートリアルで説明するタスクは、次のモデル アーキテクチャでサポートされています。
<!--This tip is automatically generated by `make fix-copies`, do not fill manually!-->
[
ALBERT
](
../model_doc/albert
)
,
[
BERT
](
../model_doc/bert
)
,
[
BigBird
](
../model_doc/big_bird
)
,
[
BioGpt
](
../model_doc/biogpt
)
,
[
BLOOM
](
../model_doc/bloom
)
,
[
BROS
](
../model_doc/bros
)
,
[
CamemBERT
](
../model_doc/camembert
)
,
[
CANINE
](
../model_doc/canine
)
,
[
ConvBERT
](
../model_doc/convbert
)
,
[
Data2VecText
](
../model_doc/data2vec-text
)
,
[
DeBERTa
](
../model_doc/deberta
)
,
[
DeBERTa-v2
](
../model_doc/deberta-v2
)
,
[
DistilBERT
](
../model_doc/distilbert
)
,
[
ELECTRA
](
../model_doc/electra
)
,
[
ERNIE
](
../model_doc/ernie
)
,
[
ErnieM
](
../model_doc/ernie_m
)
,
[
ESM
](
../model_doc/esm
)
,
[
Falcon
](
../model_doc/falcon
)
,
[
FlauBERT
](
../model_doc/flaubert
)
,
[
FNet
](
../model_doc/fnet
)
,
[
Funnel Transformer
](
../model_doc/funnel
)
,
[
GPT-Sw3
](
../model_doc/gpt-sw3
)
,
[
OpenAI GPT-2
](
../model_doc/gpt2
)
,
[
GPTBigCode
](
../model_doc/gpt_bigcode
)
,
[
GPT Neo
](
../model_doc/gpt_neo
)
,
[
GPT NeoX
](
../model_doc/gpt_neox
)
,
[
I-BERT
](
../model_doc/ibert
)
,
[
LayoutLM
](
../model_doc/layoutlm
)
,
[
LayoutLMv2
](
../model_doc/layoutlmv2
)
,
[
LayoutLMv3
](
../model_doc/layoutlmv3
)
,
[
LiLT
](
../model_doc/lilt
)
,
[
Longformer
](
../model_doc/longformer
)
,
[
LUKE
](
../model_doc/luke
)
,
[
MarkupLM
](
../model_doc/markuplm
)
,
[
MEGA
](
../model_doc/mega
)
,
[
Megatron-BERT
](
../model_doc/megatron-bert
)
,
[
MobileBERT
](
../model_doc/mobilebert
)
,
[
MPNet
](
../model_doc/mpnet
)
,
[
MPT
](
../model_doc/mpt
)
,
[
MRA
](
../model_doc/mra
)
,
[
Nezha
](
../model_doc/nezha
)
,
[
Nyströmformer
](
../model_doc/nystromformer
)
,
[
QDQBert
](
../model_doc/qdqbert
)
,
[
RemBERT
](
../model_doc/rembert
)
,
[
RoBERTa
](
../model_doc/roberta
)
,
[
RoBERTa-PreLayerNorm
](
../model_doc/roberta-prelayernorm
)
,
[
RoCBert
](
../model_doc/roc_bert
)
,
[
RoFormer
](
../model_doc/roformer
)
,
[
SqueezeBERT
](
../model_doc/squeezebert
)
,
[
XLM
](
../model_doc/xlm
)
,
[
XLM-RoBERTa
](
../model_doc/xlm-roberta
)
,
[
XLM-RoBERTa-XL
](
../model_doc/xlm-roberta-xl
)
,
[
XLNet
](
../model_doc/xlnet
)
,
[
X-MOD
](
../model_doc/xmod
)
,
[
YOSO
](
../model_doc/yoso
)
<!--End of the generated tip-->
このタスクと互換性のあるすべてのアーキテクチャとチェックポイントを確認するには、
[
タスクページ
](
https://huggingface.co/tasks/token-classification
)
を確認することをお勧めします。
</Tip>
...
...
docs/source/ja/tasks/translation.md
View file @
0eb8fbcd
...
...
@@ -28,13 +28,8 @@ rendered properly in your Markdown viewer.
2.
微調整されたモデルを推論に使用します。
<Tip>
このチュートリアルで説明するタスクは、次のモデル アーキテクチャでサポートされています。
<!--This tip is automatically generated by `make fix-copies`, do not fill manually!-->
[
BART
](
../model_doc/bart
)
,
[
BigBird-Pegasus
](
../model_doc/bigbird_pegasus
)
,
[
Blenderbot
](
../model_doc/blenderbot
)
,
[
BlenderbotSmall
](
../model_doc/blenderbot-small
)
,
[
Encoder decoder
](
../model_doc/encoder-decoder
)
,
[
FairSeq Machine-Translation
](
../model_doc/fsmt
)
,
[
GPTSAN-japanese
](
../model_doc/gptsan-japanese
)
,
[
LED
](
../model_doc/led
)
,
[
LongT5
](
../model_doc/longt5
)
,
[
M2M100
](
../model_doc/m2m_100
)
,
[
Marian
](
../model_doc/marian
)
,
[
mBART
](
../model_doc/mbart
)
,
[
MT5
](
../model_doc/mt5
)
,
[
MVP
](
../model_doc/mvp
)
,
[
NLLB
](
../model_doc/nllb
)
,
[
NLLB-MOE
](
../model_doc/nllb-moe
)
,
[
Pegasus
](
../model_doc/pegasus
)
,
[
PEGASUS-X
](
../model_doc/pegasus_x
)
,
[
PLBart
](
../model_doc/plbart
)
,
[
ProphetNet
](
../model_doc/prophetnet
)
,
[
SwitchTransformers
](
../model_doc/switch_transformers
)
,
[
T5
](
../model_doc/t5
)
,
[
UMT5
](
../model_doc/umt5
)
,
[
XLM-ProphetNet
](
../model_doc/xlm-prophetnet
)
<!--End of the generated tip-->
このタスクと互換性のあるすべてのアーキテクチャとチェックポイントを確認するには、
[
タスクページ
](
https://huggingface.co/tasks/translation
)
を確認することをお勧めします。
</Tip>
...
...
docs/source/ja/tasks/video_classification.md
View file @
0eb8fbcd
...
...
@@ -27,13 +27,8 @@ rendered properly in your Markdown viewer.
2.
微調整したモデルを推論に使用します。
<Tip>
このチュートリアルで説明するタスクは、次のモデル アーキテクチャでサポートされています。
<!--This tip is automatically generated by `make fix-copies`, do not fill manually!-->
[
TimeSformer
](
../model_doc/timesformer
)
,
[
VideoMAE
](
../model_doc/videomae
)
,
[
ViViT
](
../model_doc/vivit
)
<!--End of the generated tip-->
このタスクと互換性のあるすべてのアーキテクチャとチェックポイントを確認するには、
[
タスクページ
](
https://huggingface.co/tasks/video-classification
)
を確認することをお勧めします。
</Tip>
...
...
docs/source/ko/tasks/asr.md
View file @
0eb8fbcd
...
...
@@ -29,13 +29,8 @@ Siri와 Alexa와 같은 가상 어시스턴트는 ASR 모델을 사용하여 일
2.
미세 조정한 모델을 추론에 사용합니다.
<Tip>
이 튜토리얼에서 설명하는 작업은 다음 모델 아키텍처에 의해 지원됩니다:
<!--This tip is automatically generated by `make fix-copies`, do not fill manually!-->
[
Data2VecAudio
](
../model_doc/data2vec-audio
)
,
[
Hubert
](
../model_doc/hubert
)
,
[
M-CTC-T
](
../model_doc/mctct
)
,
[
SEW
](
../model_doc/sew
)
,
[
SEW-D
](
../model_doc/sew-d
)
,
[
UniSpeech
](
../model_doc/unispeech
)
,
[
UniSpeechSat
](
../model_doc/unispeech-sat
)
,
[
Wav2Vec2
](
../model_doc/wav2vec2
)
,
[
Wav2Vec2-Conformer
](
../model_doc/wav2vec2-conformer
)
,
[
WavLM
](
../model_doc/wavlm
)
<!--End of the generated tip-->
이 작업과 호환되는 모든 아키텍처와 체크포인트를 보려면
[
작업 페이지
](
https://huggingface.co/tasks/automatic-speech-recognition
)
를 확인하는 것이 좋습니다.
</Tip>
...
...
docs/source/ko/tasks/audio_classification.md
View file @
0eb8fbcd
...
...
@@ -28,13 +28,8 @@ rendered properly in your Markdown viewer.
2.
추론에 미세 조정된 모델을 사용하세요.
<Tip>
이 튜토리얼에서 설명하는 작업은 아래의 모델 아키텍처에서 지원됩니다:
<!--This tip is automatically generated by `make fix-copies`, do not fill manually!-->
[
Audio Spectrogram Transformer
](
../model_doc/audio-spectrogram-transformer
)
,
[
Data2VecAudio
](
../model_doc/data2vec-audio
)
,
[
Hubert
](
../model_doc/hubert
)
,
[
SEW
](
../model_doc/sew
)
,
[
SEW-D
](
../model_doc/sew-d
)
,
[
UniSpeech
](
../model_doc/unispeech
)
,
[
UniSpeechSat
](
../model_doc/unispeech-sat
)
,
[
Wav2Vec2
](
../model_doc/wav2vec2
)
,
[
Wav2Vec2-Conformer
](
../model_doc/wav2vec2-conformer
)
,
[
WavLM
](
../model_doc/wavlm
)
,
[
Whisper
](
../model_doc/whisper
)
<!--End of the generated tip-->
이 작업과 호환되는 모든 아키텍처와 체크포인트를 보려면
[
작업 페이지
](
https://huggingface.co/tasks/audio-classification
)
를 확인하는 것이 좋습니다.
</Tip>
...
...
docs/source/ko/tasks/document_question_answering.md
View file @
0eb8fbcd
...
...
@@ -29,13 +29,7 @@ rendered properly in your Markdown viewer.
<Tip>
이 튜토리얼에서 설명하는 태스크는 다음과 같은 모델 아키텍처에서 지원됩니다:
<!--This tip is automatically generated by `make fix-copies`, do not fill manually!-->
[
LayoutLM
](
../model_doc/layoutlm
)
,
[
LayoutLMv2
](
../model_doc/layoutlmv2
)
,
[
LayoutLMv3
](
../model_doc/layoutlmv3
)
<!--End of the generated tip-->
이 작업과 호환되는 모든 아키텍처와 체크포인트를 보려면
[
작업 페이지
](
https://huggingface.co/tasks/image-to-text
)
를 확인하는 것이 좋습니다.
</Tip>
...
...
docs/source/ko/tasks/image_classification.md
View file @
0eb8fbcd
...
...
@@ -30,12 +30,8 @@ rendered properly in your Markdown viewer.
2.
추론을 위해 미세 조정 모델을 사용합니다.
<Tip>
이 튜토리얼에서 설명하는 작업은 다음 모델 아키텍처에 의해 지원됩니다:
<!--This tip is automatically generated by `make fix-copies`, do not fill manually!-->
[
BEiT
](
../model_doc/beit
)
,
[
BiT
](
../model_doc/bit
)
,
[
ConvNeXT
](
../model_doc/convnext
)
,
[
ConvNeXTV2
](
../model_doc/convnextv2
)
,
[
CvT
](
../model_doc/cvt
)
,
[
Data2VecVision
](
../model_doc/data2vec-vision
)
,
[
DeiT
](
../model_doc/deit
)
,
[
DiNAT
](
../model_doc/dinat
)
,
[
EfficientFormer
](
../model_doc/efficientformer
)
,
[
EfficientNet
](
../model_doc/efficientnet
)
,
[
FocalNet
](
../model_doc/focalnet
)
,
[
ImageGPT
](
../model_doc/imagegpt
)
,
[
LeViT
](
../model_doc/levit
)
,
[
MobileNetV1
](
../model_doc/mobilenet_v1
)
,
[
MobileNetV2
](
../model_doc/mobilenet_v2
)
,
[
MobileViT
](
../model_doc/mobilevit
)
,
[
NAT
](
../model_doc/nat
)
,
[
Perceiver
](
../model_doc/perceiver
)
,
[
PoolFormer
](
../model_doc/poolformer
)
,
[
RegNet
](
../model_doc/regnet
)
,
[
ResNet
](
../model_doc/resnet
)
,
[
SegFormer
](
../model_doc/segformer
)
,
[
Swin Transformer
](
../model_doc/swin
)
,
[
Swin Transformer V2
](
../model_doc/swinv2
)
,
[
VAN
](
../model_doc/van
)
,
[
ViT
](
../model_doc/vit
)
,
[
ViT Hybrid
](
../model_doc/vit_hybrid
)
,
[
ViTMSN
](
../model_doc/vit_msn
)
<!--End of the generated tip-->
이 작업과 호환되는 모든 아키텍처와 체크포인트를 보려면
[
작업 페이지
](
https://huggingface.co/tasks/image-classification
)
를 확인하는 것이 좋습니다.
</Tip>
...
...
docs/source/ko/tasks/language_modeling.md
View file @
0eb8fbcd
...
...
@@ -33,14 +33,8 @@ rendered properly in your Markdown viewer.
2.
미세 조정된 모델을 추론에 사용
<Tip>
이 안내서의 단계와 동일한 방법으로 인과 언어 모델링을 위해 다른 아키텍처를 미세 조정할 수 있습니다.
다음 아키텍처 중 하나를 선택하세요:
<!--This tip is automatically generated by `make fix-copies`, do not fill manually!-->
[
BART
](
../model_doc/bart
)
,
[
BERT
](
../model_doc/bert
)
,
[
Bert Generation
](
../model_doc/bert-generation
)
,
[
BigBird
](
../model_doc/big_bird
)
,
[
BigBird-Pegasus
](
../model_doc/bigbird_pegasus
)
,
[
BioGpt
](
../model_doc/biogpt
)
,
[
Blenderbot
](
../model_doc/blenderbot
)
,
[
BlenderbotSmall
](
../model_doc/blenderbot-small
)
,
[
BLOOM
](
../model_doc/bloom
)
,
[
CamemBERT
](
../model_doc/camembert
)
,
[
CodeGen
](
../model_doc/codegen
)
,
[
CPM-Ant
](
../model_doc/cpmant
)
,
[
CTRL
](
../model_doc/ctrl
)
,
[
Data2VecText
](
../model_doc/data2vec-text
)
,
[
ELECTRA
](
../model_doc/electra
)
,
[
ERNIE
](
../model_doc/ernie
)
,
[
GIT
](
../model_doc/git
)
,
[
GPT-Sw3
](
../model_doc/gpt-sw3
)
,
[
OpenAI GPT-2
](
../model_doc/gpt2
)
,
[
GPTBigCode
](
../model_doc/gpt_bigcode
)
,
[
GPT Neo
](
../model_doc/gpt_neo
)
,
[
GPT NeoX
](
../model_doc/gpt_neox
)
,
[
GPT NeoX Japanese
](
../model_doc/gpt_neox_japanese
)
,
[
GPT-J
](
../model_doc/gptj
)
,
[
LLaMA
](
../model_doc/llama
)
,
[
Marian
](
../model_doc/marian
)
,
[
mBART
](
../model_doc/mbart
)
,
[
MEGA
](
../model_doc/mega
)
,
[
Megatron-BERT
](
../model_doc/megatron-bert
)
,
[
MVP
](
../model_doc/mvp
)
,
[
OpenLlama
](
../model_doc/open-llama
)
,
[
OpenAI GPT
](
../model_doc/openai-gpt
)
,
[
OPT
](
../model_doc/opt
)
,
[
Pegasus
](
../model_doc/pegasus
)
,
[
PLBart
](
../model_doc/plbart
)
,
[
ProphetNet
](
../model_doc/prophetnet
)
,
[
QDQBert
](
../model_doc/qdqbert
)
,
[
Reformer
](
../model_doc/reformer
)
,
[
RemBERT
](
../model_doc/rembert
)
,
[
RoBERTa
](
../model_doc/roberta
)
,
[
RoBERTa-PreLayerNorm
](
../model_doc/roberta-prelayernorm
)
,
[
RoCBert
](
../model_doc/roc_bert
)
,
[
RoFormer
](
../model_doc/roformer
)
,
[
RWKV
](
../model_doc/rwkv
)
,
[
Speech2Text2
](
../model_doc/speech_to_text_2
)
,
[
Transformer-XL
](
../model_doc/transfo-xl
)
,
[
TrOCR
](
../model_doc/trocr
)
,
[
XGLM
](
../model_doc/xglm
)
,
[
XLM
](
../model_doc/xlm
)
,
[
XLM-ProphetNet
](
../model_doc/xlm-prophetnet
)
,
[
XLM-RoBERTa
](
../model_doc/xlm-roberta
)
,
[
XLM-RoBERTa-XL
](
../model_doc/xlm-roberta-xl
)
,
[
XLNet
](
../model_doc/xlnet
)
,
[
X-MOD
](
../model_doc/xmod
)
<!--End of the generated tip-->
이 작업과 호환되는 모든 아키텍처와 체크포인트를 보려면
[
작업 페이지
](
https://huggingface.co/tasks/text-generation
)
를 확인하는 것이 좋습니다.
</Tip>
...
...
Prev
1
2
3
Next
Write
Preview
Markdown
is supported
0%
Try again
or
attach a new file
.
Attach a file
Cancel
You are about to add
0
people
to the discussion. Proceed with caution.
Finish editing this message first!
Cancel
Please
register
or
sign in
to comment