Unverified Commit 0d92798b authored by Rafael Zimmer's avatar Rafael Zimmer Committed by GitHub
Browse files

Added translation of index.mdx to Portuguese Issue #16824 (#17565)



* Added translation of installation.mdx to Portuguese, as well
as default templates of _toctree.yml and _config.py

* [ build_documentation.yml ] - Updated doc_builder to build
documentation in Portuguese.
[ pipeline_tutorial.mdx ] - Created translation for the pipeline_tutorial.mdx.

* [ build_pr_documentation.yml ] - Added pt language to pr_documentation builder.

[ pipeline_tutorial.mdx ] - Grammar changes.

* [ accelerate.mdx ] - Translated to Portuguese the acceleration tutorial.

* [ multilingual.mdx ] - Added portuguese translation for multilingual tutorial.

[ training.mdx ] - Added portuguese translation for training tutorial.

* [ preprocessing.mdx ] - WIP

* Update _toctree.yml

* Adding Pré-processamento to _toctree.yml

* Update accelerate.mdx

* Nits and eliminate preprocessing file while it is ready

* [ index.mdx ] - Translated to Portuguese the index apresentation page.

* [ docs/source/pt ] - Updated _toctree.yml to match newest translations.

* Fix build_pr_documentation.yml

* Fix index nits

* nits in _toctree
Co-authored-by: default avatarOmar U. Espejel <espejelomar@gmail.com>
parent 522a9ece
- sections: - sections:
- local: index
title: 🤗 Transformers
- local: quicktour - local: quicktour
title: Tour rápido title: Tour rápido
- local: installation - local: installation
title: Instalação title: Instalação
title: Iniciar title: Início
- sections: - sections:
- local: pipeline_tutorial - local: pipeline_tutorial
title: Pipelines para inferência title: Pipelines para inferência
......
This diff is collapsed.
...@@ -19,7 +19,7 @@ permite utilizar modelos de última geração sem ter que treinar um novo desde ...@@ -19,7 +19,7 @@ permite utilizar modelos de última geração sem ter que treinar um novo desde
O 🤗 Transformers proporciona acesso a milhares de modelos pré-treinados numa ampla gama de tarefas. O 🤗 Transformers proporciona acesso a milhares de modelos pré-treinados numa ampla gama de tarefas.
Quando utilizar um modelo pré-treinado, treine-o com um dataset específico para a sua tarefa. Quando utilizar um modelo pré-treinado, treine-o com um dataset específico para a sua tarefa.
Isto é chamado de fine-tuning, uma técnica de treinamento incrivelmente poderosa. Neste tutorial faremos o fine-tuning Isto é chamado de fine-tuning, uma técnica de treinamento incrivelmente poderosa. Neste tutorial faremos o fine-tuning
a um modelo pré-treinado com um framework de Deep Learning de sua escolha: de um modelo pré-treinado com um framework de Deep Learning da sua escolha:
* Fine-tuning de um modelo pré-treinado com o 🤗 Transformers [`Trainer`]. * Fine-tuning de um modelo pré-treinado com o 🤗 Transformers [`Trainer`].
* Fine-tuning de um modelo pré-treinado no TensorFlow com o Keras. * Fine-tuning de um modelo pré-treinado no TensorFlow com o Keras.
...@@ -78,7 +78,7 @@ Se desejar, é possível criar um subconjunto menor do dataset completo para apl ...@@ -78,7 +78,7 @@ Se desejar, é possível criar um subconjunto menor do dataset completo para apl
<Youtube id="nvBXf7s7vTI"/> <Youtube id="nvBXf7s7vTI"/>
O 🤗 Transformers proporciona uma classe [`Trainer`] otimizada para o treinamento de modelos de 🤗 Transformers, O 🤗 Transformers proporciona uma classe [`Trainer`] otimizada para o treinamento de modelos de 🤗 Transformers,
facilitando os primeiros passos do treinamento sem a necessidade de escrever manualmente seu próprio ciclo. facilitando os primeiros passos do treinamento sem a necessidade de escrever manualmente o seu próprio ciclo.
A API do [`Trainer`] suporta um grande conjunto de opções de treinamento e funcionalidades, como o logging, A API do [`Trainer`] suporta um grande conjunto de opções de treinamento e funcionalidades, como o logging,
o gradient accumulation e o mixed precision. o gradient accumulation e o mixed precision.
...@@ -131,8 +131,8 @@ uma função de [`accuracy`](https://huggingface.co/metrics/accuracy) simples qu ...@@ -131,8 +131,8 @@ uma função de [`accuracy`](https://huggingface.co/metrics/accuracy) simples qu
>>> metric = load_metric("accuracy") >>> metric = load_metric("accuracy")
``` ```
Defina a função `compute` dentro de `metric` para calcular a precisão de suas predições. Defina a função `compute` dentro de `metric` para calcular a precisão das suas predições.
Antes de passar suas predições ao `compute`, é necessário converter as predições à logits (lembre-se que Antes de passar as suas predições ao `compute`, é necessário converter as predições à logits (lembre-se que
todos os modelos de 🤗 Transformers retornam logits). todos os modelos de 🤗 Transformers retornam logits).
```py ```py
...@@ -142,8 +142,8 @@ todos os modelos de 🤗 Transformers retornam logits). ...@@ -142,8 +142,8 @@ todos os modelos de 🤗 Transformers retornam logits).
... return metric.compute(predictions=predictions, references=labels) ... return metric.compute(predictions=predictions, references=labels)
``` ```
Se quiser controlar suas métricas de avaliação durante o fine-tuning, especifique o parâmetro `evaluation_strategy` Se quiser controlar as suas métricas de avaliação durante o fine-tuning, especifique o parâmetro `evaluation_strategy`
em seus argumentos de treinamento para que o modelo leve em conta a métrica de avaliação ao final de cada época: nos seus argumentos de treinamento para que o modelo considere a métrica de avaliação ao final de cada época:
```py ```py
>>> from transformers import TrainingArguments >>> from transformers import TrainingArguments
...@@ -153,7 +153,7 @@ em seus argumentos de treinamento para que o modelo leve em conta a métrica de ...@@ -153,7 +153,7 @@ em seus argumentos de treinamento para que o modelo leve em conta a métrica de
### Trainer ### Trainer
Crie um objeto [`Trainer`] com seu modelo, argumentos de treinamento, conjuntos de dados de treinamento e de teste, e sua função de avaliação: Crie um objeto [`Trainer`] com o seu modelo, argumentos de treinamento, conjuntos de dados de treinamento e de teste, e a sua função de avaliação:
```py ```py
>>> trainer = Trainer( >>> trainer = Trainer(
...@@ -251,7 +251,7 @@ faria com qualquer outro modelo do Keras: ...@@ -251,7 +251,7 @@ faria com qualquer outro modelo do Keras:
<Youtube id="Dh9CL8fyG80"/> <Youtube id="Dh9CL8fyG80"/>
O [`Trainer`] se encarrega do ciclo de treinamento e permite aplicar o fine-tuning a um modelo em uma linha de código apenas. O [`Trainer`] se encarrega do ciclo de treinamento e permite aplicar o fine-tuning a um modelo em uma linha de código apenas.
Para os usuários que preferirem escrever seu próprio ciclo de treinamento, também é possível aplicar o fine-tuning a um Para os usuários que preferirem escrever o seu próprio ciclo de treinamento, também é possível aplicar o fine-tuning a um
modelo de 🤗 Transformers em PyTorch nativo. modelo de 🤗 Transformers em PyTorch nativo.
Neste momento, talvez ocorra a necessidade de reinicar seu notebook ou executar a seguinte linha de código para liberar Neste momento, talvez ocorra a necessidade de reinicar seu notebook ou executar a seguinte linha de código para liberar
...@@ -293,7 +293,7 @@ Em sequência, crie um subconjunto menor do dataset, como foi mostrado anteriorm ...@@ -293,7 +293,7 @@ Em sequência, crie um subconjunto menor do dataset, como foi mostrado anteriorm
### DataLoader ### DataLoader
Crie um `DataLoader` para seus datasets de treinamento e de teste para poder iterar sobre batches de dados: Crie um `DataLoader` para os seus datasets de treinamento e de teste para poder iterar sobre batches de dados:
```py ```py
>>> from torch.utils.data import DataLoader >>> from torch.utils.data import DataLoader
...@@ -352,7 +352,6 @@ em uma CPU pode acabar levando várias horas em vez de minutos. ...@@ -352,7 +352,6 @@ em uma CPU pode acabar levando várias horas em vez de minutos.
</Tip> </Tip>
Perfeito, agora estamos prontos para começar o treinamento! 🥳 Perfeito, agora estamos prontos para começar o treinamento! 🥳
Genial, ¡ahora estamos listos entrenar! 🥳
### Ciclo de treinamento ### Ciclo de treinamento
......
Markdown is supported
0% or .
You are about to add 0 people to the discussion. Proceed with caution.
Finish editing this message first!
Please register or to comment