Skip to content
New issue

Have a question about this project? Sign up for a free GitHub account to open an issue and contact its maintainers and the community.

By clicking “Sign up for GitHub”, you agree to our terms of service and privacy statement. We’ll occasionally send you account related emails.

Already on GitHub? Sign in to your account

[i18n-FR] Translated "hf file system" to french (sub PR of 1900) #2331

Open
wants to merge 93 commits into
base: main
Choose a base branch
from
Open
Changes from 1 commit
Commits
Show all changes
93 commits
Select commit Hold shift + click to select a range
cbde7dc
Translated toctree & git_vs_htttp
Dec 9, 2023
7d596f8
Translated the cli guide
Dec 10, 2023
9ab5ba7
Testing to see if user is well configured
Dec 10, 2023
5646220
TEsting to see if branch is well configured
Dec 10, 2023
8d3cd26
Translated index
Dec 10, 2023
2687f87
Translated quick-start
Dec 10, 2023
7aff9fd
Corrected a minor error in the english doc
JibrilEl Dec 11, 2023
9fd8930
Reverting a wrong change
JibrilEl Dec 11, 2023
1ea5fc7
Translated installation.md
JibrilEl Dec 11, 2023
66c11a3
Translated community.md
JibrilEl Dec 11, 2023
d2b4c30
Translated download.md
JibrilEl Dec 11, 2023
87b5bbe
Translated hf_file_system.md
JibrilEl Dec 11, 2023
d18cbf9
Translated inference_client
JibrilEl Dec 11, 2023
3f3e831
Translated inference_endpoints.md
JibrilEl Dec 11, 2023
d492923
Fixed a few errors in the translation
JibrilEl Dec 12, 2023
1127be0
Translated integrations.md
JibrilEl Dec 13, 2023
c12624a
Translated mana-cache.md. Did not find a good translfation for cache-…
JibrilEl Dec 14, 2023
a56ee9b
Translated manage-space.md
JibrilEl Dec 15, 2023
158220b
Translated overview.md
JibrilEl Dec 16, 2023
9e2910a
Translated package-reference file
JibrilEl Dec 16, 2023
f7ec79f
Translated hf_api, login, mixins, repository, space_runtime and tenso…
JibrilEl Dec 18, 2023
c043949
Finished the translation of package reference by translating utilitie…
JibrilEl Dec 19, 2023
f2abc0e
Translated model-cards.md
JibrilEl Dec 20, 2023
2aff74f
Translated collections.md
JibrilEl Dec 27, 2023
9189ef8
translated community.md
JibrilEl Dec 28, 2023
df12926
Translated download.md, corrected an error in the english version and…
JibrilEl Dec 29, 2023
621b58c
translated hf_file_system
JibrilEl Dec 30, 2023
f7f7190
Translated inference_endpoints.md
JibrilEl Jan 1, 2024
4a250a5
Translated inference.md
JibrilEl Jan 2, 2024
ea0137b
translated repository.md
JibrilEl Jan 3, 2024
f521215
Translated search.md
JibrilEl Jan 3, 2024
8ab86fb
Translated webhooks_server.md
JibrilEl Jan 3, 2024
c420deb
corrected webhooks
JibrilEl Jan 4, 2024
ca05e4e
Translated upload.md
JibrilEl Jan 4, 2024
a166872
Added "fr" to .github/workflow
JibrilEl Jan 7, 2024
a6bff36
Deleted redirects as it is not needed
JibrilEl Jan 7, 2024
6946056
Corrected toctree.yml
JibrilEl Jan 7, 2024
c1af8c0
Corrected errors o quick-start.md
JibrilEl Jan 7, 2024
5569ed9
Corrected installation.md
JibrilEl Jan 8, 2024
913454f
Changed the translation of the product "space" in the whole documenta…
JibrilEl Jan 10, 2024
4187a37
Corrected git_vs_http
JibrilEl Feb 2, 2024
5617984
Corrected CLI.md
JibrilEl Feb 2, 2024
48c4612
Corrected collections.md
JibrilEl Feb 2, 2024
7efb701
Corrected community.md
JibrilEl Feb 3, 2024
de03384
Corrected download.md
JibrilEl Feb 3, 2024
353fa23
Corrected hf_file_system
JibrilEl Feb 3, 2024
1fad9bd
Correction of docs/source/fr/concepts/git_vs_http.md
JibrilEl Feb 9, 2024
5089a9a
Corrected git vs http and index.md
JibrilEl Feb 9, 2024
101e35c
Merge branch 'main' of https://github.com/JibrilEl/huggingface_hub
JibrilEl Feb 9, 2024
82c8a79
Finished correcting index.md
JibrilEl Feb 9, 2024
499cd8c
Update docs/source/fr/installation.md
JibrilEl Feb 9, 2024
5655476
Update docs/source/fr/_toctree.yml
JibrilEl Feb 9, 2024
3e50bad
Update docs/source/fr/installation.md
JibrilEl Feb 9, 2024
afbf7db
Update docs/source/fr/installation.md
JibrilEl Feb 9, 2024
1625548
Update docs/source/fr/installation.md
JibrilEl Feb 9, 2024
dd88260
Update docs/source/fr/installation.md
JibrilEl Feb 9, 2024
1759188
Update docs/source/fr/installation.md
JibrilEl Feb 9, 2024
28daada
Update docs/source/fr/installation.md
JibrilEl Feb 9, 2024
06dc88f
Update docs/source/fr/installation.md
JibrilEl Feb 9, 2024
8cf7df0
Update docs/source/fr/installation.md
JibrilEl Feb 9, 2024
3cb34a5
Update docs/source/fr/installation.md
JibrilEl Feb 9, 2024
925b655
Update docs/source/fr/installation.md
JibrilEl Feb 9, 2024
07d3824
Update docs/source/fr/installation.md
JibrilEl Feb 9, 2024
ad44254
Update docs/source/fr/installation.md
JibrilEl Feb 9, 2024
e366b2c
Update docs/source/fr/installation.md
JibrilEl Feb 9, 2024
6d37e1c
Update docs/source/fr/installation.md
JibrilEl Feb 9, 2024
e5b6ded
Finished correcting index.md
JibrilEl Feb 9, 2024
900dcce
Merge branch 'main' of https://github.com/JibrilEl/huggingface_hub
JibrilEl Feb 9, 2024
3c75477
Corrected inference endpoint, a lot of mistakes might have to look at…
JibrilEl Feb 13, 2024
5637113
Update docs/source/fr/concepts/git_vs_http.md
JibrilEl Feb 16, 2024
a735616
Update docs/source/fr/concepts/git_vs_http.md
JibrilEl Feb 16, 2024
8a578f2
Update docs/source/fr/concepts/git_vs_http.md
JibrilEl Feb 16, 2024
8782aed
Update docs/source/fr/_toctree.yml
JibrilEl Feb 16, 2024
d38bf37
Update docs/source/fr/_toctree.yml
JibrilEl Feb 16, 2024
64e18b7
Update docs/source/fr/_toctree.yml
JibrilEl Feb 16, 2024
8423a9e
Update docs/source/fr/_toctree.yml
JibrilEl Feb 16, 2024
c618150
Update docs/source/fr/_toctree.yml
JibrilEl Feb 16, 2024
8666812
Update docs/source/fr/_toctree.yml
JibrilEl Feb 16, 2024
7cdefa2
Update docs/source/fr/_toctree.yml
JibrilEl Feb 16, 2024
2b19af2
Update docs/source/fr/concepts/git_vs_http.md
JibrilEl Feb 16, 2024
8924212
Update docs/source/fr/concepts/git_vs_http.md
JibrilEl Feb 16, 2024
2475344
Update docs/source/fr/concepts/git_vs_http.md
JibrilEl Feb 16, 2024
8ce66cf
Update docs/source/fr/concepts/git_vs_http.md
JibrilEl Feb 16, 2024
bdd7733
Update docs/source/fr/concepts/git_vs_http.md
JibrilEl Feb 16, 2024
5ea15ea
Update docs/source/fr/concepts/git_vs_http.md
JibrilEl Feb 16, 2024
fc85362
Update docs/source/fr/concepts/git_vs_http.md
JibrilEl Feb 16, 2024
5246973
Deleted files
JibrilEl Jun 7, 2024
34c49a7
Deleted files
JibrilEl Jun 7, 2024
63b0dd2
Revert "Deleted files"
JibrilEl Jun 7, 2024
64d4f60
Merge remote-tracking branch 'upstream/main'
JibrilEl Jun 12, 2024
2b89ea3
Deleted files
JibrilEl Jun 7, 2024
6a37d01
Delete files
JibrilEl Jun 12, 2024
536b8b2
Delete files
JibrilEl Jun 12, 2024
File filter

Filter by extension

Filter by extension

Conversations
Failed to load comments.
Loading
Jump to
Jump to file
Failed to load files.
Loading
Diff view
Diff view
Prev Previous commit
Next Next commit
Corrected inference endpoint, a lot of mistakes might have to look at…
… it again
  • Loading branch information
JibrilEl committed Feb 13, 2024
commit 3c754778cbfacf008142fa9aceefa34736fdd65c
62 changes: 31 additions & 31 deletions docs/source/fr/guides/inference_endpoints.md
Original file line number Diff line number Diff line change
@@ -1,14 +1,14 @@
# Inference Endpoints

Inference Endpoints fournit une solution viable pour la production et sécurisée pour déployer facilement n'importe quel modèle `transformers`, `sentence-transformers`, et `diffusers` sur une infrastructure dédiée et capable d'autoscaling gérée par Hugging Face. Un endpoint d'inférence est construit à partir d'un modèle du [Hub](https://huggingface.co/models).
Inference Endpoints fournit une solution sécurisée viable pour la production pour déployer facilement n'importe quel modèle `transformers`, `sentence-transformers`, et `diffusers` sur une infrastructure dédiée et scalable gérée par Hugging Face. Un inference endpoint est construit à partir d'un modèle du [Hub](https://huggingface.co/models).
Dans ce guide, nous apprendront comment gérer les endpoints d'inférence par le code en utilisant `huggingface_hub`. Pour plus d'informations sur le produit lui même, consultez sa [documentation officielle](https://huggingface.co/docs/inference-endpoints/index).

Ce guide postule que vous avez installé `huggingface_hub` correctement et que votre machine est connectée. Consultez le [guide quick start](https://huggingface.co/docs/huggingface_hub/quick-start#quickstart) si ce n'est pas le cas. La version la plus ancienne supportant l'API d'inference endpoints est `v0.19.0`.
Ce guide suppose que vous avez installé `huggingface_hub` correctement et que votre machine est connectée. Consultez le [guide quick start](https://huggingface.co/docs/huggingface_hub/quick-start#quickstart) si ce n'est pas le cas. La version la plus ancienne supportant l'API d'inference endpoints est `v0.19.0`.


## Créez un endpoint d'inférence
## Créez un inference endpoint

La première étape pour créer un endpoint d'inférence est d'utiliser [`create_inference_endpoint`]:
La première étape pour créer un inference endpoint est d'utiliser [`create_inference_endpoint`]:

```py
>>> from huggingface_hub import create_inference_endpoint
@@ -27,7 +27,7 @@ La première étape pour créer un endpoint d'inférence est d'utiliser [`create
... )
```

Dans cet exemple, nous avons créé un endpoint d'inférence de type `protected` qui a pour nom `"my-endpoint-name"`, il utilise [gpt2](https://huggingface.co/gpt2) pour faire de la génération de texte (`text-generation`). Le type `protected` signfie que votre token sera demandé pour accéder à l'API. Nous aurons aussi besoin de fournir des informations supplémentaires pour préciser le hardware nécessaire, tel que le provider, la région, l'accélérateur, le type d'instance et la taille. Vous pouvez consulter la liste des ressources disponibles [ici](https://api.endpoints.huggingface.cloud/#/v2%3A%3Aprovider/list_vendors). Par ailleurs, vous pouvez aussi créer un endpoint d'inférence manuellement en utilisant l'[interface web](https://ui.endpoints.huggingface.co/new) si c'est plus pratique pour vous. Consultez ce [guide](https://huggingface.co/docs/inference-endpoints/guides/advanced) pour des détails sur les paramètres avancés et leur utilisation.
Dans cet exemple, nous avons créé un inference endpoint de type `protected` qui a pour nom `"my-endpoint-name"`, il utilise [gpt2](https://huggingface.co/gpt2) pour faire de la génération de texte (`text-generation`). Le type `protected` signfie que votre token sera demandé pour accéder à l'API. Il faudra aussi fournir des informations supplémentaires pour préciser le hardware nécessaire, telles que le provider, la région, l'accélérateur, le type d'instance et la taille. Vous pouvez consulter la liste des ressources disponibles [ici](https://api.endpoints.huggingface.cloud/#/v2%3A%3Aprovider/list_vendors). Par ailleurs, vous pouvez aussi créer un inference endpoint manuellement en utilisant l'[interface web](https://ui.endpoints.huggingface.co/new) si c'est plus pratique pour vous. Consultez ce [guide](https://huggingface.co/docs/inference-endpoints/guides/advanced) pour des détails sur les paramètres avancés et leur utilisation.

La valeur renvoyée par [`create_inference_endpoint`] est un objet [`InferenceEndpoint`]:

@@ -36,18 +36,18 @@ La valeur renvoyée par [`create_inference_endpoint`] est un objet [`InferenceEn
InferenceEndpoint(name='my-endpoint-name', namespace='Wauplin', repository='gpt2', status='pending', url=None)
```

C'est une dataclass qui a des informations sur l'endpoitn. Vous pouvez avoir accès à des attributs importants tels que `name`, `repository`, `status`, `task`, `created_at`, `updated_at`, etc. (respectivement le nom, le dépôt d'origine, le statut, la tâche assignée, la date de création et la date de dernière modification). Si vous en avez besoin, vous pouvez aussi avoir accès à la réponse brute du serveur avec `endpoint.raw`.
C'est une dataclass qui contient des informations sur l'endpoint. Vous pouvez avoir accès à des attributs importants tels que `name`, `repository`, `status`, `task`, `created_at`, `updated_at`, etc. (respectivement le nom, le dépôt d'origine, le statut, la tâche assignée, la date de création et la date de dernière modification). Si vous en avez besoin, vous pouvez aussi avoir accès à la réponse brute du serveur avec `endpoint.raw`.

Une fois que votre endpoint d'inférence est créé, vous pouvez le retrouver sur votre [dashboard personnel](https://ui.endpoints.huggingface.co/).
Une fois que votre inference endpoint est créé, vous pouvez le retrouver sur votre [dashboard personnel](https://ui.endpoints.huggingface.co/).

![](https://huggingface.co/datasets/huggingface/documentation-images/resolve/main/huggingface_hub/inference_endpoints_created.png)

#### Utiliser une image personnalisée

Par défaut, l'endpoint d'inférence est construit à partir d'une image docker fournie par Hugging Face. Cependant, i lest possible de préciser n'importe quelle image docker en utilisant le paramètre `custom_image`. Un cas d'usage fréquent est l'utilisation des LLM avec le framework [text-generation-inference](https://github.com/huggingface/text-generation-inference). On peut le faire ainsi:
Par défaut, l'inference endpoint est construit à partir d'une image docker fournie par Hugging Face. Cependant, il est possible de préciser n'importe quelle image docker en utilisant le paramètre `custom_image`. Un cas d'usage fréquent est l'utilisation des LLM avec le framework [text-generation-inference](https://github.com/huggingface/text-generation-inference). On peut le faire ainsi:

```python
# Créé un endpoint d'inférence utilisant le modèle Zephyr-7b-beta sur une TGI
# Créé un inference endpoint utilisant le modèle Zephyr-7b-beta sur une TGI
>>> from huggingface_hub import create_inference_endpoint
>>> endpoint = create_inference_endpoint(
... "aws-zephyr-7b-beta-0486",
@@ -77,12 +77,12 @@ La valeur à passer dans `custom_image` est un dictionnaire contenant un url ver

### Obtenir ou lister tous les endpoints d"inférence existants

Dans certains cas, vous aurez besoin de gérer les endpoints d'inférence précédemment créés. Si vous connaissez leur nom, vous pouvez les récupérer en utilisant [`get_inference_endpoint`], qui renvoie un objet [`INferenceEndpoint`]. Sinon, vous pouvez utiliser [`list_inference_endpoints`] pour récupérer une liste de tous les endpoints d'inférence. Les deux méthodes acceptent en paramètre optionnel `namespace`. Vous pouvez mettre en `namespace` n'importe quelle organisation dont vous faites partie. Si vous ne renseignez pas ce paramètre, votre nom d'utilisateur sera utilisé par défaut.
Dans certains cas, vous aurez besoin de gérer les endpoints d'inférence précédemment créés. Si vous connaissez leur nom, vous pouvez les récupérer en utilisant [`get_inference_endpoint`], qui renvoie un objet [`InferenceEndpoint`]. Sinon, vous pouvez utiliser [`list_inference_endpoints`] pour récupérer une liste de tous les endpoints d'inférence. Les deux méthodes acceptent en paramètre optionnel `namespace`. Vous pouvez mettre en `namespace` n'importe quelle organisation dont vous faites partie. Si vous ne renseignez pas ce paramètre, votre nom d'utilisateur sera utilisé par défaut.

```py
>>> from huggingface_hub import get_inference_endpoint, list_inference_endpoints

# Obtiens un endpoint
# Obtient un endpoint
>>> get_inference_endpoint("my-endpoint-name")
InferenceEndpoint(name='my-endpoint-name', namespace='Wauplin', repository='gpt2', status='pending', url=None)

@@ -95,24 +95,24 @@ InferenceEndpoint(name='my-endpoint-name', namespace='Wauplin', repository='gpt2
[InferenceEndpoint(name='aws-starchat-beta', namespace='huggingface', repository='HuggingFaceH4/starchat-beta', status='paused', url=None), ...]
```

## Vérifier le statu de déploiement
## Vérifier le statut de déploiement

Dans le reste de ce guide, nous supposons que nous possèdons un objet [`InferenceEndpoint`] appelé `endpoint`. Vous avez peut-être remarqué que l'endpoint a un attribut `status` de type [`InferenceEndpointStatus`]. Lorsque l'endpoint d'inférence est déployé et accessible, le statut est `"running"` et l'attribut `url` est défini:
Dans le reste de ce guide, nous supposons que nous possèdons un objet [`InferenceEndpoint`] appelé `endpoint`. Vous avez peut-être remarqué que l'endpoint a un attribut `status` de type [`InferenceEndpointStatus`]. Lorsque l'inference endpoint est déployé et accessible, le statut est `"running"` et l'attribut `url` est défini:

```py
>>> endpoint
InferenceEndpoint(name='my-endpoint-name', namespace='Wauplin', repository='gpt2', status='running', url='https://jpj7k2q4j805b727.us-east-1.aws.endpoints.huggingface.cloud')
```

Avant d'atteindre l'état `"running"`, l'endpoint d'inférence passe généralement par une phase `"initializing"` ou `"pending"`. Vous pouvez récupérer le nouvel état de l'endpoint en lançant [`~InferenceEndpoint.fetch`]. Comme toutes les autres méthodes d'[`InferenceEndpoint`] qui envoient une requête vers le serveur, les attributs internes d'`endpoint` sont mutés sur place:
Avant d'atteindre l'état `"running"`, l'inference endpoint passe généralement par une phase `"initializing"` ou `"pending"`. Vous pouvez récupérer le nouvel état de l'endpoint en lançant [`~InferenceEndpoint.fetch`]. Comme toutes les autres méthodes d'[`InferenceEndpoint`] qui envoient une requête vers le serveur, les attributs internes d'`endpoint` sont mutés:

```py
>>> endpoint.fetch()
InferenceEndpoint(name='my-endpoint-name', namespace='Wauplin', repository='gpt2', status='pending', url=None)
```

Aulieu de récupérer le statut de l'endpoint d'inférence lorsque vous attendez qu'il soit lancé, vous pouvez directement appeler
[`~InferenceEndpoint.wait`]. Cet helper prend en entrée les paramètres `timeout` et `fetch_every` (en secondes) et bloquera le thread jusqu'à ce que l'endpoint d'inférence soit déployé. Les valeurs par défaut sont respectivement `None` (pas de timeout) et `5` secondes.
Aulieu de récupérer le statut de l'inference endpoint lorsque vous attendez qu'il soit lancé, vous pouvez directement appeler
[`~InferenceEndpoint.wait`]. Cet helper prend en entrée les paramètres `timeout` et `fetch_every` (en secondes) et bloquera le thread jusqu'à ce que l'inference endpoint soit déployé. Les valeurs par défaut sont respectivement `None` (pas de timeout) et `5` secondes.

```py
# Endpoint en attente
@@ -124,29 +124,29 @@ InferenceEndpoint(name='my-endpoint-name', namespace='Wauplin', repository='gpt2
raise InferenceEndpointTimeoutError("Timeout while waiting for Inference Endpoint to be deployed.")
huggingface_hub._inference_endpoints.InferenceEndpointTimeoutError: Timeout while waiting for Inference Endpoint to be deployed.

# Attend plus
# Attend plus longtemps
>>> endpoint.wait()
InferenceEndpoint(name='my-endpoint-name', namespace='Wauplin', repository='gpt2', status='running', url='https://jpj7k2q4j805b727.us-east-1.aws.endpoints.huggingface.cloud')
```

Si `timeout` est définit et que l'endpoint d'inférence prend trop de temps à charger, une erreur [`InferenceEndpointTimeouError`] est levée.
Si `timeout` est définit et que l'inference endpoint prend trop de temps à charger, une erreur [`InferenceEndpointTimeouError`] est levée.

## Lancez des inférences
## Lancer des inférences

Une fois que votre endpoint d'inférence est fonctionnel, vous pouvez enfin faire de l'inférence avec!
Une fois que votre inference endpoint est fonctionnel, vous pouvez enfin faire de l'inférence!

[`InferenceEndpoint`] a deux propriétés `client` et `async_client` qui renvoient respectivement des objets [`InferenceClient`] et [`AsyncInferenceClient`].

```py
# Lancez un tâche de génération de texte:
# Lance un tâche de génération de texte:
>>> endpoint.client.text_generation("I am")
' not a fan of the idea of a "big-budget" movie. I think it\'s a'

# Ou dans un contexte asynchrone:
>>> await endpoint.async_client.text_generation("I am")
```

Si l'endpoint d'inférence n'est pas opérationnel, une exception [`InferenceEndpointError`] est levée:
Si l'inference endpoint n'est pas opérationnel, une exception [`InferenceEndpointError`] est levée:

```py
>>> endpoint.client
@@ -158,21 +158,21 @@ Pour plus de détails sur l'utilisation d'[`InferenceClient`], consultez le [gui
## Gérer les cycles de vie


Maintenant que nous avons vu comment créer un endpoint d'inférence et faire de l'inférence avec, regardons comment gérer son cycle de vie.
Maintenant que nous avons vu comment créer un inference endpoint et faire de l'inférence avec, regardons comment gérer son cycle de vie.

<Tip>

Dans cette section, nous verrons des méthodes telles que [`~InferenceEndpoint.pause`], [`~InferenceEndpoint.resume`], [`~InferenceEndpoint.scale_to_zero`], [`~InferenceEndpoint.update`] et [`~InferenceEndpoint.delete`]. Toutes ces méthodes sont des alias ajoutés à [`InferenceEndpoint`]. Si vous préférez, vous pouvez aussi utiliser les méthodes génériques définies dans `HfApi`: [`pause_inference_endpoint`], [`resume_inference_endpoint`], [`scale_to_zero_inference_endpoint`], [`update_inference_endpoint`], and [`delete_inference_endpoint`].
Dans cette section, nous verrons des méthodes telles que [`~InferenceEndpoint.pause`], [`~InferenceEndpoint.resume`], [`~InferenceEndpoint.scale_to_zero`], [`~InferenceEndpoint.update`] et [`~InferenceEndpoint.delete`]. Toutes ces méthodes sont des alias ajoutés à [`InferenceEndpoint`]. Si vous le préférez, vous pouvez aussi utiliser les méthodes génériques définies dans `HfApi`: [`pause_inference_endpoint`], [`resume_inference_endpoint`], [`scale_to_zero_inference_endpoint`], [`update_inference_endpoint`], et [`delete_inference_endpoint`].

</Tip>

### Mettre en pause ou scale à zéro

Pour réduire les coûts lorsque votre endpoint d'inférence n'est pas utilisé, vous pouvez choisir soit de le mettre en pause en utilisant [`~InferenceEndpoint.pause`] ou de réaliser un scaling à zéro en utilisant [`~InferenceEndpoint.scale_to_zero`].
Pour réduire les coûts lorsque votre inference endpoint n'est pas utilisé, vous pouvez choisir soit de le mettre en pause en utilisant [`~InferenceEndpoint.pause`] ou de réaliser un scaling à zéro en utilisant [`~InferenceEndpoint.scale_to_zero`].

<Tip>

Un endpoint d'inférence qui est *en pause* ou *scalé à zéro* ne coute rien. La différence entre ces deux méthodes est qu'un endpoint *en pause* doit être *relancé* explicitement en utilisant [`~InferenceEndpoint.resume`]. A l'opposé, un endpoint *scalé à zéro* sera automatiquement lancé si un appel d'inférence est fait, avec un délai de "cold start" (temps de démarrage des instances) additionnel. Un endpoint d'inférence peut aussi être configuré pour scale à zero automatiquement après une certaine durée d'inactivité.
Un inference endpoint qui est *en pause* ou *scalé à zéro* ne coute rien. La différence entre ces deux méthodes est qu'un endpoint *en pause* doit être *relancé* explicitement en utilisant [`~InferenceEndpoint.resume`]. A l'opposé, un endpoint *scalé à zéro* sera automatiquement lancé si un appel d'inférence est fait, avec un délai de "cold start" (temps de démarrage des instances) additionnel. Un inference endpoint peut aussi être configuré pour scale à zero automatiquement après une certaine durée d'inactivité.

</Tip>

@@ -193,7 +193,7 @@ InferenceEndpoint(name='my-endpoint-name', namespace='Wauplin', repository='gpt2

### Mettre à jour le modèle ou le hardware de l'endpoint

Dans certains cas, vous aurez besoin de mettre à jour votre endpoint d'inférence sans en créer de nouveau. Vous avez le choix entre mettre à jour le modèle hébergé par l'endpoint ou le hardware utilisé pour faire tourner le modèle. Vous pouvez faire ça en utilisant [`~InferenceEndpoint.update`]:
Dans certains cas, vous aurez besoin de mettre à jour votre inference endpoint sans en créer de nouveau. Vous avez le choix entre mettre à jour le modèle hébergé par l'endpoint ou le hardware utilisé pour faire tourner le modèle. Vous pouvez le faire en utilisant [`~InferenceEndpoint.update`]:

```py
# Change le modèle utilisé
@@ -211,18 +211,18 @@ InferenceEndpoint(name='my-endpoint-name', namespace='Wauplin', repository='gpt2

### Supprimer un endpoint

Si vous n'utilisez plus un endpoint d'inférence, vous pouvez simplement appeler la méthode [`~InferenceEndpoint.delete()`].
Si vous n'utilisez plus un inference endpoint, vous pouvez simplement appeler la méthode [`~InferenceEndpoint.delete()`].

<Tip warning={true}>

Cette action est irréversible et supprimera complètement l'endpoint, dont sa configuration, ses logs et ses métriques. Vous ne pouvez pas retrouver un endpoint d'inférence supprimé.
Cette action est irréversible et supprimera complètement l'endpoint, dont sa configuration, ses logs et ses métriques. Vous ne pouvez pas retrouver un inference endpoint supprimé.

</Tip>


## Exemple de A à Z

Un cas d'usage typique d'Hugging Face pour les endpoints d'inférence est des gérer une liste de tâche d'un coup pour limiter les coûts en infrastructure. Vous pouvez automatiser ce processus en utilisant ce que nous avons vu dans ce guide:
Un cas d'usage typique d'Hugging Face pour les endpoints d'inférence est de gérer une liste de tâche d'un coup pour limiter les coûts en infrastructure. Vous pouvez automatiser ce processus en utilisant ce que nous avons vu dans ce guide:

```py
>>> import asyncio
@@ -243,7 +243,7 @@ Un cas d'usage typique d'Hugging Face pour les endpoints d'inférence est des g
>>> endpoint.pause()
```

Ou si votre endpoint d'inférence existe et est en pause:
Ou si votre inference endpoint existe et est en pause:

```py
>>> import asyncio