Skip to content

Latest commit

 

History

History
218 lines (135 loc) · 12.9 KB

File metadata and controls

218 lines (135 loc) · 12.9 KB
KrillinAI

Outil de traduction et de doublage vidéo AI minimaliste

KrillinAI%2FKrillinAI | Trendshift

English简体中文日本語한국어Tiếng ViệtFrançaisDeutschEspañolPortuguêsРусскийاللغة العربية

Twitter QQ 群 Bilibili Ask DeepWiki

Démarrage rapide

KrillinAI est une solution polyvalente de localisation et d'amélioration audio et vidéo développée par Krillin AI. Cet outil minimaliste mais puissant intègre la traduction vidéo, le doublage et le clonage vocal, prenant en charge les formats paysage et portrait pour garantir une présentation parfaite sur toutes les principales plateformes (Bilibili, Xiaohongshu, Douyin, WeChat Video, Kuaishou, YouTube, TikTok, etc.). Avec un flux de travail de bout en bout, vous pouvez transformer des matériaux bruts en contenu prêt à l'emploi et multiplateforme en quelques clics.

Caractéristiques et fonctions clés :

🎯 Démarrage en un clic : Pas de configuration d'environnement complexe requise, installation automatique des dépendances, prêt à l'emploi immédiatement, avec une nouvelle version de bureau pour un accès plus facile !

📥 Acquisition vidéo : Prend en charge les téléchargements yt-dlp ou les téléchargements de fichiers locaux

📜 Reconnaissance précise : Reconnaissance vocale de haute précision basée sur Whisper

🧠 Segmentation intelligente : Segmentation et alignement des sous-titres utilisant LLM

🔄 Remplacement de terminologie : Remplacement en un clic du vocabulaire professionnel

🌍 Traduction professionnelle : Traduction LLM avec contexte pour maintenir une sémantique naturelle

🎙️ Clonage vocal : Offre des tons de voix sélectionnés de CosyVoice ou un clonage vocal personnalisé

🎬 Composition vidéo : Traite automatiquement les vidéos paysage et portrait ainsi que la mise en page des sous-titres

💻 Multiplateforme : Prend en charge Windows, Linux, macOS, fournissant à la fois des versions de bureau et serveur

Démonstration d'effet

L'image ci-dessous montre l'effet du fichier de sous-titres généré après l'importation d'une vidéo locale de 46 minutes et son exécution en un clic, sans aucun ajustement manuel. Il n'y a pas d'omissions ni de chevauchements, la segmentation est naturelle et la qualité de la traduction est très élevée. Effet d'alignement

Traduction de sous-titres


subtitle_translation.mp4

Doublage


tts.mp4

Mode portrait


agi.mp4

🔍 Services de reconnaissance vocale pris en charge

Tous les modèles locaux dans le tableau ci-dessous prennent en charge l'installation automatique des fichiers exécutables + fichiers de modèle ; vous n'avez qu'à choisir, et Klic préparera tout pour vous.

Source de service Plateformes prises en charge Options de modèle Local/Cloud Remarques
OpenAI Whisper Toutes les plateformes - Cloud Vitesse rapide et bon effet
FasterWhisper Windows/Linux tiny/medium/large-v2 (recommandé medium+) Local Vitesse plus rapide, pas de coût de service cloud
WhisperKit macOS (M-series uniquement) large-v2 Local Optimisation native pour les puces Apple
WhisperCpp Toutes les plateformes large-v2 Local Prend en charge toutes les plateformes
Alibaba Cloud ASR Toutes les plateformes - Cloud Évite les problèmes de réseau en Chine continentale

🚀 Support des grands modèles de langage

✅ Compatible avec tous les services de grands modèles de langage cloud/local conformes aux spécifications de l'API OpenAI, y compris mais sans s'y limiter :

  • OpenAI
  • Gemini
  • DeepSeek
  • Tongyi Qianwen
  • Modèles open-source déployés localement
  • Autres services API compatibles avec le format OpenAI

🎤 Support TTS (Texte à Parole)

  • Service vocal Alibaba Cloud
  • OpenAI TTS

Support linguistique

Langues d'entrée prises en charge : chinois, anglais, japonais, allemand, turc, coréen, russe, malais (augmentation continue)

Langues de traduction prises en charge : anglais, chinois, russe, espagnol, français et 101 autres langues

Aperçu de l'interface

Aperçu de l'interface Aperçu de l'interface

🚀 Démarrage rapide

Vous pouvez poser des questions sur le Deepwiki de KrillinAI. Il indexe les fichiers dans le dépôt, vous pouvez donc trouver des réponses rapidement.

Étapes de base

Tout d'abord, téléchargez le fichier exécutable qui correspond à votre système de périphérique depuis le Release, puis suivez le tutoriel ci-dessous pour choisir entre la version de bureau ou la version non de bureau. Placez le téléchargement du logiciel dans un dossier vide, car son exécution générera certains répertoires, et le garder dans un dossier vide facilitera la gestion.

【Si c'est la version de bureau, c'est-à-dire le fichier de version avec "desktop", voir ici】 La version de bureau est nouvellement publiée pour résoudre les problèmes des nouveaux utilisateurs qui ont du mal à éditer correctement les fichiers de configuration, et il y a quelques bugs qui sont continuellement mis à jour.

  1. Double-cliquez sur le fichier pour commencer à l'utiliser (la version de bureau nécessite également une configuration au sein du logiciel)

【Si c'est la version non de bureau, c'est-à-dire le fichier de version sans "desktop", voir ici】 La version non de bureau est la version initiale, qui a une configuration plus complexe mais est stable en fonctionnalité et convient au déploiement sur serveur, car elle fournit une interface utilisateur au format web.

  1. Créez un dossier config dans le dossier, puis créez un fichier config.toml dans le dossier config. Copiez le contenu du fichier config-example.toml du répertoire config du code source dans config.toml, et remplissez vos informations de configuration selon les commentaires.
  2. Double-cliquez ou exécutez le fichier exécutable dans le terminal pour démarrer le service
  3. Ouvrez votre navigateur et entrez http://127.0.0.1:8888 pour commencer à l'utiliser (remplacez 8888 par le port que vous avez spécifié dans le fichier de configuration)

À : Utilisateurs de macOS

【Si c'est la version de bureau, c'est-à-dire le fichier de version avec "desktop", voir ici】 En raison de problèmes de signature, la version de bureau ne peut actuellement pas être exécutée par double-clic ou installée via dmg ; vous devez faire confiance manuellement à l'application. La méthode est la suivante :

  1. Ouvrez le terminal dans le répertoire où se trouve le fichier exécutable (en supposant que le nom du fichier est KrillinAI_1.0.0_desktop_macOS_arm64)
  2. Exécutez les commandes suivantes dans l'ordre :
sudo xattr -cr ./KrillinAI_1.0.0_desktop_macOS_arm64
sudo chmod +x ./KrillinAI_1.0.0_desktop_macOS_arm64 
./KrillinAI_1.0.0_desktop_macOS_arm64

【Si c'est la version non de bureau, c'est-à-dire le fichier de version sans "desktop", voir ici】 Ce logiciel n'est pas signé, donc lors de l'exécution sur macOS, après avoir terminé la configuration du fichier dans les "Étapes de base", vous devez également faire confiance manuellement à l'application. La méthode est la suivante :

  1. Ouvrez le terminal dans le répertoire où se trouve le fichier exécutable (en supposant que le nom du fichier est KrillinAI_1.0.0_macOS_arm64)

  2. Exécutez les commandes suivantes dans l'ordre :

    sudo xattr -rd com.apple.quarantine ./KrillinAI_1.0.0_macOS_arm64
    sudo chmod +x ./KrillinAI_1.0.0_macOS_arm64
    ./KrillinAI_1.0.0_macOS_arm64
    

    Cela démarrera le service

Déploiement Docker

Ce projet prend en charge le déploiement Docker ; veuillez vous référer aux Instructions de déploiement Docker

Basé sur le fichier de configuration fourni, voici la section mise à jour "Aide à la configuration (À lire absolument)" pour votre fichier README :

Aide à la configuration (À lire absolument)

Le fichier de configuration est divisé en plusieurs sections : [app], [server], [llm], [transcribe], et [tts]. Une tâche est composée de reconnaissance vocale (transcribe) + traduction de grand modèle (llm) + services vocaux optionnels (tts). Comprendre cela vous aidera à mieux saisir le fichier de configuration.

Configuration la plus facile et rapide :

Pour la traduction de sous-titres uniquement :

  • Dans la section [transcribe], définissez provider.name sur openai.
  • Vous n'aurez alors qu'à remplir votre clé API OpenAI dans le bloc [llm] pour commencer à effectuer des traductions de sous-titres. Les champs app.proxy, model, et openai.base_url peuvent être remplis selon les besoins.

Coût, vitesse et qualité équilibrés (Utilisation de la reconnaissance vocale locale) :

  • Dans la section [transcribe], définissez provider.name sur fasterwhisper.
  • Définissez transcribe.fasterwhisper.model sur large-v2.
  • Remplissez votre configuration de grand modèle de langage dans le bloc [llm].
  • Le modèle local requis sera automatiquement téléchargé et installé.

Configuration TTS (Texte à Parole) (Optionnel) :

  • La configuration TTS est optionnelle.
  • Tout d'abord, définissez provider.name sous la section [tts] (par exemple, aliyun ou openai).
  • Ensuite, remplissez le bloc de configuration correspondant pour le fournisseur sélectionné. Par exemple, si vous choisissez aliyun, vous devez remplir la section [tts.aliyun].
  • Les codes vocaux dans l'interface utilisateur doivent être choisis en fonction de la documentation du fournisseur sélectionné.
  • Remarque : Si vous prévoyez d'utiliser la fonction de clonage vocal, vous devez sélectionner aliyun comme fournisseur TTS.

Configuration Alibaba Cloud :

  • Pour des détails sur l'obtention des AccessKey, Bucket, et AppKey nécessaires pour les services Alibaba Cloud, veuillez vous référer aux Instructions de configuration Alibaba Cloud. Les champs répétés pour AccessKey, etc., sont conçus pour maintenir une structure de configuration claire.

Questions Fréquemment Posées

Veuillez visiter Questions Fréquemment Posées

Directives de contribution

  1. Ne soumettez pas de fichiers inutiles, tels que .vscode, .idea, etc. ; veuillez utiliser .gitignore pour les filtrer.
  2. Ne soumettez pas config.toml ; soumettez plutôt config-example.toml.

Contactez-nous

  1. Rejoignez notre groupe QQ pour des questions : 754069680
  2. Suivez nos comptes de médias sociaux, Bilibili, où nous partageons chaque jour du contenu de qualité dans le domaine de la technologie AI.

Historique des étoiles

Graphique de l'historique des étoiles