一鍵部署漫畫翻譯,生肉自動變熟!追漫人福音,Manga Translator

本期來介紹一個AI翻譯漫畫的項目:Manga-Translator。

筆者從畢業後就較少看漫,不過偶爾得空還是會看看~國漫自然沒問題,已完結的海外漫畫也都有製作組出本地化翻譯版本(熟肉)供大家閱讀。

但連載中的海外漫畫就比較難受了。因爲製作組都很忙,一般有固定的發佈計劃,追的連載最新話他們肯定不會緊趕着翻譯出來,所以咱們想看只能抱着硬啃(生肉)。對筆者來說英文還算好,日韓簡直地獄~

本篇要介紹的項目,就可以輕鬆Docker一鍵部署,幫我們解決這個問題!圖片截取取自項目頁。

項目介紹

完整項目名:hgmzhn/manga-translator-ui,可於GHUB搜索。如果大家需要了解更多內容,請搜索到項目主頁查看,內含各種平臺部署流程以及配置使用方式。

本項目可一鍵翻譯漫畫圖片中的文字,支持日漫、韓漫、美漫,黑白漫和彩漫均可識別。自動檢測、翻譯、嵌字,支持日語、中文、英語等多種語言。基於 manga-image-translator核心引擎開發,提供 5 種翻譯引擎(包括 OPAI、Gemini、Sakura等及兼容的 AI 翻譯),內置可視化編輯器可自由調整文本框和樣式。一鍵安裝腳本支持自動配置環境和更新,打包版本開箱即用。

核心功能

  • 🔍 智能文本檢測:自動識別漫畫中的文字區域

  • 📝 多語言 OCR:支持日語、中文、英語等多種語言識別

  • 🌐 5 種翻譯引擎:OPAI、Gemini(普通+高質量)、Sakura

  • 🎯 高質量翻譯:使用多模態 AI 模型(GPT-4o、Gemini),結合圖片上下文進行翻譯,準確率更高

  • 📚 自動提取術語:AI 自動識別並積累專有名詞(人名、地名、組織等),保持長篇翻譯的一致性

  • 🎨 圖像修復:自動擦除原文並智能填充背景

  • ✍ 智能嵌字:自動排版譯文,支持多種字體和樣式

  • 🤖 AI 斷句:支持 OPAI、Gemini 翻譯器的智能斷句功能

  • 📦 批量處理:一次處理整個文件夾的圖片

準備工作

涉及到AI,因此我們需要任意平臺的API Key。模型選擇上,建議支持多模態,AI 能「看的到」圖片,效果自然會更好。

OPAI以及其兼容接口皆支持,也就是說DS、硅基流動這些都能用。不過我之前寫的文章,咱們都用硅基流動白嫖,這次也是OK的。

高質量翻譯器的優勢:

📸 多模態理解:AI 可以"看到"圖片內容,理解上下文

🎯 更準確:結合圖片信息,翻譯更符合場景

📝 批量處理:一次發送多張圖片,AI 理解整體劇情

🔧 自定義提示詞:支持自定義翻譯風格和術語表

部署流程

翻譯效果好壞取決於你用的模型!!!!!!!爲保證最終效果,建議整章節導入,方便AI理解~

部署以威聯通爲平臺進行演示,通過Docker Compose的方式進行。

作者雖然表明Docker部署是試驗性,但我用起來感覺還好。原本的部署代碼:

# Windows CMD / PowerShell

docker run -d --name manga-translator -p 8000:8000 hgmzhn/manga-translator:latest-cpu

# Linux / macOS

docker run -d --name manga-translator -p 8000:8000 hgmzhn/manga-translator:latest-cpu

# CPU 版本:hgmzhn/manga-translator:latest-cpu

# GPU 版本:hgmzhn/manga-translator:latest-gpu

# 性能越強,體驗越好

我個人整理的代碼,如果複製後排版錯誤請藉助AI糾正:

services:

   manga-translator:

      image: hgmzhn/manga-translator:latest-cpu

      container_name: manga-translator

      ports:

         - "8008:8000"

      environment:

         - MT_WEB_HOST=0.0.0.0 # 默認監聽地址,允許外部訪問

         - MT_WEB_PORT=8000 # 服務端口

         - MT_USE_GPU=false # 是否使用 GPU(僅 GPU 版本鏡像需要設置)

         - MT_VERBOSE=true # 是否顯示詳細日誌

         - MT_MODELS_TTL=300 # 模型在內存中的存活時間(秒),0 表示永久保留

         - MT_RETRY_ATTEMPTS=None # 翻譯失敗重試次數,-1 表示無限重試

         - MANGA_TRANSLATOR_ADMIN_PASSWORD=your_admin_password # 管理員密碼

      volumes:

         - /share/Container/manga-translator/models:/app/models

         - /share/Container/manga-translator/result:/app/result

         - /share/Container/manga-translator/logs:/app/logs

         - /share/Container/manga-translator/work:/app/manga_translator_work

      restart: always

有些是可刪除的,不刪也沒啥影響。文件映射,涉及到了日誌、模型等的關鍵目錄持久化,建議做。

沒問題後,打開威聯通的Container Station創建新的應用程序。

使用演示

功能實在是多,就展示下如何基礎的配置並啓用,再就是成果(放最後統一)展示。

部署完畢後,瀏覽器輸入NAS_IP:8008即可訪問服務。初次使用,註冊個管理員賬戶。

登錄進來,如下圖所示。比較重要的就是紅框的這個API接口選擇。

高級設置和選項。能調整的地方也是很多,比如OCR模型,超分模型,排版,渲染,字體等等。我看作者說MangaJaNai這個超分模型很驚豔,現在默認的配置也是用的這個。

接着開始配置API。點擊上圖右上角的「管理」進入控制檯,左側欄點擊「API密鑰管理」。填寫相關內容。

我這裏先嚐試了DeepSeek。注意URL填寫。完事了別忘記保存,再點擊右上角「返回首頁」回到「基礎設置」。

DeepSeek模型不支持多模態,因此我們翻譯器要選擇普通的第一項。

上傳漫畫,點擊開始翻譯等待結束即可。這裏我挑了佐倉老師的新作《問題だらけの魔法使い》其中一頁測試,年初就有網友覺得這本漫的翻譯難度可能會有點高。

跑完了,左側可以預覽、下載成品。

兩張漫畫的大概消耗。

接着我再用硅基流動的免費餘額跑跑看,免費餘額雖然有用量級別限制,但是可用高階支持多模態的模型。因此這裏我也替換成了高質量翻譯。

成品展示

從左至右,分別爲,生肉——硅基流動——DeepSeek。文本位置這個可以調整,重要的是翻譯結果。有付費高階API的朋友部署測試後,也歡迎留言分享體驗。

原文生肉,以及硅基流動的高質量翻譯。

最後

我覺得效果還蠻不錯,正如作者所說,條漫的支持已經非常好了。

不過部署到一般性能NAS上,跑起來還是挺慢的,建議儘量部署在今年的新品或者自己DIY配置較高的設備上。當然具備NV獨顯是最好的!

感謝觀看,本文完。

更多遊戲資訊請關註:電玩幫遊戲資訊專區

電玩幫圖文攻略 www.vgover.com