一键部署漫画翻译,生肉自动变熟!追漫人福音,Manga Translator

本期来介绍一个AI翻译漫画的项目:Manga-Translator。

笔者从毕业后就较少看漫,不过偶尔得空还是会看看~国漫自然没问题,已完结的海外漫画也都有制作组出本地化翻译版本(熟肉)供大家阅读。

但连载中的海外漫画就比较难受了。因为制作组都很忙,一般有固定的发布计划,追的连载最新话他们肯定不会紧赶着翻译出来,所以咱们想看只能抱着硬啃(生肉)。对笔者来说英文还算好,日韩简直地狱~

本篇要介绍的项目,就可以轻松Docker一键部署,帮我们解决这个问题!图片截取取自项目页。

项目介绍

完整项目名:hgmzhn/manga-translator-ui,可于GHUB搜索。如果大家需要了解更多内容,请搜索到项目主页查看,内含各种平台部署流程以及配置使用方式。

本项目可一键翻译漫画图片中的文字,支持日漫、韩漫、美漫,黑白漫和彩漫均可识别。自动检测、翻译、嵌字,支持日语、中文、英语等多种语言。基于 manga-image-translator核心引擎开发,提供 5 种翻译引擎(包括 OPAI、Gemini、Sakura等及兼容的 AI 翻译),内置可视化编辑器可自由调整文本框和样式。一键安装脚本支持自动配置环境和更新,打包版本开箱即用。

核心功能

  • 🔍 智能文本检测:自动识别漫画中的文字区域

  • 📝 多语言 OCR:支持日语、中文、英语等多种语言识别

  • 🌐 5 种翻译引擎:OPAI、Gemini(普通+高质量)、Sakura

  • 🎯 高质量翻译:使用多模态 AI 模型(GPT-4o、Gemini),结合图片上下文进行翻译,准确率更高

  • 📚 自动提取术语:AI 自动识别并积累专有名词(人名、地名、组织等),保持长篇翻译的一致性

  • 🎨 图像修复:自动擦除原文并智能填充背景

  • ✍ 智能嵌字:自动排版译文,支持多种字体和样式

  • 🤖 AI 断句:支持 OPAI、Gemini 翻译器的智能断句功能

  • 📦 批量处理:一次处理整个文件夹的图片

准备工作

涉及到AI,因此我们需要任意平台的API Key。模型选择上,建议支持多模态,AI 能「看的到」图片,效果自然会更好。

OPAI以及其兼容接口皆支持,也就是说DS、硅基流动这些都能用。不过我之前写的文章,咱们都用硅基流动白嫖,这次也是OK的。

高质量翻译器的优势:

📸 多模态理解:AI 可以"看到"图片内容,理解上下文

🎯 更准确:结合图片信息,翻译更符合场景

📝 批量处理:一次发送多张图片,AI 理解整体剧情

🔧 自定义提示词:支持自定义翻译风格和术语表

部署流程

翻译效果好坏取决于你用的模型!!!!!!!为保证最终效果,建议整章节导入,方便AI理解~

部署以威联通为平台进行演示,通过Docker Compose的方式进行。

作者虽然表明Docker部署是试验性,但我用起来感觉还好。原本的部署代码:

# Windows CMD / PowerShell

docker run -d --name manga-translator -p 8000:8000 hgmzhn/manga-translator:latest-cpu

# Linux / macOS

docker run -d --name manga-translator -p 8000:8000 hgmzhn/manga-translator:latest-cpu

# CPU 版本:hgmzhn/manga-translator:latest-cpu

# GPU 版本:hgmzhn/manga-translator:latest-gpu

# 性能越强,体验越好

我个人整理的代码,如果复制后排版错误请借助AI纠正:

services:

   manga-translator:

      image: hgmzhn/manga-translator:latest-cpu

      container_name: manga-translator

      ports:

         - "8008:8000"

      environment:

         - MT_WEB_HOST=0.0.0.0 # 默认监听地址,允许外部访问

         - MT_WEB_PORT=8000 # 服务端口

         - MT_USE_GPU=false # 是否使用 GPU(仅 GPU 版本镜像需要设置)

         - MT_VERBOSE=true # 是否显示详细日志

         - MT_MODELS_TTL=300 # 模型在内存中的存活时间(秒),0 表示永久保留

         - MT_RETRY_ATTEMPTS=None # 翻译失败重试次数,-1 表示无限重试

         - MANGA_TRANSLATOR_ADMIN_PASSWORD=your_admin_password # 管理员密码

      volumes:

         - /share/Container/manga-translator/models:/app/models

         - /share/Container/manga-translator/result:/app/result

         - /share/Container/manga-translator/logs:/app/logs

         - /share/Container/manga-translator/work:/app/manga_translator_work

      restart: always

有些是可删除的,不删也没啥影响。文件映射,涉及到了日志、模型等的关键目录持久化,建议做。

没问题后,打开威联通的Container Station创建新的应用程序。

使用演示

功能实在是多,就展示下如何基础的配置并启用,再就是成果(放最后统一)展示。

部署完毕后,浏览器输入NAS_IP:8008即可访问服务。初次使用,注册个管理员账户。

登录进来,如下图所示。比较重要的就是红框的这个API接口选择。

高级设置和选项。能调整的地方也是很多,比如OCR模型,超分模型,排版,渲染,字体等等。我看作者说MangaJaNai这个超分模型很惊艳,现在默认的配置也是用的这个。

接着开始配置API。点击上图右上角的「管理」进入控制台,左侧栏点击「API密钥管理」。填写相关内容。

我这里先尝试了DeepSeek。注意URL填写。完事了别忘记保存,再点击右上角「返回首页」回到「基础设置」。

DeepSeek模型不支持多模态,因此我们翻译器要选择普通的第一项。

上传漫画,点击开始翻译等待结束即可。这里我挑了佐仓老师的新作《問題だらけの魔法使い》其中一页测试,年初就有网友觉得这本漫的翻译难度可能会有点高。

跑完了,左侧可以预览、下载成品。

两张漫画的大概消耗。

接着我再用硅基流动的免费余额跑跑看,免费余额虽然有用量级别限制,但是可用高阶支持多模态的模型。因此这里我也替换成了高质量翻译。

成品展示

从左至右,分别为,生肉——硅基流动——DeepSeek。文本位置这个可以调整,重要的是翻译结果。有付费高阶API的朋友部署测试后,也欢迎留言分享体验。

原文生肉,以及硅基流动的高质量翻译。

最后

我觉得效果还蛮不错,正如作者所说,条漫的支持已经非常好了。

不过部署到一般性能NAS上,跑起来还是挺慢的,建议尽量部署在今年的新品或者自己DIY配置较高的设备上。当然具备NV独显是最好的!

感谢观看,本文完。

更多游戏资讯请关注:电玩帮游戏资讯专区

电玩帮图文攻略 www.vgover.com