你是不是也遇到过这种尴尬?熬夜录好的有声书,用在线工具转成MP3,第二天发现东北话旁白被AI念得像机器人唱二人转,评论区炸锅:“这大碴子味咋变塑料普通话了?”更扎心的是,有人私信问:“哥们,你第一章的稿子咋在盗版网站挂着?”——别慌!今天小编教你用Python本地批量转MP3,方言自由+防泄密,连断句都能自定义!
一、第一步:装对工具,避开在线坑
为啥别用网页转换器?
方言崩坏:在线工具默认普通话,东北话“波棱盖儿”被读成“玻璃盖”,笑疯听众;
隐私裸奔:某平台明文承认“文件存24小时删”,但暗地爬虫早就扒走你的小说稿;
批量卡死:传30个TXT?页面直接闪退,进度条比蜗牛还慢。
✅ 本地方案三件套(全部离线!)
bash复制pip install edge-tts # 微软语音合成核心,支持方言 pip install pydub # 切割大文件防卡顿 pip install pathlib # 自动处理路径,防报错
划重点:用
edge-tts
别用gTTS
!前者内置东北话语音包(zh-CN-liaoning-XiaobeiNeural
),后者只认英文!二、第二步:批量切割+方言合成代码实战
► 痛点破解:百章小说5分钟转完
直接上代码!把
D:\小说
里所有TXT自动转东北话MP3,还能按章节分割:python下载复制运行import asyncio from edge_tts import Communicate from pathlib import Path # 1. 设置东北话语音包 VOICE = "zh-CN-liaoning-XiaobeiNeural" # 东北老铁必备 RATE = "+10%" # 语速加快10%,更接地气 # 2. 批量读取TXT + 自动切割 async def txt_to_mp3(txt_path): mp3_path = txt_path.with_suffix(".mp3") with open(txt_path, "r", encoding="utf-8") as f: text = f.read() # 每3000字分割一段,防卡顿 chunks = [text[i:i+3000] for i in range(0, len(text), 3000)] # 3. 分段合成方言音频 for i, chunk in enumerate(chunks): chunk_mp3 = mp3_path.parent / f"{mp3_path.stem}_part{i}.mp3" tts = Communicate(text=chunk, voice=VOICE, rate=RATE) await tts.save(chunk_mp3) # 调用:处理D:\小说下所有TXT txt_folder = Path("D:/小说") for txt_file in txt_folder.glob("*.txt"): asyncio.run(txt_to_mp3(txt_file))
避坑指南:
路径别手写:用
Path("D:/小说")
代替D:\小说
,Windows和Mac通吃;编码强制UTF-8:防东北话“咋整”变乱码“啊整”;
章节标题保留:代码里加
f"第{i+1}章 {chunk}
”,听众跳着听不迷路!
三、第三步:方言调校秘籍(东北话进阶)
问题:为啥合成后像AI背课文?答案:缺语气词和停顿!
► 真人级润色技巧
加儿化音:
原文:“他跑得快” → 改成“他跑得贼快儿”;
插入停顿:
用
:
python下载复制运行
text = "这饺子香啊一口咬下去全是肉"
音量波动:
关键句提高音量:
哎呀妈呀真香!
► 试听校准神器
用Audacity(免费!)拖入MP3,看波形图:
平直波形=机器念经 → 需加语气词;
起伏波形=自然方言 → 直接发布!
小编的暴论总结
“在线工具是方言杀手,Python脚本才是终极武器!”
隐私躺赢:本地运行永不联网,小说稿0泄露风险;
方言自由:东北话、粤语、四川话随意切,比主播还像真人;
批量神器:100章小说5分钟转完,切割分段自动存!
下次再有人问“东北话有声书咋做”,直接把代码甩过去——深藏功与名,懂?
附:方言代码表(edge-tts可用)
四川话:
zh-CN-sichuan-YunxiNeural
粤语:
zh-HK-HiuGaaiNeural
台湾腔:
zh-TW-HsiaoChenNeural
© 版权声明
文章版权归作者所有,未经允许请勿转载。
相关文章
暂无评论...