找回密码
 注册

微信登录

微信扫一扫,快速登录

查看: 272|回复: 0

AI数字替身创建总结

[复制链接]
发表于 2025-7-23 06:06 | 显示全部楼层 |阅读模式

马上注册,结交更多好友,享用更多功能,让你轻松玩转社区。

您需要 登录 才可以下载或查看,没有账号?注册 微信登录

×
作者:微信文章


AI数字替身创建实践全记录(总结篇)

一、开发环境搭建与核心工具配置

开发环境搭建阶段需重点关注以下工具:其中pip与Git为核心组件,Visual Studio 2022、VS Code、Python及LM Studio为必要运行工具。具体功能分工如下:

    ​依赖管理​:pip负责全量依赖项的自动化下载与版本控制;

    ​代码托管与工具获取​:Git用于拉取llama.cpp等关键开源工具;

    ​硬件适配​:NVIDIA显卡需额外安装CUDA Toolkit 12.8版本(以RTX 5060 Ti 8G显卡为例,实际采用CUDA Toolkit 12.8+CUDD组合),并同步安装与CUDA版本匹配的PyTorch库,确保深度学习框架与硬件兼容。

二、早期本地部署瓶颈与问题诊断

此前的本地大模型部署虽已成功,但训练环节始终受阻。经排查,核心问题在于分词器无法准确识别训练数据格式,导致训练流程无法推进。鉴于此,项目暂时搁置。

三、基于LM Studio的训练方案实践

为突破瓶颈,调整技术路线:采用LM Studio下载GUFF格式大模型,通过llama.cpp完成预训练。此阶段需特别注意:

    ​编译准备​:使用Visual Studio 2022对llama.cpp进行编译(该步骤为预训练及后续模型合并的关键前置条件);

    ​分词器适配​:单独下载与大模型匹配的分词器(资源来源:魔塔平台);

    ​训练执行​:完成预训练后,尝试将训练生成的LoRA权重与原GUFF模型合并,但首次合并因配置缺失报错。

四、模型优化与问题调试

针对合并失败问题,通过魔塔平台下载标准配置文件config.json,参照其参数规范调整后完成合并。合并成功后加载至LM Studio测试,发现输出文本仍存在明显的"AI机械感",需通过预设指令引导模型模仿目标说话风格。值得注意的是,单轮训练效果有限(仅达成预期效果的10%)。经原型数据与训练后数据对比分析,虽存在差异但幅度较小,可通过llama.cpp执行模型差异比对并获得优化建议。

五、后续训练建议

基于当前进度(单轮训练耗时约24小时),建议延长训练周期至3-5轮(总时长约120小时),以提升模型拟人化效果。本次实践完整记录了近1个月AI数字替身从环境搭建到模型优化的完整探索过程。后续我将对整个创建过程和思路分段发送文章,力求大家在创建的过程中避避坑。

Die von den Nutzern eingestellten Information und Meinungen sind nicht eigene Informationen und Meinungen der DOLC GmbH.
您需要登录后才可以回帖 登录 | 注册 微信登录

本版积分规则

Archiver|手机版|AGB|Impressum|Datenschutzerklärung|萍聚社区-德国热线-德国实用信息网

GMT+2, 2025-10-11 17:03 , Processed in 0.085383 second(s), 27 queries .

Powered by Discuz! X3.5 Licensed

© 2001-2025 Discuz! Team.

快速回复 返回顶部 返回列表