Releases: xkeyC/fl_caption
Releases · xkeyC/fl_caption
V0.0.12
Full Changelog: v0.0.11...v0.0.12
- 移除 flash-attn 因为存在兼容性问题
- 优化编译时的 CUDA_COMPUTE_CAP 版本以尝试兼容更多显卡
- 增加 ja-anime-v0.1 语音模型
V0.0.11
Full Changelog: v0.0.10...v0.0.11
- 优化 VAD 模型过滤效果
- 新增 VAD 强度调节
V0.0.10
Full Changelog: v0.0.9...v0.0.10
- 新增 flash-attention 优化推理性能
- 新增 VAD 模型过滤音频,减少 whisper 在纯音乐/安静场景中的幻觉
- 实现 Whisper 低分输出过滤功能
V0.0.9
What's Changed
- feat: impl WhisperModelConfigType by @xkeyC in #19
- feat: merge_channels by @xkeyC in #16
- build(deps): bump ffigen from 16.1.0 to 18.0.0 by @dependabot in #18
- 优化设置 UI
- 推理周期设置改为毫秒
- 合并多声道音频,现在使用多个声道合并后的音频去推理,获得更好的推理效果
large-v2_q4_1与large-v3-turbo_q4_1模型替换为q4_k量化,获得更好的推理效果- 合并多个 whisper 配置文件,减少包体积
New Contributors
- @dependabot made their first contribution in #18
Full Changelog: v0.0.8...v0.0.9
V0.0.8
Full Changelog: v0.0.7...v0.0.8
- 新增了
large-v2_q4_1与large-v3-turbo_q4_1量化模型,可降低显存占用 - 优化设置项 UI
V0.0.7
V0.0.6
Full Changelog: v0.0.5...v0.0.6
- 优化错误日志展示
- 降低 CUDA 版本要求,请确保:nvidia-smi --query-gpu=compute_cap --format=csv 输出大于等于 7.5
nvidia-smiCUDA 版本输出 大于等于12.4 - 优化设置页面 LLM Api 提示文字
V0.0.5
Full Changelog: v0.0.4...v0.0.5
- 将字幕语言中的中文拆分为 简体中文 与 繁体中文
- CUDA 初始化失败时将弹出错误信息 并回退到 CPU 实现
- 优化 UI 加载流程
- 优化语音拾取的内存占用
- 优化 UI 布局
V0.0.4
Full Changelog: v0.0.3...v0.0.4
- 升级
candle到 0.8.4 - 增加了 large-v3-turbo 模型支持,该模型可大幅改善推理速度
- 修复了数据库存储位置,之前错误的存储在了文档中,0.0.3及以前的更新至该版本后以前的配置将丢失(模型不会),请重新配置设置,建议删除用户文档下的
settings.hive、settings.lock