在 Mac 上原生运行 Stable Diffusion
本应用内置 Apple 的 Core ML Stable Diffusion 框架 以实现在搭载 Apple 芯片的 Mac 上用极低的内存占用发挥出最优性能。
- 极致性能和极低内存占用 (使用神经网络引擎时 ~150MB)
- 在所有搭载 Apple 芯片的 Mac 上充分发挥神经网络引擎的优势
- 生成图像时无需联网
- 图像转图像(Image2Image)
- 使用 ControlNet 生成图像
- 在图像的 EXIF 信息中存储所有的关键词(在访达的“显示简介”窗口中查看)
- 使用 RealESRGAN 放大生成的图像
- 自动保存 & 恢复图像
- 自定义 Stable Diffusion Core ML 模型
- 无需担心损坏的模型
- 使用 macOS 原生框架 SwiftUI 开发
在 发行 页面下载最新版本。
在初次运行模型时, 神经网络引擎可能需要约2分钟编译缓存,后续运行速度会显著提高。
CPU 和神经网络引擎
能很好地平衡性能和内存占用CPU 和 GPU
在 M1 Max/Ultra 及后续型号上可能更快,但会占用更多内存
你需要根据不同的计算单元选择对应的模型 (详情见模型部分)。
你需要自行转换或下载 Core ML 模型以使用 Mochi Diffusion。
这里 上传了几个已经转换好的模型
- 转换 或下载 Core ML 模型
split_einsum
版本适用于包括神经网络引擎在内的所有计算单元original
版本仅适用于CPU 和 GPU
- 默认情况下,应用程序的模型文件夹将创建在您的主目录下。 可以在“设置”下自定义此位置
- 在模型文件夹中,你可以新建一个文件夹,用自己想在应用内显示的名字为其重命名,再将转换好的模型放到文件夹中
- 你的文件夹路径应该像这样:
<主目录>/
└── MochiDiffusion/
└── models/
├── stable-diffusion-2-1_split-einsum_compiled/
│ ├── merges.txt
│ ├── TextEncoder.mlmodelc
│ ├── Unet.mlmodelc
│ ├── VAEDecoder.mlmodelc
│ ├── VAEEncoder.mlmodelc
│ └── vocab.json
├── ...
└── ...
- Apple 芯片的 Mac (M1 及后续)
- macOS Sonoma 14.0 以上
- Xcode 15.2 (自行构建)
所有计算均在本地完成并绝对不会上传任何数据。
无论是修复 bug,新增代码,还是完善翻译,Mochi Diffusion 欢迎你的贡献。
-
如果你想贡献代码,请创建拉取请求或发起一个新的讨论来探讨。我个人推荐安装 swift-format 以规范代码格式。
-
如果你想对 Mochi Diffusion 贡献翻译,请到项目的 Crowdin 页面,你可以免费创建一个账户然后开始翻译。