Skip to content
New issue

Have a question about this project? Sign up for a free GitHub account to open an issue and contact its maintainers and the community.

By clicking “Sign up for GitHub”, you agree to our terms of service and privacy statement. We’ll occasionally send you account related emails.

Already on GitHub? Sign in to your account

【开源自荐】在浏览器中运行 LLM并进行对话,无需服务器,使用 WebGPU进行加速 #3104

Open
Ryan-yang125 opened this issue May 9, 2023 · 0 comments
Labels

Comments

@Ryan-yang125
Copy link

项目地址: https://github.com/Ryan-yang125/ChatLLM-Web
Demo: https://chat-llm-web.vercel.app

特点:

  • 🤖 一切都在浏览器内运行,无需服务器支持,并且使用 WebGPU 进行加速。

  • ⚙️ 模型在 Web Worker 中运行,确保不会阻塞用户界面,提供无缝体验

  • 🚀 通过在 Vercel 上单击一次即可轻松免费部署,不到 1 分钟,即可获得自己的 ChatLLM Web。

  • 💾 支持模型缓存,只需要下载模型一次。

  • 💬 多对话聊天,所有数据都存储在浏览器中,保护隐私。

  • 📝 支持 Markdown 和流式响应:数学、代码高亮等。

  • 🎨 响应式和设计良好的 UI,包括暗黑模式。

截图

cover

@ruanyf ruanyf added the weekly label May 10, 2023
Sign up for free to join this conversation on GitHub. Already have an account? Sign in to comment
Labels
Projects
None yet
Development

No branches or pull requests

2 participants