查看原文
其他

(保姆级)MiX Copilot 3.5 下载、安装和申请试用教程

The following article is from MiX 跨学科知识分享 Author MiX Copilot

MiX Copilot 3.5是一个高效的AI工作台,旨在提升您的工作和思考效率。它集成了多LLM和Agent交互框架,能够自动爬取网页数据、RSS和arXiv论文,让您轻松接入最新信息和学术资源。
借助强大的AI分析和翻译功能,MiX Copilot帮您在信息海洋中快速找到珍贵资料,跨越语言障碍。更有多Tab机制和丰富的自定义选项,支持并行任务处理和个性化设置,让您的工作流更加流畅高效。
无论在Windows还是Mac系统上,MiX Copilot都是您理想的信息管理伙伴。立即体验,开启智能高效的工作之旅!


MiX Copilot 功能介绍
数据爬取
爬取网页数据
爬取RSS内容
爬取arXiv论文
通过我们内置的AI功能整理和分析内容
通过我们的Agent框架创建不同的角色和工作流
内置及可自定义多个在线LLM和常用网页导航
浏览网页时允许发起Agent交互和LLM对话
通过多Tab方式发起多个LLM的同时对话
Agent交互和LLM对话交互同时兼容在线和本地LLM
通过翻译API翻译网页和爬取到的数据
在系统任意界面发起内容收藏和导入
在系统任意界面发起AI交互

电脑配置推荐
Windows:拥有12GB显存例如3060/4060及以上的英伟达GPU,拥有16GB内存
Mac:拥有16GB内存及以上的M1/M2/M3 Mac PS.更低配置的电脑也能运行,但可能本地LLM运行会变慢,或者使用在线LLM的API。

下载和安装
1. 百度网盘下载(推荐)
https://pan.baidu.com/s/1sn_LJbXfOFUAQwrJB7a1Jw?pwd=como
2. 官方下载
MiX Copilot下载:https://www.mix-copilot.com/
LM Studio下载:https://lmstudio.ai/
模型下载:https://github.com/xue160709/Local-LLM-User-Guideline

如何在MiX Copilot中使用本地LLM
在LM Studio应用内下载模型,如果因网络等情况无法下载,可以选择存放LLM的文件夹后并在文件夹里新建一个名为“TheBloke”的文件夹,然后将下载过的模型放进“TheBloke”文件夹里。



打开LM Studio并进入服务端模式,第一步选择模型,第二步在Server Port选择8000,最后点击“Start Server”



在MiX Copilot设置页设置相同的端口号,点击“Update”,出现绿色标签说明链接成功。



申请试用
填写账号邮箱和密码,如果账号没有注册过会自动注册


进入MiX Store,选择一个月免费试用




点击线下转账(目前有些bug,点击后会没反应,注意点击一次就够了不然会重复下单)



进入设置页-账号设置-刷新,这时候你会看到你下单的ID




填写申请表格(我们推出了500个免费体验一个月的名额,先到先得)



申请通过后工作人员会联系你(如果联系不到你可以添加工作人员WX:litnmnm),然后将你的邮箱和账单ID发给工作人员,工作人员会在24小时内帮你激活试用。
在线教程
https://hci-top.notion.site/MiX-Copilot-dd9c72f835614825910908a0afaf4ae3?pvs=74

继续滑动看下一个
向上滑动看下一个

您可能也对以下帖子感兴趣

文章有问题?点此查看未经处理的缓存