有粉丝提到说DeepSeek不支持多模态(即读图能力)、不支持AI出图,结果DeepSeek很快就爆出了新的多模态+支持AI绘图的大模型Janus-Pro出来。 DeepSeek疯起来它自己都怕。。。
Janus-Pro多模态大模型炸裂出场,采用全新的transformer架构,没有走diffusion路线,再次颠覆行业认知。 只有7B参数,可以在民用级电脑安装部署。不但超越了AI绘画界的老师傅Stable Diffusion,据说继续吊打OpenAI家的Dall-E 3,强的我都有点不敢信了! 这个春节真刺激,见证国产AI的Aha时刻!我果断直接出手了,刺不刺激?
DeepSeek方面表示,该款大模型是2024年11月13日发布的JanusFlow大模型的高级版本。相比前一代模型,Janus-Pro优化了训练策略、扩展了训练数据,模型也更大。 通过这些改进,Janus-Pro 在多模态理解和文本到图像的指令跟踪功能方面都取得了重大进步,同时还增强了文本到图像生成的稳定性。
根据DeepSeek发布的测试结果,Janus-Pro在 GenEval 和 DPG-Bench 基准测试中击败了 Stable Diffusion 和 OpenAI 的 DALL-E 3。目前,Janus系列的4款模型已经开源。
我让deepseek用“说人话”版本翻译翻译:就是一个大模型既支持读图,还支持AI画图! 为了让大家能够轻松体验到该项目的魅力,我当然是:无所谓,我会出手.jpg,为大家准备了一个免费整合包,而且已经为大家做了汉化处理。
你只需下载到本地,解压并双击“一键启动”,项目会自动打开浏览器运行。如果没有自动打开浏览器。
1、多模态读图理解使用方法: 输入图片 输入提示词 设置各种参数:一般默认即可 点击“chat”按钮 稍等片刻,即可在底部看到大模型的回答了。感兴趣的朋友,快去试试吧~ 2、AI绘图使用方法: 输入提示词 设置各种参数:一般默认即可 点击“Generated Images”按钮
为了让你能获得最佳的体验,有两点需要注意: 建议使用配有至少8GB显存的英伟达显卡,已获得更好的体验 确保安装路径不包含中文字符(上传的文件也不要包含中文哦),以避免可能的兼容问题。 后记:这是国产AI的歼20时刻 最后说说我想说的话。 我们等这一天太久了。 当我在一年前,第一次用上GPT-4时,手在发抖。 一方面因为它的强大;另一方面,我料想我们可能要花5~10年才能追上ChatGPT。 但我相信国运昌隆,总有一天,我们一定,一定会赶上。 我料到了国产大模型有一天可以吊打ChatGPT,但没想到这么快! 直到最近deepseek发布了V3、发布了R1、发布了Janus! 看到它的深度思考,给到我的完全不逊于甚至超越ChatGPT的回答。 我的手再次发抖了,胸中热血都开始沸腾了。 时代变了! DeepSeek可能让我们引领未来,这是堪称国运级别的科技成果! 第一、不怕芯片卡脖子,低端显卡也可以训练。 第二、技术上遥遥领先,ChatGPT定义的各种标准,现在看起来有点幼稚。 第三、不只是大语言模型,而是多模态、AI绘图甚至AI语音、数字人等一整套的创新技术。 当硅谷还在教用户如何”驯化AI”时,我们的DeepSeek正在做一件更伟大的事: 教会AI理解人的思维。 而且,DeepSeek自信到直接开源,理论上你只要有几块较强的显卡,可能不到10万人民币,就能在本地完整地拥有DeepSeek。 这也许是开源世界AI第一次光明正大地追上闭源世界。 就像歼20总设计师杨伟说的: 这是2025年最好的新年礼物,在AI的竞赛中,我们第一次与世界站在同一个黎明。 甚至,我们已经站在更靠前的地方,看到了更美的风景……
资源链接:https://pan.quark.cn/s/dfc0d25a3065
- 转载请保留原文链接谢谢!
- 本站所有资源文章出自互联网收集整理,本站不参与制作,如果侵犯了您的合法权益,请联系本站我们会及时删除。
- 本站发布资源来源于互联网,可能存在水印或者引流等信息,请用户擦亮眼睛自行鉴别,做一个有主见和判断力的用户。
- 本站资源仅供研究、学习交流之用,若使用商业用途,请购买正版授权,否则产生的一切后果将由下载用户自行承担。
- 联系方式(#替换成@):iwantitallPro#proton.me