a7.gif

grider-withourai

最强(我认为的)涩涩大语言模型 CausalLM,拳打Peach,脚踢Magnum

前面有几个帖子介绍过了几个NSFW的大语言模型,但个人试过后感觉还是不如唯一真神 CausalLM,虽然作者本人不愿意承认这是个涩涩模型  ,模型地址 https://huggingface.co/CausalLM/35b-beta2ep

当然这个模型一般家用显卡跑不起来,需要两块16G以上的显卡才可能跑起来,这也应该是没什么人用的主要原因吧。我个人和群友在实际体验了CausalLM 35b, Peach(站内有介绍), Magnum 12b/35b(站内有推荐贴)之后,发现CausalLM不管是在RP方面还是写作方面,均有很好的涩涩体验,基本不会拒绝回答而且文笔不错(中文和日文都不错)。除开CausalLM 35b外应该就是基于qwen 1.5 32b的Magnum 32b在中文方面表现较好,但还是容易拒绝回答。

顺带再宣传一下AI汉化组,以上模型均可以在群内和RP机器人聊天体验,欢迎加入。
宣传贴:https://www.east-plus.net/read.php?tid-2281549.html
Telegram连接:https://t.me/withourai

522610.jpg

暴雨下的帆船

B1F  2024-08-17 07:08
(150)
12b模型本地能带起来嘛,可以涩涩嘛?

a7.gif

grider-withourai

回 1楼(暴雨下的帆船) 的帖子

Magnum 12b得12G内存打底吧,量化可以再少一些,主要看显存,可以涩涩,效果还不错。

none.gif

喵喵喵

3090的24g显存能跑这个吗

a7.gif

grider-withourai

回 3楼(喵喵喵) 的帖子

可以的

none.gif

喵喵喵

回 4楼(grider-withourai) 的帖子

尝试了一下,跑不起来,怎么样都会爆显存,不知道是不是因为我用的text-generation-webui,可以抄一下你的设置参数吗

a7.gif

grider-withourai

回 5楼(喵喵喵) 的帖子

https://huggingface.co/QuantFactory/CausalLM-35b-beta-long-GGUF/tree/main
这是上下文延长版本的gguf,用q3或q2试试,我是两块4090跑的原版转的q6k,不具备什么参考价值,只是测试玩玩的话欢迎来AI汉化组tg用机器人测试

none.gif

阿斯顿撒旦

66666666

none.gif

xxl83

请教下,在这个电报群里,如何体验这个模型啊?就是怎么跟机器人聊天?

a7.gif

grider-withourai

回 8楼(xxl83) 的帖子

/reset@withourai_rp_bot 加系统提示设置系统提示,如果有的话
@withourai_rp_bot 加你想跟机器人说的话开始聊天,之后回复都是用@
现在模型为causallm 35b,如果想要尝试其他模型的话需要跟群主说

none.gif

33dd3f14

zijzijzij自己不能用只能看

a3.gif

潜水大王

感觉瑟瑟不如big-tiger-gamma2 27b ,和tiger-gamma2 9b差不多……