各位实际coding的时候3.6plus的效果和5.1对比怎么样? 1 个帖子 - 1 位参与者 阅读完整话题
概述 感谢各位上次发帖很多佬的交流, 上次是豪华配置,这次测了弱一点的配置 首先期望不要太高,其实这个水平的模型OpenCode还有厉害一点的Minimax M2.5免费用( 虽然刚才出现的Bug Minimax也没修好 能玩,但是上下文看自己的操作,如果有核显则可以拉到100K上下文,没有的话可能20-50K上下文了。( 所以我特别喜欢有核显的电脑 )显存比较紧急的话可以划分1层给CPU,可以拉高20K上下文应该 体感可以编程,没有什么问题 写了个时钟,还有个贪食蛇 相关说明 Apex量化的I-MINI GGUF表现真的很亮眼,损失感觉很小? Qwen3.6 35B A3B的上下文真的好便宜 模型在这里,I-MINI版本就13.3G(这里不加载视觉模块了,显存不够): Qwen3.6-35B-A3B-APEX-GGUF · 模型库 如果有Intel 358H, 338H 32G+1T, 或者AMD 890M, 780M 的用户也可以试试看,内存大可以选I-Compact的17G版本 部署环境 硬件 CPU 12450H 显卡 RTX 5060 Ti 16G 内存 单根 16G DDR4 3200 注意:显卡上没有接任何输出,BIOS设置的核显优先,界面渲染都交给了核显,如果开个渲染个界面可能就剩下13-14G显存,上下文只能开比较少或者拿一层给CPU,decode速度会降低25% 软件 后端 LM Studio 部署模型:Qwen3.6-35B-A3B-APEX-I-Mini.gguf Decode速度: 80tps 层数:全部放在GPU上 上下文:100K 关闭MMAP, 不保持模型在内存中 打开快速注意力,K缓存 V缓存量化均为Q8, Q4好像有BUG → 会导致Prefill非常慢 建议: 用来编程时,如果第一步没能做好,建议直接从第一步重开多试一次,应该会比修bug要好点,改代码bug能力没有写代码能力强的感觉 本地还能玩玩Heretic(虽然这个模型好像没什么感觉,RP不是很好,总之玩玩也不赖) 这个量化确实损失感觉没多少的样子,因为同样概率发生的bug我跑Q6量化的版本也有概率发生 对于天才编程佬们来说,模型的能力还是远远不够的,这篇文章没什么帮助,虽然如此,但是还是想要分享一下 如果发生长时间卡住,可能是模型跑出循环思考bug了,可以中断一下重新跑 题外话 话说L站没有本地部署模型的标签吗(逃 附加截图 2 个帖子 - 2 位参与者 阅读完整话题
百炼Qwen3.6-Plus用了下,改代码越改越乱,不知道是不是错觉。glm5指令遵循有点差,经常不按在CLAUDE.md或ANGENTS.md中写的测试方法来执行,各位有遇到过吗。kimi2.5用着还行,但百炼上非常不稳定,经常报错,不知道是不是接的claude code的原因。有用百炼coding plan的吗,佬们觉得哪个好用 8 个帖子 - 5 位参与者 阅读完整话题
部署了一个Qwen3.6-35B-A3B 怎么感觉有点呆啊 是不是真不行啊 2 个帖子 - 1 位参与者 阅读完整话题
两张3090 48G显存 私有化部署35B大模型, 生成速度142.65tokens/s 上下文长度262144 真香 8 个帖子 - 5 位参与者 阅读完整话题
总结 这么小的模型有这个能力,还是让我感觉挺开心的,阿里牛逼 体验挺好的,希望再接再厉 部署情况 部署版本: unsloth UD_Q6K 部署硬件: 4080 Super 32G + 5060Ti 16G Token速度: 90token/s 上下文 256K拉满 只多5G显存,总共占用30多G显存 官方跑分 昨晚(4月16日)开源的 看了下跑分好像追到GLM4.7,不过都是agent下的吧,肯定有水分的就是了 GLM 4.7 Qwen3.6 35B TerminalBench 2.0 41.0 51.5 SWE Bench-Verified 73.8 73.4 基础编程能力都有,速度也很快 写了个HTML时钟,很流畅,还随便写了个网页,网页没啥问题,挺好玩的 解决个nginx配置问题也能一下子看出来 题外话 OpenCode不错,Qwen Code不知道为啥不能读取图片 9 个帖子 - 6 位参与者 阅读完整话题
https://w418ufqpha7gzj-80.proxy.runpod.net Started for myself, but since Im not using it continuously, sharing it: Open Access Qwen3.6-35B-A3B-UD-Q5_K_M with TurboQuant (TheTom/llama-cpp-turboquant) on RTX 3090 (Runpod spot instance). 5 parallel requests supported.. full context available (please don't misuse..there are no safety guards in place) Open till spot instance lasts or max 4 hours. And yes, no request logging (I don't even know how to do it with llama-server) Prompt processing and generation speeds (at 8K context): 900t/s and 60t/s. And at 100K context: 450t/s and 30t/s. Command used: ./build/bin/llama-server \ -m ../Qwen3.6-35B-A3B-UD-Q5_K_M.gguf \ --alias 'Qwen3-6-35B-A3B-turbo' \ --ctx-size 262144 \ --no-mmproj \ --host 0.0.0.0 \ --port 80 \ --jinja \ --flash-attn on \ --cache-type-k turbo3 \ --cache-type-v turbo3 \ --reasoning off \ --temp 0.6 \ --top-p 0.95 \ --top-k 20 \ --min-p 0.0 \ --presence-penalty 0.0 \ --repeat-penalty 1.0 \ --parallel 5.0 \ --cont-batching \ --threads 16 \ --threads-batch 16 Thanks.. Comments URL: https://news.ycombinator.com/item?id=47805007 Points: 3 # Comments: 2
你是一位就职于苹果公司的顶级前端工程师。请创建一个包含CSS和JavaScript的HTML文件,用于生成动画天气卡片。卡片需要以不同动画效果直观展示以下天气状况: 风力(如:飘动的云朵、摇曳的树木或风线) 降雨(如:下落的雨滴、形成的水洼) 晴天(如:闪耀的光线、明亮的背景) 下雪(如:飘落的雪花、积雪效果) 所有天气卡片需要并排显示,背景采用深色设计。所有HTML、CSS和JavaScript代码都需包含在这个单一文件中。JavaScript部分需包含切换不同天气状态的功能(例如通过函数或按钮组),以演示每种天气的动画效果。 将前端显示效果优化得更精致流畅,打造出价值20元/月的精品天气应用既视感。 需要把上下文开大一点,写完大约10K+。一次写完的结果,没修改。 5060+DDR4,大概跑起来18tokens/s。 qwen3-6-35b-a3b-q4-k-m-v1.html.zip (8.7 KB) 5 个帖子 - 4 位参与者 阅读完整话题
越来也快了,比Qwen3.5-35B-A3B效果要更好,当前单卡部署了ud-Q4-K-XL.gguf 目前已知4090 180+toks/s, 3090 100+toks 附上对应的启动参数, llama-server --model path --ctx-size 262144 --port 8081 -ngl 99 --no-mmap --threads 16 --batch-size 256 --flash-attn on --cache-type-k q4_0 --cache-type-v q4_0 -np 1 --temp 0.6 --top-p 0.95 --top-k 20 --mlock 期待下Qwen3.6-27B Dense预计周末或者下周就出来了吧 4 个帖子 - 4 位参与者 阅读完整话题
Qwen3.5-Flash输入每百万token 0.2元,输出每百万token 2元, Qwen3.6-Flash输入每百万token 1.2元,输出每百万token 7.2元,涨价这么多?提升有这么大吗? 3 个帖子 - 3 位参与者 阅读完整话题
今天又被qwen3.6的35b-a3b刷屏了。 都在说/吹 很强,到底是不是真的的? 能不能正确流畅的在ai agent上操作。 另外M5 max 128G能部署流畅使用吗,200k上下文 1 个帖子 - 1 位参与者 阅读完整话题
各位佬,新出的3.6 a3bmoe,在视觉能力和推理任务上体感如何? 现在用的3.5 27b效果还不错,就是太慢了。 还是说,不折腾了,再等等3.6的稠密出来? 1 个帖子 - 1 位参与者 阅读完整话题
这COT的风格很像A/模型的COT? 1 个帖子 - 1 位参与者 阅读完整话题
提示词: 写一个html 的 俄罗斯方块游戏 使用模型: Qwen3.6-35B-A3B-Q4_K_M-GGUF 平时都拿俄罗斯方块测试模型表现,一次就完成了, 今天这个确实惊到我了 https://jsfiddle.net/moonheart/yrdxLueh/ 5 个帖子 - 4 位参与者 阅读完整话题
IT之家 4 月 16 日消息,继 Qwen3.6-Plus 发布之后,阿里千问大模型今日宣布开源 Qwen3.6-35B-A3B —— 一个稀疏但能力出色的混合专家(MoE)模型,总参数量为 350 亿,激活参数仅 30 亿。 官方称,Qwen3.6-35B-A3B 不但轻量高效,而且在智能体编程方面表现卓越,大幅超越前代模型 Qwen3.5-35B-A3B,并可与 Qwen3.5-27B 和 Gemma4-31B 等稠密模型一较高下。该模型依然支持多模态思考与非思考模式,是当前最具通用性的开源模型之一。现在,Qwen3.6-35B-A3B 已在 Qwen Studio 上线,并以开源权重的形式向社区发布。 IT之家附官方详细介绍如下: Qwen3.6-35B-A3B 是一个完全开源的 MoE 模型(总参数 35B / 激活参数 3B),主要特性包括: 卓越的智能体编程能力,可与大得多的模型相媲美 强大的多模态感知与推理能力 您可以在 Qwen Studio 进行交互对话,也将可通过阿里云百炼以 qwen3.6-flash 的名称调用 API,或从 Hugging Face 和 ModelScope 下载模型权重。 欢迎体验 Qwen Studio: https://chat.qwen.ai/ ModelScope: https://modelscope.cn/models/Qwen/Qwen3.6-35B-A3B Hugging Face: https://huggingface.co/Qwen/Qwen3.6-35B-A3B 模型表现 下文将全面展示 Qwen3.6-35B-A3B 与同规模模型在各类任务和模态上的评测对比结果。 自然语言 仅凭 30 亿激活参数,Qwen3.6-35B-A3B 在多项关键编程基准上超越了 270 亿参数的稠密模型 Qwen3.5-27B,并在智能体编程和推理任务上大幅超越其直接前代 Qwen3.5-35B-A3B。 视觉语言 Qwen3.6 原生支持多模态,Qwen3.6-35B-A3B 以仅约 30 亿激活参数,展现出远超其体量的感知与多模态推理能力。在大多数视觉语言基准上,它的表现已与 Claude Sonnet 4.5 持平,甚至在部分任务上实现超越。其在空间智能上的优势尤为突出:RefCOCO 92.0、ODInW13 50.8。 开始使用 Qwen3.6-35B-A3B Qwen3.6-35B-A3B 的开源权重已在 Hugging Face 和 ModelScope 上提供,支持本地部署;也即将可通过阿里云百炼 API 以 qwen3.6-flash 的名称调用。此外,您还可以在 Qwen Studio 上即时体验。 该模型可以无缝集成到流行的第三方编程助手中,包括 OpenClaw、Claude Code 和 Qwen Code,从而简化开发流程,实现高效且具备上下文感知能力的编码体验。 API 使用方式 本次发布支持 preserve_thinking 功能:在消息中保留所有前序轮次的思维内容,推荐用于智能体任务。 阿里云百炼 阿里云百炼支持行业标准协议,包括兼容 OpenAI 规范的聊天补全(chat completions)和响应(responses)API,以及兼容 Anthropic 的 API 接口。 更详细信息请访问我们的技术博客(可通过文末“阅读原文”跳转至博客),及阿里云百炼 API 文档。 代码及智能体 Qwen3.6-35B-A3B 具备出色的智能体编程能力,可以无缝集成到流行的第三方编程助手中,包括 OpenClaw、Claude Code 和 Qwen Code。 OpenClaw Qwen3.6-35B-A3B 兼容 OpenClaw(原名 Moltbot / Clawdbot),这是一款可自托管的开源 AI 编码智能体。将其连接至百炼,即可在终端中获得完整的智能体编码体验。 Qwen Code Qwen3.6-35B-A3B 适配 Qwen Code,这是一款专为终端设计的开源 AI 智能体,针对 Qwen 系列进行了深度优化。 首次使用时,系统会提示您登录。您可以随时运行 /auth 来切换认证方式。 Claude Code Qwen API 也支持 Anthropic API 协议,这意味着您可以将其与 Claude Code 等工具配合使用,以获得更优质的编码体验。 关于 OpenClaw、Qwen Code、Claude Code 等三方编程助手的使用详细脚本,请参考我们的技术博客(可通过文末“阅读原文”跳转至博客)。 总结 Qwen3.6-35B-A3B 表明,稀疏 MoE 模型可以实现卓越的智能体编程和推理能力。仅凭 30 亿激活参数,它便能够交付与数倍于其激活规模的稠密模型相当的性能,同时在多模态基准上同样表现出色。作为完全开源的模型权重,它为该规模下的模型能力树立了新的标杆。 展望未来,我们将继续扩展 Qwen3.6 开源家族,并不断拓展高效开源模型所能实现的边界。我们由衷感谢社区的宝贵反馈,并期待看到大家利用 Qwen3.6-35B-A3B 创造出的精彩成果。Qwen3.6 开源家族正在持续壮大,敬请关注我们的后续发布!
qwen3.6来了 huggingface.co Qwen/Qwen3.6-35B-A3B · Hugging Face We’re on a journey to advance and democratize artificial intelligence through open source and open science. 15 个帖子 - 12 位参与者 阅读完整话题
是这样 上周开了个坑,然后由于上周太忙了,所以没有修改和调优 给各位道歉 【docker推到镜像了】网页版千问的qwen2api,支持工具调用,支持openclaw,支持生图,这都不进来看看吗? - 福利羊毛 / 福利羊毛, Lv1 - LINUX DO 然后此次对于claude code的长任务工具调用修复了 修复了docker问题,修复了显示问题,修复了newapi获取不到模型的问题 然后预计明天更新或者今晚更新到trae分支,如果着急可以试试 不着急明天等待main分支合并即可 3 个帖子 - 3 位参与者 阅读完整话题
OpenCode Go 模型支持这算是最全的一档了吧。而且看这个差价(Qwen3.6 是 Qwen3.5 的三倍价格),更加怀疑 Qwen3.6 Plus 其实就是之前的 Qwen3.5 Max了。 1 个帖子 - 1 位参与者 阅读完整话题
opencode go套餐。qwen3.6 plus每月两万请求,国内付款方便,还不用梯子。虽然是按token预估的请求量。但如果一直刷5刀优惠账号,还是值的,还能用glm5.1应下急,满不满血不确定,我体验下来都还行。虽然阿里自己套餐性价比其实一直可以,但是完全抢不到,而且200每月对我也完全用不完,只想拿他做做前端。 10 个帖子 - 5 位参与者 阅读完整话题
有没有佬能说明一下qwen3.6plus模型的能力怎么样,看定价不便宜啊 5 个帖子 - 3 位参与者 阅读完整话题