通知说明
关于Token字数消耗“变快”的说明
📅 2025-4-4
结论:在AI快写中选择的参考文献,和高定版中上传的参考文档,会在生成内容时,组成提示词发送给AI,全部计算Token使用字数。如果参考文献比较多,建议选择不限字数的时长套餐。
背景说明
高定版发布上线,支持上传参考文档,支持选择真实参考文档,支持生成图表和数据表。有用户反馈Token消耗量变快,过去能生成3万字,现在只能生成1万字了。
现在说明原因如下:
首先,解释一下Token字数是怎么计量的?
Token字数是以豆包、阿里云、Kimi、Deepseek等平台的计算为准的,大模型返回生成内容时,会告知本次消耗的Token数。我们以此为准计算。
然而,AI大模型平台,分析输入的请求,生成输出的内容,都要消耗算力, 他们对 “输入的提示词”和“输出内容” 都按照字数收费。
参考文献的内容全部计算在内
所以,高定版在生成内容时,如果您选择了参考文档,系统会将参考文档的内容,写入提示词发送给AI,让AI当做参考内容。
如果您选一篇1万字的docx文档作为参考文献,给AI的输入提示词就会是:1万字参考文档+100字左右,加上输出字数,单次生成就会消耗1万+。
数据表和图表的生成也消耗Token
高定版中,生成一个数据表,单次大约消耗1千token。生成一张图表,消耗2千Token左右,目前生成图表功能实际并不扣减字数。
ChatTable 和AI脑图,目前也不扣减字数,可以无限制使用。
以上字数扣减明细都可以在页面右上角,使用明细中查看。
AI快写中,搜索到的真实参考文献,每篇文献的摘要约100字。系统会将您选取的全部参考文献的标题、摘要发送给AI,已求生成内容更符合预期。
如果一篇论文中选取20个真实参考文献,则每次生成一段内容,输入的参考信息至少是20x100=2000字起步,加上其他提示词200字左右,加上输出字数,单次生成就会消耗3500字左右。
如果您在AI快写和高定版中,均未选取参考文献,Token消耗速度和之前基本保持一致,并没有明显的加快。
Token和汉字不是1=1的关系
另外,AI额度(Token), 并不是和汉字一一对应的,平均大概而论,1.5个Token对应一个汉字.
所有,若您的文中要引用大量参考文献,建议选择不计字数的时长套餐。
虽然目前deepseek,kimi网页版都是免费使用的,但API服务一致都是收费的。并且,效果好的大模型(比如阿里的qwen-max)的Token都不便宜,神笔网站目前还不能维持收支平衡,望您体谅。
结论和建议
总结一下:选择的参考文献,会组成提示词发送给AI,会按字数消耗Token。建议选择不限字数的时长套餐,越长越便宜。
最后,感谢您的支持,有任何问题,欢迎随时加客服微信!
关于各大模型的选择说明
📅 2025-3-30
神笔写作主要连接了以下几类大模型:
🔥【DeepSeek-R1】
连接 DeepSeek 官方平台,最正宗,但实际应用中观察到,有个别生成内容的请求,会超时错误,不返回结果。太火了,用的人太多,可以理解。
🔥【DeepSeek-R1-Volc】
因为 DeepSeek 是开源大模型,此选项是字节跳动旗下火山引擎平台提供的DeepSeekR1,稳定好,效果是相同的。
🔥【DeepSeek-R1-Aliyun】
因为 DeepSeek 是开源大模型,此选项是阿里云平台提供的DeepSeekR1,稳定好,效果是相同的。
🔥【Doubao-pro-32k】
豆包大模型,上下文32k。效果非常好。实测中,生成较长篇幅时,会重复叙述浅显的内容,往往不是很深刻。比如:让生成一段1000字的论述,往往200字一小段,每小段的开头结尾,句式都是类似的。喋喋不休既视感。生成短文,对话非常好。
🔥【Qwen-max】
阿里云 千问Max 模型,阿里云平台的顶级模型,价格最贵。很长一段时间,都是kimi的10倍收费,最近便宜了很多。但生成内容比较深刻,同样生成1000字一段话,会从多个角度,不同维度,每个小段的写法也不同,不刻板,看起来真的像一个精通表述的资深专家。生成提纲,最推荐max模型。
🔥【Qwen-plus】
千问max的姊妹篇,上下文比max大,价格也稍便宜。最近上线了论文写作高定版。高定版用户自定义参数多,提示词非常长,对ai返回的要求也多,单次请求Token消耗量大。Qwen-max 有时上下文长度不够用了,所以接入了 Qwen-plus 模型。论文快写,生成提纲,推荐Qwen-max。高定版生成提纲,推荐 DeepSeek-R1-Volc 和 Qwen-plus。
🔥【Kimi】
Kimi是一直都很稳的实力派。文学素养,没有qwen-max那么深刻。但写出的文案,比豆包深刻,写论文效果仅次于 Qwen-max。从一开始,价格就非常合理。速度一直非常快。
🔥【DeepSeek-V3】
接入了一段时间,生成提纲效果并不好,暂时关闭了。
以上都是开发团队个人意见,无任何权威性,仅供参考,欢迎交流 biz@365d.ink。
从最开始,我们就一直用一个《红军四渡赤水的战略意义》为题,让各个大模型来撰写提纲和文章,所谓是否“深刻”,一观便知。另一个,就是让AI以鲁迅先生的口吻,评价一下《红军四渡赤水的战略意义》,大多模型目前都学不了鲁迅先生的语言风格。但能明显看出来,谁更像。