时间:2025-02-04 14:10:06
编辑:楠楠资源网
阅读:0
近日消息,腾讯文件助手宣布,其微信小程序及Web端服务将于2024年10月11日之后不再运营,用户需留意此变更并提前做好数据备份与转移安排。
文件助手备份文件功能即日起关闭,10月11日前用户可正常浏览和下载备份过的文件,但无法再备份新的文件。
对于会员用户,官方已开放退款通道,可在同步助手App—文件—云端—同步助手会员退款通道填写需退款的账号信息。
腾讯文件助手小程序是一款基于微信小程序平台的文件管理工具,可以帮助用户在微信环境中方便地管理、分享和预览各种文件。
支持多种文件格式,包括文档、表格、图片、音频、视频等,并且可与腾讯云存储服务、腾讯云文件管理服务等云服务无缝集成,方便用户在云端存储和管理文件。
用户可以通过腾讯文件助手小程序轻松管理文件,实现文件的上传、下载、分享、预览等功能,大大提高工作效率。
近年来,大语言模型(LLM)在众多领域得到了广泛的应用,于复杂推理以及问题解决方面的任务中起到了极为关键的作用。像受到OpenAI的o1架构所启发的o1 - like模型更是引人瞩目,这种模型具备独特的人类思维模式,拥有逐步进行推理的能力,在很多应用场景下表现相当出色。
所谓过度思考,是指模型在处理一些简单问题时,往往会消耗不必要的计算资源,甚至在推理过程中重复无谓的步骤。例如,在解决 “2+3” 这样简单的算术题时,o1-like 模型可能会生成过于详细的推理,使用的 token 数量远超传统的 LLM,这不仅增加了计算成本,也限制了它们在资源受限场景下的实际应用。
针对这一问题,腾讯 AI 实验室和上海交通大学共同发布了一项新研究,深入探讨 o1-like 模型中的过度思考现象,并集中优化测试时的计算资源。研究通过在 GSM8K、MATH500和 AIME 等数据集上进行实验,揭示了这些模型在面对简单问题时倾向于生成冗余解答的特征。为此,研究人员引入了两个评估指标 —— 结果效率和过程效率,以全面评估模型在推理时的资源利用情况,这两个指标分别考量答案的正确性和中间推理步骤的相关性。
为了解决过度思考问题,研究者提出了一种自我训练的方法,将效率指标直接整合到模型训练过程中。这一方法强调了早期准确响应的重要性,从而减少冗余推理,同时保留了模型的反思能力。研究中,第一正确解(FCS)和 FCS + 反思策略成为核心方法。以 QwQ-32B-Preview 模型为例,在 MATH500数据集上的 token 使用量减少了48.6%。除了计算节省外,这些方法还提高了推理的可解释性,并使其能够在计算资源有限的场景中部署。
实验结果显示,这些以效率为中心的策略显著降低了 token 使用量,同时保持或提高了简单任务的准确性。例如,在 MATH500数据集中,FCS + 反思策略使结果效率从52.3% 提升至75.8%。更高的过程效率也表明推理步骤中的冗余性减少。在更具挑战性的数据集如 GPQA 和 AIME 中,优化后的模型依然保持了强大的性能,同时减少了计算需求。研究结果表明,针对性训练策略能够有效解决低效问题,同时在多种任务中保留模型的能力。
腾讯 AI 实验室与上海交通大学的这项研究强调了 o1-like 模型中的过度思考问题,并提出了高效利用资源的切实解决方案。这些新指标和训练方法的提出,对于提升先进推理模型的可扩展性和应用性具有重要意义。在人工智能系统不断演进的过程中,确保计算资源的高效使用将成为一个关键关注点,从而使这些技术能够得到更广泛的应用和可持续的使用。
7月5日消息,在2024世界人工智能大会(WAIC 2024)的聚光灯下,腾讯集团副总裁、腾讯混元大模型负责人蒋杰深入探讨了大模型在多模态领域的发展现状与未来方向。
他指出,混元大模型正从多模态技术向全模态技术迈进,这一转变不仅反映了技术演进的趋势,也是腾讯在AI领域战略布局的重要组成部分。
蒋杰表示,大模型行业正从最初的单模态向多模态过渡。其认为对于腾讯混元大模型来说,多模态是一道“必答题”,目前混元大模型正在积极部署从多模态到全模态的技术,用户将很快可在腾讯元宝 App、腾讯内部业务及场景中体验,同时会通过腾讯云向外部应用开放。
而在 5 月 17 日,蒋杰曾在腾讯生成式 AI 产业应用峰会上透露,今年三季度将开源混元“最核心”的文生文模型。腾讯内部已开始对三种不同尺寸(S、M、L)的文生文模型进行训练以供开源使用。
S 版主要部署在手机端,拥有 3B 参数量;
M 版主要部署在 PC 端,参数量为 5B;
L 版主要部署在云 / 数据中心,是 30B 参数量的 MOE 架构模型。
据此前报道,腾讯混元文生图大模型(混元 DiT)昨日宣布开源小显存版本,仅需 6G 显存即可运行,对使用个人电脑本地部署的开发者比较友好。
腾讯就App Store分成争议表态:协商进行时
腾讯注册新作《怪物猎人旅人》软件著作权,预计2024年内亮相
LibreOffice 7.5.3大规模修复:解决近百个错误!
腾讯《QQ》迎来鸿蒙原生体验:内测招募中,群聊视频通话无缝畅享
阅读:3
阅读:4
益智休闲35.27MB
2025-02-04
益智休闲69.37MB
角色扮演848.27MB
卡牌对战79.88MB
角色扮演32MB
角色扮演124.76MB
摄影图像52.44MB
实用工具14.17MB
资讯阅读8.54MB
投资理财61MB
其他软件0KB
教育学习5.43MB
联系方式:nananrencaicom@163.com
版权所有2023 nananrencai.com AII版权所有备案号 渝ICP备20008086号-40
腾讯《文件助手》落幕:10月1日起停止服务,微信小程序与网页版均支持退款选项
时间:2025-02-04 14:10:06
编辑:楠楠资源网
阅读:0
近日消息,腾讯文件助手宣布,其微信小程序及Web端服务将于2024年10月11日之后不再运营,用户需留意此变更并提前做好数据备份与转移安排。
文件助手备份文件功能即日起关闭,10月11日前用户可正常浏览和下载备份过的文件,但无法再备份新的文件。
对于会员用户,官方已开放退款通道,可在同步助手App—文件—云端—同步助手会员退款通道填写需退款的账号信息。
腾讯文件助手小程序是一款基于微信小程序平台的文件管理工具,可以帮助用户在微信环境中方便地管理、分享和预览各种文件。
支持多种文件格式,包括文档、表格、图片、音频、视频等,并且可与腾讯云存储服务、腾讯云文件管理服务等云服务无缝集成,方便用户在云端存储和管理文件。
用户可以通过腾讯文件助手小程序轻松管理文件,实现文件的上传、下载、分享、预览等功能,大大提高工作效率。
腾讯AI实验室联合上海交大:打破O1模型“过度思考”的枷锁
近年来,大语言模型(LLM)在众多领域得到了广泛的应用,于复杂推理以及问题解决方面的任务中起到了极为关键的作用。像受到OpenAI的o1架构所启发的o1 - like模型更是引人瞩目,这种模型具备独特的人类思维模式,拥有逐步进行推理的能力,在很多应用场景下表现相当出色。
所谓过度思考,是指模型在处理一些简单问题时,往往会消耗不必要的计算资源,甚至在推理过程中重复无谓的步骤。例如,在解决 “2+3” 这样简单的算术题时,o1-like 模型可能会生成过于详细的推理,使用的 token 数量远超传统的 LLM,这不仅增加了计算成本,也限制了它们在资源受限场景下的实际应用。
针对这一问题,腾讯 AI 实验室和上海交通大学共同发布了一项新研究,深入探讨 o1-like 模型中的过度思考现象,并集中优化测试时的计算资源。研究通过在 GSM8K、MATH500和 AIME 等数据集上进行实验,揭示了这些模型在面对简单问题时倾向于生成冗余解答的特征。为此,研究人员引入了两个评估指标 —— 结果效率和过程效率,以全面评估模型在推理时的资源利用情况,这两个指标分别考量答案的正确性和中间推理步骤的相关性。
为了解决过度思考问题,研究者提出了一种自我训练的方法,将效率指标直接整合到模型训练过程中。这一方法强调了早期准确响应的重要性,从而减少冗余推理,同时保留了模型的反思能力。研究中,第一正确解(FCS)和 FCS + 反思策略成为核心方法。以 QwQ-32B-Preview 模型为例,在 MATH500数据集上的 token 使用量减少了48.6%。除了计算节省外,这些方法还提高了推理的可解释性,并使其能够在计算资源有限的场景中部署。
实验结果显示,这些以效率为中心的策略显著降低了 token 使用量,同时保持或提高了简单任务的准确性。例如,在 MATH500数据集中,FCS + 反思策略使结果效率从52.3% 提升至75.8%。更高的过程效率也表明推理步骤中的冗余性减少。在更具挑战性的数据集如 GPQA 和 AIME 中,优化后的模型依然保持了强大的性能,同时减少了计算需求。研究结果表明,针对性训练策略能够有效解决低效问题,同时在多种任务中保留模型的能力。
腾讯 AI 实验室与上海交通大学的这项研究强调了 o1-like 模型中的过度思考问题,并提出了高效利用资源的切实解决方案。这些新指标和训练方法的提出,对于提升先进推理模型的可扩展性和应用性具有重要意义。在人工智能系统不断演进的过程中,确保计算资源的高效使用将成为一个关键关注点,从而使这些技术能够得到更广泛的应用和可持续的使用。
腾讯蒋杰于WAIC 2024详解混元大模型:多模态至全模态的跨越
7月5日消息,在2024世界人工智能大会(WAIC 2024)的聚光灯下,腾讯集团副总裁、腾讯混元大模型负责人蒋杰深入探讨了大模型在多模态领域的发展现状与未来方向。
他指出,混元大模型正从多模态技术向全模态技术迈进,这一转变不仅反映了技术演进的趋势,也是腾讯在AI领域战略布局的重要组成部分。
蒋杰表示,大模型行业正从最初的单模态向多模态过渡。其认为对于腾讯混元大模型来说,多模态是一道“必答题”,目前混元大模型正在积极部署从多模态到全模态的技术,用户将很快可在腾讯元宝 App、腾讯内部业务及场景中体验,同时会通过腾讯云向外部应用开放。
而在 5 月 17 日,蒋杰曾在腾讯生成式 AI 产业应用峰会上透露,今年三季度将开源混元“最核心”的文生文模型。腾讯内部已开始对三种不同尺寸(S、M、L)的文生文模型进行训练以供开源使用。
S 版主要部署在手机端,拥有 3B 参数量;
M 版主要部署在 PC 端,参数量为 5B;
L 版主要部署在云 / 数据中心,是 30B 参数量的 MOE 架构模型。
据此前报道,腾讯混元文生图大模型(混元 DiT)昨日宣布开源小显存版本,仅需 6G 显存即可运行,对使用个人电脑本地部署的开发者比较友好。
腾讯就App Store分成争议表态:协商进行时
2024-08-22腾讯注册新作《怪物猎人旅人》软件著作权,预计2024年内亮相
2024-10-24LibreOffice 7.5.3大规模修复:解决近百个错误!
2024-11-09腾讯《QQ》迎来鸿蒙原生体验:内测招募中,群聊视频通话无缝畅享
2025-02-02阅读:3
阅读:0
阅读:0
阅读:4
阅读:0
益智休闲35.27MB
2025-02-04
益智休闲69.37MB
2025-02-04
角色扮演848.27MB
2025-02-04
卡牌对战79.88MB
2025-02-04
角色扮演32MB
2025-02-04
角色扮演124.76MB
2025-02-04
摄影图像52.44MB
2025-02-04
实用工具14.17MB
2025-02-04
资讯阅读8.54MB
2025-02-04
投资理财61MB
2025-02-04
其他软件0KB
2025-02-04
教育学习5.43MB
2025-02-04