最新最快科技资讯
太阳能光伏网

搜索

谷歌Gemini 3 Pro预览版曝光:百万级上下文窗口重塑AI交互

科技媒体ufukozen昨日披露,谷歌在Vertex AI平台发现代号为"gemini-3-pro-preview-11-2025"的新模型踪迹,预计2025年11月面向企业客户开放预览。该模型或为下一代旗舰AI Gemini 3 Pro,有望于同年12月正式发布。作为Gemini系列的重大升级,其最引人关注的是高达100万Token的上下文窗口,相当于可一次性处...

英伟达发布专为大规模上下文AI设计的Rubin CPX GPU

英伟达近日推出专为大规模上下文处理设计的GPU--Rubin CPX,旨在提升AI任务效率,涵盖视频生成与大规模编码等高要求场景。该产品将理解提示与生成响应任务分离,优化整体处理流程。Rubin CPX配备128GB GDDR7显存,支持3倍注意力机制能力,并提供30 petaflops计算性能。其将作为Vera Rubin平台的一部分,集...

英伟达推出Rubin CPX图形处理器 提升上下文推理性能

2025年9月10日,英伟达宣布推出专为大规模上下文推理打造的Rubin CPX新型图形处理器及配套的Vera Rubin NVL144 CPX平台,预计于2026年底上市。该系列产品将显著提升复杂软件编码及视频生成应用的性能,支持处理高达百万级用户输入内容。免责声明: 本文内容由开放的智能模型自动生成,仅供参考。

月之暗面推出Kimi K2新版本,上下文长度达256K

9月5日,月之暗面宣布推出Kimi K2模型最新版本0905,上下文长度由128K提升至256K,输出速度可达60-100Token/s。此次升级已全面应用于Kimi应用及网页版中的K2模型。免责声明: 本文内容由开放的智能模型自动生成,仅供参考。

硅基流动上线DeepSeek-V3.1,支持160K超长上下文

近日,硅基流动宣布其大模型服务平台已上线深度求索团队最新开源的DeepSeek-V3.1版本,全面支持160K超长上下文。此次更新显著提升了模型在处理长文本任务中的表现,进一步满足用户对高效、高质量文本生成的需求。免责声明: 本文内容由开放的智能模型自动生成,仅供参考。

DeepSeek开源V3.1-Base模型,上下文长度提升至128K

DeepSeek于昨日深夜在Hugging Face平台开源其最新模型V3.1-Base,该模型将上下文长度扩展至128K,参数规模约为685B,展现出更强的长文本处理能力。此前,DeepSeek已宣布线上模型升级至V3.1版本,用户可通过官方网页、App及小程序体验更新内容,API调用方式维持不变。值得注意的是,备受关注的DeepSeek R2版...

DeepSeek 模型升级至 V3.1 版本,上下文支持长度扩展至128K

DeepSeek 官方宣布线上模型已升级至 V3.1 版本,上下文长度大幅提升至128K。用户现可通过官方网页、App 或小程序进行体验,API 接口调用方式保持不变。此次升级显著增强了模型处理长文本的能力,适用于长文档分析、代码理解及连贯长对话等场景。官方表示本次属常规更新,而备受期待的 DeepSeek R2 版本尚...

Claude Sonnet 4支持百万Token上下文

2025年8月13日,Anthropic宣布其Claude Sonnet 4模型现已支持高达100万Token的上下文窗口,容量是之前的5倍。该升级使开发者能够在单次请求中处理超过75,000行代码的大型代码库或数十篇研究论文,大幅提升处理效率与应用场景的广泛性。免责声明: 本文内容由开放的智能模型自动生成,仅供参考。

Anthropic升级Claude模型:上下文处理能力提升至100万token

Anthropic近日宣布,其Claude Sonnet 4模型支持的上下文token数量已从之前的20万大幅提升至100万,为开发者提供了更强大的长文本处理能力。这一升级使得模型能够一次性分析包含7.5万行代码的完整代码库,或同时处理数十篇长篇研究论文,显著提升了大规模数据集的分析效率。Anthropic表示,该功能特别适用...

亚马逊云科技推出百万级上下文窗口AI模型Palmyra X5

亚马逊云科技近日宣布,在Amazon Bedrock平台上正式上线由Writer公司发布的Palmyra X5大语言模型。作为首批支持百万token上下文窗口的商用AI模型之一,Palmyra X5可精准解析长达1500页(约6本书)的复杂内容,兼具扩展记忆与多任务处理能力。该模型突破性地融合了自适应推理技术,不仅支持30多种语言交互,...

OpenAI发布GPT-4.1系列模型 上下文支持百万tokens

[太平洋科技快讯]4 月15 日,OpenAI 正式发布了 GPT-4.1 系列模型,包括 GPT-4.1、GPT-4.1 mini 和 GPT-4.1 nano。但需要注意的是,GPT-4.1 系列模型现阶段专为开发者打造,目前仅通过开发者 API 方式提供,普通用户暂时无法通过 ChatGPT 页面体验该模型。GPT-4.1 系列模型的最大亮点在于其上下文窗口的显...

Firefox 137发布:标签分组、上下文搜索等新功能上线

Mozilla昨日宣布推出Firefox 137稳定版,带来多项实用更新。新版本支持标签分组功能,用户可通过拖拽快速创建分组,并自定义颜色与名称,即使关闭后也能保留设置。地址栏经过全新设计,新增统一搜索按钮和上下文搜索模式,可智能检测当前页面的搜索功能,简化操作流程。此外,Firefox 137引入"Search Term Pe...

Anthropic升级Claude 3.7 Sonnet模型,上下文窗口扩容至50万token

科技媒体testingcatalog报道,AI公司Anthropic计划大幅提升Claude 3.7 Sonnet模型的上下文窗口,从20万token扩展至50万token。这一升级将显著增强模型处理海量信息的能力,适用于政治文档分析、超长代码库管理及跨文档摘要生成等复杂任务,同时减少检索增强生成(RAG)可能引发的上下文错乱问题。不过,超大...

ChatGPT 测试新功能:可自动根据上下文选择相关工具使用

OpenAI 正在为 ChatGPT Plus 会员推出新的测试版功能,包括上传文件和处理文件能力、多模态支持和办公功能等。ChatGPT Plus 会员还能够获得 ChatGPT Enterprise 计划的办公功能。此外,ChatGPT 的新功能不仅限于处理文本文件,还可以根据图片创建皮克斯风格和水豚戴上帽子等。

MosaicML推开源大语言模型MPT-7B-8K 上下文长度达8k

MosaicML发布了名为MPT-7B-8K的7B参数开源语言模型,支持8K的上下文长度。与以前的模型相比,MPT-7B-8KLLM在摘要和回答任务方面展现出卓越的能力。Mosaic声称,MPT-7B-8k模型表现出与当前其他具有8k上下文长度的开源模型相当或更好的性能,该公司的上下文学习评估工具证实了这一点。

微软公布辅助模型 ICAE 可进行高效的上下文压缩

根据Arxiv平台发布的信息,微软公司近期公开了一项关于In-contextAutoencoder模型的研究论文。这款模型的应用领域是大型语言模型,主要目的在于进行高效的上下文压缩。这也再次证明了微软公司在人工智能和自然语言处理领域的领先地位。

OpenAI 发布新的 API 更新:成本显著降低、新的函数调用功能以及 GPT-3.5-turbo-16k 上下文版本

OpenAI在周二宣布了其大型语言模型API的一次重大升级,其中包括新的函数调用功能、显著的成本降低以及gpt-3.5-turbo模型的16,000tokencontextwindow选项。在大型语言模型中,「上下文窗口」类似于短期记忆,存储提示输入的内容,或者在聊天机器人的情况下,存储整个进行中的对话内容。值得注意的是,OpenAI...

这款免费软件可以禁用或启用Windows 11的新右键上下文菜单

Windows11现在已经上市。不过,有些事情还没有理清,例如用户对缺乏任务栏拖放的支持并不满意,而且新的上下文菜单对用户不友好,大大降低了操作效率。在这篇文章中,我们将介绍如何利用一款免费应用程序禁用和重新启用Windows11中的新上下文菜单。微软表示,他们重新组织了Windows11的上下文菜单,并删除了...

广大应用程序开发者正努力支持Windows 11的新右键上下文菜单

Windows 11 操作系统为"开始"菜单、通知中心、任务栏等组件带来了全新的外观,且记事本(Notepad)和画图(MS Paint)等原生应用也迎来了重新设计,辅以新颖的上下文菜单。对于习惯了通过右键点击、然后在十几个条目中挑选执行各种"高级操作"的用户来说,你会发现 Windows 11 上已变得更加智能和简洁。(图 v...