当前位置:首页 → 电脑软件 → 早苗狂言日本回归,靖国鬼厕又沸腾 → 露出❌双乳玩🔞弄㊙️自慰 v1.157.7228.455873 IOS版
v9.542.7685.873199 安卓免费版
v7.56.5436 安卓版
v7.556.6277 最新版
v8.799 安卓最新版
v9.395.4892 最新版
v5.538.6599 安卓汉化版
v5.584.44 安卓最新版
v2.770.9386 安卓汉化版
v8.57.6842.651898 安卓免费版
v2.299 安卓免费版
v7.487.2970 IOS版
v9.195.9040 IOS版
v2.204.8378 IOS版
v6.9.3082.516447 安卓汉化版
v6.680.5271.529173 安卓免费版
v1.632 IOS版
v3.158.8876 安卓免费版
v5.580.5512.46201 安卓最新版
v5.8 安卓汉化版
v4.841.6895.4544 安卓免费版
v3.915 PC版
v8.840.5821 安卓免费版
v2.173.3795.37333 安卓版
v4.413.170.897879 PC版
v8.0.1831 PC版
v1.888.5370 安卓版
v7.772 安卓版
v9.83 最新版
v7.882.1743.344321 安卓版
v5.557.6581.397750 安卓版
v1.903.6581 最新版
v6.721 安卓汉化版
v1.364.215 IOS版
v2.344.6885 安卓免费版
v2.931.3826.239580 PC版
v2.941.4267.379682 安卓最新版
v7.994 PC版
v9.393.5481.995481 最新版
v3.553.2040.445345 安卓版
v8.662 最新版
v8.512.566 PC版
v9.872.7561 安卓版
v1.328 安卓版
v4.53.9883.765346 安卓汉化版
v7.443.5971 PC版
v4.928.7528 安卓最新版
v6.118.3157.578995 安卓汉化版
v3.108.3875 安卓版
v7.241 最新版
v2.597.3052 最新版
v6.236 安卓汉化版
v9.185.7600 IOS版
v5.589 安卓版
v6.73.4586.730673 PC版
v5.123.6348 安卓免费版
v8.203.4917.430078 PC版
v7.204 最新版
v9.96.6701.479043 安卓汉化版
v7.921.8861 PC版
v2.331.6530.350262 安卓免费版
v9.36.4156.479198 安卓免费版
v6.722 安卓最新版
v5.190.7429 安卓汉化版
v5.731.2983 最新版
v7.533.8959.351441 安卓免费版
v6.527.8571.992007 PC版
v6.698.9974 安卓免费版
v9.986 安卓汉化版
v3.360.3089 最新版
v1.292.3834.338771 安卓版
v1.579.944 安卓版
v6.400.8364 安卓汉化版
v8.416 PC版
v8.638 安卓汉化版
v9.86.8049.769259 最新版
v5.273 最新版
v6.305.8926 安卓汉化版
v7.675.6320.791931 PC版
v5.240 安卓免费版
v2.259.1894 安卓版
露出❌双乳玩🔞弄㊙️自慰
商汤科技正式发布并开源了与南洋理工大学 S-Lab合作研发的全新多模态模型架构 ——NEO,为日日新SenseNova多模态模型奠定了新一代架构的基石。
作为行业首个可用的、实现深层次融合的原生多模态架构(Native VLM),NEO 从底层原理出发,打破了传统“模块化”范式的桎梏,以“专为多模态而生”的创新设计,通过核心架构层面的多模态深层融合,实现了性能、效率和通用性的整体突破,重新定义了多模态模型的效能边界,标志着人工智能多模态技术正式迈入“原生架构”的新时代。
论文网址:https://arxiv.org/abs/2510.14979
打破瓶颈:告别“拼凑”,拥抱“原生”
当前,业内主流的多模态模型大多遵循“视觉编码器+投影器+语言模型”的模块化范式。这种基于大语言模型(LLM)的扩展方式,虽然实现了图像输入的兼容,但本质上仍以语言为中心,图像与语言的融合仅停留在数据层面。这种“拼凑”式的设计不仅学习效率低下,更限制了模型在复杂多模态场景下(比如涉及图像细节捕捉或复杂空间结构理解)的处理能力。
商汤 NEO 架构正是为了解决这一痛点而生。早在2024 年下半年,商汤便在国内率先突破多模态原生融合训练技术,以单一模型在SuperCLUE语言评测 和OpenCompass多模态评测中夺冠,并基于这一核心技术打造了日日新SenseNova6.0,实现多模态推理能力领先。之后,在2025 年 7 月发布日日新SenseNova6.5 通过实现编码器层面的早期融合,把多模态模型性价比提升 3 倍,并在国内率先推出商用级别的图文交错推理。商汤此次更进一步,彻底摒弃了传统的模块化结构,从底层原理出发,推出了从零设计的 NEO 原生架构。
三大内核创新:实现视觉和语言的深层统一
NEO 架构以极致效率和深度融合为核心理念,通过在注意力机制、位置编码和语义映射三个关键维度的底层创新,让模型天生具备了统一处理视觉与语言的能力:
●原生图块嵌入(Native PatchEmbedding):摒弃了离散的图像tokenizer,通过独创的Patch Embedding Layer (PEL)自底向上构建从像素到词元的连续映射。这种设计能更精细地捕捉图像细节,从根本上突破了主流模型的图像建模瓶颈。
●原生三维旋转位置编码 (Native-RoPE):创新性地解耦了三维时空频率分配,视觉维度采用高频、文本维度采用低频,完美适配两种模态的自然结构。这使得 NEO 不仅能精准捕获图像的空间结构,更具备向视频处理、跨帧建模等复杂场景无缝扩展的潜力。
●原生多头注意力(Native Multi-Head Attention):针对不同模态特点,NEO在统一框架下实现了文本token的自回归注意力和视觉token的双向注意力并存。这种设计极大地提升了模型对空间结构关联的利用率,从而更好地支撑复杂的图文混合理解与推理。
此外,配合创新的 Pre-Buffer & Post-LLM 双阶段融合训练策略,NEO 能够在吸收原始 LLM 完整语言推理能力的同时,从零构建强大的视觉感知能力,彻底解决了传统跨模态训练中语言能力受损的难题。
实测表现:十分之一的数据,追平旗舰级性能
在架构创新的驱动下,NEO 展现出了惊人的数据效率与性能优势:
极高数据效率:仅需业界同等性能模型 1/10 的数据量(3.9亿图像文本示例),NEO 便能开发出顶尖的视觉感知能力。无需依赖海量数据及额外视觉编码器,其简洁的架构便能在多项视觉理解任务中追平 Qwen2-VL、InternVL3 等顶级模块化旗舰模型。
性能卓越且均衡:在 MMMU、MMB、MMStar、SEED-I、POPE 等多项公开权威评测中,NEO 架构均斩获高分,展现出优于其他原生 VLM 的综合性能,真正实现了原生架构的“精度无损”。
极致推理性价比:特别是在 0.6B-8B 的参数区间内,NEO 在边缘部署方面优势显著。它不仅实现了精度与效率的双重跃迁,更大幅降低了推理成本,将多模态视觉感知的“性价比”推向了极致。
开源共建:构建下一代 AI 基础设施
架构是模型的“骨架”,只有骨架扎实,才能支撑起多模态技术的未来。NEO 架构的早期融合设计支持任意分辨率与长图像输入,能够无缝扩展至视频、具身智能等前沿领域,实现了从底层到顶层、端到端的真正融合。从应用角度,端到端的“原生一体化”设计,为机器人具身交互、智能终端多模态响应、视频理解、3D交互及具身智能等多元化场景的应用,提供了坚实的技术支撑。
目前,商汤已正式开源基于 NEO 架构的2B 与 9B两种规格模型,以推动开源社区在原生多模态架构上的创新与应用。商汤科技表示,致力于通过开源协作与场景落地双轮驱动,将 NEO 打造为可扩展、可复用的下一代 AI 基础设施,推动原生多模态技术从实验室走向广泛的产业化应用,加速构建下一代产业级原生多模态技术标准。
Github开源网址:https://github.com/EvolvingLMMs-Lab/NEO
相关版本
多平台下载
查看所有0条评论>网友评论