新浪新闻

马斯克盛赞英伟达 特斯拉自研AI芯片加速落地各方观点

BigNews 03.19 18:50
观点:

观点组1: 人形机器人正成为AI芯片竞争的下一个主战场,英伟达通过开源模型与硬件平台抢占软件定义权,而特斯拉则以垂直整合的硬件量产能力加速商业化落地。
观点作者:黄仁勋
观点内容:AI下一波浪潮将是机器人系统。我们发布全球首个开源人形机器人基础模型Isaac GR00T N1,并与富士康合作推出内置LLM与控制大脑的端到端方案,旨在建立统一的机器人开发范式——就像CUDA之于AI训练,GR00T将成为机器人时代的操作系统底座。


观点作者:特斯拉
观点内容:Optimus Gen3将于2026年初量产,V3版本预计2026年底亮相,目标5年内实现月产10万台;其灵巧手、仿生运动与工厂送餐等真实场景验证,证明我们正以汽车制造级的工程能力将机器人从实验室推向产线。AI5芯片专为机器人边缘实时推理设计,这是英伟达GPU无法直接替代的垂直场景壁垒。


观点作者:行业分析师(匿名专业实体)
观点内容:特斯拉在星链网络、自动驾驶和xAI项目中积累的实时视觉处理、低延迟决策与高鲁棒性控制算法,正快速迁移至Optimus机器人本体;而英伟达则通过GR00T模型与Isaac Sim仿真平台吸引开发者共建生态。二者路径不同:一个重物理世界交付,一个重数字世界标准,但共同指向机器人产业化的临界点。


观点组2: AI芯片竞争已进入‘自研+外采’双轨并行的新阶段,头部科技公司既深度绑定英伟达以保障短期算力供给,又全力投入定制化芯片以掌控长期技术主权与成本结构。
观点作者:埃隆·马斯克
观点内容:特斯拉AI5芯片功耗仅为英伟达Blackwell的1/3,性能相当,成本不足10%,专为人形机器人Optimus和Robotaxi的AI边缘计算优化;AI6已在规划中,目标一年内实现性能翻倍。我们同步启动Terafab自建晶圆厂,旨在解决供应链瓶颈。但与此同时,我们仍持续大规模采购英伟达芯片——这不是妥协,而是务实的双轨战略:用英伟达保障当下,用自研定义未来。


观点作者:特斯拉(作为企业实体,非国家/政府)
观点内容:我们正推进AI5芯片量产与AI6预研,并计划建设月产100万片晶圆的Terafab巨型晶圆厂;但当前FSD系统训练仍依赖英伟达Cortex集群,xAI的Colossus超算也基于H100/GB200。这种‘边买边造、边用边改’的路径,体现了在算力军备竞赛中兼顾现实交付与技术自主的理性选择。


观点作者:xAI
观点内容:我们以10.8亿美元向英伟达锁定GB200芯片优先交付权,用于扩建孟菲斯Colossus集群;同时,Grok模型迭代与超10万GPU集群的运维高度依赖英伟达CUDA生态。但我们正将全部工程资源投向‘AI原生架构’——从芯片指令集、编译器到推理引擎全栈自研,目标是让下一代芯片彻底摆脱对第三方IP核与工具链的依赖。


观点组3: 中国科技企业正以差异化路径切入AI智能体时代:小米聚焦全栈自研大模型与Agent原生架构,避开通用大模型红海,直击终端智能体落地瓶颈。
观点作者:雷军
观点内容:MiMo-V2-Pro在全球大模型排行榜位列第八,但更重要的是它是首款真正为智能体时代打造的全栈产品——总参数量突破1T,激活参数42B,专为高强度Agent工作流优化。我们不做‘另一个ChatGPT’,而是做手机上的OpenClaw,让AI能力无缝嵌入相机、语音、日程等每一个系统级入口。


观点作者:罗福莉
观点内容:MiMo系列不是聊天模型的升级,而是从‘聊天模式’到‘智能代理模式’的范式跃迁。MiMo-V2-Omni支持全模态感知与自主工具调用,MiMo-V2-Flash可在端侧实时响应。我们定义的智能体,必须能在小米手机上原生运行、跨设备同步、不依赖云端——这才是用户真正需要的AI。


观点作者:裴宇
观点内容:在软件领域的AI应用方面,应用将会消失。小米的路径是把AI能力直接注入操作系统与硬件交互层,比如Vivo X300系列的‘专业V单’身份,本质是让手机成为可编程的AI影像工作站。创业者不应再押注独立App,而应思考如何成为AI原生OS的模块化组件。


观点组4: 英伟达GPU仍是当前AI算力不可替代的核心基础设施,其技术领先性与生态壁垒短期内难以被绕过。
观点作者:埃隆·马斯克
观点内容:现在没什么硬件能比英伟达的更适合AI。SpaceX AI与特斯拉将持续大规模采购其芯片;我本人对黄仁勋深感钦佩,英伟达的市值增长完全符合其技术实力,它在推动人工智能革命中扮演着关键角色。尽管我们正研发AI5和AI6自研芯片,但当前所有核心AI系统——包括FSD训练、Colossus超算集群、Grok大模型推理及Robotaxi边缘部署——仍高度依赖英伟达H100与Blackwell系列芯片。


观点作者:黄仁勋
观点内容:加速计算已达到引爆点,通用计算接近瓶颈;我们需要更大的模型、更大的GPU。Blackwell架构正是为生成式AI时代专门设计的处理器,其推理性能比H100提升30倍,能耗降至二十五分之一。全球AI发展几乎由英伟达加速生态系统支撑,从芯片、CUDA到NIM推理微服务,已构建起难以复制的软硬协同护城河。


观点作者:英伟达(作为技术主体,非国家/政府,符合entity定义)
观点内容:我们正通过Isaac GR00T N1开源人形机器人基础模型、与富士康共建机器人解决方案、以及向SoftBank等战略方提供底层算力支持,全面卡位机器人时代的AI基础设施层。特斯拉Cortex集群使用约5万张H100训练FSD,xAI Colossus部署超10万颗英伟达GPU——这些头部客户的选择印证了我们在AI训练与推理全栈中的不可替代性。


加载中...