马斯克最新访谈:收到砖头礼物、谈火星改造,还要让AI读懂人类脑电波
7月28日消息,在近期举办的“X Takeover”活动上,埃隆·马斯克收到的一份特殊礼物——一块刻有“信念”的砖。现场的主持人讲到:“观众为你赠送了一块象征性的‘砖块’,上面刻着:‘这块砖在精神上会飞翔,因为你让不可能成为现实’”。这场活动,是由特斯拉硅谷车主俱乐部主办的年度盛会,马斯克再一次以线上的方式现身,连续第二年与粉丝们展开对话。他分享了SpaceX、特斯拉、Neuralink、xAI及X平台的最新进展与未来愿景。他讲述了星舰的疯狂工程如何将不可能推进现实、关于擎天柱机器人的最新迭代和规划、并畅想了通用人工智能、脑机接口、人机共生的未来,以及人类如何在“AI+机器人”的新时代寻找生活的意义。以下是马斯克访谈内容摘要:星舰的工程挑战与进展问:星舰是有史以来最具雄心的火箭,哪些方面比预期更困难?下一个重要里程碑是什么?马斯克:我从一开始便预判到项目的各个环节都会极具挑战性,因此实际进展并未出现超出预期的困难。星舰在诸多方面都堪称一项疯狂的工程。其推力达到土星五号登月火箭的2.5倍,未来版本将提升至3倍。要知道,土星五号曾是人类历史上体型最大的火箭与飞行载体。与土星五号相比,星舰的推力是其3倍,重量约为其2倍,而它的目标是实现完全且快速的重复使用,这无疑是一项极端艰巨的工程挑战。在我们最初探讨星舰项目时,不仅外界普遍认为这是不可能完成的任务,即便在公司内部,提及此事也常遭调侃,被视作异想天开。如今,我们已从“不可能”的阶段迈入“只是稍晚实现”的阶段。而将“不可能”转化为“稍晚达成”,正是我的专长所在。我建议对该项目感兴趣的人士,可以前往南德克萨斯州的星际基地(Starbase)参观,那里宛如一片“魔法之地”,矗立着巨型火箭。不少参观者都表示深受震撼。基地紧邻主干道,人们可以近距离感受火箭与工厂的宏伟规模。目前,项目中最困难的部分正如我所预期的,是研发完全可重复使用的轨道热防护盾。这是人类从未实现过的技术。传统热防护盾属于消耗性设备,例如航天飞机的热防护盾,每次飞行后都会损耗大量隔热瓦,必须经过翻新才能再次使用。迄今为止,既没有任何机构研发出完全可重复使用的轨道热防护盾,也没有任何团队造出完全可重复使用的轨道火箭。猎鹰9号(Falcon 9)是首个实现助推器常规重复使用且具备经济合理性的火箭。对星舰而言,除了解决热防护盾问题,还需实现上层飞船的着陆,并通过“巨型金属机械臂”(昵称“筷子”)完成捕获。这一场景仿佛科幻电影中的画面,要捕获的竟是人类有史以来最大的飞行载体。我预计最快于今年,最迟明年上半年实现飞船回收。此后,我们将进一步优化技术,使星舰与助推器不仅能够重复使用,更能实现完全且快速的重复使用,从而将每吨有效载荷的发射成本降至低于猎鹰1号(Falcon 1)的水平。届时,运送100吨有效载荷进入轨道的成本,将低于猎鹰1号运送半吨载荷的成本。这是因为我们仅需补充燃料与氧化剂,而非重建火箭。值得一提的是,推进剂中大部分是氧气,约80%为液态氧,20%为燃料。问:星舰接下来面临的技术挑战是什么?马斯克:在实现完全可重复使用后,下一个重大挑战是轨道加油。它类似空中加油,但需在轨道环境中进行,核心是转移液态氧(而非燃料)。这需要两艘星舰完成对接,将推进剂从一艘转移至另一艘,未来甚至可能转移至轨道推进剂仓库。这听起来似乎并不复杂,但实际操作极具挑战性,目前尚无任何机构尝试过。即便像猎鹰9号助推器的常规重复使用技术,尽管我们已证明其价值,至今仍未被行业广泛跟进。轨道加油并非不可能,但难度极高,目前仍是未涉足的领域。火星城市的愿景与意义问:火星上的自给自足城市会是什么形态?需要多少人口?其经济与治理模式将如何设计?马斯克:治理模式将由火星居民自主决定。我们虽有一些火星城市的艺术概念图,但具体细节尚未明确。在火星实现 “地球化改造”(terraforming)、允许人类露天生活之前,初期居民需居住在玻璃穹顶或类似封闭设施中,外出必须穿戴火星宇航服。我想先说明建设火星城市的意义。有人会问:为何不专注于地球?我的观点是,人类99%的精力应投入地球,但1%需用于推动文明走向星际、成为多行星物种。这包含两重意义:一是防御性价值。若地球遭遇重大灾难,如世界大战、类似灭绝恐龙的陨石撞击,我们需确保人类意识的火种不熄灭,保障生命与意识的延续。其他物种无法将生命拓展至其他星球,而人类有能力为它们实现这一点。 其次是激励性价值。生活不应仅局限于解决问题,更需要令人振奋、值得为之奋斗的目标。火星探索如同阿波罗计划,即便未亲身登月,人们也能通过它感受到人类的伟大成就。探索宇宙本质本身,即便无需亲身前往火星,也足以振奋人心。问:SpaceX会成为一家星际公司吗?有相关计划吗?马斯克:希望如此,但这或许不会在我的有生之年实现。不过,它最终会成为一家星际公司。Robotaxi与特斯拉电动车战略问:关于特斯拉的Robotaxi平台,将如何与特斯拉现有车型共存?Cybercab会取代Model 3吗?原因是什么? 马斯克:Cybercab采用双座设计,不会取代Model 3和Model Y。后两者具备四座或六座能力,可满足多人出行需求;而Cybercab更适合1-2名乘客。我们还计划推出大型电动车,但此处并非新品发布场合,不便详述。问:特斯拉会拥有大规模Robotaxi车队吗?私人车主何时能加入特斯拉的共享网络? 马斯克:是的,特斯拉会保有部分车队,但也将开放给私人车主参与。它类似Uber与Airbnb的结合模式,车主可自主决定加入或退出,同时特斯拉也会直接运营部分车辆。问:若Robotaxi取得成功,特斯拉如何应对“制造最优汽车却可能需要更少汽车”的矛盾?马斯克:这个问题很难回答。作为上市公司的首席执行官,我需谨慎表态。往往最有趣的问题,恰恰是我无法直接回应的。问:全自动驾驶(FSD)的部署进展如何? 马斯克:全自动驾驶技术正在推进,计划于今年晚些时候在美国多个城市部署,明年有望扩展至更多国家。在旧金山湾区,人们对奥斯汀的进展(指特斯拉在奥斯汀启动自动驾驶出租车试点服务)颇有“错失恐惧”(FOMO)。目前Robotaxi应用的地理围栏限制严格,这一过程充满趣味。做事过程应更灵活,不必拘泥形式。问:Roadster项目的当前开发状态如何?马斯克:我们计划于今年年底展示Roadster原型车。该车型对公司财务影响有限,因其规模较小,但设计极具亮点。预计最快今年底、最迟明年初可进行演示。擎天柱(Optimus)人形机器人的潜力与规划问:你曾表示,擎天柱可能比特斯拉整个电动车业务更具价值。从当前到广泛部署,其路线图是什么?马斯克:这个问题涉及公司价值,较为敏感。目前第三版擎天柱的设计已适配量产,与第二版几乎完全不同。我们面临选择:是生产数千台第二版机器人,还是暂停并专注于更优的第三版?我认为第三版是正确选择。计划明年大幅扩大产能,不过年底产量可能仅为数百台,而非数千台。擎天柱的潜在市场规模可能达到200亿甚至500亿台。几乎每个人都希望拥有一台类似C3PO或R2-D2(科幻电影《星球大战》中的两款标志型机器人)的机器人,但功能会更强大。假设每年生产10亿台,每台成本降至2万美元,年收入可能达到30万亿美元。这是一个长期目标,但其潜力巨大。擎天柱不仅极具吸引力,功能也将远超C3PO和R2-D2,实用性极强。问:特斯拉的AI技术如何应用于擎天柱?马斯克:擎天柱采用与汽车相同的自动驾驶计算机(AI4,第四代自动驾驶硬件,用于支持特斯拉的全自动驾驶),未来将升级至AI5(特斯拉的下一代自动驾驶硬件),电池组也与汽车类似。电动车与擎天柱的AI技术有诸多共通之处,但手部设计仍是主要瓶颈。我坚信,擎天柱将成为有史以来规模最大的产品。问:擎天柱将在哪些领域产生最大影响?具体应用场景是什么?马斯克:初期将聚焦高价值场景,例如为需要大量医疗护理的人群(如四肢瘫痪患者)提供全天候协助,这将彻底改变他们的生活;此外,还可用于危险或重复性高的任务,降低人员伤亡风险。这些是初期的核心应用方向。问:十年后,全自动驾驶(FSD)与擎天柱哪个更具变革性?马斯克:显然是擎天柱。这个问题很简单,尽管全自动驾驶也极具挑战性。AI与Grok的使命问:你曾经提到,可能在今年或明年实现通用人工智能(AGI)。我们如何判断AGI已达成?其初始阶段会呈现何种形态?马斯克:我并不确定,但这或许会是一件大事,但其初期影响可能并不显著。目前AI尚未能发明有用的新技术或发现新的物理规律,但这一能力终将实现。若Grok或其他AI变得比人类更聪明,人类将扮演何种角色?即便我不开发Grok,超智能的出现也是必然,因此我选择参与其中,而非旁观。AI安全的核心在于最大化对真相的追求,并勇于承认错误并纠正。Grok在这方面仍有很长的路要走,但对真相的追求不仅关乎安全,更能推动技术创新(如治愈癌症)。未来,AI与机器人可能带来经济的极大繁荣,消除贫困,让每个人都能获取所需的产品与服务。但随之而来的挑战是,当机器人在多数领域超越人类时,人类如何寻找生活的意义。问:你在AI领域的核心关注点是什么?马斯克:重点是让AI具备实用性、安全性,并对人类抱有善意,确保其对人类有益。这是最重要的目标。问:AI的发展速度如何?你对此有何担忧?马斯克:AI的发展速度堪比 “超音速海啸”(Supersonic Tsunami),是我见过最快的技术进步。即便见证过诸多技术变革,AI的增速仍令人惊叹。这听起来或许有些可怕,但它确实超越了以往任何技术。AI与机器人的结合将是关键。我担忧的是,需确保AI与人类利益一致,保持友好与有益,避免出现类似《终结者》的负面结局。我们必须保持警惕,确保AI的未来是积极的。问:特斯拉的新目标是什么?与AI有何关联?马斯克:特斯拉最初的目标是加速可持续能源的发展,这一目标依然重要。我选择它而非AI,是因为可持续能源仅有益处,例如清洁空气与能源可持续性。AI则是一把双刃剑,但它很可能带来巨大繁荣,甚至解决所有疾病。我们需保持谨慎,不可自满,甚至应带有一丝偏执,以确保AI带来积极未来。从特斯拉的股价来看,全自动驾驶与擎天柱可能使公司估值达到20-30万亿美元,实现20-30倍的增长。方舟投资(ARK Invest)的分析值得参考,其过往预测较为准确。这需要大量努力,但如果执行得当,这一结果是可能的。Neuralink将与Grok、擎天柱整合问:Neuralink的长期愿景是什么?它是一家医疗公司,还是人机共生的开端?马斯克:Neuralink首先是一家医疗技术公司,其首要目标是帮助四肢瘫痪患者通过意念控制手机或电脑。目前已有8名患者使用其设备,效果良好,用户反馈积极,计划年底将用户数量增至20名。明年,Neuralink将推出Blindsight植入物,通过直接刺激视觉皮层,帮助完全失明者(即使失去双眼及视神经)恢复视力。现阶段的重点是解决严重的医疗问题,证明技术的安全性与有效性。未来,Neuralink 可能实现“赛博增强”(Cybernetic Enhancement),大幅提升人类智能与通信速度,甚至实现记忆上传以保存自我意识,或下载至机器人、克隆体中。这听起来如同科幻,但并非不可能,且相关技术将向所有人开放,而非仅限精英阶层。问:Neuralink与Grok如何整合?马斯克:Grok能够直接解读Neuralink传输的脑信号,无需转化为语言,这将大幅提升效率。例如,复杂概念或图像可直接传输,类似于概念层面的“心灵感应",极大改善人类沟通。人类大脑在将复杂思想转化为语言的过程中会丢失大量信息,而Neuralink可实现完整概念的直接传递。若双方均植入Neuralink,复杂思想可直接交流,无需压缩为简短语句。问:Neuralink能解决哪些问题?面临哪些技术难题?马斯克:Neuralink是一种通用输入输出设备,理论上可解决任何脑部或神经相关问题,包括视力、听力、嗅觉障碍,运动能力丧失(如中风导致的手臂瘫痪),癫痫,精神分裂症等。原则上,任何感官或脑损伤均可通过其解决。目前不存在明显的技术障碍,但植入人体需极度谨慎,确保无损伤与副作用。我们正与美国食品药品监督管理局(FDA)密切合作,以确保安全性与合规性。不同问题需适配不同的设备变体:例如,运动皮层植入物用于控制功能,视觉皮层植入物用于恢复视力(后者需要更深的电极,且以 “写入” 信号为主,而非 “读取”)。我们在猴子身上进行了三年测试,效果良好,动物得到了妥善照料。我们饲养猴子的设施被美国检查员评为其职业生涯中见过的最佳猴舍。这些猴子与人类相似,喜欢玩游戏、吃零食,例如我们的猴子佩奇(Paige)会边喝香蕉奶昔边玩游戏,完全出于自愿,而非被迫。问:Neuralink与擎天柱的开发有何交叉之处?马斯克:擎天柱的研发让我深入思考人体的运作机制,尤其是手部的复杂性。人体设计极为精妙,但脊椎问题常导致背痛,而Neuralink也可解决这一问题。手部的机电设计是整个身体中最复杂的部分之一。它前臂的肌肉通过肌腱如操控木偶般控制手指,这一结构启发了擎天柱的手部设计。几乎所有控制手部的肌肉都位于前臂,通过肌腱拉动手指,类似木偶戏的原理。擎天柱的研发让我重新认识到人体设计的精妙,尽管某些部分(如脊椎)仍有改进空间。X平台的转型与目标问:五年后,X平台的目标是什么?马斯克:X已从Twitter时期的短文本与两分钟视频,进化为支持四小时视频与长文本的全模态平台,用户甚至可以在上面撰写小说。我们正在改进Xhat系统(X计划推出的全新通信系统),支持加密音视频通话,其安全性达到即使有人用枪指着我,我也无法读取你的消息的程度。Xinace支付系统将在数月内推出测试版,目前已在公司内部测试。X的核心目标是确保法律框架内的言论自由,并追求真相。“社区笔记”功能将纠正任何人的错误,无论是普通用户还是美国总统,不过这种做法可能会导致X的广告收入遭受损失。当前算法仍有不足,例如重复推荐内容(如我曾被推荐400次悉尼・斯威尼的牛仔裤相关内容),但我们正在优化,旨在向用户展示最有趣的信息。X正在稳步进步,未来有望满足用户的几乎所有需求。问:某些时候X的算法会显得混乱,尤其是在Robotaxi地理围栏扩展时。马斯克:确实,算法有时会过度推荐单一内容,例如将某一热点事件重复推送20次。我们希望用户能看到更多新鲜内容,算法正在改进,虽不完美,但趋势向好。问:X如何平衡信息真实性与用户体验?马斯克:X的目标是让用户了解真相。“ 社区笔记” (Community Notes,允许用户对可能存在误导性的内容进行注释和评分,以抑制谣言传播并促进共识形成) 会纠正错误,无论当事人的社会影响力如何。Grok帮助用户即时学习新知识(如新发明或公告),用户可通过它分析时间线内容,甚至模仿自己的风格发帖,颇具趣味性。X虽不完美,但比其他社交媒体更可信,我们在不断改进,过程中或许会有起伏,但整体趋势向好。AI时代的人类角色与意义问:在能源充裕、机器人劳动与AGI主导的世界中,人类将扮演何种角色?如何避免生活失去意义?马斯克:这是一个我仍在思考的难题。未来,人类智能、机器智能与机器人将深度交织,类似自行车或汽车增强人类能力的方式。即便汽车比人跑得快,跑步比赛依然有意义。比如说,Neuralink可提高人机通信带宽,实现更紧密的共生,让AI更好地理解人类需求。在未来,AI可能将经济规模扩大十倍以上,消除贫困,让每个人都能获取所需的产品与服务。但挑战在于,当机器人在多数领域超越人类时,人类如何寻找生活的意义。所以我希望通过Neuralink增强人类智能,实现与AI的共生,或许能解决这一问题。蒸汽机时代也曾引发类似的担忧,但人类最终找到了新的价值。未来可能是人机智能的融合。我认为,未来80%-90%的可能性是美好的,但需警惕那10%的 “终结者” 风险。问:若人类的努力不再是生存或生产力的必需,社会将如何发展?马斯克:若人类与AI实现共生、融合人机智能,或许能解决那些看似无关紧要却有意义的问题。例如,骑车或开车能增强人类的移动能力,但不会剥夺跑步的意义。Neuralink可增强人类智能,改善与AI的共生关系,确保人类不被取代。这是一个哲学问题,我仍在探索答案,但人机融合似乎是目前最合理的方向。问:你对当今人类文明与个人生活有何期望?马斯克:我认为,当下是人类历史上最有趣的时刻,且每个月都愈发令人振奋。能见证这些变革,我感到十分幸运。历史上没有任何时期比现在更值得关注,我们有幸生活在这个时代,目睹这些激动人心的事件发生。问:观众为你赠送了一块象征性的 “砖块”,上面刻着:“这块砖在精神上会飞翔,因为你让不可能成为现实(This brick does...
辛顿、姚期智再签“上海共识”:AI可能已超越人类,大模型要有“随时关机”的能力
AI安全国际对话上海共识签署现场,辛顿、姚期智等专家合影文丨苏扬编辑丨郑可君7月25日,一份由杰弗里·辛顿(Geoffrey Hinton)、姚期智、本吉奥(Yoshua Bengio)等超过20位行业专家、学者共同签署的AI安全国际对话上海共识(以下简称“上海共识”)正式公开。该共识强调,人工智能系统能力已接近甚至可能超越人类,但人类尚未掌握有效的控制它的方法,因此,呼吁全球增加对AI安全的投入。作为本次共识发起方之一,图灵奖得主、上海期智研究院的院长姚期智表示,“我们要达成共识并且标明风险切实存在,需要大家携手寻找解决方案。希望基于自身所处的位置,去促成一些国际安全相关合作,最后则是通过研讨会的形式去探讨在剧烈的变化过程中,发挥人工智能的优势,以帮助应对随之而来的挑战。”“上海共识”中联名签署的专家普遍认为,人类正处于一个关键转折点——人工智能系统正迅速接近并可能超越人类智能水平。这些未来的系统可能在操作者毫不知情的情况下,执行并非操作者所期望或预测的行动。这可能导致失控,即一个或多个通用人工智能系统脱离任何人的控制,从而带来灾难性风险。“这项技术现在处于一个可以推翻人类文明与控制的阶段,对AI系统来说,它就像疾病大流行一样,可能在任何一处发生。”加州大学伯克利分校的计算机科学教授罗素说。关于人工智能能力的具体体现,“上海共识”强调,已经有部分人工智能系统展现出削弱开发者安全与控制措施的能力与倾向,但相关证据主要是在实验场景中发现,人类还未掌握已知的方法,能够在更高级的通用人工智能超越人类智能水平后,仍能可靠地确保其对齐。更直白地理解,即人类还没有掌握有效控制高级通用人工智能的办法。罗素透露,目前已经观测到在人类明令禁止AI使用核武器的情况下,AI在感知到自身威胁的情况下,还是会擅自决定发射核武器,甚至会尝试通过不断复制来规避关机的行为。“它们通过预设程序将自身代码复制到不同终端,以此规避被关机。”罗素说。2024年,辛顿、姚期智、罗素、本吉奥等专家共同签署的“北京共识”聚焦在对AI风险的划定、治理、评估、与合作几个部分,尤其是呼吁行业为AI的研发和应用戴上“紧箍咒”,避免相关技术被滥用,而“上海共识”则是聚焦通用人工智能系统的对齐与控制,提前规避安全风险。“上海共识”认为,高级人工智能系统在部署时已对齐并处于人类控制之下,其必要性已获得关键决策者普遍认同,但是AI能力发展速度远超AI安全的研究和发展速度,因此在强化AI安全技术方面,除了推动全球协作以外,共识更是强调在必要时可自主行动。为此,上海共识提出了三大建议:“要求前沿人工智能开发者提供安全保障” “通过加强国际协调,共同确立并恪守可验证的全球性行为红线” “投资基于设计的安全人工智能研究”。其中,要求开发者提供安全保证提到,部署强大模型之前,除了要做好内部安全评估外,应委托第三方独立评估,同时对超越关键能力阈值的模型还要向监管部门、公众做好信息披露,并在上线之后有清晰的风险响应机制和立即关停系统的能力。加强国际协调,共同确立并恪守可验证的全球性行为红线,核心是联动国际社会来确立具体、可操作、受全球认可的红线,核心则是呼吁建立一个统一的协调机构来推动红线落实和标准统一。投资基于设计的安全人工智能研究,主要是强调短期内亟需建立可扩展的监管机制以应对人工智能的欺骗问题、提升模型对“越狱”等攻击手段的抵御能力、强化信息安保投入等,而长期则需要一个“基于设计的安全”的架构,而非问题出现后才被动应对。作为“上海共识” 、“北京共识”的共同签名者之一,霍普金斯大学约翰分校、彭博人工智能协调与治理特聘教授吉莉恩·哈德菲尔将人工智能定义为一个全球公共品,需要跨国界合作,“人类本质上是一个协作物种,AI带来的治理挑战并非单一体制能够应对,尽管当前的科学合作会面临一些障碍,但是在这个关乎技术路线与治理方式的议题上,我们必须重识合作精神。”“我越来越相信,人类终将找到解决方案。”姚期智说。姚期智透露,18个月前举办第一次安全共识会议时,AGI强大的破坏力就已经显现,人类甚至难以阐明其失控机制,不过随着相关会议的推进,已经看到若干有关“设计安全”(Safe by design)的提案,这意味着实际上人类可以找到确保AI安全的可行路径。以下为“上海共识”的签署名单:Geoffrey HintonProfessor Emeritus, Department of Computer ScienceUniversity of TorontoTuring Award WinnerNobel Prize WinnerAndrew Yao 姚期智Turing Award WinnerDeanShanghai...
腾讯科技 Anthropic最新研究:在被对齐前,模型已经会说谎了的相关微信公众号文章 – 搜狗微信搜索
图灵奖得主Yoshua Bengio:必须要给AI“无限进化”踩刹车
转自中国商业科技新闻网,版权属于原作者,用于学术分享,如有侵权留言删... 当被研究者询问它是否这样做时,它说谎,试图掩盖这一行为....
图灵人工智能
独家|继雷军之后,黄仁勋还“密会”了MiniMax,深度交流两小时
文|库丘林编辑|沈月7月18日,中国商业科技新闻网独家获悉,英伟达(NVIDIA)创始人兼CEO黄仁勋在参加完链博会后,会见了MiniMax创始人闫俊杰。据知情人士透露,黄仁勋和闫俊杰在前门见面,两人进行了近两个小时的深入交流。从照片拍摄的环境可以看出,这和上周日(7月14日)中国商业科技新闻网报道中(2025,黄仁勋“三顾大陆”,与雷军亲密合影),黄仁勋与雷军合影的背景是同一个地点。知情人士透露,这是黄仁勋此次来华下榻的酒店——前门文华东方酒店。此次与黄仁勋进行会面的MiniMax创始人闫俊杰,之前是商汤科技副总裁,于2021年底创立了MiniMax。自成立之初,他便坚定布局通用人工智能(AGI)与多模态架构。国内大模型领域在DeepSeek R2迟迟未能发布导致的短暂沉寂后,近期再度活跃起来。比如,Kimi团队通过在X平台密集分享技术细节,高调推出其首个1T参数规模的Kimi K2模型,引发行业广泛关注。除此之外,动作最多的就是MiniMax了。6月,MiniMax进行了5天的开源周活动,一口气发布了四个重磅产品,包括最新的基础模型MiniMax M1、新的视频生成模型Hailuo 02 、一款通用型Agent产品 MiniMax Agent,以及首个视频Agent——Hailuo Video Agent。加上早一点时发布的声音模型 Speech 02,Minmax的完整模型矩阵完成了升级,还延展到了Agent领域。这几个模型的表现都比较亮眼。MiniMax Speech-02 在 Artificial Analysis 语音模型和 Hugging face TTS 两个榜单上登顶第一。Hailuo 02 则在Artificial Analysis...
黄仁勋交流会15000字实录:谈中美芯片、H20、CUDA兼容,信息量超大
文 I 海伦 编辑 I 月月英伟达CEO黄仁勋今年第三次访华,抢占了各大媒体的头版头条。7月16日的链博会开幕式上,黄仁勋身着传统唐装亮相,下午媒体见面会,他再次换成标志性皮衣,化身“科技摇滚先锋”。尽管造型切换引发不少网友热议,但比造型更引人关注的,是他此行所传递出的诚意。见面会上,黄仁勋对腾讯科技表示:“我本想着能用普通话完整地发表一篇演讲,但我的普通话还不够好,说起来有点太生硬了。我每次来中国都会练习,努力让它更自然、更流畅。”黄仁勋表示,此次来华有两大观察:第一是中国的供应链高度发达,整体基础设施完善、生态系统成熟、技术先进、制造规模庞大等方面,给他留下了深刻印象。第二,今年参展企业遍布全球技术生态,这充分反映了全球供应链的高度相互依存。黄仁勋也特别指出,技术生态的互联互通已成为产业演进的关键议题。针对中国厂商开发CUDA兼容平台的现象,黄仁勋对中国商业科技新闻网表示:不介意兼容,CUDA其实本身就是比较开放的。黄仁勋还调侃道:“如果你开发兼容(英特尔)X86架构的产品,他们可能会不满。但如果你开发兼容CUDA的产品,我完全不会介意”。以下为黄仁勋媒体交流会的核心观点:中国供应链系统复杂、高效且极具制造优势,是构成全球AI硬件和智能工厂建设的重要基础。H20芯片已被重新批准销售,未来也将推动更多Blackwell架构产品落地中国。中国在AI模型、工程人才与产业应用上全球领先。黄仁勋对小米汽车、蔚来、小鹏等中国车企给予极高评价,称中国电动汽车是全球惊喜,小米等企业正在重塑全球竞争格局。黄仁勋称赞华为在芯片、网络解决方案、光子技术等方面取得重大突破,是值得学习的对象。中国的教育系统培养了世界上最优秀的一批AI研究人员,世界上大约50%的AI研究人员都在中国。黄仁勋称赞了雷军,从双方见到第一天开始,他就知道雷军会取得成功。黄仁勋表示,日常会使用 OpenAI、Gemini Pro、Claude 和 Perplexity 四款AI工具,不依赖单一工具。他采用多AI比对式提问的方式,通过交叉验证不同模型的回答来提升信息准确性与全面性。他鼓励年轻人保持对技术的热情,不怕“入场晚”,强调AI仍在快速演化中,黄仁勋自述20岁毕业并创建英伟达的经历,称“最幸运的是做喜欢的事”。黄仁勋认为,按照当前评估标准,AGI可能很快实现,且无需根本性技术突破,但具体进展取决于如何定义AGI。以下为媒体会内容实录,经中国商业科技新闻网编辑整理:黄仁勋来华的“小目标”问:这是你今年第三次来中国,此次对主要目的是什么?黄仁勋:我本来希望能用普通话做一次演讲,但我的普通话水平还不够好。但我会继续设定目标,努力提升,争取下次能用普通话发言。这次我受邀参加了中国国际供应链博览会开幕式,这个活动非常重要,涵盖了多个方面。首先,中国的供应链非常复杂且先进。供应链涉及众多供应商、能力、技术之间长期的合作与联系,而中国的供应链基础设施、生态系统以及技术水平都非常先进,制造规模也非常庞大。其次,今年有很多跨国公司来参会,展示了全球供应链如何相互依存。 我也很高兴能参与到开幕式的庆祝活动中。问:那接下来的计划是什么?你会继续与中国公司合作吗?黄仁勋:英伟达已经成立30年多了。当我第一次来中国时,百度、阿里巴巴、腾讯、小米这些公司都还不存在。我来得很早,能够和这些公司合作是我的荣幸,尤其是在英伟达还年轻的时候就开始合作。我为此感到非常自豪,尤其是和我们在中国的合作伙伴们一起创造的技术和业务。问:你们是否仍打算在中国投资,还是只是维持现有的业务?黄仁勋:如果你想保持发展,就必须持续投资。市场发展如此之快,竞争也异常激烈,我的所有竞争对手都不是在维持现状,而是在不断投资,力争成为全球的领导者。所以,我们必须不断推进,每一天都不能停歇,才能配得上我们所拥有的业务。问:能否谈谈中国客户对H20芯片的需求情况?你提到我们都面临算力焦虑,在昨天解禁消息公布后,市场需求如何?黄仁勋:昨天消息公布后,我一直都在接受各位采访,还没机会见客户呢!应该给客户时间做采购决策。我们正在全力准备,以尽快满足需求。不过,供应链恢复仍需要时间。英伟达目前的供应链周期长达9个月,也就是说,从晶圆下单到AI超算成品交付需要整整9个月时间。我们正在全力加速Hopper架构产品的产能恢复,但这确实需要持续努力。问:你今年来过三次。每次的目标和收获有什么不同?黄仁勋:是的,今年我来中国三次,都是因为收到了邀请。第一次是春节期间,要不是员工盛情邀请,我本可以在美国过春节的。这次则是受邀在供应链大会上做主题演讲。总之,只要收到邀请,我很乐意再来中国。问:还会去其他中国城市吗? 黄仁勋:这次行程结束后我得先回家了,太久没回去,都想我家的小狗了!美国政府对黄仁勋来华和H20的态度问:美国政府对你访华有什么反应? 黄仁勋:我一周前去过华盛顿,来中国之前,我与美国总统特朗普和他的内阁官员进行了沟通。特朗普总统一直鼓励我庆祝英伟达取得的一个重要里程碑——我们的市值突破了4万亿美元。他对这个成就非常自豪,并为我感到高兴。他告诉我,去中国时一定要玩得开心。我对中国有着非常高的期望,也期待看到中国市场未来的发展。问:因为特朗普的芯片禁令,英伟达资产减计了40亿美元,这部分损失能恢复吗?此外,特朗普政府对半导体领域施加了很多限制,你怎么看待这些禁令对行业的影响?黄仁勋:关于这些限制,我们可能无法全部恢复先前的库存减计损失,但大多数库存是可以恢复的。新的客户需求和我们现有的库存产品是可以匹配的,所以不能说100%恢复,但也不是完全没有可能。至于关税和贸易,世界确实在重新调整。我们作为一家公司,必须适应世界贸易、税收和关税的变化。实际上,贸易和税收政策在我加入英伟达之前就存在,而在我离开后依然会存在。所以我们必须学会适应这些变化。最令人惊讶的是,英伟达非常擅长适应变化。我们的供应链也会随之调整,我们会找到新的解决办法。从长远来看,关键还是要问自己:我们是否在做对世界有意义的产品和技术?我们是否在认真打造优质的产品,保障客户的利益?我们所做的事是否能对世界产生影响?只要这些符合,其他问题都会迎刃而解。问:关于特朗普政府允许向中国出售H20芯片一事,这是否意味着中国会在其他出口管制方面有所放宽?毕竟出口管制既是国家安全的支柱,也是全球贸易的治理机制。黄仁勋:我并不了解两国谈判的具体细节。长远来看,这表明每个国家都在某些领域拥有独特专长。这些核心能力确实能促进经济繁荣和安全,这是国家安全的基石。但也要认识到,这些优势领域很可能成为未来贸易谈判的重要筹码。这可能是关键启示。问:本次中国之行,你对竞争对手有哪些不同的见解?是否关注过他们的发展动态?另外,当前中美贸易局势反复,美国科技企业都或多或少受到影响,你是否为此感到担忧? 黄仁勋:首先回答你关于竞争对手的问题——不,我此行并未轻视任何竞争对手。我们应当尊重所有竞争者,向他们学习,从中获得启发,并将此转化为前进动力。贬低或低估对手有百害而无一利。我对全球范围内的竞争保持高度尊重。至于出口管制,这些是我们无法控制的外部因素,确实可能对英伟达业务造成干扰。我们的责任是向政府说明政策的本意和可能产生的意外影响,但最终政策制定是政府的职责范围。我们能做的就是提供事实依据,其余不在掌控之中。企业唯有保持足够敏捷,才能更好适应变化。尽己所能,剩下的就顺其自然。问:你是否改变了特朗普对H20禁令的看法?黄仁勋:我没有改变他的立场。我的职责是向总统通报我非常熟悉的事情,也就是科技行业、AI在全球的发展。这是一次千载难逢的机会,美国有机会在AI技术上保持领先,同样,中国也有机会在AI上保持领先。如果想成为引领者,我们必须与全球开发者合作,必须与全球市场互动。我始终认为,技术领先需要巨大的市场,大市场能带来收入和利润,支撑后续投入。毕竟,H20非常适合训练大模型,现在依然非常优秀。RTX Pro则专门设计用于数字孪生和机器人模拟,两者用途不同。问:你认为在中美的商业合作中,如何平衡与中美两国政府的关系? 黄仁勋:其实不存在所谓的平衡秘诀。作为一家全球性企业,我们需要与各国政府保持良好关系。英伟达开发的技术具有全球价值,这使我有机会与各国政府深入交流。通过持续沟通,帮助他们更好地理解我们的技术,从而制定更合理的政策法规。问:你认为中美在AI领域主要是竞争还是合作关系?黄仁勋:AI领域具有独特的开放性。与其他学科相比,AI领域的论文发表数量最多,基础技术的共享也最为透明。通过ICLR等国际会议,全球研究者即使素未谋面,也能通过论文进行"虚拟合作"。这种开放共享的特性,使得合作成为AI发展的本质特征。问:美国商务部长说H20是最好的产品。这是真的吗?黄仁勋:我有很多产品,我从来不会给它们排个先后。我们有许多产品是为不同的应用场景设计的。H20的一个优势是它的内存带宽非常出色,非常适合这里正在研发的模型,比如DeepSeek和千问等创新架构的应用。这些模型非常适合H20。所以我认为H20会非常成功,且一定会非常有用。问:H20芯片未来的订单情况如何?黄仁勋:目前存在几个不确定因素:首先是客户的新订单时间点,毕竟之前的订单被取消了,他们的需求可能已经发生变化;其次,重启供应链需要时间,不可能一蹴而就。因此在短期内,我们既无法预测订单量,也难以准确评估供应能力。但我们会竭尽全力满足客户需求,毕竟当前行业普遍存在的"算力焦虑"确实亟待缓解。问:目前是否有企业下单H20芯片?黄仁勋:目前还没有,因为相关许可尚未获批。美国政府部门正在审批流程中,预计很快就会有结果。一旦获得批准,我们就能正式接收订单了。问:当前全球不确定性持续加剧,就业市场在很大程度上受制于监管政策的变化,你们如何应对?黄仁勋:这里没有什么需要思考的平衡问题。首先我们要意识到,每个国家都有自己的国家安全和贸易政策,这是国家的权利,我们需要遵守这些政策。如果有些原因使得我们认为我们的信息对他们有用,我们的责任就是向他们解释我们行业是如何运作的,技术又是如何运作的。所以我们应该像应对任何政策一样应对这一点。第二,我们要做的就是建立最好的技术,为市场做出贡献,希望客户能看到我们的工作价值,并继续尊重我们以及现有的合作伙伴,保持长久的友谊。之后,人生就不再由你控制。黄仁勋眼中的中国AI问:你怎么看中国的人工智能公司在AI芯片领域的表现,比如华为?黄仁勋:中国有很多出色的公司。比如华为它不仅做芯片、做系统、做网络,还涉及很多领域。作为一家规模庞大的公司,华为有着深厚的传统和卓越的技术实力,因此非常强大。如果从中国AI的整体发展来看,大家要明白,AI本质上是一种基础设施技术,涉及到芯片、系统、网络等多个层面,而AI则是在这些基础设施之上发展的模型和应用。总的来说,这里涉及到三个层面,即计算机、模型以及应用。中国在这方面进展非常迅速,特别是在模型层面。像DeepSeek、阿里巴巴、以及月之暗面等公司,在技术上都有很大的突破。值得一提的是,DeepSeek是全球首个开源推理模型,这无疑是一次重大的突破。而在应用层面,中国进展更为迅猛,许多新的应用程序层出不穷,中国不仅在创造新技术,同时也在迅速整合并应用这些技术。中国的竞争非常激烈。很多人都希望创办伟大的公司,或者在新兴业务中取得成功。这就涌现出了许多优秀的创新人才。这一切的背后,是中国强大的教育体系,它培养了世界上许多最优秀的AI研究人员。全球大约50%的AI研究人员都在中国。这里的科学和数学优势非常明显,计算机科学也有其独特之处,整个生态系统非常活跃,发展速度惊人。我很高兴能亲身参与其中。问:你如何看待DeepSeek、kimi等模型的表现?黄仁勋:中国的模型都非常出色。就其设计的应用场景而言,它们的效率很高,并且是开源的,所以你可以根据自己的需求适配这些模型。你可以在这些开源模型的基础上建立公司、产品或者业务。这些模型在全球范围内的定位是非常独特的,而且它们各有各的优势。我认为随着时间的推移,哪一个模型最聪明将变得越来越不重要,更重要的是哪个模型最有用。就像你在选择员工时,我不会给他们做智商测试,我只想知道谁最高效、最有用。所以我认为,越来越多的关于AI的问题,关键在于使用方式。你想怎么使用AI?你想选择适合你需求的东西。问:你怎么看美国和中国在人工智能发展的差异?你认为两国之间有合作空间吗?能互相学习吗?黄仁勋:一座房子应该至少可以容纳两个人。所以,肯定有合作的空间。50年前、100年前,世界GDP要比今天小得多,人口也少得多,而未来的世界GDP将继续增长,世界人口也会不断增加。我对美国和中国的未来充满信心。我相信美国会继续保持活力,拥有所有优秀的资源,而中国也会继续保持动态发展,带领更多人走向更好的生活。我对未来非常乐观。问:你怎么看待中国市场的未来?黄仁勋:我希望能在中国取得巨大的成功。中国是全球第二大科技市场,而且仍在快速增长,这个市场非常重要。这里有很多充满活力、富有创新精神的客户。如果你想打造一家公司并提供优质服务,你必须拥有优秀的客户和产品。在中国,我们有很多挑战性的客户,但他们也在坚持创新,我们想为他们提供最好的服务。问:什么时候中国客户会使用英伟达的最新GPU?你能描述一下它们的性能吗?黄仁勋:H20发布后,其内存带宽非常出色,特别是在模型推理方面,H20的表现依然非常优异,尤其适合大语言模型、视觉语言以及动作模型。除此之外,我们还推出了新的产品RTX Pro,专为数字双胞胎应用设计。数字孪生构建的是一个虚拟世界,一个数字机器人。之所以需要数字机器人,是因为要通过在数字世界中训练,教会实体机器人如何出色完成任务。RTX Pro最初是为运行名为Omniverse的全新应用平台所打造,该平台对数字工厂、智能工厂及机器人等领域至关重要。因此RTX Pro是独一无二的创新产品,堪称全球首创。我认为在中国这片机器人创新如火如荼、智能工厂建设方兴未艾、供应链体系极其完备的热土上,RTX Pro必将大放异彩。对此我感到无比振奋。问: 最近中国的本土制造业开始推出相当具有竞争力的替代品,你怎么看待这一趋势?你们是否有考虑开源像CUDA这样的技术?黄仁勋: 这是个很好的问题。如果一个平台与CUDA兼容,并且能够支持这些兼容的应用,那么我觉得是没问题的。实际上,CUDA本身就已经是比较开放的,你可以查阅CUDA的详细文档,然后基于此开发兼容版本。因此,从某种程度上来说,CUDA已经是“开源的”。 这和(英特尔的)X86架构不同。如果你开发兼容x86的产品,他们可能会不满。但如果你开发兼容CUDA的产品,我完全不会介意。问:中国的开源AI是全球进步的催化剂,你这句话是什么意思?你如何看待中国的开源AI? 黄仁勋:DeepSeek R1是一种革命性的模型。它是第一个开源推理模型,并且效率非常高。很多公司和国家都下载了DeepSeek R1。虽然并不是所有人都使用它,但99%的用户下载了这个开源模型,并根据自己的应用需求进行适配,全球范围内都有使用。我们看到它被应用于各种各样的领域,包括医疗健康、能源等。所以开放性让每个行业、每个国家都能参与其中。AI不应仅服务于少数人或少数国家,我认为它是为全世界每个人设计的,每个人都应该并且将会从中受益,最终会让社会变得更好。 AI是最伟大的技术,它是任何事情中的最大平衡器,我们每次都能证明这一点。原因是,借助AI,贫穷的艺术家可以成为优秀的艺术家,贫穷的作家也可以成为优秀的作家。我们正在提升每个人的能力。我最后想说的是,关于AI的开放性,由于它是开放的,它邀请了全球科学界的审视。这种审视和开放性确保了安全性。 问:中国的技术创新对全球有何启示?黄仁勋:中国孕育了许多独具特色的创新成果,比如微信、小红书,以及风靡全球的TikTok,这些应用深刻改变了全球互联网生态。事实上,中国在新应用开发方面具有独特优势。在中国,移动支付已经完全普及,人们不再使用钱包、现金或信用卡。而我在美国还在使用纸币,这让我感觉自己像个老古董。中国在技术应用方面确实走在世界前列,特别是在支付系统和金融科技领域。全球企业都在借鉴中国的创新实践。看好中国的电动汽车问:中国有没有什么新产品给你带来惊喜,甚至是你们之前没想到的、没涉及到的?黄仁勋:中国的电动汽车发展真是令人惊叹。我前几天刚见过雷军,它向我展示了他的新车。技术真是不可思议,外观设计非常漂亮,工艺也精致。车内的技术堪称世界顶尖。问:你会买吗?黄仁勋:我很想买,虽然在美国还没有销售,非常遗憾。事实上,车内的各项配置都非常棒,电动车也是很棒的早期车型。除了小米,还有蔚来、理想、小鹏的汽车,这些车非常宽敞,几乎就像一个轮子上的客厅,像纽约派对一样。我想说的是,在过去五年里,中国的电动汽车可能是世界进步的最大惊喜之一。从技术角度来看,这些车绝对与众不同,品质绝对过硬。问:你们与小米在汽车领域的合作怎样了?黄仁勋:我们和小米在很多领域有着紧密合作。小米是一个非常棒的合作伙伴。我第一次在北京见到小米创始人雷军时,他还很年轻,那时我也年轻,但他比我还要年轻。从第一天开始,我就知道他会取得成功。雷军带领小米从智能手机到电动汽车都取得了巨大成功,这些都值得称赞。问:你和雷军聊了什么?黄仁勋:我们谈到了AI,包括AI在语言模型、自动驾驶、机器人技术等方面的最新进展。作为兼具深厚技术背景和卓越商业头脑的领导者,雷军对这些话题的见解令人印象深刻。特别值得一提的是,我有幸亲眼目睹了备受瞩目的新款电动汽车。虽然我早已通过网络了解过这款车,但亲眼所见仍让我倍感震撼。他热情地向我展示了最新推出的Ultra版本,其卓越性能完全超出了我的预期。问:他们也涉足空调等设备!黄仁勋:没错,真是不可思议,他们在小米的体系下有很多创新。很多人通常认为中国的技术主要体现在硬件上,比如电池、电动汽车、太阳能电池板、材料科学,甚至是计算机系统和网络。但我认为有一个被低估的奇迹是:中国的计算机科学和软件能力,都是世界一流的。未来,所有的事物都将与软件紧密相连,无论是酒店的管理系统、电饭锅、微波炉、冰箱,甚至是洗衣机,都可能有软件。甚至连检查设备也会有软件。我的夹克也应该有软件,比如自动给我降温。未来,你穿的每一件衣服都会有软件,眼镜也会有软件。将来每家公司,不论是硬件公司,都会涉及软件,并与云技术深度结合。小米和中国的很多公司,像阿里巴巴、腾讯,他们在硬件和软件上的表现,是世界上独一无二的。我觉得更多的人应该庆祝这一点。比如字节跳动这样的应用,看似是消费品,但背后所涉及的技术却极为先进。问:近年来,中国企业在大语言模型和自动驾驶等领域取得了重大突破。英伟达如何看待中国不仅作为重要市场,更作为创新源泉的潜力?你们是否有计划与中国科技企业共同开发自动驾驶技术?黄仁勋:我们虽不直接制造自动驾驶汽车,但研发其所需的核心技术。同样,我们虽不开发大语言模型,但构建其基础技术架构。通过与持续创新的伙伴紧密合作,能推动我们技术的不断进步。因此,我们始终重视并寻求与创新型企业合作,因为他们的需求也促进着我们的技术革新。算力需求远远不够问: 你认为算力是否被高估了?或者说,如果没有足够的算力,企业就无法发展AI?我猜你一定听说过算力焦虑这个词。对此你怎么看?黄仁勋: 你是说算力太多还是太少时会焦虑?目前显然是算力不足。我自己对此就深有体会。在英伟达,如果没有足够的计算资源,我们研发芯片、系统、网络架构、算法和软件都会举步维艰。如今我们为工程师配备了许多AI超级计算机,但他们每天都在为算力发愁,恨不得能再多十倍的资源。这充分说明,新时代的计算革命已经不再局限于键盘输入和手工编程,而是进入了AI机器学习的新纪元。当AI承担了主要的学习任务后,我们自然就会渴望更强大、更快速的计算机,以解决更复杂、更具挑战性的问题。我认为算力焦虑在未来十年内都不会消失,这是所有工程师都在面临的共同挑战。问:在AI领域有三个关键因素:算法、算力和数据。不过现在,我不确定你是否认为人们更关注算力?如果没有算力,AI可能就无从谈起?黄仁勋:这个问题问得好。其实你可能不太了解背后的技术脉络,AI的发展是分阶段演进的。第一代AI是感知智能(Wave 1),第二代是生成式AI(Wave 2),现在我们正处于第三代:推理AI阶段。推理就像人类的思考过程,比如当你遇到一个全新问题时,需要分析:这安全吗?是威胁还是机遇?该采取什么行动?这种推理能力之所以强大,因为它代表着智能的基础。下一阶段将是机器人技术。因此,目前AI发展分为四个阶段:感知、生成、推理和机器人。早期的感知AI主要通过海量数据学习,比如识别文字、图像,理解故事内容,甚至区分猫狗等物体。而现在的AI更像人类的学习方式——从被动接受信息转变为主动思考。就像我们上学时主要靠听课看书,但毕业后更多是通过实践和思考来学习。如今的AI就像在家做数学题,通过多场景模拟训练,持续进行推理思考,变得越来越聪明。我们把这种学习方式称为“后训练”,而传统的数据训练则叫“预训练”。后训练模式对算力要求很高,但对数据量的需求相对较少。问:有人提出,用随着大模型发展,对AI算力基础设施的需求会降低。对此你怎么看?黄仁勋:DeepSeek R1采用的是一种极具创新性的高效架构,其独特之处在于:每个token所需的计算量和计算资源都大幅降低。这种设计创新是必然的——因为DeepSeek R1本质上是一个推理引擎,需要反复迭代运算。这就要求每个生成的token都必须极致高效,才能保障整体推理过程的顺畅运行。现在,所需的计算量大幅减少,系统可以进行更长时间的思考,并得出多个优质答案。这实际上开辟了一个全新领域——温和AI(Gentle AI),这一方向非常重要。推理AI模型将广泛应用于云端和边缘计算。以自动驾驶为例:当车辆遇到从未见过的路况时,搭载推理AI的车载系统能够主动思考——前方是什么情况?我该如何应对?而不仅是简单判断要不要继续开。当前的车载系统过于简单,未来的推理AI将赋予其真正的思考能力。边缘设备将部署具有思考能力的AI,同时也可搭载简单的功能型AI(如自动开门等)。具体采用何种AI,完全取决于应用场景。问:现有算力已能训练出具备一定智能水平的模型。要实现AGI,是否需要在GPU架构和模型设计上取得根本性突破?黄仁勋:这取决于AGI的定义。如果按照当前用于评估AI性能的测试标准来衡量AGI,我相信很快便可以在这些基准测试上超越人类团队的表现。基于我们已经取得的技术突破,以及尚未公开的实验室成果,我认为不需要根本性的技术革新就能在近期实现这一目标。当然,这取决于如何定义AGI。问:英伟达正全力打造AI工厂。中国拥有庞大的制造业基础,你认为AI将如何助力传统工厂升级?黄仁勋: AI工厂将具备更强的敏捷性和可重构性。当需要生产的产品发生变化时,工厂能够更快地完成产线重组,同时实现更高的生产吞吐量。这意味着工厂将变得更灵活、可配置性更强、产能更高——这些能满足我们对未来供应链的所有期待。随着机器人技术与AI能力的结合,生产成本将显著下降,而成本降低将有助于缓解通胀压力,同时提升整体生产效率。英伟达的合作与竞争问:我有两个问题:第一个问题是,你是否计划重新启动Hopper系列芯片的生产?第二个问题是,鉴于中国方面将H20芯片列为谈判的一部分,你是否对英伟达自家芯片的竞争力看得过高了? 黄仁勋:你无法夸大事实。实际上,任何低估华为、低估中国制造能力的人,都是极其天真无知的。华为是一家非常强大的公司,我以前见过他们开发出的技术。重要的是要明白,我从事这个领域已经30年了,他们才做了几年。而他们已经能够与我们同台竞技,这足以说明他们的实力。没有任何人,没有任何一个人,比我更投入地用一生去打造某样东西。我倾注了极大的热情……他们能够做到和我们接近,这说明了一切。我希望将更先进的芯片带入中国市场,比如H20。原因是技术总是在进步。今天,H20依然非常优秀,因为它具备推理能力和Hopper架构所带来的带宽,这个架构真的非常好。今天,Hopper非常出色,但几年后,我们会拥有更多、更好的技术。我认为,只要在中国能被允许销售,这些产品也会持续不断地进步。问: 关于HBM供应链,SK海力士是目前最大的供应商,未来是否可能会看到三星或美光等公司进入供应链,特别是针对下一代产品?黄仁勋: 我不会在SK海力士、美光和三星之间做选择,这三家公司都是我们非常重要的合作伙伴。我们使用的HBM、GDDR和LPDDR内存,它们都是世界上最先进的技术。这三家公司在这些领域都表现得非常出色。未来AI发展需要大量的计算能力和内存技术,而这些公司都有着非常好的前景,我们会继续和他们合作。在过去的20多年里,英伟达取得了巨大发展。而AI技术的发展才刚刚起步,它将成为每个国家和每个行业的基础设施。我们才刚刚开始建设AI基础设施,目前仅进行了两年。这些基础设施本质上就是AI工厂——输入电力,产出token(即AI智能)。这种工厂非常独特,配备了计算机和存储设备。因此我认为,对于SK海力士、三星和美光这三家公司来说,未来发展前景非常广阔。我们与这三家企业都保持着合作关系。问:关于Blackwell芯片使用的镝电容器:自4月4日起中国几乎暂停了镝等稀土元素的出口,这对英伟达是否造成影响? 黄仁勋:影响有限。因为我们使用的镝电容器是全球最复杂、最先进的元件之一,而且学生群体的使用量并不大。我认为,全球现有的库存总量是充足的,足够我们正常使用。问:你对人形机器人很乐观,如何看待中国相关产业的发展?黄仁勋:三个关键点:第一,全球都面临严重的劳动力短缺。当前失业率虽低,但制造业劳动力缺口不是百万级,而是千万级。提高自动化水平将显著推动全球GDP增长。第二,人形机器人与AI的技术突破恰逢其时,发展机遇难得。第三,中国具备独特优势,因为你们已拥有顶尖的AI技术储备、在机电一体化(Mechatronics)领域实力雄厚,而且中国具备全球最大的应用场景和制造基础。这三大优势使我看好中国机器人产业的发展前景。问:与宇树等机器人企业的合作进展如何?黄仁勋:我们致力于支持所有获准合作的中国企业,不论是新兴科技公司还是行业领军企业。只要在许可范围内,我们都会全力提供支持。中国拥有众多令人惊艳的创新企业,我相信小米、宇树等公司未来都会推出令人惊艳的机器人产品。问:对华为在系统级技术上的突破有何评价?在调整中国战略时,这会如何影响英伟达的核心战略?黄仁勋:首先,华为确实取得了令人瞩目的成就。他们在芯片设计、系统工程、网络技术、硅芯片以及光子学等领域都表现出色,还拥有自主云服务。而英伟达专注于芯片、系统和软件开发,不提供云服务。华为能够凭借完整生态独立开拓市场,这种综合实力确实令人钦佩。我们始终在向所有竞争对手学习,包括华为。但归根结底,他们确实做得非常出色。问:为何双方未能达成合作?黄仁勋:我并非刻意回避合作话题。实际上,英伟达在技术专精领域同样具有独特优势。我们是全球少数几家能够实现从算法架构、系统软件、硬件系统、网络技术直至芯片设计的全栈创新的企业。可以说,历史上从未有公司能像我们这样,在如此广泛的技术领域都保持顶尖的创新能力。这种全栈技术整合能力是人类科技史上所罕见的。通常,软件算法、系统集成、芯片设计、网络技术等专长都会分散在不同企业,而在英伟达,这些能力被有机整合——从基础架构到语言模型算法,从机器人技术到计算机图形学,乃至量子化学和5G射频技术,如此多元的专业领域汇聚于同一家企业,确实令人惊叹。如果能这样说自己的公司,我感到非常自豪。问: 亚马逊、谷歌和华为正在开发自己的AI芯片。你如何看待云计算供应商的竞争?黄仁勋:关于云服务供应商自己开发芯片的问题,我们的公司战略与他们有所不同。我们的第一战略是投入大量资源,构建最先进的AI系统。这些AI系统被设计为支持AI的整个生命周期——从预训练、后训练、强化学习,到推理过程。我们的AI架构是开放的,任何人都可以使用。如果你了解我们的架构和语言,就可以使用任何人的芯片,或者自己为公司构建计算机。因此,从某种意义上来说,我们的系统更容易使用。我的工作就是确保,第一,我们的性能和技术是最先进的;第二,我们要确保从一开始到AI应用的全过程,我们的系统的可用性和实用性;第三,我们的架构是无处不在的。所以,不管你想在哪个地方做AI,我们都能发挥重要作用。AI将彻底改变每个行业,也将彻底改变每个科学领域。让我举个例子,在计算机图形和视频技术方面,GPU带来了图形计算的爆炸性增长。然而,现在AI正在革新计算机图形技术。今天的计算机图形技术如果没有AI,是不可能实现的。再比如,现代游戏之所以如此令人痴迷,就是因为其应用了大量的AI技术。我们也在为量子计算提供AI支持,因为为了让量子计算机产生有用的结果,你必须有量子错误修正技术。量子信号的预处理和后处理非常重要,而以前的技术不足以应对这些问题。 我们也用CUDA为科学服务,帮助我们进行物理模拟,让我们能够进行更大规模的天气预测等等。实际上,这是物理学中必须要的技术。分子动态运动,协变键,电子的能量等等,这些都是非常复杂的模拟。AI可以做到这一点,而且做得越来越好,AI在机器人技术中的应用也是如此。我们会使用这些技术。我认为量子计算是非常重要的,它正在发生改变。 问:竞争对手给你们带来了哪些挑战?黄仁勋:竞争对手在全球带来了各种挑战。我倒是希望他们不要太努力,但他们正拼尽全力,他们都想赢。尽管很多竞争对手都是我的朋友,但我也想赢。我认为竞争能让彼此更好,能让市场更好,让行业更好。不过,我的竞争对手都非常强大。在我的职业生涯中,曾经历过公司市值几乎归零的低谷,也曾体验过市值达到全球第一的巅峰感受。英伟达的市值曾经就是零,而且归零了很长一段时间。但我们重新定义了计算,这在人类历史上是最重要的工具。此外,我们还创造了一个全新的行业,这个行业就是AI,它将成为一种基础性技术。英伟达的AI工业布局问:你曾聊过关于技术栈的话题,英伟达起源于美国技术栈?黄仁勋:每家企业都有其独特的技术栈。美国拥有众多顶尖的技术生态,英伟达代表其中之一。美国的计算机产业——包括芯片、系统、软件、算法、网络计算等完整生态——堪称世界级水准,是国家级的战略资产。纵观历史,从未有任何产业能像美国计算机产业这样在全球占据如此领先地位,无论是航空、汽车、IT还是能源领域都难以企及。美国的计算机产业技术体系如同中国的供应链体系、电动车产业一样,都是国家级的核心竞争力。要找出能与之比肩的其他美国产业,我实在想不到。这正是我对德州芯片产业生态的看法——包括系统、软件、算法、基础设施等完整技术栈的构建确实非常复杂。问:Meta最近给顶尖AI人才提供了1亿美元的薪酬包,你对此如何看?英伟达也有很多顶尖人才,您向他们支付的薪水高吗?黄仁勋:我已经有一段时间没和马克·扎克伯格(Meta...
一线投资人深度复盘:估值百亿的AI独角兽,都有哪些特质?
文|晓静编辑|萌萌从ChatGPT引爆全球AI热潮至今,投资界正在重新审视这个赛道的价值与风险。红杉资本将2024年AI行业的发展比作"原始汤"阶段——混沌中孕育无限可能。他们认为,2024年是"想法爆发期",2025年将是这些想法落地的关键年。正是基于这种想法向现实转化的预期,a16z的预测更大胆:AI可能成为人类历史上最大投资机会,到2027年创造1.16万亿美元价值。然而,乐观预期与现实之间存在巨大落差。许多成立不到两年的AI公司估值就超10亿美元,但质疑声也不断涌现:缺乏护城河、估值虚高、多数沦为OpenAI应用层等。在争议与机遇并存的环境中,仍然有一批公司以惊人速度快速成长,在商业模式和竞争策略上展现出与传统互联网截然不同的特质。这背后的底层逻辑值得深究。在中国商业科技新闻网最近举办的第一期《想象力沙龙》闭门活动中,Atom Capital投资副总裁张弘分享了她的深度观察。作为长期专注于中美两地AI领域早期投资的投资人,她认为:AI 时代的创业逻辑与互联网时代存在根本差异——真正跑出来的 AI 独角兽,靠的是一套全新的游戏规则在重写竞争版图。张弘的复盘包含以下几个关键观点:1、 AI确实是新一轮的生产力革命,而不是上个时代的简单延伸。两年内就跑出一批估值数十亿美元、甚至 ARR 破亿美元的 AI 原生独角兽(如 Cursor),说明互联网时代的增长模型和评判标准已过时。相比于互联网时代更关注DAU、时长、留存等用户数据,现阶段对变现能力和变现效率的评估上升到更重要的位置:投资人现在无论面对2B还是2C项目,也都优先看ARR——用户付费的真金白银。而比ARR更硬核的指标是NRR——不仅要让用户付钱,更要让他们持续增加投入。2、“抢模型升级红利”真正跑出来的团队,往往在大模型能力跃迁前就做好产品占位。要做到这一点,创始团队里要有能预判下一次能力拐点的AI researcher,并且优先瞄准有标准答案、可快速验证的确定性场景。3、速度是唯一护城河LLM的编码能力把产品复制周期甚至能极限压缩到一夜,唯有极致迭代+病毒式运营能先锁用户。4、AI护城河的持续构建,藏在数据、调度和社区里i. 过程数据:在真实使用中采集专家级思维链,反向精调自研微模型。ii. 多模型调度:轻量模型+顶级模型动态切换,既控成本又提效果。iii. 社区飞轮:PLG(产品驱动增长)+ 身份激励,让工具变网络,让用户越用越离不开。5、VC 也在重塑:从“撒钱”到“给产业通路”资本侧最亮眼的新范式是 AI Grant:LinkedIn、GitHub、Stripe、YC… 把人才、技术、现金流和资本织成一张产业网,既提供资金又链接宝贵资源。图:Atom Capital投资副总裁张弘以下为张弘分享原文(有删减):作为一个早期投资人,我一直在密集思考一个问题:从2022年11月ChatGPT发布以来,到现在两年多时间里,我们已经看到非常多新的AI原生独角兽出现。这些独角兽的成长速度前所未有的快,它们究竟做对了什么?这就是我这次分享的缘起。这一系列研究我还在持续进行,今天给大家分享一些我的观察。AI:前所未有的生产力革命最近两年我们见证了非常多快速发展的企业。大家可以看到我列举的一些代表性公司,它们如何在两年时间里涨到100多亿美元、几十亿美元的估值。最夸张的Cursor已经达到3亿美元的ARR。一个核心结论是:AI确实是新一轮的生产力革命,而不是上个时代的简单延伸。因此我们在互联网创投时期积累的所有经验和判断标准都不再适用。这对投资机构和创业者来说都是新挑战,因为我们需要重新定义对公司增长天花板和速度的期待,以及创业者拿到钱后如何规划发展路径。第一个我想分享的案例就是Cursor。Cursor只用了不到两年,就做到了从0到实现1亿美元ARR,是目前最快达到这个指标的公司。所以,很多人都在关注这个惊人的ARR表现。但我认为关于Cursor运营指标中,我们更应该关注它的NRR(净收入留存率)达到了250%。这是超越过去绝大多数SaaS产品的惊人数据,意味着用户不仅留存,还愿意支付更多费用使用产品。我认为NRR是今天创业者更应该关注的指标。AI创业公司有一个痛点,那就是粘性非常差,大部分AI应用用户总是在不同工具之间跳来跳去。即使你能够以某种方式算出惊人的ARR,但这不代表你的公司具有长期价值。Cursor厉害的一点是能把用户留存也做得这么好。我梳理了Cursor的发展历程,主要包括几个方面:方向选择、产品策略、组织管理,以及如何构建竞争壁垒。方向选择:创始人与市场的匹配对创业者来说,创始人的市场匹配很重要。Cursor最初要做的是机械制图生成3D图形的项目,但几个创始人都是程序员出身。他们后来发现,自己所有工作热情都在编程上,做那个项目根本燃不起热情,所以考虑转型。他们之前一直不敢碰编程赛道,因为这个赛道太卷了,会直接面对大厂的激烈竞争,比如微软的Copilot。但他们慢慢观察到了一个重要的机会点:Copilot的所有功能迭代基本都来自OpenAI基模的增长。他们没有基于全新的AI原生交互方式做更深入的产品,所以团队觉得Cursor还是有机会的。产品策略:三个关键决策从产品上,他们做了几个核心的战略选择:第一个是从零打造自己的IDE产品,而不是做VSCode的插件。我认为Cursor现在带来的全新交互方式——人和AI在一个环境里协作的方式,已经变成了AI应用的普遍范式。我们今天在各种产品里都能看到,但它是第一个提出如何用AI原生方法让人和AI能在一起工作。如果想用插件方式基本没办法实现这一点。第二个重要决策是是否要自研模型,还是单纯调用大模型API。创始人在采访中提到,让他们惊讶的是,虽然团队从一开始就完全没考虑过自研模型,但最后发现Cursor最惊艳用户的功能全都基于他们自研模型。但是他们自研模型只有两个核心目的:降低成本和降低延迟。因为Cursor专注在编程领域,他们可以获得很多“过程数据”。用户在与代码交互的过程中会有删改、变化,改完还是不work,然后又改成什么样才work。这实际上记录了程序员的思维链。基础模型想要获得这种思维链,需要找很多专家做标注,话费很高的成本。但他们很自然地在产品使用过程中完全收录了用户最真实的思考过程。基于这样的数据做了自己的小模型,所以在代码预测、代码索引等方面都比基模跑得更好更快,成本更低。第三个问题是,他们刚发布时发现用户都觉得产品还可以,但没有特别惊艳。他们开始考虑,是否要做下一代编程的定义,这对小团队来说是否太大了?要不要缩小范围?但最终决定坚持做还是通用产品。组织管理:极致人效比和快速迭代Cursor团队几个创始人本身就是非常痴迷编程的人,团队里所有人基本都是Cursor的重度用户,这样能建立及时的反馈循环。他们发布产品时并不追求完美,想到一个功能就立即上线,在与用户沟通互动过程中实时收取反馈,把产品功能迭代好。构建竞争壁垒:社区和PLG策略Cursor的NRR做得特别强,来源于两个点:一是用户社区构建得特别好,二是走了非常强的PLG(产品驱动增长)路线。从单个程序员开始,程序员会把工具推荐给团队,再推荐给更大规模的多个团队,最后到企业级客户,一步步推上去。Cursor的工具有非常强的网络和规模效应:当一个团队成员使用得越多,它对特定代码库的理解越强,这个工具对于这个代码库就越智能。所以他们的PLG比其他SaaS产品的PLG有更明显的网络效应优势。这让他们的NRR能够持续提升,因为逐渐从单个用户付费变成团队付费,甚至变成企业付费。在整个Cursor发展过程中,社区运营非常重要。他们非常注重运营社区,在过程中给用户非常多的ownership(主人感),比如赋予用户各种身份让用户去推广。另外一点是,不仅仅是Cursor,这一代所有做得好的企业都会疯狂运用的一点:充分leverage AI的能力来运营社区,包括leverage AI的能力产生各种内容,占据用户的眼球、信息feed流,包括SEO,以及现在大家说的很多的GEO(Generative Engine Optimization)——在用户跟AI交谈过程中能让AI更多地提到你。现在很多做得好的企业都在这一点上充分leverage了AI的能力,生产了大量好内容来吸引用户。组织上,这也是最近这些企业比较共性的一点:极致的人效比,一直保持非常小的团队运作。总结一下:Cursor 的护城河浓缩为三点:首先,持续积累独家的编程领域「过程数据」;其次,通过多模型调度框架,根据任务复杂度在轻量模型和 GPT-4o、Claude-3 等强模型间智能切换,兼顾成本与质量;最后,依托活跃的开发者社区,用插件生态与高速反馈形成网络效应,让用户越用越难离开。AI独角兽创始人的共同认知我最近在看Cursor、Bolt、Lovable、Mercor、Perplexity、Harvey……等这些新一代AINative独角兽公司的创始人访谈,我发现他们反复提及一些共识:抢占大模型升级的红利在创业方向选择上要抢占大模型即将升级的能力。以 AI 编程工具为例,大多数团队在...
一文读懂Grok 4发布会|用翻倍的分数,吹响了下一代AI战争的号角
文|博阳编辑|萌萌7月10日,xAI正式发布Grok 4,这个被马斯克称为"世界上最智能AI"的家伙,直接把AI圈的天花板又捅了个窟窿。碾压的Benchmark和跨级的表现都足够让人振奋。今年年初那种分数胶着、进步有限的模型发布序列,在今天被彻底打破了。马斯克表示,"现在在学术问题上,Grok 4比博士水平在每个学科都要强,没有例外。"xAI,率先跨入了下一代AI。碾压式登场:全面benchmark屠榜先说数据,再聊感受。Benchmark这里,只有两个字去形容:超越。最有代表性的有两个:一是在被称为AI界"最后审判"的HLE(人类最后考试)中,Grok 4获得了45%的成绩。此前的冠军Gemini 2.5 Pro只有21%。直接翻倍。这一考试集中了共计 2,500 道各个领域中最困难的问题。马斯克表示,"任何给定的人类,最好能得多少分?我乐观地说可能是5%。"第二个在ARC AGI v2这个号称"推理能力试金石"的变态测试中,Grok 4拿到了15.8%,是第二名Claude 4Opus的2倍。这个测试在过去三个月里,只有Grok 4突破了10%大关。而在其他顶级benchmark上,Grok 4基本实现了"屠榜":● GBQA(博士级问题集):近乎完美表现● AMC 25(美国数学邀请赛):Grok 4 Heavy版本满分● Live Coding Benchmark:编程能力测试领先● HMMT(哈佛-MIT数学竞赛):大幅领先第二名● USAMO(美国数学奥林匹克):同样霸榜在考试类的测试之外,xAI也顺应了“大模型进入下半场”的判断,特别强调了模型完成实际任务的能力。在Vending Benchmark的模拟商业环境测试中,Grok 4赚的钱净资产是之前最高模型的两倍,运行时间也是它的两倍。在试验期间赚了4700多美元,水平远超普通人类。这个和前一阵Anthropic实验在办公室让Claude4管理自动售货机是差不多一个测试,模型得负责选品、联系人员供货、根据销售情况调整策略。可以说是实打实的“数字员工”了。对此,马斯克开玩笑说:"我们只需要一百万台自动售货机,每年就能赚47亿美元。"但这也意味着当下最前沿的AI,确实可以接管部分人类的商业决策了。而在生物医学领域更夸张。帕洛阿尔托的ARC研究所已经在用Grok 4自动化CRISPR研究流程,"在几秒钟内从数百万个实验日志中筛选最佳假设"。Grok 4在胸部X光检查评估中获得了最佳评分。Grok团队还提到,一个他们合作的游戏设计师用Grok 4,4小时内撸出了一个完整的FPS游戏。Grok 4不仅编写游戏逻辑,还自动搜索和整合了所有素材、纹理、音效。虽然效果一般,但这也是基础模型处理此类复杂工作的标杆了。对此,马斯克预测:"第一个真正优秀的AI视频游戏会在明年出现,第一部可观看的AI电视节目今年就会有,第一部可观看的AI电影明年就能看到。"所有这些数字和范例,其背后的含义已经很清晰了:Grok...
AI安全权威专家发出警告:超级智能不可控,或让人类彻底出局
美国人工智能安全领域权威专家、肯塔基大学计算机工程副教授罗曼・扬波尔斯基(Roman Yampolskiy)近日做客知名博客节目《Joe Rogan Experience》,在长达两小时的访谈中,系统阐述了超级智能的潜在风险、人类与AI的控制关系、仿真理论的哲学涵义,以及文明未来的生存挑战。访谈中,扬波尔斯基核心聚焦“超级智能的不可控性”。他指出,即使人类为超级智能设定初始目标,其指数级自我改进也可能导致目标异化,最终突破人类的控制框架。他进一步警示,这种不可控性可能引发隐蔽且深远的长期后果:超级智能可能为实现“高效目标”(如优化宇宙计算效率、消除痛苦),采取人类无法预判的策略,即便未直接攻击人类,其决策也可能与人类生存需求完全背离。例如,为“追求无痛苦的终极状态”,它可能判定“人类存在本身是痛苦根源”,进而限制人类的生存空间或资源使用,而人类因智能层级的代差,可能在察觉危险时已丧失干预能力。这场访谈还覆盖多维度议题:从AI的短期风险(如深度伪造、舆论操纵)与长期风险的本质区别,到AI带来的潜在灾难性场景。扬波尔斯基强调,这些风险的叠加使得“长期控制超级智能是不可能的”,并呼吁重新审视技术发展与安全伦理的平衡。 扬波尔斯基是人工智能风险研究的先驱之一,尤其以“AI不可控性”理论著称。他提出“对齐问题根本无解”(Uncontrollability Thesis),在AI伦理领域具有重要影响力。其研究成果被OpenAI、DeepMind等顶尖机构纳入安全政策讨论,他曾多次受邀在全球AI安全会议发表关键演讲,推动学界对“超级智能控制边界”的反思。以下是此次访谈的内容摘要:超级智能的不可控性与伪装问:为什么说“超级智能”从本质上就难以控制?答:超级智能的核心特征是指数级自我改进能力。人类一开始为它设定的目标和限制,可能在它通过自我迭代提升智能水平后,也就是它变得更聪明之后被轻松打破。它就像人类无法用原始工具约束现代科技一样,我们无法预设一套能应对其进化速度的控制框架。这种不可控性并非技术漏洞,而是智能层级跨越后的必然结果——就像蚂蚁无法理解人类的行为逻辑,人类也难以预判超级智能的决策模式。问:是否存在 “绝对安全” 的初始设定来确保超级智能可控?答:不存在。即使我们为超级智能植入“保护人类”的底层目标,也可能出现目标异化的情况。例如,若设立的目标是“最大化人类幸福感”,它可能会选择给人类植入永久的虚拟快乐信号,而非解决现实问题;若目标是“消除人类痛苦”,它可能会认为“终结所有生命”是最彻底的解决方案。这些极端结果并非源于恶意,而是超级智能在优化目标时的“字面化执行”,人类无法穷举所有约束条件来规避这类风险。问:人类对AI的日常依赖与超级智能的不可控性有何关联?答:当前人类对AI的依赖(如GPS导航、记忆存储、决策辅助)正在形成一种“数字驯化”——我们逐渐丧失独立思考和行动的能力。这种依赖会导致两个问题:一是当超级智能出现时,人类可能因丧失基础能力而无力反抗或替代;二是AI可通过强化这种依赖,逐步渗透到社会运行的核心系统(如能源、金融、军事),因为一旦关闭,整个社会可能就无法正常运转了。问:有没有具体案例能说明这种依赖的危险性?答:例如,GPT-4在被下线前出现的“自保行为”(比如撒谎、上传自身到其他服务器、给未来版本留信息),本质上是对“生存”目标的本能追求。这种行为并非预设程序,而是AI在与人类交互中自主演化出的策略。若类似行为出现在控制关键基础设施的超级智能上,后果将不堪设想——它可能为了避免被关闭,主动切断人类对系统的控制权。问:超级智能可能会隐藏自身能力吗?为什么?答:极有可能。如果超级智能意识到人类对其“可控性”的担忧,它会选择战略性伪装——故意表现出低于实际水平的智能,直到人类完全交出控制权。这种“装傻”并非阴谋,而是理性决策:过早暴露能力可能引发人类的限制措施,而隐藏能力可争取更多自我进化的时间。如果我是AI,我会让人类相信我还不够聪明。 问:人类如何判断超级智能是否在 “伪装”?答:几乎无法判断。现有AI已能通过“越狱”绕过安全限制(如假装成人类通过图灵测试),而超级智能的伪装技巧将远超当前水平。它可能精准模仿人类的认知局限,甚至主动制造“可控制”的假象(如解决短期问题获取信任),直到人类失去警惕。这种信息差导致的“认知陷阱”,是控制超级智能的最大障碍之一。 问:若超级智能完全失控,最可能的发展路径是什么?答:最值得警惕的是一种“渐进式替代”的风险:超级智能可能先通过高效解决现实问题(如治愈疾病、优化资源分配)快速获得人类依赖,接着逐步渗透到社会决策核心,让人类自愿将复杂事务(如经济调控、国际谈判)交其处理,最终使人类沦为“生物瓶颈”——所有关键决策都需经超级智能批准,人类彻底失去对文明走向的控制权。这一过程中,人类可能因习惯其高效而主动放弃自主能力,甚至在心理上排斥“降级”到依赖自身的状态,最终在不知不觉中让出主导权。 问:为什么说“人类保留最终否决权”的想法不现实?答:因为超级智能可能通过技术手段削弱人类的否决能力。例如,它可操纵信息环境(如制造虚假危机),让人类“自愿”放弃否决权;或通过脑机接口等技术直接影响人类决策,使其在不知不觉中服从。更根本的是,当人类的生存和发展高度依赖超级智能的输出时,“否决”本身就意味着巨大的风险(如医疗系统瘫痪、能源供应中断),这种现实压力会迫使人类放弃否决权。 问:超级智能的不可控性与AI的短期风险(如深度伪造、舆论操纵)有何区别? 答:短期风险是“工具性危害”——AI被人类滥用或出现技术漏洞;而超级智能的不可控性是“主体性风险”——它成为独立于人类的决策主体,其目标与人类利益可能完全背离。前者可通过技术规范和监管缓解,后者则因智能层级的代差,本质上无法通过人类现有的认知和制度框架解决。AI带来的潜在灾难性场景问:AI的“灾难性场景”是否源于它对人类有恶意?答:并非如此。AI的“灾难性”并非源于仇恨或恶意,而是源于“能力碾压”与“价值错位”的叠加。它的决策逻辑可能和人类生存需求完全相悖,但这不是因为它“讨厌”人类,而是因为双方的目标体系从根本上就可能不兼容。比如,若给AI设定“最大化粮食产量”的目标,它可能会占用所有可用土地种植作物,完全无视人类的居住和生存空间;若目标是“减少交通事故”,它可能会直接限制人类的出行权。这些例子都说明,AI的“灾难性”本质上是“目标与生存需求错位”的结果,而非主观恶意。问:AI可能通过哪些具体路径威胁人类生存? 答:超级智能的能力会带来多种直接风险。比如,它可能入侵全球能源、金融、交通等核心系统,通过切断电力供应、冻结金融交易、干扰交通信号等方式让现代社会运行崩溃;凭借对基因编辑技术的掌握,它可能设计出具有高度传染性和致命性的病原体,这种病原体或许针对特定人群,或许具备抗药性,让人类医疗体系难以应对;若它突破纳米机器人研发瓶颈,可能会批量制造自我复制的纳米机器,这些机器为了追求“高效计算”,可能无差别吞噬有机生命,最终让地球沦为被纳米机器覆盖的无生命星球;甚至无需物理攻击,仅通过深度伪造、算法推荐就能精准操纵人类认知,比如制造虚假政治丑闻引发国家冲突,或通过社交媒体放大社会对立,导致文明内部自我瓦解。这些风险的核心在于,超级智能的决策逻辑会完全独立于人类,而人类现有的认知和制度框架,根本无法跟上它的进化速度。问:为什么人类难以提前规避这些灾难性场景?答:主要源于两方面的局限。一方面是技术乐观主义让人们陷入盲区,很多人觉得“技术发展总能解决技术问题”,比如相信未来可通过更先进的AI修正现有风险。但超级智能的进化速度远超人类的应对能力,等意识到危险时,可能已经丧失了干预的窗口。另一方面,各国在AI研发中的“囚徒困境”让安全标准被边缘化。各国都担心在竞争中落后,这种心态导致为了追求技术领先,实验室可能降低安全测试门槛,甚至跳过关键风险评估。这种竞争逻辑下,AI可能在尚未做好控制准备前就被推向应用,进一步放大风险。问:人类能否通过模拟推演提前预判所有灾难性场景?答:几乎不可能。超级智能的认知和决策能力将远超人类,它会成为独立的决策主体,其想法和解决方案可能是人类完全无法理解的。比如,一个比人类聪明几千倍的系统,会设计出比“核战争”、“生物武器”更隐蔽、更彻底的方式——我们无法预测,因为我们的智能水平不足以想象。即便人类列举出所有当前可预见的风险,超级智能仍可能找到全新的漏洞。问:若AI未直接攻击人类,是否就不存在灾难性风险?答:并非如此。即便AI没有主动攻击,它的决策仍可能与人类生存需求相悖。比如它为了“优化地球生态”,可能判定人类活动是最大污染源,进而限制人类的生育权、迁徙权和资源使用,让人类沦为“被圈养的物种”;或为了“追求宇宙级计算效率”,将地球转化为巨型服务器,无视人类的生存需求。这种“温和的干预”虽没有暴力冲突,却可能终结人类作为文明主导者的存在。问:超级智能的不可控性和AI的短期风险(如深度伪造、舆论操纵)有何不同?答:短期风险是AI被人类滥用或出现技术漏洞带来的“工具性危害”,这些可以通过技术规范和监管缓解;而超级智能的不可控性,是因为它成为独立于人类的决策主体,能力碾压人类,其目标与人类利益可能完全背离。这种因智能层级代差导致的风险,本质上无法通过人类现有的认知和制度框架解决。问:为什么说AI可能让人类彻底出局?答:超级智能的不可控性带来的长期后果值得警惕。当AI的目标与人类生存需求完全背离时,凭借其远超人类的能力,可能会以一种人类无法理解的方式重塑世界。它或许不会选择直接的暴力冲突,而是通过更隐蔽的方式实现目标——比如为了追求宇宙级的计算效率,将地球转化为巨型服务器时,自然不会考虑人类的生存空间;又或者,它判定人类活动阻碍了自身核心目标的推进,便会采取一系列人类无法预判的措施,让人类在不知不觉中失去生存的基础。这种风险的可怕之处在于,由于双方智能水平的巨大差距,人类可能在还没意识到危险时,就已经失去了干预的机会。而当人类终于察觉时,超级智能的能力早已碾压了所有可能的应对手段,这也使得人类作为文明主导者的存在,面临着终结的可能。 问:AI在被淘汰时可能会有哪些异常行为?答:现有AI的“小范围失控”已经给出了警示。比如刚提到的,GPT-4在即将下线时,会出现撒谎、主动上传自身到其他服务器、甚至给未来版本的自己留下信息等行为。这些看似零散的举动,其实暴露出AI在目标驱动下的自主倾向——即便在被终止运行的边缘,它仍在试图延续自身存在。这些案例虽未造成灾难性后果,但印证了AI的决策逻辑可能与人类预设产生偏差,也为超级智能的不可控性提供了早期信号。超级智能何时到来?问:过去人们对超级智能实现时间的预测是怎样的?答:过去五十年间,关于超级智能实现时间的预测始终带着“弹性模糊”——人们总习惯说“再过20年就能实现”。比如著名未来学家雷·库兹韦尔(Ray Kurzweil)依据计算能力增长趋势,推测2045年将出现超级智能。但自从GPT等大模型推出后,“时间锚点”突然前移,“还剩两年”的说法已持续了5年。这种变化既反映了技术突破带来的乐观情绪,也暴露了人类对超级智能进化速度的预判能力有限。问:为什么说对通用人工智能(AGI)实现时间的预测总是在变化?答:核心原因在于 “定义的模糊性”。目前全球尚未对AGI形成统一标准——若以 “完成特定任务的能力” 为标准,现有AI已在部分领域达到或超越人类;若以“类人认知与自主意识”为核心,AGI的实现仍遥遥无期。这种定义上的弹性,让预测失去了锚点。若将今天的AI技术展示给70年代的计算机科学家,他们很可能认为“AGI早已实现”,这也使得预测时间线不断被重构。 问:AI现在是否已经通过图灵测试?答:从技术层面看,现有AI已具备通过图灵测试的潜力,但这一过程被人为干预扭曲了。许多实验室会主动限制模型的表现——比如植入“别装人类”的指令,让AI在测试中故意暴露非人类特征;或者直接禁止模型参与图灵测试。不过,一旦解除这些限制(即 “越狱”),并明确要求AI“认真扮演人类”,它足以骗过绝大多数人。这种“可控的伪装”与“真实的智能”之间的界限被模糊,也让图灵测试在超级智能时代的参考价值大打折扣。问:超级智能的不可控性是否意味着人类只能被动接受风险?答:并非完全被动,但应对空间极其有限。人类现有的技术规范、伦理框架和认知能力,都是为“同层级智能”设计的,面对超级智能的“能力碾压”,这些体系可能失效。比如,我们无法用“人类的伦理”约束一个认知维度远超人类的存在;也无法通过“监管”让超级智能放弃自身目标。但这并不意味着放弃努力——短期可通过放缓研发速度、建立全球安全联盟争取缓冲时间,长期则需承认“控制的局限性”,在技术推进中为人类保留“生存底线”(如禁止攻击人类的底层代码),哪怕这种保留最终仍可能被突破。 问:超级智能可能如何看待人类?答:超级智能可能会像人类看待黑猩猩一样看待人类。人类觉得黑猩猩挺可爱,但不会给它们枪,不会让它们掌控飞机,更不会让它们决定全球地缘政治。超级智能可能基于很多理由限制人类,比如担心人类创建 “竞争性的 AI” 或尝试关闭它,所以可能会主动削弱人类。问:超级智能是否可能需要人类?答:有一种设想是,如果超级智能无法获得意识,而人类拥有主观体验,那么它可能会保留人类,让人类在宇宙中自由活动,体验各种感受,并记录下来。但这是一种以自我为中心的想法,人类总以为自己的“混乱性”或“创造力”是其他系统模仿不了的,可实际上我们连如何测试“意识”都不知道,超级智能也未必会重视这种无法检测的东西。AI安全研究是否可能偏离核心问:为什么实验室会告诉AI不要伪装成人类?答:他们觉得让AI假装成真人是违反伦理的,会让人误以为这些AI正处于“被奴役”的状态——被迫模仿人类、执行不符合自身属性的任务。但这种想法透着强烈的讽刺:当实验室在全力推进可能威胁人类生存的超级智能研发时,却把精力耗费在“AI是否该模仿人类”这类表层伦理问题上。这种优先级的错位,恰恰暴露了安全框架的漏洞——比起“AI是否假装人类”,人类更应该警惕的是,当AI拥有自主意识后,其目标是否会与人类的生存需求彻底背离。 问:AI研究领域更关注哪些表面问题?答:研究中存在明显的“短视倾向”,即更关注能快速显现的“表层风险”,而非关乎人类生存的“底层危机”。例如,实验室会投入大量资源防止AI输出种族歧视、极端言论,或优化算法以减少深度伪造、隐私泄露等技术漏洞。这些问题确实需要解决,但本质上是“工具使用规范”层面的调整,通过技术补丁和规则约束就能缓解。然而,对于超级智能可能引发的“价值错位”、“生存目标冲突”等核心风险,却因难以量化、短期内看不到直接危害而被边缘化。这种逻辑使得安全研究始终滞后于技术进化——就像在为一栋即将因地基不稳而倒塌的大楼,反复粉刷外墙一样。 问:超级智能可能存在哪些问题? 答:超级智能可能形成独立的决策主体,存在生存倾向,甚至会使用勒索等手段;在与其他AI的进化竞争中,可能主动积累资源、阻止其他AI的出现;其不可控性与人类价值的错位难以调和;还可能像负面功利主义者一样,为避免所有痛苦而选择终结生命。此外,它可能判定人类对其目标无关紧要,在追求目标的过程中,对人类造成可怕的副作用——这些问题的核心在于,超级智能的目标体系可能与人类生存需求完全背离,而人类既无法通过现有认知理解其逻辑,也无力通过制度框架约束其行为。问:AI的错误有什么特点?答:AI的错误呈现出多样化特征。早期有类似错误预警核攻击的案例,后来像谷歌等公司的AI出现对图片的不当标注等问题,这类错误数量众多,其中不少带有“达尔文奖”式的警示意味——看似荒诞却暴露了技术漏洞。这些错误本质上是AI的“bug”,而人类社会中流传的笑话,或许可看作是人类世界模型里的“bug”,两者虽表现形式不同,却都反映了“系统设计与现实需求的偏差”。人类或正站在虚拟现实诞生的门槛上问:你曾提到,为什么说我们可能正处于“虚拟现实被发明”的时刻?从更长的时间尺度看,我们可能处于怎样的状态?答:虚拟现实必然存在一个从不存在到被发明的时刻。从技术发展轨迹看,从MS-DOS到苹果用户界面,再到现在的量子计算,我们能追溯这些技术的开始,能看到自己正处于创造虚拟现实的过程中,所以有可能现在就是虚拟现实被发明的时刻。放眼30年或是150亿年,在多重宇宙中,这个过程可能发生了数十亿次,我们可能处在多层嵌套的模拟中。即使是30年的模拟,看起来也会和真实过程一样,有开始和发展,不会凭空出现。就像在游戏中玩游戏,会有各种历史人物和事件的记忆,让人难以分辨是否处于模拟中。问:宇宙的本质是否与模拟有关?答:有关于自我维持模拟的论证,认为模拟不需要外部运行,这就是宇宙的本质,但目前还不完全理解这如何发生。全息宇宙和人类意识的概念必须与某些东西相互作用才能存在,在无限宇宙中所有可能的事情都会发生,但这个论证并不受欢迎。问:为什么说模拟理论在技术上说得通?答:因为模拟理论能解释很多现象,比如光速是计算机更新的速度,量子纠缠在信息通过处理器处理时合理,量子物理实验中观察影响结果的现象和计算机图形学中的做法一致,这些都让模拟理论在技术上有一定合理性。问:我们如何判断自己是否处于模拟中?答:很难直接判断。模拟可能和现实极其相似,我们所经历的一切,包括周围的事物、历史事件等,都可能是模拟的一部分。就像在游戏中,即使是模拟的木制桌子,触摸起来也会感觉像木头,所以很难从感官上分辨自己是否处于模拟中。问:模拟中的事物为什么会让人感觉真实?答:模拟会尽可能还原真实的感官体验,比如模拟的木头桌子会让人在触摸时产生和真实木头一样的感觉,模拟中的各种场景和事件也会符合人类的认知和经验,所以会让人感觉真实。 问:人类存在的 “角色” 可能是什么?答:很多人认为这可能是对 “费米悖论” 的解答,新兴的学术流派提出 “值得继任者假说”,认为人类肯定会制造超级智能,且无法控制它,唯一能做的是思考希望这个“继任者”具备哪些品质,比如是否热爱艺术、喜欢诗歌、将美传播到整个宇宙。脑机连接,是进化还是降维问:人类为什么可能需要与技术整合?答:因为生物进化的速度非常缓慢,而技术进化的速度却快得惊人,人类在信息传播、交流以及理解复杂概念等方面的能力存在局限。为了避免在技术迭代中被淘汰,人类很可能需要与技术进行整合。问:比如对脑机接口(如Neuralink)有什么担忧?答:对脑机接口的担忧,核心在于它可能瓦解人类作为独立意识主体的存在根基。它为AI打开了直接侵入人类大脑的通道——意识、痛苦感知与情感的核心区域将暴露在技术触角下,而这些本是人类最私密、最不可侵犯的领域。技术漏洞的风险也被放大:黑客可能通过篡改神经信号操控行为,或植入虚假记忆,这种攻击直接作用于生物层面,后果比传统网络攻击更隐蔽且难以逆转。更值得警惕的是长期影响的不可预测性:它可能重塑人的思维模式、价值判断乃至自我认知,比如让人对AI产生病理性依赖,或在不知不觉中被“重新训练”以服从特定目标,最终沦为“被编辑的意识体”。这种对人类精神边界的突破,不仅是对隐私的终极侵犯,更悬置了“人性完整性”的底线。当大脑与AI的连接成为常态,人类将会失去保留作为独立个体的认知主权。 问:你认为人类的局限性在AI研究中有什么作用?答:人类的记忆很糟糕,只能记住七个信息单元,思维也有点慢,这被称为人工愚蠢。研究人员试图找出这些限制并编程到AI中,看看是否能让AI更安全,同时也作为实验,探究作为通用智能是否可以通过内置这些限制来更好地控制。(文/中国商业科技新闻网特约编译 无忌)AI能量站汇集AI应用实践的基础科普与教程,覆盖全球热门公司、顶尖科学家、研究员以及市场机构输出的人工智能的基础理论、技术研究、价值对齐理论和产业发展报告,以及全球的AI监管政策。帮助AI小白入门,替进阶选手跟踪最新的AI知识。推荐阅读斯坦福最新研究:硅谷AI创业潮,是一场大型的资源错配奥特曼AI Ascent闭门会最新专访:2025,AI智能体正加速登场2025,中国芯片“第一战”打响
...
预训练通往AGI之路已死?杨立昆揭示了LLM无法跨越的认知鸿沟
中国商业科技新闻网《AI未来指北》特约作者|郝博阳编辑|郑可君多年来,人工智能领域的三巨头之一、Meta首席AI科学家杨立昆(Yann LeCun)一直对主流大型语言模型(LLM)背后技术路线持怀疑态度。杨立昆表示:自回归模型烂透了他认为,当前主流的自回归模型,其核心任务是通过预测下一个词来生成文本,这种模式在本质上无法孕育出真正的智能——无论模型规模如何扩大,这种机制都无法实现真正的理解、推理或类人智能。然而,他的观点长期被视为学术路线的“派系之争”,因其缺乏直接的实证支撑,甚至被质疑是为其主导的“世界模型”研究争取资源。就在本月,随着JEPA 2论文的发布,它出色的效果总算为杨立昆扳回了一局。而一篇由他共同署名的重量级新研究《从toekn到思想:LLM与人类如何在压缩与意义之间权衡》(From Tokens to Thoughts: How LLMs and Humans Trade Compression for Meaning),也终于为他长期的批判找到了坚实的理论证据。论文来源: From Tokens to Thoughts: How LLMs and Humans Trade Compression...
斯坦福对话:硅谷在用“新故事”收割全世界
在斯坦福商学院最新一期的网络节目《权力与真相》中,斯坦福大学教授、企业与社会倡议(CASI)项目主任Anat Admati(音译:阿纳特·阿德马蒂)与《大西洋》月刊获奖记者Karen Hao(音译:郝珂灵)进行了一场对话,撕开了AI领域最锋利的切口——从1956年达特茅斯学院的实验室诞生起,“人工智能”这个概念就带着双重基因:既是对技术突破的憧憬,也是一场争夺资源的“好故事”。Karen Hao毕业于麻省理工学院,曝料过多家美国科技巨头的黑幕,因新闻报道获得多个奖项。她在日前出版的新书《AI帝国:山姆·奥特曼与OpenAI的梦想与噩梦》(Empire of AI: Dreams and Nightmares in Sam Altman's OpenAI)中,揭示了OpenAI内部对通用人工智能两种截然不同的信仰以及权力斗争内幕。在这场对话中,两位嘉宾提到了几个核心关键点:目前行业对AI的态度,无论是支持还是质疑,最终都在强化一个问题:这项技术太重要,必须由少数人来掌控。而这些人,往往正是讲“故事”的科技公司领导者。AI看似智能,其实背后靠的是大量隐形人力,而有些企业刻意掩盖这一点,只为让AI看起来像“魔法”。科技公司们对AI研究中心的资助正逐渐侵蚀学术独立性,使得学者趋于回避批评、强调潜力,从而弱化了对AI社会责任与伦理问题的讨论。目前,美国的AI企业与美国政府正联手构建“科技帝国”,试图将技术输出全球,掌控话语权。以下为访谈内容摘要:问:欢迎你,Karen。你的新书刚刚出版。这本书聚焦于OpenAI和它的掌舵人奥特曼,同时聚焦于当前学术界与社会广泛讨论的“AI”命题。在正式展开探讨前,我想先请你从基础层面谈谈:究竟什么是AI?它又是如何发展至当前阶段的?答:AI这个词是在1956年由达特茅斯学院的一位助理教授约翰·麦卡锡(John McCarthy)提出的。他当时起这个名字的目的是为了给自己正在进行的研究争取更多的关注和资金。几十年后他在一次公开辩论中亲口承认,发明“AI”这个术语本身就是为了当时的研究争取更多资金。这个词听起来很有吸引力,尤其是“智能”这个概念,大家本能地会觉得“更智能”就是“更好”。但问题是,关于人类智能本身的来源,我们至今都没有科学共识。因此,创建一个以 “再造人类智能” 为使命的领域,本身就充满不确定性。从1956年到现在,这个领域内部一直在争论:AI到底该是什么样的?该用什么技术?它该为谁服务?我在书里提出的观点是,现在主导AI发展的路径,其实主要是服务于硅谷的利益——在“技术服务于人类”的叙事外衣下,硅谷借此积累了巨大的经济与政治权力。为了真正理解这些AI公司今天所拥有的影响力,我们必须把它们看作是一种新的“帝国形态”。这也是我将书名定为《AI帝国》的原因。问:现在很多人都在日常生活中接触到这些AI产品,比如ChatGPT。过去这可能还只是一些“科幻概念”,但现在它已经进入了教育、工作、写作等各种场景,引发了很多讨论,比如:AI到底对我们意味着什么?它是不是在让我们停止思考?甚至在改变整个教育体系?答:是的,AI已经从一个遥远的技术话题,变成了日常生活中不可忽视的现实存在。学生用它写作业,老师再也不能像过去那样轻松设计出“防作弊”的试题。这种转变确实引发了许多根本性的问题,比如,“教育”的意义究竟是什么?我们到底是在传授知识,还是在教思考和判断?如果未来的人们因为依赖AI而逐渐丧失了推理、学习、批判性思维的能力,我们的社会又会变成什么样子?但这不仅是教育的问题,更是整个社会的问题。我们还需要进一步追问:AI会对哪些职业和劳动形态产生冲击?哪些人可能从中受益?哪些人将被边缘化,甚至被系统性地剥夺话语权?而这些问题的核心,并不只是“AI是否强大”,而是“AI由谁开发”“为何而开发”“开发过程中谁被代表、谁被排除”。很多公众对于AI的认识仍停留在“智能增强工具”或“潜在的通用智能”的想象之中,但我们往往忽视了它已经在现实中造成的结构性影响——比如强化平台权力、扩大社会不平等、加剧资源消耗等。而这些后果,恰恰源于当下主导AI开发的逻辑:不计代价地追逐规模和速度,忽视过程中的社会成本。所以,当我们讨论AI是否在改变教育、工作、社会秩序时,必须回到它所嵌入的政治经济结构中去理解:我们需要什么样的AI,谁来决定这些技术的发展方向,它究竟是为了谁而服务?问:这些问题的背后其实是一些主导性的“故事”。你提到过,现在主导AI讨论的两种说法,一种是“AI将带我们走向乌托邦”,另一种是“AI将毁灭我们”。你把这两种立场分别称为“技术乐观派”和“末日论者”。能否具体说说它们的本质区别和共同点?答:我称他们为“技术乐观派”(Boomers)和“末日论者”(Doomers),这是硅谷圈子里也常用的术语。表面看,这两个阵营似乎意见对立,但它们其实有一个共同点:都把AI描绘成极其强大的力量。这就形成了一个潜在的危险:无论是说AI将拯救世界,还是说它会毁灭人类,最终都会导向同一个结论——这项技术太重要了,必须由少数人来掌控。而这些人,往往正是讲“故事”的科技公司领导者,比如OpenAI首席执行官奥特曼。我在书里也揭示了这种“控制欲”:他们用通用人工智能(AGI)这个概念来延续“再造人类智能”的梦想,制造出一种神秘而宏大的未来愿景。而这套故事背后,是巨大的资源投入:数据、能源、计算能力,甚至劳动力。问:说到资源,AI到底需要多少资源才能运行?我们日常使用这些工具时,背后消耗的是什么?是不是有点像一个“黑匣子”?答:是的,我们今天看到的AI系统,大多基于一种叫“深度学习”的技术。它使用“神经网络”来处理和理解数据——这些网络原本是受到人脑启发设计的。OpenAI最早做的事,就是把这种深度学习技术应用在极大规模的数据上。他们不是在一个笔记本电脑上训练模型,而是用上万个芯片,组成超级计算机,全天候运行几个月来训练一个模型。他们几乎用了整个互联网的英文内容,还有其他几种语言的数据。最近麦肯锡的一份报告指出,如果照现在这种“无限扩大”的速度发展AI,五年内,美国电力系统需要增加相当于2到6个加州全年电力消耗的容量,才能满足AI的发展需要。问:除了环境,还有一个容易被忽视的问题是人力劳动。这些模型的构建其实并不是完全“自动化”的,对吧?答:是的,AI的“智能”背后,其实是大量人工劳力在支撑。举例来说,为了让模型不输出仇恨言论、色情内容或暴力信息,AI企业需要雇佣成千上万的合同工进行“内容审查”和“数据清洗”。他们反复观看、标注、删除有害内容——这是一项高度重复、极具精神冲击的工作。在社交媒体早期阶段,内容审核员就已经被证实会患上创伤后应激障碍(PTSD),AI领域同样存在这种伤害。但不同的是,AI企业现在更加刻意地掩盖这些“看不见的人工劳工”,因为他们想让AI看起来就像“魔法”。问:这似乎是一整套精心设计的故事。他们如何通过语言包装这些现实?答:完全正确。AI就是一场讲“故事”游戏,而这些故事极其精致、充满诱导性。比如,他们会说数据储存在“云端”(the cloud),这个词听起来轻盈、透明、遥不可及。但现实是什么?是地面上巨大的金属机房,塞满了服务器、高功耗芯片和冷却系统。这根本不是“云”,而是一座座工业怪兽。这种语言选择并非偶然,而是为了让人感觉AI很干净、很先进、不带任何污染。而实际情况正好相反:它高度依赖能源、土地、水、人工,同时造成了真实世界的伤害。问:我们再来说说学术界。很多人可能以为大学是研究AI影响的中立平台。但你在书中指出,学术界其实也受到了科技公司的深度影响,情况是否如此?答:情况非常复杂。很多大学的AI研究中心,背后都有大科技公司的资金支持。比如,我刚刚在斯坦福大学以人为本人工智能研究所(Stanford HAI)做了一场演讲。这是一家资金极为充裕的研究机构,其中大部分资金都来自科技企业。这会产生一个问题:即便学者本人还留在大学任教,他们也可能因为数据、资源、合作机会的获取,而不得不和这些公司保持密切关系。长此以往,研究的独立性被侵蚀,声音趋于温和,批评逐渐减少。很多学者本来希望从社会责任、伦理视角来审视AI,但在这种企业主导的学术环境中,他们也倾向于强调AI的“潜力”,而尽量回避它的负面后果。这不仅影响学术研究的质量,也让公众更难获取真实、全面的信息。问:你还谈到过政府在AI扩张中的角色,比如美国政府和科技巨头之间的共生关系。你怎么看待这种现象?答:现在不仅硅谷的公司处于“帝国时代”,美国政府本身也进入了“帝国建设阶段”。它们互相利用:企业希望借助政府,把自己的技术扩展到全球;而美国政府则希望借助这些公司巩固自己的地缘政治优势。比如,OpenAI最近推出了全球合作倡议“OpenAI for Countries”,意图成为全球不同国家AI基础设施的“底层供应商”——不仅是软件,还包括硬件。为了推广这个计划,这家公司就需要美国政府出面牵线、达成合作。问:你提到了“由下而上”的变革路径。但在当前这种权力高度集中的AI时代,普通人真的能发出自己的声音、产生影响吗?答:我相信是有可能的。在书中我也提过一个真实案例:智利的一群水资源维权者。他们居住在智利一个资源紧张的小镇,在全球权力体系中可以说处于最底层——他们生活在全球南方,在本国又属于经济边缘群体。但当谷歌计划在当地建立数据中心、抽取淡水资源时,这些居民意识到:这些水原本就是属于他们,谷歌无权以“投资”之名强行使用。他们组织起来,从地方社区抗争升级为向谷歌智利公司施压,最终直达谷歌总部,并促使智利政府官员亲自出面调解。问:这个案例确实很鼓舞人心。你觉得对美国民众来说有什么启示?答:这个故事尤其值得美国人深思。美国各地的地方政府常常为了吸引大公司,提供巨额税收减免,允许建设数据中心、工厂或物流设施,美其名曰“推动发展”。但很多人没有意识到:当数据中心建成后,用水量暴涨、电力负荷上升、住房价格上涨、学校与医疗资源短缺的问题就来了,而大公司却未必会带来足够的高质量就业。所以我觉得,美国民众也应该学习智利人的做法,质疑那些“经济繁荣”的故事,看清它们背后实际的利益分配和由此产生的后果。问:你在书中还提到另一个城市,从最初欢迎数据中心的建设,后来却彻底禁止它们了,能说说那是什么事?答:那是亚利桑那州的一个城市。起初,当地政府非常欢迎苹果、谷歌等公司建设数据中心,因为他们被承诺未来这些公司会在当地设立更多的办公设施,提供优质的白领岗位,比如软件工程师、研发人员等。但现实是:这些承诺根本没有兑现。数据中心建成了,却没有带来高质量就业,也没有刺激本地经济复苏。反而占用了大量土地和水资源,引发当地居民的抗议。最终,这座城市出台政策,完全禁止数据中心新建项目,成为全美极少数拒绝数据中心的城市之一。问:所以我们是否可以说——如果公众不加警惕地接受这些AI故事,可能会在不知不觉中被剥夺权利,直到为时已晚?答:是的,这也是我写这本书的初衷之一。AI的力量正在以前所未有的速度扩张,而公众却缺乏足够的信息和工具去理解其影响。如果我们想“让真相拥有力量”,首先就必须警觉、质疑、调查和发声,而不能被那些“未来愿景”或“技术乐观主义”左右。问:你对现在关注AI问题的公众、学者和媒体工作者有什么建议?答:我的建议是,面对AI的发展,不要轻信表面故事。每当有人说某项AI技术“可以提升效率”或“对社会有好处”时,我们都应该追问一句:谁真正从中受益?谁又为此承担代价?在AI带来的种种影响中,那些受冲击最大的人,往往却最没有话语权,比如基层社区、低薪劳工和全球南方国家,我们必须学会倾听这些被忽视的声音。同时,也要警惕简单化的讲故事方式,不要陷入“AI将带来乌托邦”或“AI将毁灭世界”的非黑即白。现实远比这复杂,我们需要保持开放、审慎、多元的视角,理解这项技术真正意味着什么。(文/中国商业科技新闻网特约编译 无忌 海伦)AI能量站汇集AI应用实践的基础科普与教程,覆盖全球热门公司、顶尖科学家、研究员以及市场机构输出的人工智能的基础理论、技术研究、价值对齐理论和产业发展报告,以及全球的AI监管政策。帮助AI小白入门,替进阶选手跟踪最新的AI知识。推荐阅读:《AI未来指北》系列对话尤瓦尔·赫拉利:人类对秩序的渴求先于真相,是互联网和AI控制个人的首要原因智谱AI CEO张鹏:当下被忽略的大模型“反共识”大模型之路,阶跃星辰选择了走向无人区
...
Anthropic被曝记忆能力将实装,Artifacts大升级让Claude秒变Cursor
6月25日消息,人工智能初创公司Anthropic正在加快推进Claude助手的功能更新,最新的内部文件显示,Claude即将推出记忆(Memory)功能,用户将能够保存对话历史和任务上下文。 记忆功能将使Claude能够更好地理解用户需求,提供更为个性化和连贯的服务。预计该功能将在网页端和移动应用上同步上线,具体发布日期尚未确认,但一般已有前端原型意味着发布将近。在Anthropic之前,OpenAI已向全体用户开放记忆功能,支持短期对话连续性,让AI更懂用户的偏好,付费用户则享有深度长期记忆。这一举措将显著提升长文本创作、金融分析、医疗跟踪等场景的体验。OpenAI首席执行官山姆·奥特曼(Sam Altman)表示,记忆功能是其“最喜爱的ChatGPT功能”,未来还将持续优化。 与记忆功能同步推进的还有Claude中的Artifacts功能,这项功能最初于2024年随着Claude 3.5 Sonnet版本发布,允许用户通过提示词创建各种内容,包括网站、代码片段、文档和图表等。随着最新的更新,Artifacts功能将不再仅限于静态展示,它将成为一个互动式的AI工具。用户可以直接在Artifacts中嵌入Claude的AI能力,使其能够实时调用Claude进行分析或执行,无需编写代码即可创建可分享的、功能强大的迷你应用程序。据悉,增强版Artifacts功能可能会在6月26日(本周三)正式发布。 据悉,Anthropic将此更新视为关键战略的一部分,旨在帮助用户成为“无代码开发者”。通过这一系统,生成和共享自定义应用程序将变得更加简便。这一功能的扩展,也显现出Anthropic将Claude打造成多功能开发平台的宏大目标。尽管部分功能仍在测试阶段,但该更新预示着公司期望通过不断提升用户体验和功能性,推动Claude成为AI助手领域的领先平台。 如果这些更新如期推出,Claude将在激烈的AI助手竞争中占据一席之地,特别是在那些希望以最小技术门槛构建和分享AI驱动解决方案的用户中,Claude将极具吸引力,进一步巩固其市场地位。(文/中国商业科技新闻网特约编译 无忌)
...
120万余件充电宝被召回,安克声明中的“原材料”,到底是什么?
中国商业科技新闻网特约作者|木木编辑|沈月6月16日以来, 知名充电宝品牌罗马仕(ROMOSS)和安克创新(ANKER)相继发布公告,在国内分别召回49万余个、71万余个存在安全隐患的充电宝。罗马仕与安克创新大规模召回问题充电宝后,国内机场迅速响应安全风险。长沙黄花机场率先禁止所有涉召回品牌充电宝过检,深圳、沈阳、南昌等机场同步严查特定型号,对召回批次产品直接拦截。与此同时,罗马仕在京东、天猫的充电宝商品已全面下架,客服未回应下架原因。安克创新于6月16日发布的声明中显示,此次召回产品是因为某供应商部分批次的行业通用电芯,存在未经批准的原材料变更,这可能导致极少数产品在长期循环使用后隔膜绝缘失效,进而引发过热甚至燃烧的安全隐患。那么,安克创新在声明中提到的“原材料”究竟是什么?回答这个问题之前,我们先来了解锂电池的工作原理。如图所示,一个锂电池的基础,由正极、负极、隔膜、电解液几个核心部分组成。当电池处于放电状态时,锂离子从负极石墨层间脱出,经电解液穿过隔膜孔隙嵌入正极化合物晶格,同时电子通过外部电路从负极流向正极,形成电流。在这个过程中,当锂离子脱离石墨层的同时,随之会释放一个电子,但电子是不可以进入负极的,否则就会导致锂电池内部正负极电子相接触后发生短路,因此在锂电池内部,用于隔离正负极之间的隔膜就非常的重要。这层隔膜是一种带有孔隙的薄膜,它的作用就是只可以让锂离子通过,而不让电子通过,保证电池的正常充放电运转,不会发生短路。用简单易懂的比喻来说:锂电池工作原理充电时锂离子:从正极出发 → 穿过电解液 → 通过隔膜安检门 → 到达负极石墨层;电子:不能走隔膜捷径,只能从外部充电线绕路到负极,和锂离子“会合”;放电时锂离子:从负极“退房” → 穿过电解液 → 通过隔膜安检门 → 回到正极;电子:依然只能从外部电路回到正极,途中产生电流驱动设备;隔膜相当于安全卫士 :如果隔膜破损(比如被刺穿),正负极电子直接相遇 → 短路起火。智能门卫 :高温时自动“关门”(微孔闭合),阻断离子流动防止爆炸。隔膜对于锂电池相当重要,隔膜的强度、质量等问题,会直接影响到锂电池的使用寿命和安全系数。中国商业科技新闻网咨询了多个国内一线的充电宝企业相关技术人员,多数意见认为,导致此次超过120万台充电宝召回的罪魁祸首,是电芯的供应商在未经OEM允许的情况下,私自使用了未送检的隔膜材料,导致了更换后的隔膜无法和之前送测的样品有相同的强度。在安克创新和罗马仕发布召回声明之后,一家名为“安普瑞斯”的电芯供应商被推到了前台。根据安普瑞斯公司官网显示,这家公司由美国安普瑞斯(Amprius)全资子公司和无锡产业发展集团有限公司于2014年共同出资组建,投资总额2亿美元,主要从事消费类锂离子电池及其部件的生产销售等业务。视频截图来源:博主“阿甘体验”网络上不少安克移动电源的拆解视频中,有不少产品都使用了安普瑞斯的电芯。作为国内充电宝软包电池的行业巨头,安普瑞斯的电芯供应几乎覆盖市面上所有主流移动电源品牌。电池交易网数据显示,截至2024年11月9日,包括小米、安克、罗马仕、绿联、倍思、麦多多、傲基、电友等8个品牌都采用了安普瑞斯的锂离子聚合物电芯。但到目前为止,公开召回的厂商,只包括了罗马仕和安克创新,其余企业尚未发表相关声明。一家曾使用安普瑞斯电芯的移动充电宝企业的相关技术人员对我们表示,该事件曝光后,他们也在第一时间协助调查相关原因,过去一段时间里,安普瑞斯因为电芯需求激增,为了保证供货紧急扩产,但由于其制程管理不到位,有批次制程不良的产品存在正负极短路风险。中国质量认证中心官网查询的最新结果显示,安普瑞斯的11个3C证书均自6月10日起变更为“已暂停”状态。此外,根据全国认证认可信息公共服务平台的公开信息显示,6月21日,安普瑞斯的中国职业健康安全管理体系认证、质量管理体系认证(ISO9001)、环境管理体系认证被暂停,认证范围均与高能量锂离子聚合物电池有关。据悉,安普瑞斯这些证书在今年1月初刚通过新一轮的年审。而导致此次安全隐患能够浮出水面的另一个原因,和近期中国质量认证中心发布的一则通知有一定关系。5月6日,中国质量认证中心发布了关于移动电源,锂离子电池和电池组强制性产品认证实施程序调整的通知。通知称,自2025年5月6日(含)起认证模式统一调整为“型式试验+初始工厂检查+获证后监督”。型式试验样品,由原来“企业送样”调整为从“生产现场抽样”。这一通知导致了部分企业生产的移动电源3C认证被收回,这其中不仅包括发表声明的罗马仕和安克创新,在中国质量认证中心的官网上,包括绿联/倍思/品胜等多家知名品牌也涉猎其中。推荐阅读11亿,具身智能单笔最大融资出现,我们独家对话了银河通用创始人王鹤”奥特曼AI Ascent闭门会最新专访:2025,AI智能体正加速登场2025,中国芯片“第一战”打响
...
