
张小珺Jùn|商业访谈录
Podcast door 张小珺
Tijdelijke aanbieding
2 maanden voor € 1
Daarna € 9,99 / maandElk moment opzegbaar.

Meer dan 1 miljoen luisteraars
Je zult van Podimo houden en je bent niet de enige
4.7 sterren in de App Store
Over 张小珺Jùn|商业访谈录
努力做中国最优质的科技、商业访谈。 张小珺:财经作者,写作中国商业深度报道,范围包括AI、科技巨头、风险投资和知名人物,也是播客《张小珺Jùn | 商业访谈录》制作人。 如果我的访谈能陪你走一段孤独的未知的路,也许有一天可以离目的地更近一点,我就很温暖:)
Alle afleveringen
117 afleveringen
[https://image.xyzcdn.net/Flo18nNUSP7OUNlTf8UgCdHxio6O.jpg] 今天的嘉宾是萨洛蒙中国区总经理殷一和小红书商业服饰潮流行业负责人欧迪。我们一起来聊聊,这两年比较火的一个户外品牌,萨洛蒙。 萨洛蒙和始祖鸟都属于亚玛芬集团,2019年亚玛芬被安踏收购;2021年以后,萨洛蒙这个70多岁的法国品牌,意外在中国开启了增长之路。 这个最早从滑雪品类起步,逐步扩展到越野跑鞋的小众品牌,在中国的传统消费群体以男性以及专业滑雪、越野跑爱好者为主;但近几年,他们通过在小红书的一系列品牌行为,成功吸引女性消费群体和新户外人群,扩圈增长,而这又进一步反向刺激了男性消费者以及核心运动人群的增长。 希望这些新鲜的品牌知识,也能给你带来新的启发:) [https://image.xyzcdn.net/FpF2Pa7IhWLZZ4V2h-jx0vpA2lO3.JPG][https://image.xyzcdn.net/Fm2F9n8vMm_n-xafqMi98xs3T3K8.png][https://image.xyzcdn.net/FlXX4H8P1BRETUdBFboiX8lsX2LW.png][https://image.xyzcdn.net/FvV-R5FBydYHGZAMyXAV1K1A9iJT.png] 02:00 两位嘉宾的自我介绍 03:06 萨洛蒙1947年诞生于法国,雪是DNA里最深的那道烙印 04:39 我们曾经被阿迪达斯收购,阿迪达斯帮我们做了sports style 06:04 越野跑核心人群,十年前只有10万人,今年也是10万人,区别是什么? 11:52 品牌应该从小众走向大众,还是从大众走向小众? 16:22 2019年母公司亚玛芬被安踏收购后,萨洛蒙发生了什么? 18:07 中国女性占比最高接近七成,现在是六成不到 20:45 女性对男性的拉新高于男性对女性的拉新 23:21 2021年以后,越来越多海外户外品牌主动地集中进入中国 27:31 小红书帮萨洛蒙拓展人群:“尖货尝新档”和“色彩敏感控” 34:55 以人为主体的品牌策略:找到“超级用户代表” 43:26 10年前我们做品牌会更注重the winning moments,现在更注重成长的过程和细节 45:37 萨门少女背后的消费者洞察:女性不再追求仪式感的堆叠,更追求内心的松弛 48:36 结合小红书和安福路萨洛蒙门店,线上和线下循环流量 55:24 萨洛蒙拉新女性消费者,又反哺了男性消费者的增长 58:16 如果一个非常男性化的品牌想要女性化,应该怎么做? 01:00:43 潮流化会不会削弱专业户外基因? 01:01:33 年轻人消费新变化 01:08:05 当做AI品牌也像做消费品品牌,从品牌角度给AI创始人一些建议 [https://image.xyzcdn.net/FvVbUNblF7FHIjfdp3MmmbAdLZ8G.png] 分享一下漂亮的录制现场: [https://image.xyzcdn.net/FiR5vV7vFaetkgUKSerD2ObyM9OU.JPG][https://image.xyzcdn.net/FluYEhAf3d_kt4XUtAeWF70FwfD9.JPG][https://image.xyzcdn.net/Ft6EYq6Tq8wkGBgVlfS53UFAM_xV.JPG][https://image.xyzcdn.net/FgxeH7ZoI7n3H51F-ATg_o6TyhqN.JPG][https://image.xyzcdn.net/FmOagFuM0Bhs9Bh1ykS6xW1FgXfg.JPG][https://image.xyzcdn.net/Fn7o36NtUYpCM_rQiFj1LW-TIwk8.JPG]

[https://image.xyzcdn.net/Flo18nNUSP7OUNlTf8UgCdHxio6O.jpg] 今天的嘉宾是月之暗面创始人兼CEO杨植麟,距离他上一次来我们的节目(《商业访谈录》59集)已经过去1年半。 就在刚刚过去的7月,Kimi K2模型发布,引发了比较广泛的关注。K2是一个基于MoE架构的开源编程和Agentic大语言模型。形象来说,模型借助编程能力走出封闭的“缸中之脑”,长出了“手”,开始操控外部数字世界。 今天这集节目我和杨植麟聊了聊K2的研发和他当下的技术认知、技术判断。 以及,在过去一年的舆论风暴与创业起伏中,作为创始人,他的心情与思考。 [https://image.xyzcdn.net/Fm2F9n8vMm_n-xafqMi98xs3T3K8.png][https://image.xyzcdn.net/Fm-P6G2K2Gz6s45f9Xb_NdNasujW.png][https://image.xyzcdn.net/FvV-R5FBydYHGZAMyXAV1K1A9iJT.png] > 01:49 一座无限的山 这有点像我最近在看的一本书:The Beginning of Infinity(无穷的开始) 也许有一天会发现,这座雪山没有尽头,我希望它一直没有尽头 但它还是一个“缸中之脑”:想象一个鱼缸,你把一个脑子放在里面,跟外界没有联系 不管是基于长思考的强化学习,还是Agent的强化学习,都指向同一个东西:test-time scaling(测试时扩展) 还有一个很有意思的趋势是,现在有更多模型公司去做“一方的Agent产品” L1到L5不一定是串行关系,Claude就bet这一点:它在Reasoning上做得不是特别多,但在Agent上做得非常好 只有当模型参与到开发过程,才能解锁真正的Innovator(L4)阶段 > 24:58 K2是乔戈里峰 K2的重点有几个:一,我们希望它是一个非常好的基础模型 我们希望能最大化使用每一份数据,就是所谓token efficiency——喂一样多的数据,“脑子”长得更多 我们会对数据做很多Rephrase(改写)操作 我们很关注Muon优化器,它对token efficiency提升很大 二,我们希望K2有好的Agentic能力,对于Agentic模型来讲,最大挑战是模型的泛化 它可能是一个从“缸中之脑”变成可以跟世界交互,因为所谓Agent最重要的特征是,可以多轮地使用工具 人是所谓的universal constructor(万能构造器) 有一种潜在思路,需要用更AI native(原生人工智能)的方式去训练AI Muon你去训的时候,它会炸 > 54:08 既简单又复杂的系统 为什么Kimi从闭源转向开源? 模型训练完成,产品也基本完成了,做交互上的改进当然有价值,但那是锦上添花的一步 多模态不损伤“脑子”已经很好了 你可能学出来的多模态是个“傻的多模态”,我们希望它是个“聪明的多模态” Scaling Law遇到数据墙了,这是客观事实 数据飞轮很依赖外部环境的feedback(反馈),我们不希望feedback有很多噪声,但现在没有把这个问题解决得非常好 现在看起来,基于FLOPs的scaling是更有效路径,但这个平衡什么时候会发生变化? 很多Long Context架构会影响“智商” 纯粹的Linear Attention(线性注意力机制)可能影响智商,因为这个架构会有一些bias(偏差) 基座模型公司和做Agent产品的应用公司,长期看边界在哪? 今天怎么思考商业模式?API是好生意吗? Kimi能赚钱吗? > 01:25:05 在自己的故事里面 Tim(周昕宇)天天跟我讲——要用RL的方式去管理,而不是用SFT 用RL管理团队最大问题是,你容易被hack 很多复杂性都是人为强行加上去的,实际并没有那么复杂 只能说是在自己的这个故事里面——你不断地感受自己到底是什么样的一个人,你为什么要做这个事情 这个问题我也问过Kimi,他说,AI是“人类文明的放大器” 这也是Kimi跟我讲的——任何中间状态都有可能成为被批评的对象 肯定有恐惧,更多要关注你当前这一步,能做什么?——想这个问题更重要 [https://image.xyzcdn.net/FvVbUNblF7FHIjfdp3MmmbAdLZ8G.png] 2024年对杨植麟的访谈: 《和杨植麟聊大模型创业这一年:人类理想的增量、有概率的非共识和Sora》 [https://www.xiaoyuzhoufm.com/episodes/65e16b5b6144a933b1d968b5] 【更多信息】 文字和视频版同步上线 文字版请前往公众号:语言即世界language is world 视频版请前往Bilibili:张小珺商业访谈录 [https://image.xyzcdn.net/Fn7o36NtUYpCM_rQiFj1LW-TIwk8.JPG]

[https://image.xyzcdn.net/Flo18nNUSP7OUNlTf8UgCdHxio6O.jpg] 在大家的强烈催更下,新一集的《全球大模型季报》终于来了。 这一集有两个关键词。 第一个关键词是分化。硅谷各个模型公司在这个季度,开始分化到各个领域,除了Google Gemini和OpenAI还在做通用的模型;Anthropic分化到Coding、Agentic的模型能力;Mira的Thinking Machines分化到多模态和下一代交互。 第二个关键词是产品。《大模型季报》过去一直把视角放在模型的智能探索上,而广密开始浓墨重彩地聊产品,这还是第一次。 这里是《全球大模型季报》的第7集,如果大家喜欢我们的系列,希望大家多多给我们一些鼓励和支持。你们的夸奖对我们来说,非常的重要。 2025,期待我们和AI共同进步! [https://image.xyzcdn.net/Fm2F9n8vMm_n-xafqMi98xs3T3K8.png][https://image.xyzcdn.net/FhO5L2PKPE8OSwyJDGz5_NmS_Zfh.png][https://image.xyzcdn.net/FvV-R5FBydYHGZAMyXAV1K1A9iJT.png] > 03:54 模型在分化 通用各项能力的模型 - Gemini/OpenAI All in Coding+Agentic 能力 - Anthropic 多模态原生 - Thinking Machines Lab Grok 今天还在摸索自己生态位置 Meta 原创 0-1 的基因还是很弱 最领先的这几家很像 F1 竞赛 > 21:37 横向全家桶,纵向垂直整合 C端是一个非常明显的头部收敛趋势,ChatGPT可能在C端会收敛掉很多产品 作为投资人或 AI 创业者,一面兴奋是技术每个月都在进步,另一面有点绝望 横向全家桶的例子是ChatGPT,已经包含了Chat+搜索+Coding+Agent+WorkSpace 纵向垂直整合的例子是 Gemini,从 TPU 芯片,到 Gemini 模型,到上面 Agent 应用,再到 Google 文档/Chrome浏览器/安卓操作系统/YouTube视频,可以做超级集成 > 33:35 智能和产品都重要 过去 3 年一直是对智能上限的探索极度上头,但在过去两个月开始重视产品了 ChatGPT 身上有很多非技术性壁垒,而 Coding 或模型公司只是技术壁垒 OpenAI 是平衡最好的一家,一边探索智能上限,一边又把智能红利转化成产品流量和品牌心智 > 38:52 做 AI 产品很像挖矿,保鲜窗口很关键 挖矿:第一个做出来让用户惊叹的体验很重要,哪怕 token 消耗很大,只要你是第一个做出来让用户惊叹的 Magic moments,就等于你起码得到了 5 亿美金的营销费用,比如 Perplexity/Cursor/Manus 但这个窗口期又特别有意思,窗口是逐渐在缩短的:从 2 年、1 年、3 个月 产品公司能赢过模型公司做的产品吗? > 44:21 L4 级别的体验 最优秀的俩 Agent 都有了 L4 体验:ChatGPT 的 Deep Research + Anthropic 的 Claude Code,分别对应信息搜索+软件开发 今天最大红利还是 language/code 红利,尤其是 code,还不是多模态/世界模型/机器人 Claude Code 最近大杀四方,Claude Code 是一个 L4 的体验 接下来还有哪些领域能有 L4 级别体验? > 52:43 对Google看法的转变 一个猜想是,ChatGPT 后面肯定会做广告平台,因为最近招了新的商业化 CEO 但我在想 Google 还是全球最好的广告平台,最后大家产品形态上都会殊途同归,融合到一起的,就是全家桶逻辑,Search 也会演变 > 55:53 其他话题 AGI有泡沫吗?假如AGI有泡沫,什么事情会是导火索,戳破泡沫? 人类和大猩猩的智能水平差异在哪? 最近湾区有没有什么新的讨论比较高的话题? “犹太人的金融,华人的AGI” (免责声明:本节目不构成投资建议) [https://image.xyzcdn.net/FvVbUNblF7FHIjfdp3MmmbAdLZ8G.png] 【全球大模型季报】系列 2023年:口述全球大模型这一年:人类千亿科学豪赌与参差的中美景观 [https://www.xiaoyuzhoufm.com/episodes/65910adb991e2ee60880f151] 2024年Q1:和广密聊AGI大基建时代:电+芯片=产出智能 [https://www.xiaoyuzhoufm.com/episodes/661f21075dae7932c6f821d8] 2024年Q2:口述全球大模型这半年:Perplexity突然火爆和尚未爆发的AI应用生态 [https://www.xiaoyuzhoufm.com/episodes/667774b3b6a84127299efd5a] 2024年Q3:AGI范式大转移:和广密预言草莓、OpenAI o1和self-play RL [https://www.xiaoyuzhoufm.com/episodes/66d866f0f39a2201c069dccb] 2024年Q4:大模型季报年终特辑:和广密预言LLM产品超越Google之路 [https://www.xiaoyuzhoufm.com/episodes/6766a52a15a5fd520e6c86a9] 2025年Q1:大模型季报:和广密聊当下最大非共识、AGI的主线与主峰 [https://www.xiaoyuzhoufm.com/episodes/67e9614b8eecdbeb601ac5fe] [https://image.xyzcdn.net/Fn7o36NtUYpCM_rQiFj1LW-TIwk8.JPG]

[https://image.xyzcdn.net/Flo18nNUSP7OUNlTf8UgCdHxio6O.jpg] 过去10年,中国新能源汽车产业从无到有,经历蓬勃发展。大家最熟悉的可能是理想、小鹏、蔚来这些整车品牌,但另一面这场变革背后的产业链企业也在变化。 《商业访谈录》的108集对余凯和本集对禾赛联合创始人和CEO李一帆的3小时访谈,关注的都是汽车产业链上的隐形选手。 这集也是李一帆对他们做激光雷达11年硬核科技创业的一部口述史。 随着中国科技创新从互联网的模式创新,走向硬核科技的前沿创新,中国也许还会出现更多的技术型创业者。禾赛的故事也许能提供一个参考样本。 (本次访谈录制于2025年4月) [https://image.xyzcdn.net/Fm2F9n8vMm_n-xafqMi98xs3T3K8.png][https://image.xyzcdn.net/FpUcziKADuUvw4xnFBg4eruuRPSY.png][https://image.xyzcdn.net/FvV-R5FBydYHGZAMyXAV1K1A9iJT.png] 00:02:00 开始的快问快答 00:02:33 股价过山车 00:03:40 激光雷达99.5%的降本 00:12:05 家庭和成长 00:32:13 罕见的3人平分股份 00:43:35 融资的伎俩 00:49:02 第一笔2000万大单 00:55:45 想说完蛋了… 01:10:06 余凯比多我一个0 01:20:47 定价心思 01:38:15 开始倒戈 01:58:07 进入汽车大本营 02:38:34 新钱和老钱 03:02:16 最后的快问快答 [https://image.xyzcdn.net/FvVbUNblF7FHIjfdp3MmmbAdLZ8G.png] 【从蒸汽机到无人驾驶】系列 《对李想的3小时访谈(播客版):宅男、AI、家庭、游戏和天梯》 [https://www.xiaoyuzhoufm.com/episodes/67769bd815a5fd520e8fa318] 《和何小鹏聊,FSD、“在血海游泳”、乱世中的英雄与狗熊》 [https://www.xiaoyuzhoufm.com/episodes/6695032837236c546e4c2e0f] 《对话奔驰全球CEO康林松:转型期CEO和转型之中的139岁奔驰》 [https://www.xiaoyuzhoufm.com/episodes/68300e93fcbc2e206b58eb2b] 《余凯口述30年史:世界不止刀光剑影,是一部人来人往的江湖故事》 [https://www.xiaoyuzhoufm.com/episodes/686b8c0560f8f77d404338cd] 《和楼天城聊聊Robotaxi和ACRush:“L2做得越厉害,离L4越远”》 [https://www.xiaoyuzhoufm.com/episodes/66bdb98233591c27be49e931] [https://image.xyzcdn.net/Fn7o36NtUYpCM_rQiFj1LW-TIwk8.JPG]

[https://image.xyzcdn.net/Flo18nNUSP7OUNlTf8UgCdHxio6O.jpg] 我们又来读论文啦!!! 今天我们要读的论文是最近几个星期内最值得品读的几篇技术报告,分别是:Kimi K2、ChatGPT Agent、Qwen3-Coder的技术报告,以及Manus的一篇技术博文。他们的相关性是,这几篇内容都和Agent有关系。 今天的嘉宾是俄亥俄州立大学(The Ohio State University)的在读博士郑博元,他的研究方向是Language Agent,他会带我们一起读上述技术报告和博文。 这是《商业访谈录》的“技术之美”系列,期待和你一起读论文,领略科技平权,感受技术之美——做你的赛博组会:) [https://image.xyzcdn.net/Fm2F9n8vMm_n-xafqMi98xs3T3K8.png][https://image.xyzcdn.net/FgHNmAFclRglFbm9XogKflmG_D-w.png][https://image.xyzcdn.net/FvV-R5FBydYHGZAMyXAV1K1A9iJT.png] 00:02:00 给Agent下定义和分类 00:14:50 Kimi K2、ChatGPT Agent、Qwen3-Coder、Manus的技术路线对比 00:28:29 Agent Training 的关键环节:合成数据、强化学习、安全 00:30:57 第一篇技术报告:Kimi K2: Open Agentic Intelligence github.com [https://github.com/MoonshotAI/Kimi-K2/blob/main/tech_report.pdf] 00:43:50 第二篇技术报告和访谈:Introducing ChatGPT agent: bridging research and action openai.com [https://openai.com/zh-Hans-CN/index/introducing-chatgpt-agent/] 红杉访谈OpenAI:OpenAI Just Released ChatGPT Agent, Its Most Powerful Agent Yet www.sequoiacap.com [https://www.sequoiacap.com/podcast/training-data-chatgpt-agent/] 01:53:38 第三篇技术报告:Qwen3-Coder: Agentic Coding in the World qwenlm.github.io [https://qwenlm.github.io/blog/qwen3-coder/] 01:59:04 第四篇技术博文:AI代理的上下文工程:构建Manus的经验教训(作者:Yichao 'Peak' Ji) manus.im [https://manus.im/zh-cn/blog/Context-Engineering-for-AI-Agents-Lessons-from-Building-Manus] 02:06:06 展望:也许会有一个新的范式 02:15:20 我感觉Agent是“我拓展的大脑”,我背后有一个“军团”(Family of Agents) 02:16:41 不同Bot的语言风格:DeepSeek嘴臭,元宝舔狗 [https://image.xyzcdn.net/FvVbUNblF7FHIjfdp3MmmbAdLZ8G.png] > 智能体定义 Agent是一种能够与环境进行交互(interaction)的智能系统。 它具备两个基本能力: 感知能力(Perception) 能够观察环境的状态,包括获取外部信息、读取反馈信号、解析上下文等。 行动能力(Action) 能够在环境中执行动作,例如调用工具、生成输出、控制界面、修改变量等。 简言之,Agent = 感知 + 行动 在一个循环中不断执行“观察 → 决策 → 行动”的流程,以达成任务目标。 > Agent 的定义与分类 1. Coding Agent(代码智能体) 代表产品:Cursor、Windsurf 特点:代码生成与编辑能力强,用户体验优秀 应用场景:代码补全、代码重构、多人协作编程 2. Search Agent(搜索型智能体) 特点:结合搜索引擎,自动完成信息检索和汇总 应用场景:市场调研、报告生成、竞争对手分析等 潜力:在企业级场景中有很强的应用价值 3. Tool-Use Agent(工具使用型智能体) 特点:能够调用多种外部工具完成复杂任务 应用重点:是目前 Agent 研究和落地的主要方向 举例:ReAct(推理 + 行动)类 Agent,通过 tool calling 执行任务 4. Computer Use Agent(电脑操作型智能体) 代表产品:OpenAI Operator、Claude 的 Computer Use 特点:模拟人类使用电脑,完成跨应用的复杂操作 应用场景:执行流程自动化、远程助理、办公代理 > Agent 的技术路线对比 1. In-Context Learning(上下文学习) 特点:依赖强大的预训练模型,通过提示构造实现任务规划与执行 优势:无需微调,灵活性高 局限:泛化能力弱,rollout 长度有限,容易失控 2. End-to-End Training(端到端训练) 特点:将 Agent 的全部行为编码进模型权重 优势:推理稳定,可控性强 局限:训练成本高,环境构建复杂 > Agent Training 的关键环节 1. Data Synthesis(数据合成) 方法:生成大量高质量的 trajectory(行动轨迹) 用途:训练 Agent 在任务中如何决策、调用工具、管理 memory(记忆) 2. Reinforcement Learning(强化学习) 条件:需要定义清晰的 task(任务)与 verifiable reward(可验证奖励) 挑战:任务难度与环境反馈设计直接影响 Agent 的行为质量 3. Safety(安全性)问题 风险:Agent 具备自主决策能力,容易误用工具、走偏轨迹 对策:加入 sandbox(沙盒)限制、行为约束机制、Human-in-the-loop(人类监控) > 展望:也许会有一个新的范式 生成数据的核心会从 input-output 式的数据标注,转向构建 environment(环境)以及对应的 task-reward(任务-奖励)。比如 Scale AI 提出的 rubrics as reward(用评分标准作为奖励机制) Agent 能不能实现自我提升(self-improve)?一方面,Agent 在和环境交互的过程中会不断获得新数据;那它能不能自己找到或构造 verifiable reward(可验证的奖励)?交互中积累的 experience(经验),能不能被更有效地利用起来? [https://image.xyzcdn.net/Fn7o36NtUYpCM_rQiFj1LW-TIwk8.JPG]

4.7 sterren in de App Store
Tijdelijke aanbieding
2 maanden voor € 1
Daarna € 9,99 / maandElk moment opzegbaar.
Exclusieve podcasts
Advertentievrij
Gratis podcasts
Luisterboeken
20 uur / maand