
AI时代的产品经理手册
Podcast von PM熊叔
Nimm diesen Podcast mit

Mehr als 1 Million Hörer*innen
Du wirst Podimo lieben und damit bist du nicht allein
Mit 4,7 Sternen im App Store bewertet
Alle Folgen
31 Folgen
随着Llama 3的发布,国内各路英雄豪杰纷纷开启了炼丹之旅。Llama-3 8b在惊人的15万亿令牌上训练,而Llama-2仅为2万亿。毋庸置疑,Llama 3目前是开源大模型中能力最强的!其跑分成绩已经赶上了GPT-4。 [http://imagev2.xmcdn.com/storages/7f6c-audiofreehighqps/E1/E1/GKwRIaIKAPkSAACeyALLUBQh.jpg!op_type=4&device_type=ios&upload_type=attachment&name=mobile_large] 然而,Llama3的优势不仅限于此。作为开源大模型,每个人都可以对其进行个性化的定制,这意味着相比GPT,它具有更强的定制性和安全性。另外,Llama3 8B的模型可以在内存只有8G的树莓派上运行,对于计算机资源的依赖比以往都要低,人人都可以本地部署Llama3,可应用于针对B端企业和各种场景下的自然语言处理、机器翻译、文本生成、问答系统、聊天机器人等场景。 目前,我们主要通过微调(Fine-Tuning)来定制所需的模型。例如,Llama 3原生不支持中文,但我们可以通过微调让它支持中文。 什么是微调(Fine-tuning) ?这是机器学习和深度学习中的一个术语。它指的是在预训练模型的基础上,使用特定任务的数据集进行额外训练的过程,目的是让模型更好地适应特定的任务或问题。通过微调,我们可以调整模型的参数,使其更精准地解决特定问题。 就像一个已经非常了解世界的成年人。现在,我们需要它去学习一些更专业或更具体的知识。微调的过程,就像是对这个成年人进行一些专业培训,使其在特定领域更加精通。 为了帮助大家更好的理解什么是“微调”,我前天写了一篇轻松的入门教程《Llama3微调教程:超简单,人人都可以打造属于自己的GPT!》: 地址:https://mp.weixin.qq.com/s?__biz=MjM5NDIzOTg0Mw==&mid=2448257753&idx=1&sn=627c94e8b0d66bc9866ab4a42edaaa73&chksm=b29316d585e49fc312553b5efaca684af566be55237b8c4e2a1d9a472dd31f7ee74157c08163&token=1764237450&lang=zh_CN#rd 就算你不懂技术也没有关系,通过这个简单的Llama 3微调案例,我们可以免费体验整个大模型微调的过程。你可以学习到AI工程师是如何进行环境配置、数据准备、模型训练、模型运行、模型保存以及本地模型使用。 这对于大多数普通人来说,这是一个免费体验AI工程师工作方式的机会;如果你想转入AI行业,这也是一个很好的入门案例。 你可以通过我的微信公众号“PM熊叔”浏览。 另外在Shownots中,我列出了目前已经微调好的Llama3作品,大家如果有兴趣可以体验一下。 愿每个人都能从中受益,开启自己的AI探索之旅! 以下是一些微调的llama3的作品: llama3-Chinese-chat-8b:https://wisemodel.cn/models/shareAI/llama3-Chinese-chat-8b Instruct + 进行中的中文sft版本:https://modelscope.cn/models/baicai003/llama-3-8b-Instruct-chinese_v2/summary 联通微调版本:https://www.modelscope.cn/models/UnicomAI/Unichat-llama3-Chinese/summary Openbuddy微调版本:https://www.modelscope.cn/models/OpenBuddy/openbuddy-llama3-8b-v21.1-8k/summary 破解安全限制系列(目前仅支持英文): Unholy:https://huggingface.co/Undi95/Llama-3-Unholy-8B neural-chat:https://hf-mirror.com/Locutusque/llama-3-neural-chat-v1-8b 聊天机器人:https://huggingface.co/cognitivecomputations/dolphin-2.9-llama3-8b Bunny-Llama-3-8B-V(多模态图文版本):**https://wisemodel.cn/models/BAAI/Bunny-Llama-3-8B-V 我的公众号: [http://imagev2.xmcdn.com/storages/daed-audiofreehighqps/75/75/GKwRIJEKAPnQAABq6gLLUHVc.jpg!op_type=4&device_type=ios&upload_type=attachment&name=mobile_large]

今天要介绍的这篇文章《The Bitter Lesson 苦涩的教训》是由知名计算机科学家,阿尔伯塔大学、DeepMind的神经网络专家Rich Sutton 在 2019 年发表的,主要讨论了在人工智能研究中一个重要的观察:当简单的算法能够利用大量的计算资源时,往往会胜过依赖于人类专家洞察力的复杂算法。 [http://imagev2.xmcdn.com/storages/a22f-audiofreehighqps/61/32/GKwRIMAJ9Z9DAACuSgLHiO1c.png!op_type=4&device_type=ios&upload_type=attachment&name=mobile_large] 在回顾AI历史上一些关键进展时,Sutton指出,虽然研究人员曾多次尝试通过设计复杂且模仿人类理解的算法来提升机器学习模型的表现,但通常更简单、更基本的方法,只要能通过增加计算能力进行扩展往往能取得更佳效果。他强调了规模和算力的重要性,并认为未来的研究应该更多依赖于扩算力,而非复杂的设计。 [http://imagev2.xmcdn.com/storages/b9fb-audiofreehighqps/0B/5B/GKwRIW4J9mssAABuDgLHu6vd.png!op_type=4&device_type=ios&upload_type=attachment&name=mobile_large] OpenAI 在2021年的论文《神经语言模型的缩放法则 Scaling Laws for Neural Language Models》讨论了AI模型的性能如何随模型大小、数据集大小和训练计算量的规模提升而提升。 [http://imagev2.xmcdn.com/storages/bc5b-audiofreehighqps/E1/2D/GMCoOSAJ9mtfAABqfALHu7eX.png!op_type=4&device_type=ios&upload_type=attachment&name=mobile_large] 今天,在缩放法则(Scaling Laws)的加持下,简单的Transformer架构让GPT等大语言模型涌现出了“智能”,也展示出了AGI通用人工智能的可能性。 现在就让我们来读一读,回顾这篇经典文章。 ---------------------------------------- 苦涩的教训 Rich Sutton 2019年3月13日 我们从70年的人工智能研究中可以得出的最大教训是,利用计算的通用方法最终是最有效的,而且差距很大。其根本原因在于摩尔定律,即集成电路上可容纳的晶体管数量每隔18-24个月会翻倍,从而使芯片性能指数倍增。 大多数人工智能研究都是在假设智能代理可用的算力资源是恒定,在这种情况下,利用人类知识是提高性能的少数行之有效的方法之一,但在略长于典型研究项目的时间内,大规模的计算量又不可避免地会变得可用。 研究人员寻求在短期内实现改进,试图充分利用他们对特定领域的人类知识来节省算力成本,但从长远来看,唯一重要的是利用计算资源。这两者不必相互对立,但实际往往如此。由于对一种方法的投资存在心理承诺,我们在一个东西上花费大量的时间,就不会在另一个上花费更多时间。而且,基于人类知识的方法往往会使方法复杂化,使其不太适合利用计算的通用方法。这些案例不胜枚举,我称之为苦涩的教训。 作为人工智能研究者,我们学习这些教训是有指导意义的。下面,我们来回顾其中一些最知名的案例。 [http://imagev2.xmcdn.com/storages/bc0f-audiofreehighqps/21/ED/GMCoOSYJ9muCAACTxALHu79b.png!op_type=4&device_type=ios&upload_type=attachment&name=mobile_large] 在1997年,计算机国际象棋领域见证了一个历史性的事件——计算机通过大规模深度搜索击败了世界冠军卡斯帕罗夫。当时,大部分研究者都倾向于利用人类对棋局结构的深入理解来设计算法,这一失败让他们颇感挫败。当一个相对简单的基于搜索的方法,结合先进的硬件和软件展示出惊人效力时,依赖人类知识的方法显得力不从心。这些研究人员对于“蛮力”搜索的胜利持怀疑态度,认为虽然这次有效,但它并非一种普遍适用的策略,也不符合人类下棋的风格。他们曾希望能通过更贴近人类思维的方法取得胜利,因此对结果感到失望。 计算机围棋的研究历程展示了一种类似的发展模式,但这一过程比其它领域晚了大约20年。初期,研究者们尝试通过利用人类的棋局知识和游戏特征来减少搜索需求,但随着搜索技术在规模上的有效应用,这些努力最终被证明是无效甚至有害的。同样,自我对弈的方式学习价值函数也显示出其重要性,这种方法不仅应用于围棋,在国际象棋等许多其他游戏中也同样适用,尽管在1997年首次战胜世界冠军的程序中,学习的作用不大。自我对弈不仅是学习的一种方式,它像搜索技术一样,使得可以利用大量计算资源。搜索和学习是利用大规模计算的两个关键技术,在计算机围棋和国际象棋的研究中,尽管研究人员最初依赖于人类的理解来减少搜索的需要,但最终还是通过采用搜索和学习技术取得了显著的成就。 [http://imagev2.xmcdn.com/storages/fdab-audiofreehighqps/CC/2F/GKwRIUEJ9muQAACb0gLHu8QX.png!op_type=4&device_type=ios&upload_type=attachment&name=mobile_large] 在语音识别领域,20世纪70年代DARPA主办的早期比赛中,参赛者采用了包括人类发音知识在内的各种特定方法,例如对单词和音素的认识。相对的,一些新的统计方法采用了更多的计算,并基于隐马尔可夫模型(HMMs)进行操作。结果显示,统计方法优于那些基于人类知识的方法,这一发现推动了自然语言处理领域的重大变革,并在随后的几十年中逐渐成为主流。深度学习在语音识别中的崛起标志着这一发展方向的进一步演进。 深度学习方法较少依赖人类知识,而是利用大量计算资源,通过在庞大的训练数据集上进行学习,显著提升了语音识别系统的性能。研究人员原本希望开发出能模仿人脑工作方式的系统,并尝试将这种理念应用于他们的系统设计中,但这种方法最终被证明是适得其反,甚至是对时间的浪费。尤其是在摩尔定律推动下计算能力大幅提升并找到有效利用方式的背景下,这种做法更显得没有必要。 [http://imagev2.xmcdn.com/storages/119b-audiofreehighqps/DF/3A/GMCoOR4J9mvpAAB6MALHu9yY.png!op_type=4&device_type=ios&upload_type=attachment&name=mobile_large] 计算机视觉领域也遵循了相似的发展模式。在早期,研究者们试图通过识别边缘、圆柱形等广义结构,或使用SIFT特征来处理视觉信息。然而,这些方法如今已被淘汰。现代的深度学习神经网络主要采用卷积技术和某些类型的不变性处理,并且在性能上有了显著提升。 这一趋势给我们的教训是深刻的。作为一个领域,我们似乎还没有完全吸取这一教训,因为我们依然重复着相同的错误。要真正理解这些错误的诱惑,并有效地避免它们,我们需要认识到依据我们所认为的思考方式构建方法最终可能不会奏效。这是一个我们必须接受的苦涩教训。 从这些历史经验中,我们汲取了一些重要教训: 1 )人工智能研究人员经常尝试将人类的知识整合到他们的智能系统中。2) 短期内,这种方法似乎总是有益的,并且能给研究人员带来满足感,但长远来看,它可能导致发展停滞,甚至阻碍进一步的创新。3) 真正的突破通常来自于完全相反的策略,即通过扩展搜索和学习能力来充分利用计算资源。尽管成功令人欣慰,但这种成功往往带有苦涩,因为它是在放弃了受青睐的、以人为中心的方法后才实现的。 从这些经验中我们应该学习到的第一个重要启示是,通用方法的强大力量在于其扩展性,即使在可用计算资源极大增加的情况下也能持续有效。搜索和学习是目前看来能在这种环境下无限扩展的两种方法。 第二个重要启示是,关于大脑的实际工作原理的极端的复杂性;我们应该放弃试图以简化的方式来理解大脑的工作,如简单地处理空间、物体或对称性等。这些概念都是外部世界中复杂性的一部分,本质上是难以简化的。试图将这些复杂性内置于系统中是不切实际的。 相反,我们应该专注于内置能够探索并捕捉这种任意复杂性的通用方法。这些方法的核心优势在于它们能找到有效的近似解决方案,但寻找这些解决方案的过程应该是自动的,而不是依赖于我们的直接输入。我们希望人工智能代理能够自主探索和发现,就像我们一样,而不是仅仅复制我们的现有知识。将我们的发现硬编码到AI系统中,不仅限制了系统的学习潜能,还加重了我们理解这些发现过程复杂性的困难。 观点 Rich Sutton《苦涩的教训》原文到这里就结束了,我想聊聊我自己的观点和感悟: 人类总是习惯将自己对于世界的认知注入于亲手打造的系统之中,但是历史一次又一次的证明这种有效性只是短期的,从地心说到日心说,从经典力学到量子力学,从专家系统到大语言模型,当每一次科学革命到来之时,那些越是符合直觉的经典理论越是岌岌可危。 《金刚经》有云:“一切有为法,如梦幻泡影”,我们当前观察到现象和规律,可能都只是暂时的。那这个世界运转的逻辑到底是什么? 设想一下,如果你是这个宇宙的程序员,拥有无穷的时间和算力资源,你会如何设计这个世界? [http://imagev2.xmcdn.com/storages/7237-audiofreehighqps/52/F2/GMCoOScJ9m5pAA_EcgLHvKSy.png!op_type=4&device_type=ios&upload_type=attachment&name=mobile_large] 智能设计论者说:沙漠中不会凭空产生精美的手表,所以精密的人体一定是被有意设计出来的。但是你作为一个想要摸鱼的程序员,其实对于细致入微的设计全宇宙中所有的生命体可能并没有太大兴趣,你只关心能否用最简单的算法让DNA持续地演化,演化出智能体,再让他们做那些你不想做的事情。 遵循“缩放法则(Scaling Laws)”依然是你最佳的选择,因为你不用操心这个宇宙的每一个角落的细节,你只要设计最基本的法则,并允许系统在这些法则指导下自我组织和进化,剩下的事情交给无限的时间和算力就好了。 正如480年前,哥白尼坚信上帝相信简洁优雅的规则,因此有了日心说:“天体运动的真实模型应该是基于数学的完美和简洁,而日心模型相比地心模型在数学上更为简洁和优雅”。 而今天,AI领域的进展告诉我们“简洁优雅的数学模型”依然有效,只要简洁的设计和上大尺度的数据训练,就能拥有强大的鲁棒性和智能性的系统。 佛法有云:“缘起性空;自见成佛”。这可能才是我们这个世界的本来面目。 [http://imagev2.xmcdn.com/storages/fcc2-audiofreehighqps/6A/8C/GMCoOSMJ9m5MAAFGqALHvJiF.jpg!op_type=4&device_type=ios&upload_type=attachment&name=mobile_large] 欢迎订阅我的播客和知识星球。 [http://imagev2.xmcdn.com/storages/983b-audiofreehighqps/DB/09/GMCoOSYJ9m7FAAHhgwLHvMNg.png!op_type=4&device_type=ios&upload_type=attachment&name=mobile_large]

前天,我参加了洪宇的《遇见AIer》的播客节目的录制,聊了聊ComfyUI的Mixlab Node背后的故事和AI产品经理关心的一些话题。如果感兴趣,大家可以去听下这期节目。 [http://imagev2.xmcdn.com/storages/a697-audiofreehighqps/C6/32/GMCoOSEJ6ae6AACd-ALDgvE3.png!op_type=4&device_type=ios&upload_type=attachment&name=mobile_large] # 缘起 2023年10月,我和Shadow一拍即合,共同发起了“ComfyUI中文爱好者社区”,并把Mixlab Node纳入了议程。目前,社区已聚集了超过1000名ComfyUI创作者,包括行业内的ComfyUI大咖。Mixlab Node目前已获得600多个星标。 https://github.com/shadowcz007/comfyui-mixlab-nodes [http://imagev2.xmcdn.com/storages/9acc-audiofreehighqps/F5/5E/GMCoOSYJ6afJAACHpALDgvnt.png!op_type=4&device_type=ios&upload_type=attachment&name=mobile_large] 我和Shadow都对AI创作工具及社区抱有浓厚兴趣。去年,我们见证了AnimateDiff和ComfyUI的崛起,并意识到国内迫切需要一个ComfyUI学习社区。这不仅为AI创作爱好者提供了一个交流和学习的平台,也吸引了一批热情的开发者和创意人才来共同开发ComfyUI的插件和工作流,这也促成了Mixlab Node的诞生。 [http://imagev2.xmcdn.com/storages/372d-audiofreehighqps/28/A7/GKwRIJIJ6afbAAB7ngLDgwVP.png!op_type=4&device_type=ios&upload_type=attachment&name=mobile_large] # 社区驱动型产品 简而言之,Mixlab Node是基于Stable Diffusion和ComfyUI构建的节点工具。它的核心特色在于ComfyUI的高度灵活性,通过模块化设计让各种插件(或称为节点)能够无缝串联。这种设计使得用户可以轻松调用各类AI模型和处理模块,完成从图片生成到视频制作,甚至是接入大语言模型进行互动游戏的多样化工作流程。 ComfyUI的开放性和模块化让开源社区的开发者能够迅速整合最新技术和模型到用户的工作流中,而我们的MixLab Node就是其中之一。 Mixlab Node最大的特点就是“社区驱动开发”,在我们社群里面,开发者和创作者每天都会讨论大量的新技术动态和使用需求。我们的功能往往源自社区内部的实际反馈,确保了产品的实用性和创新性。 例如,Mixlab Node加密功能正是基于社区反馈而生。当时我们社群中的一些大佬的工作流被一些人冒名顶替,引起了社群内的广泛关注。开源并不是做慈善,一个良性的生态环境,既要开放共享又要尊重个人创作权益,这样开源才有持续发展的动力。所以我们想有些工作流只有通过原作者提供密码才能继续使用。通过这种方式,不仅可以让创作者的原创作品免受盗用,还可以让优秀的创作者更好地活下去。 相似的案例不胜枚举。Mix Node正是在这样一个开放、共享的环境中不断成长和优化的。通过与社区成员的紧密合作,形成了一个积极的、自我增强的闭环系统。这不仅推动了MixLab Node不断完善和进步,也为开源的AI创作贡献了自己的一份力量。 # JUST DO IT的开发模式 [http://imagev2.xmcdn.com/storages/4c1d-audiofreehighqps/A0/F4/GKwRIRwJ6ajAAAQYJQLDg61k.jpg!op_type=4&device_type=ios&upload_type=attachment&name=mobile_large] 我和Shadow的首先达成的共识是,在AI时代我们必须要抛弃掉传统的思维方式。 在传统的软件和互联网产品开发过程中,从需求收集到产品发布通常需要经历多个步骤,包括需求分析、文档撰写、评审会议,以及最终的开发迭代,这一系列过程往往耗时长达数周,然而,由于AI技术快速迭代,这种模式很难跟上技术进步的步伐。 我们更提倡“Just do it”——有好的想法,那就先做了再说。我们直接从社区收集到好的创意就可以开始动手做开发,不需要给领导写报告,不需要撰写需求文档,更不需要走评审流程,做好后交给社群中的小伙伴们测试反馈。只有这样我们才能打造出更酷的节点。 另外,通过使用GPT,可以把开发的时间极限压缩。例如,我们在GPT的帮助下,只花了1到2天内完成录屏工作流的开发和上线,这放在传统企业,起码两周才能搞定。 录屏的需求的灵感来源于我们自己的创作视角的切换,我和Shadow都曾做过设计师,我们都想把自己的草图让AI重新渲染,但是主要的创作工具都在PS等传统软件上 ,因此想了个录屏功能,然后再考虑如何通过技术手段来实现。最后,我们发现录屏节点搭配LCM模型可以快速将草图变成精美的图片,这个功能出了以后,社区里面创作者也反馈非常积极,得到了很好的验证,也给我们带来了极大的成就感。 “Just Do It”模式并不完美。随着MixLab Node功能的不断丰富,产品逐渐变得庞大,这引发了关于用户认知清晰度的担忧。Shadow建议是先集中实现功能,然后再考虑精简和优化。我们最终的期望是提供更完整的软件产品体验,而不仅仅是单一功能的模块。 虽然初期采取“Just do IT”的策略有其必要性,但随着时间的推进,我们也会考虑如何降低用户的学习门槛。因此,在接下来的发展方向上,将包括开发教程和案例,帮助用户更好地理解和利用MixLab Node,同时也探索新的商业模式以确保项目的可持续性。 # AI赋能个人成长 在开发MixLab Node过程中,ChatGPT和GPT-4在提升开发效率中起到了关键作用。 我以前做过前端开发,熟悉Javascript,但是对于Python一直都是一知半解。从前要掌握新的技术领域,我通常需要购买在线课程或书籍,先自学清楚然后才能动手实践。但是今天,我们只要向AI提出功能描述,它就能生成代码。通过持续地调试和优化,我们就可以实现所需要的功能。这种方法极大地缩短了学习与开发周期,仅仅三年前,这样的场景还是难以想象的。 通过与AI工具的协作,即使是非专业程序员也能拓展自己的技术领域,提高对新技术的适应能力和问题的解决能力。 在未来,真正能够称之为“精英”的,将是那些具备鲁棒性和深刻业务理解的人。 鲁棒性也是称之为说泛化能力,是指你不会将自己限定在特定的岗位角色中。通过有效利用AI,你可以跨领域地解决问题。 此外,深刻业务理解能力也依然重要,这样你才能识别并聚焦于有价值的真问题。这样全面的技能和视野,将使你在AI时代中突破重围,不仅仅是完成别人给你的任务,而是成为解决关键问题的关键人物。 # 成为AI产品经理 [http://imagev2.xmcdn.com/storages/b706-audiofreehighqps/A9/F9/GMCoOR4J6ajWABWgpgLDg7y5.png!op_type=4&device_type=ios&upload_type=attachment&name=mobile_large][http://imagev2.xmcdn.com/storages/0962-audiofreehighqps/BF/35/GMCoOSQJ6ajXABWgpgLDg71T.png!op_type=4&device_type=ios&upload_type=attachment&name=mobile_large] 首先,无论是哪个领域的产品经理,基本功是必不可少的。这包括但不限于对需求的深刻分析与洞察、对用户和产品的深入理解。这些技能对所有产品经理来说都是共通的。当然,AI领域的特殊性在于,你需要对底层的技术手段有所了解,了解它们的潜力和限制。 其次,运用AI能力不能异想天开。许多人有过高的期待,认为AI可以做到任何事,但实际上它的能力是有限的。我们需要理解这一点,并能基于此制定合理的产品策略,是AI产品经理的重要技能之一。 因此 ,产品经理需要掌握目前流行的AI工具和“提示工程(Prompt Engineering)”。因为在AI的世界里,你需要知道如何与AI进行有效地交流,才能扮演好“用户与AI之间的桥梁”。更重要的是,当AI的回答不尽如人意时,需要知道如何调整你的产品方案,让它能获得更好的结果。这背后的逻辑和优化技巧,是很多传统产品经理所缺乏的。 然后,培养自己的对社群的感知能力。AI产品的开发和迭代,往往需要用户的直接参与和反馈,需要建立和维护一个活跃的创作者社群。只有更接近用户,更好地理解他们的需求和期望,从而共同创造出更符合用户需求的产品。 AI产品经理不仅要有坚实的基本功,还要懂得如何与AI合作,如何与用户合作,搭建AI与用户的桥梁。我相信,只要你愿意不断学习、实践并保持开放的心态,你一定能在AI时代的产品管理领域中找到属于自己的位置。 # 尾声 在这个迅速变化的时代,开放的创新文化和社区的集体智慧将成为推动技术前进和个人发展的核心力量。这不单单局限于开源AI工具或社区的构建,而是关于在AI的浪潮中我们如何持续创新、适应变革,并推动个人的成长。 我们不仅需要重新审视传统的开发模式、学习方法和工作理念,还思考如何作为个体和社区共同前进。这对于任何在快速演进的世界中寻找自己定位的人来说都是深刻的思考题。 我们不仅只是学会适应,还需要积极参与到变革过程中。我们既是技术进步的贡献者,也是个人及社区繁荣发展的推动者。 欢迎加入“ComfyUI中文爱好者社区”! [http://imagev2.xmcdn.com/storages/d543-audiofreehighqps/78/5F/GMCoOSIJ6ak0AABB_gLDg_n7.png!op_type=4&device_type=ios&upload_type=attachment&name=mobile_large]

最近越来越多人在问类似的问题,AI都那么厉害了,还需要学编程吗?计算机专业依然吃香吗?特别是昨天很多人看到了Devin AI,更是产生了一种“是不是程序员要失业了?”的疑问。 # AI 程序员能做什么? 就在前几天,仅仅成立两个月的公司Cognition发布了一款Devin AI 的产品。它被宣传为史上第一款AI程序员。在演示中,Devin AI拥有自己的命令行、代码编辑器和浏览器等工具,可以自己制定计划、执行任务和解决问题,它可以独立完成整个软件的开发和构建的工作。 另外,根据官方宣传,Devin甚至拥有“成长”的能力,它可以通过阅读文章,学习原先不懂的技术,还会自主寻找程序中的错误,并且进行修正。 从宣传来看,Devin要比之前Copilot类似的AI编程助手要更进一步,更像一个能够独立完成开发任务的程序员。这不仅代表着AI独立完成开发工作的可行性,也激发了公众对“AI是否能替代程序员”的讨论。 也有网友分析,其实Devin AI并没有想象中的那么厉害:首先,Devin的底层技术是基于GPT4,它的使用成本比普通程序员更高;其次,程序员的面试题并不难,ChatGPT也能胜任;还有就是执行的任务过于简单,和人类相比还是有较大差距。所以,人类程序员目前还是比较安全的。 虽然如此,但是随着大语言模型的性能越来越好,在可预见的未来,AI程序员必然将软件开发过程中起到关键性的作用。 # 有了AI还需要学编程吗? 会不会现在学了编程,以后就没用了? 我想这个问题可以类比为“有翻译软件了还需要学英语吗?”我相信很多人回答是:学习英语依然重要。 诚然,英语已经成为许多人综合素质的一部分了。翻译软件不能百分百解决我们的需求。例如,要查询最新最全的论文和资料,懂英语可以让我们无损获得原本的信息,而翻译软件只是方便我们快速的浏览和过滤信息的工具。另外,学习英语不仅仅是学习语言,也是学习一种文化和思维方式。这样我们才能更好地与世界接轨。同样的逻辑也适用于AI和编程。 首先,编程只是软件开发的一部分,编程是打开计算机世界的一把钥匙,计算机科学的复杂性远远超出了编程本身。它包括系统架构设计、网络安全、需求分析、用户体验和项目管理等诸多方面。这些综合性的知识和技能,才是软件创新基础。即使AI能够自动化编程任务,也需要人类来解决更复杂的问题,需要人类保持对行业趋势的敏锐洞察,他们需要理解业务需求,与非技术背景的团队成员进行有效沟通,确保技术解决方案能够满足业务目标。 另外,编程不仅仅是写代码,它是解决问题的一种方式,也是一种思维训练。学习编程能够帮助人们培养逻辑思维、系统思维、创新思维以及动手解决能力。这些能力在AI时代尤为重要,不仅限于技术领域,同样适用于生活的各个方面。随着技术的不断进步,新的工具和平台层出不穷,个人需要能够适应这些变化,还要能在变化中找到创新的机会。这种适应力和创新力对于个人发展、职业生涯乃至企业的竞争力都是宝贵的资产。 除此之外,编程并不是计算机学科的专利,它也是一种跨学科学习工具。在尝试解决来自不同领域的复杂问题时,编程能够通过数据分析、可视化、机器视觉和仿真模拟等技术手段,帮助整合和应用多学科知识,从而促进创新解决方案的产生。这种跨学科的视角不仅拓宽了我们的思维,也为AI程序员的任务分配提供了更加清晰的指导。让我们能够从更综合的视角理解和应用技术,进而更有效地推进项目和研究工作的进展。 其实,AI本身还有很多需要迭代的地方。例如,AI科研论文、设计AI算法、提升AI性能、定制AI模型以及AI伦理安全方面,人类依然扮演着无可替代的角色。换句话说,正是因为AI的发展,为计算机专业人才创造了更多的挑战和机会。对于准备想实现自己的想法人来说,现在是学习编程的最好时机,学习编程可以更好地应用AI的能力,帮助我们实现很多的创意和想法。 因此,面对“有了AI还需要学编程吗?”这个问题,我的回答是:绝对需要。 # 讲讲我的经历 我大学是学工业设计的,算理工科中的文科专业。原本编程这件事情对我来说是一件很有畏惧感的事情,大学仅有一门C语言差点挂科。但由于我对于互联网一直感兴趣,还有自己做产品的冲动,所以我临近毕业的时候,去学习了编程和软件工程相关知识。而之后又做了程序员、产品经理还有创业者,一路走来,有挫折也有收获。 过去,我经常刻意隐瞒自己做开发的经历,生怕别人认为我的职业定位不够专注。但是多年以后发现能帮助到我的恰恰是跨学科能力。 如果今天你是一位想自主创业的产品经理,究竟学过编程和不会编程的人在做产品方面到底有什么区别? 首先,学过技术的产品经理在理解技术层面的细节上有明显优势。能更好地与研发团队沟通,能更精确地传达需求,能更好地理解团队面临的挑战,并在技术可行性和资源分配方面做出更合理的决策。这种深入的理解有助于建立团队成员间的信任和尊重,从而促进团队合作和项目的顺利进行。在这些年里,我和大部分开发同事之间都维持着不错的关系,因为团队合作没有什么比理解更重要了。 其次,具备编程背景的产品经理在设计产品时,能更好地考虑到实现的复杂性和成本,会更重视需求价值,可以更好地制定MVP(最小化可行性产品)策略。特别在产品的早期规划阶段,你就能预见到某些功能的实现可能会遇到的技术障碍,不会把产品功能设计得过于复杂或者理想化,从而在设计上做出更加现实和经济的选择。让产品赢得了低成本地快速验证市场的时间。这种前瞻性不仅能够节省开发时间和成本,还能避免在项目后期进行大幅度的修改,提高了产品开发的效率和成功率。 再者,了解技术原理,也能够让我们更好地把控产品体验。会去主动思考影响产品体验的技术指标,不会想当然地做一些脱离实际场景的理想化的功能。通过能够更好地评估不同设计方案的技术实现难度,能在设计和功能性之间找到最佳平衡点。这样的产品经理能够推动设计和技术团队更紧密地协同工作,共同创造出既美观又高效的产品。 此外,编程经验还赋予了产品经理对新兴技术的敏感度和适应能力。AI时代,新技术层出不穷,具备技术背景的产品经理拥有较强的技术的敏锐度,能够更快地理解这些新技术如何被应用到产品中,以及它们对市场和用户体验可能带来的改变。例如,我经常会去Github上查看一些有趣的开源项目,学习一些新的技术课程,也会思考如何把它们应用到自己的项目和工作中。这种能力使得产品经理能够领导团队走在技术发展的前沿,创造出创新和有竞争力的产品。 最后,通过学习编程,我还获得了一系列强大的思维工具,包括面向对象的编程思想、设计模式、以及统一建模语言(UML)等。这些工具提升了我的逻辑思维和系统思考能力,教会了我如何将复杂问题逐步分解成可管理的小任务,帮助我们对问题进行抽象和建模,让我更好地理解事物的运转模式,从而找到机会点。这在产品规划、市场分析还是项目管理中,都极大地帮助了我。 步入生成式AI时代,大语言模型已经成了我不可或缺的助手。以往有很多灵光一现的创意,因为我的技术视野的限制而无法实现,它们最终只能沉睡在我的思绪中,逐渐被遗忘。但如今,我的一些突发奇想的灵感交给了GPT之后,它能很快地生成代码。虽然代码可能充满了错误,但GPT帮我快速拓展了技术视野,引导我去深入研究,并让我能对代码进行细致优化。例如,我在ComfyUI的Mixlab-Node的开源项目的开发过程中,有很多想法的实现就是通过与GPT协作来完成。 因此,作为一名独立开发者或产品经理,我们应当把AI程序员视作一位协作伙伴。正是因为有了它的帮助,让我们可以在实现更有趣的功能的同时,节省下更多时间,让我们可以用来考虑赚钱的事情。 # 总结 当我们面对Devin这样的AI程序员的时候,我们并不要为程序员岗位感到过于的担忧。编程将会变成像外语一样的普遍性能力,人类通过学习编程,我们可以更好地发挥机器的能力。 在AI的帮助下,越来越多的普通人可以实现自己的创意和想法,成为自己事业的掌舵人。在AI时代,必然是超级个体崛起的时代。 在传统企业管理中,员工们扮演的是流水线上的零件。但是在这个AI变革的新时代,我们不应当把自己角色局限在某个零部件上,拥有灵活的思维、开阔的视野和敏锐的洞察力显得更为重要。 只要我们把握好时代趋势,技多并不会压身。请快行动起来吧! ---------------------------------------- 欢迎加入ComfyUI中文爱好者社区,ComfyUI是一套灵活的AIGC工作流搭建工具。目前我们集结了一群跨界的设计师、程序员 产品经理和创业者。我们正在探寻AI的生成技术在各行各业的解决方案,每日社群里面都会有高质量的讨论。 [http://imagev2.xmcdn.com/storages/ca2c-audiofreehighqps/85/C1/GMCoOSYJ0YfmAAEv4wK62Wrm.jpg!op_type=4&device_type=ios&upload_type=attachment&name=mobile_large]

窜台参与麦田老师的播客录制, 欢迎大家订阅她的播客专辑《麦田的职场圆桌会议》 AI能成为你的小情人吗? AI如何感知我们的情绪? 科技飞速发展下,我们如何抓住机遇,而不被AI? ---------------------------------------- 本期播客带你深入探讨AI时代,我们该如何勇敢面对挑战,拥抱变革,用知识赋能自己的人生旅程!跟我一起思考,变得不可替代! 【本期嘉宾】 郝俊慧: 《IT时报》主编 资深媒体人 在科技报道领域深耕近20年,长期关注互联网、信息通信、人工智能等前沿科技。《IT时报》是中国最早的通信类媒体之一,前身为《上海邮电报》,具有近60年的产业传播历史。 鑫声心生 :化学博士,双一流大学材料学科博士生导师,喜马拉雅播客智库成员,在职业规划,前沿科技方面著有多部学术著作,喜马拉雅《七点早知道》、《消息拌饭》等栏目担任特约嘉宾。 曾主持多项国家与省部级科研项目,在国际高水平期刊发表论文50余篇,授权国家发明专利5项,受邀在国际学术会议作报告10余次,担任碳中和领域知名期刊Carbon Capture Science & Technology(碳捕集科学与技术)创刊编委。生物质产业碳中和技术联盟东北区负责人,国际碳捕集协会(IACC)执委。 PM熊叔:产品经理/设计师/程序员,研究方向是AI创作工具和创作社区Mixlab无界社区和ComfyUI爱好者社区发起人 02:01 AI的快速发展:挑战与机遇并存,我们应该怎么办? 04:04 AI监管与安全性:全球共识的挑战与前景展望 06:05 人工智能带来的变革:找到共识的挑战与前景展望 09:03 人工智能工具的崛起对影视制作行业的影响及未来职业变革 12:05 AI时代的创意表达:掌握AI技能,成为多功能手的可能性 15:10 人工智能时代的个人成长:如何提升效率与竞争力? 18:09 培养孩子独立思考能力:保持想象力与逻辑分析能力的平衡 21:13 培养孩子立体人格:中学阶段学习的重要性与魅力 24:15 通用能力与专业能力:职场中的人才选拔与培养 27:18 培养孩子自主学习的能力:AI时代的关键竞争力 30:20 拓展认知,提升独立判断能力,迎接人工智能时代挑战 33:22 勇敢拥抱人工智能,迎接时代的变革!