什么是设计思考?
创新不是无中生有,「设计思考」是透过从人的需求出发,创造更多的可能性。
在数位化、供过于求的时代,创新最大的盲点就是失对象感、无法釐清优先顺序
聚焦使用者 X 有流程意识 X 在正确的脉络运用工具
是在复杂环境中有效创新的成功关键! 翻转产品优先的惯性,从聚焦使用者需求启动创新;
建立清楚的流程意识,梳理跨部门多方协作与持续叠代;
用图像釐清复杂系统问题,融合用途理论、精实创业、敏捷开发、
换位思考、钩瘾画布,一本学会在适当流程运用专家级工具共创!
用先进技术开发的产品,为什么市场反应冷淡?
跨部门专案各方需求复杂像无底洞,层层关卡该如何推进创新?
产品概念要如何连结、扩大,能够放上平台、融入生态系?
创新重镇史丹佛大学有堂传奇课程ME310,NASA、Apple、3M、SAP等全球超过45家一流机构都带着问题上门求教。ME310就是掌握新世代创新流程密码的设计思考发源地,本书作者赖利・莱佛是课程总监,也是设计思考的共同创始人。
在这本书中,莱佛:
说明设计思考的概念与流程
融入各产业专家的实作经验
结合用途理论、商业模式画布、精实创业等创新思维广被使用的工具
读者在设计思考的各个环节都可以学习导入适当的创新工具,并且强调图像思考,更容易与团队讨论、形成共识、跟组织沟通。
你可以快速学到:
‧改变心智模式:从产品、技术先行,改变为聚焦使用者,了解现实的复杂性。
‧深掘使用者的需求:用换位思考地图、5W1H六何问题、AEIOU法、用途理论等,挖出使用者的真正需求。
‧养成流程敏锐度:掌握设计思考的7个流程,即使卡关、挣扎也有清楚的概念知道如何发散与收敛。
‧视觉化与演示:运用故事、视觉化媒材与简单的语言,与团队分享自己的发现,让大家都可以在同样的进度上协作共创。
‧实验与叠代:透过叠代法反覆建构、测试原型,从使用者所身处的框架理解、学习并解决问题。
‧建立系统思考:真实环境的问题多是复杂、多面向、动态与非线性的,看清系统的边界关联,打开视角,找到更好的解决方案。
唯一一本可以让你搞懂设计思考及如何运用的最强攻略书! 不论你是加入创新专案的新手、带领数位转型的经理人还是准备开发服务的创新者,这本书都能够帮助你全方位了解的设计思考──看清盲点、找到工具、协作共创。
名人推荐 华硕董事长 施崇棠
奇想创造董事长 谢荣雅
台湾科技大学设计系教授、设计与思考研究室总监 唐玄辉
政治大学数位内容学程副教授 陈宜秀
悠识首席体验架构师 蔡明哲
联名推荐
「本书透过大量的实作历程与表格工具,解释设计思考的不同阶段,描述如何改造组织让设计思考可以扎根于公司的环境之中,最后透过商业生态系统思维,协助我们运用设计思考,面向未来数位世界与人工智能的挑战。」──台湾科技大学设计系教授、设计与思考研究室总监 唐玄辉
「本书就设计思考在组织中的意义进行了广泛的讨论,为设计思考提供了一个更开阔的视野,这是其他的书籍中所缺乏的。很高兴看到一本切近社会以及专业者需求的设计思考书,希望读者能感受到同样的鼓舞及启发。」──政治大学数位内容学程副教授 陈宜秀
「本书的作者群、结构和内容都让本书值得一读……本书的呈现方式尽管轻松活泼,本书团队却成功地完成了一本深度惊人之作。」──《哈佛商业经理人》(Harvard Business Manager)
「混合模型即设计思维和数据分析的结合,再借由经验产生各具特色与强项的创新。特别是在数位转型时期,这是所有商务人士最新的成功必须能力。」──施华洛世奇的创新网络总监 汉内斯‧埃勒(Hannes Erler)
「这本书超出我的预期,带给我前所未有的洞见,它确实帮助我从全新角度,反思如何使用设计思维的使用,并与我的团队共同执行。」──西门子瑞士股份公司欧洲首席执行官 史坦。莱瑟尼(Dr. Carsten Liesener)博士
「这本《设计思考全攻略》是一本实用指南,对于每天面对不断变化的客户行为,并提出创新解决方案的工作者,这是一本非常有帮助的书。」──苏黎世保险集团(瑞士)战略与业务发展主管 托马斯‧斯泰格(Thomas Steiger)
「安联每天致力于新的创新,并在许多初创企业的数位化和协作领域处于领先地位。设计思维手册为我们提供了反思的空间,逐步实现组织和构造改革的动力。」 ──安联(Allianz)亚洲创新实验室区域经理 罗马。布兰德利(Roman Braendli)
「每天我们都面临着新的挑战,这些挑战通常被归类为一个问题。设计思维不仅是战略发展的核心,而且有助于採用新的思维方式来突破目标。我深信,本书是支持数位转型的正确方法。」──瑞士微软首席人工智慧与数据分析专家 克雷迪奥‧米帝(Claudio Mirti)
「本书是我所见过设计思考的唯一最佳定义。」──基斯・多斯特(Kees Dorst),《框架创新》(Frame Innovation)
「本书不只勾勒、描述如何应用设计思考……它是一本充满想像力的新作品。」──奈杰・克洛斯(Nigel Cross),《设计思考:理解设计师的思维和工作法》(Design Thinking: Understanding how designers think and work)
好的,以下是一份针对一本假定的、与您提供的书名内容完全无关的图书的详细简介。这份简介将专注于一个不同的主题,并力求详尽和专业,避免任何AI痕迹。 图书简介:《深度学习模型优化与部署:从理论前沿到工业实战》 洞悉智能时代的底层逻辑,驾驭复杂模型的性能极限 在信息技术高速迭代的今天,深度学习已不再是实验室中的前沿概念,而是驱动金融、医疗、自动驾驶乃至内容生成的强大引擎。然而,将前沿的深度模型转化为稳定、高效、可扩展的工业级应用,却充满了技术鸿沟与挑战。许多企业和开发者常常在模型训练的高峰期后,面对部署时的性能瓶颈、高昂的计算成本以及模型迭代的复杂性而束手无策。 《深度学习模型优化与部署:从理论前沿到工业实战》正是在这一关键痛点上应运而生。本书并非停留在基础的模型构建层面,而是深入剖析了现代深度学习系统从“高精度”向“高性能、低延迟”平稳过渡的完整工程体系。它是一本面向资深工程师、算法架构师以及希望将研究成果落地到生产环境中的研究人员的实战指南。 第一部分:模型瘦身与效率革命——超越精度追求极限性能 本部分聚焦于如何系统性地优化模型结构本身,使其能在资源受限的环境中高效运行,同时最大限度地保持业务所需的精度。 1. 结构化剪枝与非结构化稀疏化精讲: 我们详尽解析了不同粒度的剪枝技术,包括权重剪枝、神经元剪枝和结构化通道剪枝的数学原理和实现细节。重点对比了L1/L2范数剪枝、敏感度分析剪枝以及基于梯度信息的动态剪枝策略。书中提供了针对Transformer架构(如BERT、GPT系列)的特定稀疏化方法,展示如何在不显著影响注意力机制性能的前提下,裁减冗余的自注意力头和前馈网络层。我们还将探讨如何设计支持稀疏矩阵运算的硬件加速方案。 2. 量化技术的全景扫描与实践落地: 量化是实现推理加速的核心手段。本书系统梳理了从训练后量化(PTQ)到量化感知训练(QAT)的完整谱系。我们不仅覆盖了主流的8位整数量化(INT8),更深入探讨了4位甚至更低精度的极限挑战,包括浮点到整型映射函数的选择(如Min-Max、Symmetric-Asymmetric)、零点(Zero Point)的精确计算与校准流程。特别地,书中包含了针对特定硬件平台(如NVIDIA Tensor Cores、特定移动端NPU)的量化策略差异化指南,确保模型在目标硬件上实现最大吞吐量。 3. 模型蒸馏的深度迁移策略: 模型蒸馏不再是简单的“大教小”过程。我们探讨了如何构建多任务、多层次的知识迁移框架。内容涵盖了 Logit-based 蒸馏、特征图对齐蒸馏(Feature Map Alignment)、以及针对生成模型(如GANs、Diffusion Models)的结构化蒸馏方法,例如如何指导生成器的中间特征分布以提高学生模型的鲁棒性。此外,还引入了“对抗性蒸馏”的概念,用以提高被蒸馏模型的泛化能力。 第二部分:推理引擎与异构计算加速 一个优化后的模型需要一个高效的“运行环境”。本部分将工程的焦点转向运行时优化,确保模型能够充分利用底层硬件资源。 1. 图优化与编译器技术深度解析: 我们将深入分析现代深度学习编译器(如TVM、XLA、ONNX Runtime)的工作原理。内容包括计算图的融合(Operator Fusion)、内存访问优化、内核自动调优(Auto-Tuning)以及循环不变量的提升。读者将学习如何利用这些工具链对自定义操作(Custom Ops)进行后端优化,实现跨平台、高性能的统一部署。 2. 内存布局与缓存效率管理: 模型推理速度往往受限于数据传输而非计算本身。本书详细对比了NCHW、NHWC、NCDHW等主流数据布局格式的优缺点,并指导读者根据特定算子(如卷积、矩阵乘法)和目标硬件的缓存结构,选择最优的内存排布策略。对于大型模型,我们引入了内存分块(Tiling)和流水线技术,以最小化片外内存(Off-Chip Memory)的访问延迟。 3. 异构计算资源的高效调度: 现代部署环境常常混合使用CPU、GPU、FPGA或专用ASIC。书中提供了资源管理策略,包括如何使用CUDA Stream、OpenMP或TBB实现CPU与GPU的异步并行;如何设计模型拆分策略,将计算负载合理分配到异构设备上,实现低延迟端到端推理。 第三部分:生产环境的健壮性与可维护性 将模型部署到生产环境是一个持续集成的过程。本部分关注模型服务化、监控和版本管理。 1. 高性能模型服务框架实战: 本书详细对比了TensorFlow Serving、TorchServe以及基于Triton Inference Server的部署实践。我们将侧重于如何利用这些框架实现批处理(Dynamic Batching)、请求优先级调度以及模型加载与卸载的零停机(Zero Downtime)策略。特别地,针对服务延迟敏感的应用,我们提供了基于gRPC和高性能序列化的通信优化方案。 2. 可解释性(XAI)与模型漂移监控: 生产环境中的模型需要可信赖。我们探讨了将LIME、SHAP等解释性工具集成到推理流程中的方法,以及如何量化解释结果。更重要的是,书中介绍了模型漂移(Model Drift)的自动检测机制,包括数据分布漂移和概念漂移的统计指标(如KS检验、PSI),并建立了自动化触发模型重训练和灰度发布的反馈回路。 3. 模型版本控制与合规性: 对于金融、医疗等强监管行业,模型版本管理至关重要。我们将介绍MLOps流水线中如何利用Artifact Store管理模型权重、配置文件和依赖环境,确保模型的可追溯性和可复现性,满足审计要求。 目标读者: 深度学习算法工程师(资深/高级) 机器学习系统架构师 希望深入底层优化技术的算法研究人员 负责AI基础设施建设的DevOps/MLOps工程师 本书汇聚了数十个工业级项目的实战经验,其提供的不是概念性的介绍,而是可以直接应用于提升模型性能、降低运营成本的具体工程蓝图和代码级指导。掌握本书内容,意味着您将能够自信地将任何前沿的AI研究成果,转化为稳定、高效、可盈利的商业系统。