行動裝置上的AI:使用TensorFlow on iOS Android及樹莓派

行動裝置上的AI:使用TensorFlow on iOS Android及樹莓派 pdf epub mobi txt 電子書 下載 2025

王眾磊
圖書標籤:
  • AI
  • TensorFlow
  • iOS
  • Android
  • 樹莓派
  • 移動設備
  • 機器學習
  • 深度學習
  • 開發
  • 編程
  • 嵌入式係統
想要找書就要到 小特書站
立刻按 ctrl+D收藏本頁
你會得到大驚喜!!

具體描述

  ◎ 用電腦玩AI不稀奇,在行動裝置上執行纔夠力
  ◎ 最新行動端的AI架構,包括NNAPI、CoreML
  ◎ 在Android、 iOS及樹莓派上開發視覺及語音AI應用程式
  ◎ 使用TensorFlow Serving+TPU訓練及最佳化模型
  ◎ TensorFlow Mobile執行影像分類、物體偵測、時尚、聲音識別
  ◎ TensorFlow Lite+GPU的使用,還有ML Kit
 
  作為TensorFlow的開發者和使用者,作者完整地講解使用TensorFlow進行端到端開發的實例和開發技巧,同時分享如何使用開源工具進行軟體發展的工程實作和經驗。本書提供全方位的視角説明為讀者開啟不同的思路,即使作為一本軟體發展和工程開發的書籍閱讀,也會使讀者受益匪淺。
 
  全書大綱如下
  ►機器學習和TensorFlow 簡述
  ►建置開發環境
  ►以行動端為基礎的機器學習的開發方式和流程
  ►建置TensorFlow Mobile
  ►用TensorFlow Mobile 建置機器學習應用
  ► TensorFlow Lite 的架構
  ►用TensorFlow Lite 建置機器學習應用
  ►行動端的機器學習開發
  ►TensorFlow 的硬體加速
  ►機器學習應用架構
  ►以行動裝置為基礎的機器學習的未來
  
  適閤讀者群:機器學習初學者、對機器學習感興趣者,或大專院校相關科係學生。
 
本書特色
 
  ◎ TensorFlow開發者之一的傾力著作,最佳工程實作 
  ◎ 全麵、深入、實例多,一本掌握Google 深度學習框架
  ◎ TensorFlow行動端開發及端到端應用開發的實戰寶典
深入探索嵌入式與邊緣AI的實戰指南 書籍名稱: 移動設備上的智能:構建與部署跨平颱AI應用 目標讀者: 軟件工程師、移動應用開發者、嵌入式係統愛好者、數據科學傢,以及任何希望將先進的機器學習模型集成到資源受限設備上的專業人士。 本書定位: 本書旨在提供一個全麵且深入的框架,引導讀者掌握如何在移動(iOS/Android)和邊緣計算設備(如樹莓派)上高效地設計、訓練、優化和部署復雜的深度學習模型。我們專注於實際操作中的挑戰與解決方案,確保理論知識能夠轉化為可運行、高性能的終端産品。 --- 第一部分:基礎構建塊與生態係統概覽 第一章:邊緣智能的崛起與挑戰 本章首先界定“邊緣AI”的範疇,解釋為何將計算推嚮設備端是未來趨勢,尤其是在數據隱私、實時性、網絡依賴性方麵的優勢。隨後,深入剖析在資源受限環境中部署模型的固有挑戰:計算能力限製、內存約束、功耗管理以及跨硬件平颱的兼容性問題。我們將對當前主流的硬件加速器(如移動GPU、NPU、專用協處理器)進行技術概述,為後續的優化打下基礎。 第二章:模型準備與跨平颱兼容性策略 在將模型部署到移動或嵌入式係統之前,必須對模型進行“輕量化”處理。本章詳細介紹瞭模型壓縮的多種核心技術: 量化(Quantization): 從浮點型到定點型的轉換,包括後訓練量化(Post-Training Quantization, PTQ)和量化感知訓練(Quantization-Aware Training, QAT)的詳細流程和優劣分析。 模型剪枝(Pruning): 結構化與非結構化剪枝對模型性能和稀疏化程度的影響。 知識蒸餾(Knowledge Distillation): 如何利用大型“教師”模型來指導小型“學生”模型的訓練,以最小的性能損失保留大部分能力。 我們將探討如何選擇閤適的框架進行初步訓練(如PyTorch/TensorFlow/JAX),並確保模型結構對後續的移動端轉換友好。 第三章:中間錶示與模型轉換流水綫 為瞭實現真正的跨平颱部署,我們需要一個通用的中間錶示(Intermediate Representation, IR)。本章將聚焦於如何將訓練好的模型(例如Keras或PyTorch模型)轉換為優化後的IR格式。重點介紹並對比當前行業內主要的IR格式和轉換工具鏈: ONNX (Open Neural Network Exchange): 為什麼ONNX成為瞭連接不同訓練框架與推理引擎的橋梁。如何使用官方工具進行格式驗證與轉換。 特定推理引擎格式: 如TensorFlow Lite的`.tflite`格式,以及專為特定硬件優化的自定義IR。 本章提供瞭一整套從訓練到IR輸齣的自動化腳本示例,確保模型在不同目標平颱上具有一緻的行為。 --- 第二部分:移動平颱深度優化與部署(iOS/Android) 第四章:iOS生態係統下的核心推理框架 本章完全聚焦於Apple生態係統。我們將深入講解Apple提供的核心機器學習基礎設施: Core ML: 深入解析Core ML的工作原理,包括其如何與Apple的Neural Engine(神經引擎)高效交互。 模型轉換工具鏈: 使用`coremltools`將標準的訓練框架模型(如PyTorch/TensorFlow)精確轉換為`.mlmodel`格式的步驟。重點關注如何處理自定義層和輸入輸齣格式的匹配。 Swift/Objective-C集成: 使用Vision框架進行圖像處理和Core ML進行推理的實際代碼示例。涵蓋異步處理、性能監控和能耗分析的最佳實踐。 第五章:Android平颱的推理引擎與兼容性 本章側重於Android係統的部署策略,考慮到Android設備硬件碎片化帶來的挑戰。 TensorFlow Lite (TFLite) 深度剖析: 講解TFLite的運行時架構,如何利用其內置的解釋器和操作符集。 硬件加速器集成: 如何通過TFLite的代理(Delegates)機製,自動或手動地選擇並激活GPU(OpenGL/Vulkan)、DSP或NPU進行加速。我們將詳細演示如何實現Android Neural Networks API (NNAPI) 集成,以及針對高通、三星等特定芯片的優化策略。 構建原生Android應用: 使用Java/Kotlin集成TFLite庫,處理數據預處理(如圖像到張量轉換)和後處理的性能瓶頸。 第六章:移動部署的高級性能調優 本章是關於實戰性能提升的關鍵。我們將探討如何超越基礎的量化和加速器選擇,實現極緻的移動端性能: 內存管理策略: 如何在有限內存下高效加載和卸載大型模型,避免OOM錯誤。 綫程與並發: 在移動應用中安全地執行推理的並發模型設計,避免UI綫程阻塞。 基準測試與性能歸因: 使用平颱原生工具(如Android Profiler或Xcode Instruments)來精確測量CPU、GPU和內存的使用情況,定位推理延遲的真正來源。 --- 第三部分:嵌入式係統與邊緣計算實踐(樹莓派) 第七章:為樹莓派構建高效的AI環境 樹莓派作為典型的邊緣計算平颱,具有獨特的CPU架構和有限的內存池。本章專注於為樹莓派(特彆是搭載ARM架構的型號)優化部署: 操作係統與編譯: 選擇閤適的Linux發行版(如Raspberry Pi OS),並理解交叉編譯(Cross-Compilation)對於優化二進製大小和速度的重要性。 針對ARM架構的優化: 深入介紹如何利用NEON指令集優化矩陣運算,並確保推理庫(如OpenCV或輕量級TensorFlow構建)是針對ARMv8/v7架構進行編譯的。 第八章:樹莓派上的推理引擎選型與部署 本章對比瞭在樹莓派上部署模型的主流工具,並提供實操指導: TensorFlow Lite on ARM: 講解如何構建並運行針對樹莓派優化的TFLite運行時。 OpenVINO for Raspberry Pi: 探索英特爾OpenVINO工具包在ARM設備上的應用,特彆是當連接瞭Intel Movidius或其他兼容的加速棒時,如何實現異構計算加速。 PyTorch Mobile的替代方案: 在資源極其受限的環境下,如何使用TorchScript和更底層的C++推理引擎進行部署,以獲得更精細的控製。 第九章:多模態數據流與邊緣決策 在樹莓派上,AI通常需要處理來自攝像頭、麥剋風或傳感器的數據。本章關注端到端的數據流管理: 實時視頻流處理管道: 使用GStreamer或Picamera API高效地將視頻幀輸入到模型中,避免數據拷貝的開銷。 事件驅動與低功耗推理: 設計模型推理的觸發機製,確保設備在非活動狀態下保持極低的功耗。例如,僅在檢測到運動或聲音變化時纔激活高功耗的深度學習推理。 模型熱更新與遠程管理: 探討如何在不物理接觸設備的情況下,安全地部署模型更新和應用程序補丁。 --- 附錄 常見模型在不同設備上的性能對比基準測試數據。 常用工具鏈(如Bazel, CMake)在邊緣部署中的配置指南。 故障排除:移動端和嵌入式設備上推理失敗的常見原因及調試技巧。

著者信息

作者簡介
 
王眾磊
 
  TensorFlow的開發者之一,現定居美國矽榖,長期從事軟體發展工作,常在國際上發錶論文並有多項國際專利。曾在Google等多傢大型國際公司及初創企業工作,有豐富的中國、國際開發及管理經驗。
 
  近幾年以行動端開發、邊緣運算、雲端運算和機器學習為主,從事開發和管理工作。工作之餘喜歡和傢人一起去各地旅遊、打高爾夫球、滑雪等。
 
陳海波
 
  深蘭科技DeepBlue Technology創始人,南京工業大學特聘教授,清華大學—深蘭科技機器視覺聯閤研究中心管理委員會主任;上海交通大學—深蘭科技人工智慧聯閤實驗室管理委員會主任、中南大學—深蘭科技人工智慧聯閤研究院專傢委員會委員。
 
  緻力於人工智慧的基礎研究和應用開發,創建的深蘭科學院擁有人工智慧研究院、科學計算研究院、生命及AI腦科學院、自動化研究院和智慧汽車研究院。團隊擁有包括CVPR、PAKDD、IEEEISI等多項國際競賽冠軍成績,在自動駕駛和整車、機器人研發及製造、生物科技、自然語言處理(語義智慧)、資料採擷等領域都有深度佈局。

圖書目錄

前言

01 機器學習和TensorFlow 簡述
1.1 機器學習和TensorFlow 的歷史及發展現狀
1.2 在行動裝置上執行機器學習的應用
1.3 機器學習架構

02 建置開發環境
2.1 開發主機和裝置的選擇
2.2 在網路代理環境下開發
2.3 整閤式開發環境IDE
2.4 建置工具Bazel 
2.5 載入TensorFlow 
2.6 文件

03 以行動端為基礎的機器學習的開發方式和流程
3.1 開發方式和流程簡介
3.2 使用TPU 進行訓練
3.3 裝置端進行機器學習訓練
3.4 使用TensorFlow Serving 最佳化TensorFlow 模型
3.5 TensorFlow 擴充(Extended)

04 建置TensorFlow Mobile
4.1 TensorFlow Mobile 的歷史
4.2 TensorFlow 程式結構 
4.3 建置及執行

05 用TensorFlow Mobile 建置機器學習應用
5.1 準備工作 
5.2 影像分類(Image Classification)
5.3 物體檢測(Object Detection)
5.4 時尚繪製(Stylization)
5.5 聲音識別(Speech Recognization)
 
06 TensorFlow Lite 的架構
6.1 模型格式
6.2 底層結構和設計 
6.3 工具 

07 用TensorFlow Lite 建置機器學習應用
7.1 模型設計
7.2 開發應用
7.3 TensorFlow Lite 的應用
7.4 TensorFlow Lite 使用GPU 
7.5 訓練模型 

08 行動端的機器學習開發
8.1 其他裝置的支援 
8.2 設計和最佳化模型
8.3 設計機器學習應用程式要點

09 TensorFlow 的硬體加速
9.1 神經網路介麵
9.2 硬體加速 

10 機器學習應用架構
10.1 ML Kit
10.2 聯閤學習(Federated Learning)
11 以行動裝置為基礎的機器學習的未來
11.1 TensorFlow 2.0 和路線圖
11.2 人工智慧的發展方嚮

圖書序言

  • ISBN:9789865501310
  • 規格:平裝 / 336頁 / 17 x 23 x 1.7 cm / 普通級 / 單色印刷 / 初版
  • 齣版地:颱灣

圖書試讀

前言
 
  2018 年,我有很長一段時間在中國和美國兩地跑,同時在中國大陸工作和生活瞭比較長的一段時間,這是我近二十年來第一次和中國大陸的開發者一起長時間工作。在享受各種美食之外,對中國大陸的開發、產品和管理有瞭全新的瞭解和認識。
 
  說起寫書的緣由,我本來的想法隻是寫一點可以作為工程師教育訓練教材的東西。2018 年初,TensorFlow 作為一個技術熱點,逐漸普及到機器學習應用程式開發的各方麵,但是對於TensorFlow 在行動端的開發和應用還處於初始階段。我當時也剛剛結束一個TensorFlow 專案,想把這些經驗和想法沉澱一下。於是我就把以前寫的筆記和記錄檔重新整理,增加一些內容並修改瞭文字,基本形成瞭一個原始版本。
  
  後來,遇到博文視點的南海寶編輯,透過商談,齣版社欣然同意把這些資料整理齣書。我的筆記和記錄檔的內容很多和程式緊密相關,其中很多內容後來演變成瞭文件,我覺得這對初學者和有經驗的開發者都是一個很好的參考,至少可以提供另外一個角度,讓開發者多方麵瞭解TensorFlow。所以,我就開始寫作,前後花費瞭近兩年的時間。
 
  我是一邊寫作一邊工作的,在這過程中很快就遇到瞭兩個很大的挑戰。
 
  第一是文字。我的筆記都是英文的,要把這些轉換成中文,我藉助瞭Google 翻譯,雖然翻譯後的文字有很多需要修改,但至少省下瞭不少打字的時間。另外,就是專有術語的翻譯,由於我對中文的專業術語不熟悉,所以即使簡單的術語也要斟酌確定,這也花費瞭一些時間。如果讀者在文字中發現一些奇怪的說法,還請見諒,我和編輯雖然盡瞭最大的努力,可能還是會有很多遺漏。
 
  第二是重新認識和瞭解瞭中國大陸開發的各方麵。我在美國和中國大陸的開發者也有不少接觸,我想在兩邊工作應該不會有什麼差別,可實際工作起來還是有很多不同和挑戰,感觸頗深。首先是技術層麵。開放原始碼的理念和軟體在中國大陸滲透到各方麵,幾乎所有網際網路公司都是從使用開放原始碼軟體開始架設自己的產品。由於Google 在開放原始碼社區的貢獻和影響力,中國大陸普遍對Google 的好感度很高,我也同享瞭這個榮耀。而且,很多公司和開發者也把對開放原始碼社區做齣貢獻看作責任和榮耀,這是一個很好的趨勢,中國很快會發展齣自己的開放原始碼生態和社區。
 
  關於開發環境和工程師文化,我想提一下兩邊對新員工教育訓練的區別。在中國大陸對新員工的教育訓練中,職業道德教育訓練和公司文化的教育訓練佔瞭很大一部分。而在矽榖,至少像Google、臉書這些公司,教育訓練中技術教育訓練佔瞭很大一部分,基本是一周的教育訓練後,員工就要進行實際的工作,而中國大陸很多公司的新員工第二周纔開始技術工作。這裡我能充分感受到中美公司之間的差別。
 
  另外是開發管理方法,由於管理方法的不同,實際的工作中要做對應的改變。例如中國大陸對開發和產品的進度的管理是非常嚴格的。但是,這種嚴格大都錶現在層級的匯報關係上,而非對技術細節的掌控和指導上。Google 的工程師會經常以程式的提交作為一個專案開始和結束的標示,這在中國大陸公司很少見到。
 
  我希望把這些經驗、想法和體會能或多或少錶現在這本書裡。舉例來說,使用Markdown 寫文件,能使寫文件變成一件不是很煩瑣的事,可以讓作者更專注於內容的寫作,而非花費太多時間在操作編輯器上。本書就是全部用Markdown 寫作完成,再轉換成Word 文件的。舉例來說,使用Bazel 編譯,需要對程式的依賴有清晰的定義。可能很多工程師不會特別在意這點,但是透過它,工程師可以非常清楚地瞭解程式重用和參考的狀況,避免隨意的程式重用,並加強程式的品質。我希望透過這些在書中給讀者傳達一些不同的開發經驗。
 
  總之,我會把這本書作為這一年工作和生活的紀念。看到書中的各個章節,我就可以聯想起寫書時發生的許多事。但是,真的由於時間和我自己的能力非常有限,書中一定會有很多錯誤和瑕疵,還望讀者能寬容和諒解。
 
  最後,要感謝我的傢人能支援和陪伴我度過2018 年,我和我的母親一起度過瞭2018 年春節,是近20 年來在中國大陸度過的第一個春節。還要感謝我的妻子,她非常支援我,並幫助我寫完這本書。還有我的兩個女兒,總是能給我帶來無盡的快樂,還要感謝深蘭科技的創始人陳海波先生和首席戰略官王博士,兩位幫助我完成這本書,並提齣瞭很多意見。
 
  另外,感謝博文視點給我這個機會齣版這本書,希望透過這本書能結識更多的開發者。還要感謝南海寶編輯在本撰寫作和齣版過程中給予的指導和鼓勵。

用戶評價

评分

這本書的書名聽起來就像是直接解決瞭業界痛點的「武功秘笈」。我身邊不少同事都試圖在iOS上用Swift或Android上用Kotlin寫齣客製化的機器學習模型介麵,但當涉及到需要跑複雜的捲積神經網路或Transformer架構時,性能瓶頸很快就齣現瞭,這時就得迴頭尋求TensorFlow這個成熟的生態係。但TensorFlow的包袱也重,如何輕量化並確保在不同作業係統版本間的穩定性,是個巨大的挑戰。我非常期待看到作者是如何梳理齣這條從研究到量產的「生產線」。如果書中能提供不同版本TensorFlow、TFLite之間的兼容性注意事項,以及在遇到疑難雜癥時的除錯思路,那這本書就已經超越瞭一般的教學手冊,晉升為「故障排除指南」。希望它能坦誠地揭露在實際部署中遇到的那些「坑」,這樣讀者在踩坑之前就能預先做好準備,這樣纔是真正負責任的技術書籍。

评分

這本書光看書名就覺得「哇,好硬核!」對於我們這些在第一線開發、常常需要趕火車或咖啡廳改Bug的工程師來說,能把這麼前沿的AI技術,尤其是TensorFlow這種大傢夥,塞進資源有限的行動裝置和樹莓派裡頭,這簡直是挑戰地錶最強韌性啊。我記得以前要在手機上跑個簡單的模型都要被效能摺磨到懷疑人生,各種優化、量化搞得焦頭爛額。這本書如果能提供一套紮實、可行的路線圖,從iOS的Core ML轉移,到Android的TensorFlow Lite部署策略,甚至連邊緣運算的小鋼炮樹莓派都能兼顧,那絕對是省下我們團隊幾百個工時的救命仙丹。我特別期待看到作者如何處理跨平颱時的資料格式轉換與模型壓縮技巧,畢竟打包上架前的那幾MB的差異,在App Store和Google Play的下載體驗上,那可是天壤之別。總之,光是這份企圖心和廣度,就值得我把這本書搬迴辦公室,放在手邊隨時翻閱,希望它不隻停留在理論介紹,而是真正能提供實作上能直接複製貼上的Code Snippet。

评分

從另一個角度來看,這本書的選題非常「有感」且「接地氣」。颱灣的硬體製造業和物聯網(IoT)產業鏈非常發達,我們常常在跟硬體廠溝通,需要將複雜的AI演算法部署到實際的邊緣設備上,而不是停留在雲端API調用。這本書正好填補瞭中間這一塊的知識鴻溝。我關注的點在於,它是否有深入探討在TensorFlow Lite或類似框架中,如何有效地管理記憶體和功耗。在行動裝置上,跑一個模型如果導緻手機發燙、掉電快,那這個應用就算功能再強大,最終還是會被用戶卸載。因此,我期待書中能有關於電池壽命、熱管理與AI模型運算之間權衡的討論,這纔是真正的產品級開發智慧。如果書中能提供一些針對特定硬體架構的效能調校祕訣,那就太棒瞭,這比單純的API教學要有深度多瞭。

评分

說真的,現在市麵上的AI書籍多如牛毛,但大部分不是停留在Python Notebook的玩具等級,要不就是隻談理論,一到實際嵌入式係統部署就打住,讓人讀完還是得自己土法煉鋼。我對這本的期待點在於它的「實戰感」。畢竟行動裝置的開發生態係變動之快,今天的最佳實踐可能下個月就被新的API或新的硬體加速給取代瞭。我希望這本書能深入探討在iOS和Android原生環境下,如何最大化利用手機內建的NPU或GPU資源。特別是TensorFlow的圖結構優化,在移動端上跑起來跟在伺服器上完全是兩迴事。如果作者能分享一些在資源受限的環境下,如何進行模型剪枝(Pruning)或權重量化(Quantization)的實際案例和效能對比數據,那這本書的價值就能立刻從「技術參考」升級到「效率工具箱」。颱灣的市場對效能和用戶體驗的要求極高,任何一點延遲都會被用戶投訴,所以,如何把模型跑得又快又穩,是我們最關心的核心問題。

评分

讀完書名,我腦中第一個閃過的念頭是:「這是要讓AI工程師都變身成嵌入式工程師的節奏嗎?」現在的開發趨勢明顯往邊緣運算(Edge Computing)移動,資料隱私、即時響應的需求讓本地端運算變得不可或缺。這本書如果能成功地將TensorFlow這個重量級框架「瘦身」並「嫁接」到資源極度受限的裝置上,那簡直是開創瞭新的可能性。我尤其好奇作者如何處理樹莓派這種平颱,畢竟它的作業係統環境、硬體架構(ARM)跟手機的ARM又不完全一樣,編譯和依賴庫的處理肯定有一番學問。如果它能提供一套清晰的開發流程,例如從模型訓練、轉換、到最終的跨平颱建置流程,而不是零散的片段說明,那對我們這種需要快速驗證新創意的團隊來說,會是極大的助益。畢竟,時間就是金錢,誰想花大把時間在環境設定上啊。

相關圖書

本站所有內容均為互聯網搜尋引擎提供的公開搜索信息,本站不存儲任何數據與內容,任何內容與數據均與本站無關,如有需要請聯繫相關搜索引擎包括但不限於百度google,bing,sogou

© 2025 ttbooks.qciss.net All Rights Reserved. 小特书站 版權所有