Machine Learning

  • ,

    tensorflew的自動求導機制

    什麼是自動求導機制 在 TensorFlow 中,有一種特殊的張量類型叫做梯度張量,可以用於計算模型的梯度。 TensorFlow 的梯度張量是一種特殊的張量,其中包含了模型中每個變量的梯度信息。梯度張量是 TensorFlow 的自動微分機制的基礎,可以通過 TensorFlow 的自動微分機制來計算模型的梯度。 使用方法介紹 使用 GradientTape 類的方法是: 在計算圖的上下文中創建一個 GradientTape 對象。 使用 GradientTape 對象的 watch 方法監視計算圖中的變量。 執行計算圖,並在計算圖中使用 TensorFlow 的運算符操作張量。…

  • ,

    使用model.summary()輸出參數Param計算過程

    使用方式 使用keras構建深度學習模型,我們會通過model.summary()輸出模型各層的參數狀況,如下: 輸出範例 參數意義 在這個輸出中,Total params 表示模型的總參數數量,可以用來反推模型的大小。請注意,模型的大小不僅僅是參數數量的函數,還可能受到訓練資料的大小、訓練次數等因素的影響。 Param就是參數的意思,也就是每層神經元的權重(w)個數。 怎麼算出來的?Param = (輸入維度+1) * 輸出的神經元個數,但是每個神經元都要考慮到有一個Bias,所以要再加上1。

  • ,

    TensorFlow的圖像操作功能筆記

    為什麼要盡量使用Tensorflow的圖像操作功能 因為Tensorflow對GPU的支援度高,盡量完全使用Tensorflow內建的圖像操作功能對圖像做操作,可以避免資料在GPU和CPU之間轉換。 將資料集轉為dataset 可以使用 TensorFlow 的 tf.data.Dataset API 將訓練圖像和標籤轉換為數據集。 首先,需要將訓練圖像和標籤轉換為 TensorFlow 張量: 然後,使用 tf.data.Dataset.from_tensor_slices 方法將張量轉換為數據集: 使用 tf.data.Dataset 中的方法對數據集進行轉換和操作,例如混淆、重新排列和批次化。例如,要將數據集混淆並分成小批次 將BGR的tensor物件轉為灰階 可以使用rgb_to_grayscale將 BGR 格式的圖片轉換為灰階: 在 TensorFlow 中,通常會將圖片的數據型別轉換為浮點數,因為浮點數能夠提供更大的精度和更多的值域。浮點數通常用於訓練模型和進行數值運算。…

  • ,

    限制在Tensorflow跑模型時使用的GPU的記憶體上限?

    使用tensorflow-gpu結果耗一大堆MEMORY是為什麼 使用 TensorFlow GPU 版本會耗費較多的記憶體,這是正常的。因為 GPU 設備有自己的內存,我們可以使用 GPU 設備加速計算。但是,這意味著 GPU 設備的內存也必須足夠大,以便容納計算所需的資料。 如果GPU的記憶體不夠大,則tensorflow會改將原本要放在GPU的記憶體內的資料放到CPU的記憶體裡面,若是CPU的記憶體也不足夠大,則很有可能會導致程式死掉(因為記憶體不足夠) 改善方案 可考慮的改善方向有以下三點: 模型太大,超出了 GPU 設備的內存限制=>可以考慮使用更大的 GPU 設備或對模型進行優化,以減少模型的大小。(請參見: 如何縮小Tensorflow運算模型時使用的記憶體大小) 程式碼中存在記憶體泄漏。請檢查程式碼,確保正確釋放不再使用的記憶體。 GPU 設備的驅動程序版本過舊或損壞 其他方法 請參考這篇文章:…

  • ,

    如何縮小Tensorflow運算模型時使用的記憶體大小

    使用剪枝法 剪枝是一種常用的方法,用於縮小深度學習模型的大小。在剪枝過程中,可以刪除模型中不重要的權重,以縮小模型的大小。 以下是使用 TensorFlow 2.x 的簡單範例,說明如何在深度學習模型中進行剪枝: 訓練過程中使用正則化 正則化是一種常用的方法,用於防止過擬合,並縮小模型的大小。在 TensorFlow 中,您可以使用 tf.keras.regularizers 中的正則化函數,如 tf.keras.regularizers.l1 或 tf.keras.regularizers.l2,在網絡層中使用正則化。 使用較小的資料集進行訓練 如果資料集較大,則模型也會較大。因此,可以使用較小的資料集來訓練模型,以縮小模型的大小。 使用較少的運算計算。您可以使用較少的運算計算來縮小模型的大小。 例如,可以使用 1×1 卷積層來替代全卷積層預設值的3×3,或使用矩陣乘法來代替多重迴圈。 以下是使用 TensorFlow 2.x 的簡單範例,說明如何使用…

  • ,

    tensorflow和keras版本之間不兼容的錯誤

    更多資訊請見: https://stackoverflow.com/questions/72255562/cannot-import-name-dtensor-from-tensorflow-compat-v2-experimental 編譯器的錯誤訊息 ImportError: cannot import name ‘dtensor’ from ‘tensorflow.compat.v2.experimental’ (C:\Users\user\.conda\envs\py392\lib\site-packages\tensorflow\_api\v2\compat\v2\experimental\__init__.py) stackoverflow提出的解決方法 tensorflow這可能是由於您和您的keras版本之間不兼容造成的。特別是我在tensorflow和keras中看到了這一點tensorflow==2.6.0,keras==2.9.0但如果其他版本也會導致這種情況,我也不會感到驚訝。 通過以下方式更新您的tensorflow版本: 或通過以下方式降級您的keras版本: 我的方法 重新建立一個新的tensorflow環境 參考這篇文章: 使用conda管理python版本和函式庫 用一個新的函式庫來跑tensorflow 並下載正確的套件,在最下方有一個列表: https://www.tensorflow.org/install/pip?hl=zh-tw#package-location conda create -n…

  • ,

    使用GPU跑tensorflow的除錯流程

    最簡單的範例 這邊的程式碼是官網教學裡的一個簡單範例: https://www.tensorflow.org/tutorials/keras/classification?hl=zh-tw 使用GPU建模 經過了前三章的教學之後,應該已經設定好了Tensorflow的GPU環境 1. 在python裡面使用GPU 1 – 選擇適合的GPU 2. 在python裡面使用GPU 2 – 安裝正確的套件 3. 在python裡面使用GPU 3 – 開發GPU程式 接著就要嘗試使用GPU來建模,並評估和原本的效能有多大差異,現在就可以將上面的程式碼COPY下來,然後在有GPU的環境嚇跑看看 TensorFlow版本過舊的錯誤 AttributeError: module ‘tensorflow.python.util.dispatch’…

  • ,

    讓OpenCV支持GPU

    OpenCV CUDA https://opencv.org/platforms/cuda/ 現代 GPU 加速器已經變得強大且功能強大,足以執行通用計算 (GPGPU)。這是一個發展非常迅速的領域,引起了開發計算密集型應用程序的科學家、研究人員和工程師的極大興趣。儘管在 GPU 上重新實現算法存在困難,但許多人這樣做是為了檢查它們的速度。為了支持這些努力,許多高級語言和工具已經可用,例如 CUDA、OpenCL、C++ AMP、調試器、分析器等。 計算機視覺的重要組成部分是圖像處理,這是圖形加速器最初設計的領域。其他部分也假定大規模並行計算並且通常自然映射到 GPU 架構。因此,實現所有這些優勢並在圖形處理器上加速 OpenCV 具有挑戰性,但非常有益。 目標 在 GPU 上為開發者提供方便的計算機視覺框架,與當前 CPU 功能保持概念上的一致性。 使用 GPU 實現最佳性能(針對現代架構調整的高效內核、優化的數據流,如異步執行、複製重疊、零複製)…

  • ,

    在python裡面使用GPU 3 – 開發GPU程式

    GPU運算與CPU運算的不同 下面是GPU 和CPU 之間的一些主要區別: 運算單元:GPU 通常具有數百甚至數千個運算單元,而CPU 通常只有幾十個運算單元。 並行運算能力:由於GPU 具有更多的運算單元,它能夠同時處理更多的數據,因此在並行運算方面具有優勢。 計算能力:在單位時間內,GPU 的計算能力通常要高於CPU。 功耗:由於GPU 具有更多的運算單元,它的功耗通常比CPU 高。 用途:GPU 專門用於圖形處理,通常用於遊戲、視頻播放和圖形設計等任務。而CPU 則是計算機的中央處理器,負責處理各種計算任務。 指定使用的GPU 在程式中使用 GPU 時,需要在執行模型訓練或推理時將運算放在 GPU 上。您可以使用 TensorFlow 的…

  • ,

    機器學習所需的前置知識

    前置知識介紹 學習機器學習的前置知識包括: 數學基礎:學習機器學習需要具備良好的數學基礎,尤其是線性代數、微積分和概率論的基礎知識。 編程基礎:學習機器學習需要具備編程能力,至少應該熟悉一種編程語言,如 Python、C++ 或 Java。 算法基礎:了解常用的算法和數據結構,如排序算法、搜索算法、哈希表和二叉樹,將有助於學習機器學習中的算法。 機器學習基礎:了解機器學習的基本概念,如訓練集、測試集、模型和過擬合,有助於加深對機器學習的理解。 心理學基礎:了解心理學基礎知識,如信息加工理論和注意力機制,可以幫助我們更好地理解機器學習的應用。 當然,機器學習是一門涉及多個領域的學科,學習時可能還需要具備其他領域的知識,如統計學、計算機科學和人工智能等。 此外,學習機器學習時還需要具備一定的學習能力和探究精神,能夠獨立思考問題並尋找解決方案。建議您先了解機器學習的基本概念,並通過實踐來加深理解。可以嘗試解決一些練手的機器學習問題,或者參加一些在線的機器學習課程或比賽,來提升自己的機器學習能力。 微積分 微積分是計算數學的一個分支,主要研究連續的函數的求積、導數、極限的概念。在機器學習中,微積分的概念有助於我們理解和掌握梯度下降 (gradient descent) 算法,以及訓練神經網路的過程。 線性代數 線性代數是計算數學的一個分支,主要研究向量和矩陣的概念。在機器學習中,線性代數的概念有助於我們理解和掌握神經網路的運算過程,以及從數據中學習到有用信息的方法。 在線性代數中,還有許多其他概念,例如: 線性相關:多個向量是線性相關的,當且僅當它們可以由其他向量的線性組合表示。 基:向量空間的基是一组向量,它们的线性组合可以表示向量空间中的任何向量。 秩:向量空間的秩是指最多可以由多少个向量的线性无关组合表示出来。 線性無關:多個向量是線性無關的,當且僅當它們不能由其他向量的線性組合表示。 內積:向量的內積是指兩個向量的點積,可以用來度量兩個向量之間的夾角。…


17年資歷女工程師,專精於動畫、影像辨識以及即時串流程式開發。經常組織活動,邀請優秀的女性分享她們的技術專長,並在眾多場合分享自己的技術知識,也活躍於非營利組織,辦理活動來支持特殊兒及其家庭。期待用技術改變世界。