I'm a mother of two precious kids and a professional programmer.
快訊!我的新書登上天瓏網路書店11月份暢銷榜第一名啦!看過的都說讚!歡迎大家前往訂購!
>>>> AI 職場超神助手:ChatGPT 與生成式 AI 一鍵搞定工作難題 <<<<
理論 通常,我們使用尺寸固定的圖像。但在某些情況下,我們需要使用不同分辨率的(相同)圖像。例如,當我們在圖像中搜索物體時,比如人臉,我們並不確定物體出現在圖像中的大小。在這種情況下,我們需要創建一組具有不同分辨率的圖像,並在所有圖像中搜索對象。這些不同分辨率的圖像被稱為圖像金字塔(如果將它們放在一起,最高分辨率的圖像在底部,最低分辨率的圖像在頂部,它看起來像一個金字塔)。 圖像金字塔有兩種:高斯金字塔和拉普拉斯金字塔 高斯金字塔 高斯金字塔的高層(低層)圖像是通過去除低層(高層)圖像中的連續行和列來實現的。再由下一層的5個像素的高斯權值貢獻構成上一層的每個像素。這樣,一個M×N圖像就變成了M/2×N/2圖像。所以面積減少到原來的四分之一。它被稱為Octave。同樣的模式持續到金字塔的上方(即分辨率下降)。同樣地,在擴展過程中,每一層的面積會增加4倍。我們可以使用cv.pyrDown()和cv.pyrUp()函數找到高斯金字塔。 可以使用cv.pyrUp()函數放大圖像 拉普拉斯金字塔 拉普拉斯金字塔是由高斯金字塔形成的。拉普拉斯金字塔圖像就像邊緣圖像。它的大部分元素都是0。它們用於圖像壓縮。拉普拉斯金字塔的層次是由高斯金字塔的這一層次與高斯金字塔上一層次的擴展版之間相減形成的。Laplacian層次的三個層次如下(調整對比度以增強內容): 使用圖像金字塔實現圖像混合 金字塔的一個應用是圖像混合。 例如,在圖像拼接中,你將需要將兩個圖像疊加在一起,但由於圖像之間的不連續性,可能看起來不太好。 在這種情況下,使用金字塔圖像混合可以實現無縫混合,而不會在圖像中留下太多數據。 其中一個經典的例子就是混合兩種水果,橙子和蘋果。 現在看看結果本身來理解我在說什麼: 簡單地說就是這樣做的: 1. 加載蘋果和橘子的兩個圖像 2. 尋找蘋果和橘子的高斯金字塔(在這個例子中,層數是6) 3. 從高斯金字塔,找到他們的拉普拉斯金字塔 4. 現在把蘋果的左半部分和橘子的右半部分加入拉普拉斯金字塔的每一層 5. 最後,從這個聯合圖像金字塔,重建原始圖像。
模板匹配 參考此篇教學: https://docs.opencv.org/4.x/d4/dc6/tutorial_py_template_matching.html 使用範例如下: 使用cv.matchTemplate(), cv.minMaxLoc()與方式,當模板在圖片中被縮放或旋轉後,匹配成效不佳。 但實際應用中,物件在3D範圍內很常會被縮放或旋轉,就無法使用上述模板匹配方式 改良方法 嘗試Features2DFramework 中的 openCV 函數。例如SIFT或SURF描述符,以及FLANN匹配器。另外,您將需要findHomography方法。 這是在場景中查找旋轉對象的一個很好的例子。 簡而言之,算法是這樣的: 尋找目標圖像的關鍵點(Keypoints) 從這些關鍵點(Keypoints)中提取描述符(des) 尋找場景圖像的關鍵點 從關鍵點提取描述符 通過匹配器匹配描述符 分析圖片內容尋找目標圖像 有不同類別的 FeatureDetectors、DescriptorExtractors 和 DescriptorMatches,選擇適合的任務的那些。 以下為提取關鍵點的一個範例…
使用Canny算子 Canny 邊緣檢測是一種從不同的視覺對像中提取有用的結構信息並顯著減少要處理的數據量的技術。它已廣泛應用於各種計算機視覺系統。Canny發現,邊緣檢測在不同視覺系統上的應用需求是比較相似的。因此,可以在各種情況下實施滿足這些要求的邊緣檢測解決方案。邊緣檢測的一般標準包括: 錯誤率低的邊緣檢測,這意味著檢測應該盡可能準確地捕獲圖像中顯示的邊緣 算子檢測到的邊緣點應該準確地定位在邊緣的中心。 圖像中的給定邊緣應僅標記一次,並且在可能的情況下,圖像噪聲不應產生錯誤邊緣。 以下為一個簡單使用範例 使用cartToPolar 使用 cv2.Sobel 函數計算圖像的梯度值和方向,並使用 cv2.cartToPolar 函數將梯度值和方向轉換為極坐標形式。 在上面的方法中,要注意的是使用cv.CV_64F能有較好的結果,若想要有CV_8U的結果,可以先採用CV_64F再用下面方式轉為CV_8U 分水嶺演算法 OpenCV 實現了一種基於標記的分水嶺算法,您可以在其中指定哪些是要合併的所有谷點,哪些不是。它是一種交互式圖像分割。我們所做的是為我們所知道的對象賦予不同的標籤。用一種顏色(或強度)標記我們確定是前景或物體的區域,用另一種顏色標記我們確定是背景或非物體的區域,最後是我們不確定的區域,用 0 標記它。那是我們的標記。然後應用分水嶺算法。然後我們的標記將使用我們提供的標籤進行更新,並且對象的邊界值為 -1。 下面是我自己的嘗試
從彩色變灰階 使用 cv.cvtColor()函數可作色彩的空間轉換,例如要偵測顏色時,要轉成HSV 而降為灰階則為 從灰階到黑白 要把圖片從灰階變成黑白很簡單。對於每個像素,應用相同的閾值。如果像素值小於閾值,則設置為0,否則設置為最大值。函數cv.threshold用於應用閾值。第一個參數是源圖像,應該是灰度圖像。第二個參數是用於對像素值進行分類的閾值。第三個參數是分配給超過閾值的像素值的最大值。 可使用參數cv.threshold和cv.adaptiveThreshold。 cv.threshold 使用範例 cv.adaptiveThreshold 在cv.threshold使用一個全局值作為閾值。但這可能並不適用於所有情況,例如,如果圖像在不同區域具有不同的光照條件。在這種情況下,自適應閾值可以提供幫助。在這裡,算法根據像素周圍的小區域確定像素的閾值。因此,我們為同一圖像的不同區域獲得不同的閾值,這為具有不同光照的圖像提供了更好的結果。 除了上述參數外,方法cv.adaptiveThreshold 還需要三個輸入參數: adaptiveMethod決定如何計算閾值: cv.ADAPTIVE_THRESH_MEAN_C:閾值是鄰域面積的平均值減去常量C。 cv.ADAPTIVE_THRESH_GAUSSIAN_C :閾值是鄰域值減去常量C的高斯加權和。 blockSize確定鄰域區域的大小,C是從鄰域像素的平均值或加權總和中減去的常數。 下面比較了具有不同光照的圖像的全局閾值和自適應閾值: cv.threshold使用THRESH_OTSU 在全局閾值中,使用任意選擇的值作為閾值。相反,Otsu 的方法避免了必須選擇一個值並自動確定它。 考慮只有兩個不同圖像值的圖像(雙峰圖像),其中直方圖僅包含兩個峰值。一個好的閾值應該在這兩個值的中間。類似地,Otsu 的方法從圖像直方圖中確定最佳全局閾值。 為此,使用了cv.threshold()函數,其中cv.THRESH_OTSU作為額外標誌傳遞。閾值可以任意選擇。然後算法找到最佳閾值,該閾值作為第一個輸出返回。…
目標 學習對圖像應用不同的幾何變換,如平移、旋轉、仿射變換等。 你會看到這些功能:cv.getPerspectiveTransform 縮放 只是調整圖像的大小。interpolation參數有下面幾種 使用範例 平移 平移影像,下面程式會將圖,x 軸平移 100,y 軸平移 50 旋轉影像 仿射變換 透視變換 這個方法可以把3D的有角度的長方形,拉成2D的長方形,很常會用來使用在3為空間的像照片、名片等拉平的效果上
理論 形態變換是一些基於圖像形狀的簡單操作。它通常在二進製圖像上執行。它需要兩個輸入,一個是我們的原始圖像,第二個稱為結構元素或內核,它決定了操作的性質。兩個基本的形態學算子是侵蝕和膨脹。然後它的變體形式如開、閉、梯度等也開始發揮作用。我們將在下圖的幫助下一一看到它們: 侵蝕cv2.erode 侵蝕的基本思想就像土壤侵蝕一樣,它侵蝕掉前景物體的邊界(總是盡量讓前景保持白色)。那它有什麼作用呢?內核在圖像中滑動(如在 2D 卷積中)。只有當內核下的所有像素都為 1 時,原始圖像中的像素(1 或 0)才會被認為是 1,否則它會被腐蝕(變為零)。 所以發生的事情是,根據內核的大小,邊界附近的所有像素都將被丟棄。因此,前景對象的厚度或大小會減少,或者圖像中的白色區域會減少。它對於去除小的白噪聲(正如我們在色彩空間章節中看到的)、分離兩個連接的對像等很有用。 在這裡,作為一個例子,我會使用一個 5×5 的內核。讓我們看看它是如何工作的: 膨脹Dilation 它與侵蝕正好相反。這裡,如果內核下的至少一個像素為“1”,則像素元素為“1”。因此它增加了圖像中的白色區域或前景對象的大小增加。通常,在去除噪聲等情況下,腐蝕之後是膨脹。因為,腐蝕去除了白噪聲,但它也縮小了我們的對象。所以我們擴大它。由於噪音消失了,它們不會回來,但我們的對象區域增加了。它還可用於連接對象的損壞部分。 去噪cv2.MORPH_OPEN 在去除噪聲方面很有用。這裡我們使用函數cv2.morphologyEx() 關閉線條 對關閉前景對象內的小孔或對像上的小黑點很有用。這個我也有使用來把canny所找到的邊緣關起來 形態梯度 這是圖像膨脹和腐蝕之間的區別。結果將看起來像對象的輪廓。 Top Hat…
這個部落格有一個系列文: 12th 鐵人賽 – 【錢不夠買ps的我,只好用OpenCV來修圖了!】 分享了非常多好用的圖片後製方法 這邊分享幾個我覺得不錯的 黑強化 強化有顏色區域的深度 白平衡 圖像光照校正處理 雙邊濾波 雙邊濾波(Bilateral filter)是一種非線性的濾波方法,是結合圖像的空間鄰近度和像素值相似度的一種折衷處理,同時考慮空域信息和灰度相似性,達到保邊去噪的目的。具有簡單、非迭代、局部的特點。
使用HSV色碼轉換器 一個好用的線上工具 色碼轉換器: https://www.peko-step.com/zhtw/tool/hsvrgb.html 若要將轉換過的顏色套用到python的色碼,記得將S,V的範圍改為0-255 然後從網站上看到的H的值(如這邊為26)要除以2,也就是13 以上圖來說,上面顯示的色碼為HSV:(26,90,223),然後填進python裡面要使用HSV:(13,90,223) python裡面的HSV識別空間 一般對顏色空間的圖像進行有效處理都是在HSV空間進行的,然後對於基本色中對應的HSV分量的範圍為: H: 0 — 180 S: 0 — 255 V: 0 — 255 基本HSV的顏色劃分 HSV的意義 HSB又稱HSV,表示一種顏色模式:在HSB模式中,H(hues)表示色相,S(saturation)表示飽和度,B(brightness)表示亮度HSB模式對應的媒介是人眼。 HSL…
問題版本 python-socketio 4.5.1 相關討論串: https://github.com/miguelgrinberg/python-socketio/issues/485 can not reconnect after 503 error 解決方法 自己寫重連的程式碼
其實會發這一篇文,主要是看到這個博客的文章真的感動到快哭了… 這幾天因為想增加OCR辨識正確率開始與LBP打交道 https://zh.wikipedia.org/wiki/%E5%B1%80%E9%83%A8%E4%BA%8C%E5%80%BC%E6%A8%A1%E5%BC%8F 我找到了一個看起來很強大很棒的函式庫 https://scikit-image.org/docs/stable/api/skimage.feature.html#skimage.feature.local_binary_pattern 網路上有很多教學文章,看起來是很知名的套件 a href=\”https://machine-learning-python.kspax.io/classification/ex1_recognizing_hand-written_digits\”>https://machine-learning-python.kspax.io/classification/ex1_recognizing_hand-written_digits 然後我遇到了和這位博主一樣的問題 https://www.cnblogs.com/ilk123/p/11797261.html 沒錯…….LBP明明出來的應該是1-256的值阿…我也是設定R=1, P=8\r\n這樣用default的LBP出來的應該要是1-256之間的值,但是卻是0和1的二值陣列…. 我一直想..這麼偉大的一個scikit-image怎麼可能有錯,一定是我的使用方法有誤… 害我撞頭撞到快崩潰….. 沒想到在此遇到一個和我一樣的苦主 太感動了,特此記錄! 另外,後來我也找到了一個最原始的LBP算法 程式碼下載於 https://github.com/zhongqianli/local_binary_pattern/blob/master/local_binary_pattern.py def original_lbp(image): “””origianl local binary pattern”””…
17年資歷女工程師,專精於動畫、影像辨識以及即時串流程式開發。經常組織活動,邀請優秀的女性分享她們的技術專長,並在眾多場合分享自己的技術知識,也活躍於非營利組織,辦理活動來支持特殊兒及其家庭。期待用技術改變世界。
如果你認同我或想支持我的努力,歡迎請我喝一杯咖啡!讓我更有動力分享知識!