產業脈動

【智慧製造】通往PCB 高值化轉型之路(中)_智慧智造應用情境、巨量資料處理架構

 

訊息提供:PCB Shop 更新時間:2019/03/29

Email

 

標簽: 智慧製造 PCB 高值化 工業4.0 智慧工廠

 

鵬鼎科技 張啟原博士、林祈明特助
工業技術研究院 陳繼賓工程師
資訊工業策進會 謝沛宏( 博士) 組長
TPCA 市場資訊部彙整

 

四、智慧智造應用情境
工業4.0 是理想,但每家企業的狀況不同,所面臨的生產型態與競爭類別也不盡相同,因此前單元所述的智慧工廠只是提供一種系統架構,資訊流與系統如何配合,至於各家企業的智慧製造該
如何規劃,還是得回歸問題導向去設計,例如是想解決成本計算、交期掌握、品質管理、產能最佳利用、製程改善、銷售預估、庫存管控、人力優化⋯..哪些問題,為了解決這些問題,首先會盤點與問題相關的資料點位置,評估如何取得在設備、環境或其他資訊系統上的資料。接下來,為了進行後續的巨量資料分析,還需要將這些收集的資料,進行資料整合與建模。若是想做良率提升,卻沒有生產與品管的資料,那無異於汽車沒有汽油,徒有工具卻沒素材。因此系統的架設,解決問題與建構知識是目的,而數據則為手段,所以推動智慧製造的是數據分析技術。
舉例來說,在電路板製造的曝光、顯影與蝕刻製程段,通常會用AOI 量測檢查在製品的生產狀況。當在製品的品質有所偏差時,以往可能要人工收集現場可取得、有紀錄的生產資料,以人工方
式進行資料整合與分析後,才能初步判斷生產問題所在,後續再進行生產參數調整與試產。然而,這樣的過程相當耗費時間,亦可能因為蒐集的資訊有限,難以準確的追溯到根本原因。因此,目前已有導入巨量資料分析應用的案例,縮短改善產品良率的時間 ( 如圖4-1)。

在實際案例中,首先需要搭配底層的設備和資料擷取介面進行資料收集。之後,在將設備和生產資料導入巨量資料平台上,依照生產時間序列、生產編號與資料的解析度,例如: 有些資料是根據
生產批號,有的資料可以細部到每片,整合各製程階段的資料數據,形成一個具可追溯性的資料集。後續再依據要解決的問題( 如: 依據蝕刻後線寬結果調整藥水濃度、噴壓、線速、溫度、),集成數據庫再運用統計方法做處理,或用機器學習方法,建立數據模型,找出關鍵的參數因子和各因子的影響力,協助製程工程師進行生產參數調整。如此,可大幅減少找出適當參數的時間,增加產線整體的生產效率。

至於其他常見的智慧製造應用場景或切入點整理如下
• 先進規劃與排程:此即為APS(Advanced Planningand Scheduling),過往生產排程由生管人員做編排,要考慮許多限制條件,如訂單交期、緊急訂單調整、機台限制、有無替代料、切換線時間、倉儲運送時間、人力與治具的限制⋯. 等等因素,但工廠突發狀況不窮,依人力無法窮盡所有派工可能,因此希望藉由系統輔助,有效快速派工、提高訂單達交率、降低總生產時間、降低庫存、降低機台閒置時間。
• 設備預診斷:設備故障只是表面原因,背後的原因往往是初始的零組件磨損、腐蝕、結構損傷、熱應力、膠化⋯. 等老化原因所造成的劣變,可藉由設備的點檢來分析機台資料來監控和評估設備
/ 零件的健康狀態,並根據健康狀態決定最佳的維護或更換時機,減少非預期性停機與維修頻率。

• 虛擬量測:在產品無法全面量測之情況下,傳統為離線且具時間延遲的抽檢,較難全面管控品質,透過機器學習可利用機台資料與抽檢的品管來預測生產品質,但最後目標仍應為線上即時全
檢來確保品質。
• 提升機台準確度、精度:例如降低AOI(自動光學檢查 Automated Optical Inspection)誤判率,產品經過AOI 常有誤判情形,這時需用人工目檢,再做確認,耗費大量人力,此時應提升量測的精度並利用機器學的方式來將有效分辨假點,降低誤判率。
• 製程參數補償:利用製程量測資料,動態調整各製程配方(Recipe)設定,進而補償或降低不同干擾所造成的影響,如前站的銅厚數據,可在DES 製程上調整蝕刻的參數做補償。

• 掌握關鍵參數:整座工廠的資料成千上萬,知道哪些是關鍵參數,甚至是參數間的因果關係,例如A 的偏離會影響B,C 的改善能提升D 等等,對於良率的預測與提升至為重要。
• 跨供應鏈協做:供應鏈上下游資訊若能有效整合、彼此支援,必能提升綜效,例如上游材料製造過程中品質有所變異,下游材料加工時隨之做製程補償,或是生產透明,將能有效降低庫存。
由上述智慧智造應用的情境說明不難看出數據資料的重要性,數據無論是經由各式通訊界面集成、或離線、無法即時蒐集的數據都應紀錄彙整至資料庫,方能全面做製程缺陷肇因分析與確認。在
每一道製程分析前,皆應做資料的預先處理,避免受無效數據資料干擾,造成誤判。各式的數據產生應盡可能的以圖形化呈現,以利邏輯決策。

五、巨量資料處理架構
• 巨量資料概述
巨量資料概念的興起,源自於企業或組織所收集的資料範圍大幅成長,使得傳統的資料庫系統和分析工具,難以處理和解讀。通常,可被稱為巨量資料的資料集,擁有數量(Volume)、時效性(Velocity)、多樣性(Variety)、正確性(Veracity) 與價值(Value) 等五大特性( 圖5-1)。簡單的說,當企業或組織的資料收集量龐大,以及處理所需的運算量巨大,並且累積快速,具解決組織於技術研發、企業決策、商業模式等問題的潛在價值,就可以稱為巨量資料。

在製造業中,巨量資料通常涵蓋人員、設備、物料、環境、工法與量測等各類別的資料。這些資料隨著產品生產的過程持續的累積,來源散佈在不同的系統中,例如: 物料和人員資料可能在製造執行系統(MES) 或企業資源規劃系統(ERP) 中,設備和量測資料在生產與檢測設備中,環境的資訊可能在獨立的感測器或者廠務系統中,並且可能以文字或影像檔案的方式保存。透過巨量資料分析,企業可在決策的速度和品質、產品與服務的研發,以及生產成本等議題上,取得突破的機會。因此,如何採集、處理與分析巨量資料,成為企業爭相投入的競爭利器。其中,資料分析的方法,例如經常提到的人工智慧、機器學習,或是深度學習等方法,更是左右巨量資料分析專案成效的重要因素之一。
• 人工智慧
人工智慧(Artificial Intelligence,AI)的定義經過多次轉變,現在較為主流的看法為:電腦等機器對於輸入的資料,導出知識性結果的系統。而「機器學習」與「深度學習(Deep Learning」為執行人工智慧所需要的方法。如圖5-2 所示,在最外圍的是人工智慧,其中包含了機器學習,而深度學習又為機器學習的一個子領域。
機器學習所處理的問題類型,可以歸納為預測、分類、分群以及關聯分析,其常用的演算法有決策樹、單純貝氏分析、最近鄰居法、迴歸、支援向量機、聚類演算法、K- 平均、深度學習⋯等等。
通常,機器學習可處理大多涉及資料類別較少的應用。而近期比較火紅的深度學習(Deep Learning),更擅長處理複雜的高維度資料分析,也被廣泛應用在處理機器視覺和語音辨識的應用中。

• 機器學習與常用演算法
機器學習是巨量資料分析經常使用的分析方法之一,目的是讓電腦能夠像人類一樣,能透過經驗,建立學習模型(model),持續改進產出結果,之後有類似的資料就可以運用模型做預測( 圖5-3)

因為模型是透過機器自動產生,所以本身可視為一個黑箱,我們知道Input( 投入)、Output( 結果),但就是無法得知其中的運作過程,其特點是具有高正確率的預測結果、但機器所產生的模型卻難以被解釋。

機器學習的演算法大致可分為監督式學習與非監督式學習兩大類型。兩者的差異主要是在於有無將資料標識預先歸屬的正確標籤(tag)。監督式學習的訓練過程中,電腦會得到訓練資料應該歸
屬的標籤,例如: 輸入大量的貓或狗的照片,告訴電腦這張照片是貓或是狗後,讓電腦建立出一個學習模型,之後電腦再看到相同類型的照片,就可以分辨出狗或是貓。這種作法,稱為監督式學習。常用的監督式學習演算法,如最近鄰居演算法(KNN,K-NearestNeighbor Classification),是將新的樣本資料和已訓練好的資料進行比對( 圖5-4),


假設K=5,表示要找出距離新樣本最靠近的5 個已訓練資料,依據新樣本與這幾個訓練資料標籤的距離,給新樣本該屬於的標籤。之後,這個新樣本就會納入已訓練資料,後續的新資料就在依前述的規則進行標籤分類。

而非監督式的訓練,則是不會告訴電腦資料對應的標籤,只提供電腦訓練範例,讓電腦自己去從範例中尋找規則。例如: 我們給電腦大量張動物圖片,非監督式學習可以告訴我們在這些圖片
中,可以歸納出哪幾大類相似的集群(cluster),以及每個集群的特徵。常用的非監督式學習方法,例如K 平均演算法(K-means Clustering)( 圖5-5),其基本原理,會先選擇資料中隨機的K 個樣本當作集群的中心點,然後計算其他每個資料點到各集群中心點的距離,將每個資料點加入到距離最近的集群中,可以產生初始的集群。接下來,在每個初始的集群中,重新尋找該級群的中心點,以最靠近中心點的資料點當作該集群的新中心點。之後根據新的中心點,再與各資料點比對,修正集群成員。如此重複操作,直到集群成員不再變動為止。

巨量資料分析系統與相關工具若是組織執行巨量資料分析專案已有較多經驗,且有一定規模後,也許會考慮建立企業內部得巨量資料分析系統。通常,巨量資料分析系統可基於開源的Apache Hadoop 架構來建立,或是考慮使用如此次PCB A-Team 所開發的WISE PaaS平台、Amazon、Google 或微軟的雲端解決方案。若是考慮以自建為主,在建置巨量資料分析系統時,首先要確認要收集的資料來源和種類。系統底層除了基本的檔案系統(HDFS) 與安裝資源管理工具(YARN、Cloud Foundry、Kubernetes) 外, 可依據處理不同類型資料,再加入各類處理工具,例如: 運用STORM 的事件處理器,處理串流類型的資料;用HIVE 來進行類似資料倉儲的查詢和分析。在製造業場域中,巨量資料來源大多是設備、物聯網裝置,以及製造相關的資訊系統,用以收集製造場域的生產、環境與物料等資訊。這些資料的性質和儲存格式不盡相同。因此,在將像是機台日誌資料或MES 系統資料導入巨量資料系統時,首先需要經過資料載入的過程。常用的工具包括結構化資料載入的Sqoop,以及非結構化資料載入的FLUME 等工具。經過巨量資料平台對應的資料處理模組後,就可以使用例如R、Mahout、Tableau、Caravel、Kanaba 等軟體,進行簡易的資料分析或資料視覺化等應用,詳細可參考圖5-6 巨量資料分析系統架構。

更多專業文章及產業資訊,歡迎免費索取 PCB Shop採購指南2019!

本期精選文章:

▶企業專訪-尚洪股份有限公司

▶PCB A-Team:一個標準、二個平台實現 PCB智慧製造之路

▶探索Micro LED發展衍生之電路板需求商機

▶電路板產業實現循環經濟關鍵

▶2017全球PCB百大排行與行業動態

▶智慧製造概論通往 PCB 高值化轉型之路

 

分享文章

 

Email

 

 

 

X